هوش مصنوعی چه آینده‌ای برای جهان خواهد ساخت؟

از زمان ظهور چت جی‌پی‌تی از شرکت OpenAI به‌عنوان اولین پرچمدار انقلاب فناورانه جدید تاکنون، در تمام اندیشکده‌ها و نشریات جهان، مقالات مختلفی در باب مزایا و معایب هوش مصنوعی منتشر شده که تا حد خوبی،مخاطبان را با آنچه که در آینده با آن مواجه خواهند شد، آشنا کرده‌اند. اما آنچه مقاله زیر را از نشریه تایم منحصر به فرد می‌کند، آینده‌ای است که از سوی نویسنده آن تصویر شده.

یکی از مهم‌ترین فعالان وال‌استریت و از اولین سرمایه‌گذاران جدی شرکت OpenAI در سال 2019، نویسنده این مقاله، وینود خوسلو، مالک یک شرکت سرمایه‌گذاری خطرپذیر (Khoslo Ventures) و از بنیانگذاران شرکت Sun Microsystems است که جاوا را به‌ارمغان آورد. اهمیت جدی گرفتن این مقاله نیز به تخصص خوسلو در تشخیص روند رشد آینده این فناوری و آمیختن اطلاعات سیاسی برگرفته‌شده از وال‌استریت با تصویرسازی خود است.

در این مقاله، خوسلو قلم به توصیف آینده‌ای مبتنی‌بر هوش مصنوعی ‌زده که هرچند رویایی، ولی در دسترس و قابل‌تحقق است. این مقاله درکنار توصیف آینده‌ای درخشان و پر از پیشرفت که مولود فناوری هوش مصنوعی است، خطراتی را نیز برای آن بیان می‌کند و راه‌حل‌هایی برای تهدیدزدایی از آن خطرات نام می‌برد. مقاله بر آن است که می‌توان چالش‌های ناشی از سیطره یافتن هوش مصنوعی بر امور را از طریق اتخاذ سیاست‌های درست از جانب دولت، فرهنگ‌سازی و حفظ پلورالیسم فناورانه خنثی کرد.

اما نکته مهمی که خوسلو خیلی اجمالی به آن اشاره کرده ولی محرک اصلی وی برای نگارش متن زیر است، ضرورت پیشی‌گرفتن غرب و بالاخص ایالات‌متحده در مسابقه توسعه هوش مصنوعی از چین است؛ کشوری که خوسلو آن را تهدیدی برای دموکراسی آمریکایی و منافع کشور‌های توسعه‌یافته دموکرات در جهان می‌بیند. این مقاله- که می‌توان آن را چکیده نگاه پیشتازان خیابان وال به هوش مصنوعی محسوب کرد- درحقیقت در بطن خود به سیاستمداران آمریکایی هشدار می‌دهد. خوسلو با زبان بی‌زبانی بیان می‌کند که علی‌رغم تلاش بخش خصوصی غرب برای حفظ برتری فناورانه خود در این حوزه، تمرکز کشور‌هایی نظیر چین (که چندسال اخیر همواره به‌عنوان تهدید امنیت ملی در ایالات متحده از آنها یادشده) بر توسعه هوش مصنوعی پیشرفته، چالشی جدی است که اگر رسیدگی نشود، نظام جدید و نوپای فناوری‌پایه آمریکا را به‌خطر می‌اندازد. در ادامه، متن بازگردان‌شده توسط «فرهیختگان» را ازنظر می‌گذرانید.

بار‌ها دیده‌ایم که فناوری، دنیای ما را تغییر داده. در گذشته، سکو‌های فناوری توانستند توانایی‌های انسان را تقویت کنند اما جوهر و بنیان هوش انسانی را به طور اساسی دگرگون نکردند. فناوری‌های گذشته دست ما را بازتر کردند و افق پیشرفت ما را گستراندند اما اذهان ما را بسیط نکردند.

هوش مصنوعی البته داستانی متفاوت است. ما از دورانی که داشتن مدرک تحصیلی تغییری در نوع زندگی ایجاد می‌کرد، عبور کرده‌ایم. هوش مصنوعی، مغز انسان را بسیط و تقویت می‌کند، مانند کاری که موتور‌های بخار با قدرت ماهیچه‌ها کردند. تا پیش از موتور، منبع اصلی انرژی همان غذایی بود که مصرف می‌شد تا سوخت نیروی فیزیکی انسان باشد. موتور‌ها به ما اجازه دادند به منابع انرژی بیرونی مانند زغال سنگ و نفت دست‌یابیم و انقلابی در بهره‌وری و جامعه ایجاد کردند. هوش مصنوعی نیز چنین جایگاه خطیری در حوزه فکری دارد، فناوری که قوای مغزی برای خدمت به انسان به شکل تقریباً نامحدودی افزایش می‌دهد.

هوش مصنوعی نوید آینده‌ای غنی را می‌دهد. با این حال در زمانی که در حال ‌گذار به دوران پسامحدودیتیم، سفر ما ممکن است پیچیده باشد، حتی در کوتاه‌مدت برای عده‌ای که از آن متأثر می‌شوند، دردناک و تسکین این ناملایمات نیازمند سیاستی دقیق و حساب شده است. دهه بعد، 10 تا 25 سال و 25 تا 50 سال آینده، هر دوره زمانی اساساً متفاوت خواهد بود، به ویژه آن که پیشبینی سرعت تغییرات– با توجه به رشد توانمندی‌های فناوری فراتر از هوش انسان و نفوذ متفاوت آنها در بطن جامعه، سخت خواهد بود.

افراد بدبین، آینده را به شکل مدینه‌ای ضاله و پادآرمانشهری توصیف می‌کنند که از ترس آنها از وضعیت اقتصادی و اجتماعی آینده نشات می‌گیرد. آنها از بیکاری گسترده، نابرابری اقتصادی، کنترل اجتماعی، فرسایش عاملیت انسان، از بین رفتن خلاقیت و حتی تهدید وجودی از جانب هوش مصنوعی می‌ترسند. البته این نگرانی‌ها بی‌پایه، کوته‌بینانه و مضرند و از طریق انتخابات اجتماعی قابل‌حلند. به‌علاوه، ریسک واقعی که جهان با آن مواجه است، ذی‌شعور شدن فناوری و «هوش مصنوعی خودآگاه» نیست، بلکه واگذار کردن عرصه به «دولت-ملت»‌های غیرهمسو و دیگر بازیگران شریر جهان است که هوش مصنوعی را به ابزاری خطرناک برای غرب تبدیل می‌کنند. از قضا، آنهایی که نگران اثرات منفی هوش مصنوعی بر دموکراسی و کنترل جوامع از آن طریقند باید از ریسک فوق بیشتر نگران باشند.

دیدگاهتان را بنویسید