جنگ پدرخوانده‌های هوش مصنوعی!

هینتون فکر می کند که تفاوت بین ما و هوش مصنوعی فعلی در محدوده ورودی است. چت جی پی تی تک وجهی می باشد و تنها بر روی متن آموزش دیده است در حالی که سایر هوش های مصنوعی می توانند تصاویر را درک کرده و ایجاد کنند. از دید او این وضعی تغییر خواهد کرد و هوش مصنوعی آینده چند وجهی خواهد بود و می تواند با اتصال به یک ربات عمل کند.

در تاریخ ۳۱ مارس “جفری هینتون” دانشمند ۷۵ ساله بریتانیایی – کانادایی که برنده جایزه تورینگ ۲۰۱۸ میلادی برای “نوبل محاسبات” شده بود از گوگل استعفا داد جایی که او تحقیقات هوش مصنوعی را برای یک پژوهش هدایت می‌کرد. او اخیرا به کینگز کالج کمبریج بازگشت تا سخنرانی کند جایی که در دهه ۱۹۶۰ میلادی در آنجا در مقطع لیسانس تحصیل کرده بود. هینتون برای ارائه پیامی به مخاطبان اش به کمبریج رفته بود: “تهدید متوجه از جانب هوش مصنوعی فوق قدرتمند، تهدیدی واقعی و فوری است”. او در سالن سخنرانی پر از جمعیت گفت: “تصمیم گرفتم درباره این موضوع فریاد بزنم. ممکن است انسان‌ها در مرحله‌ای گذرا در تکامل هوش باشند”.

به نقل از نیواستیتسمن، هینتون ترسی آشنا را بیان می‌کرد. “آلن تورینگ” نیز در سال ۱۹۵۱ میلادی با نگاهی به دنیای ماشین‌های هوشمند این گونه درباره آینده پیش بینی کرده بود: “به نظر می‌رسد محتمل است زمانی که روش تفکر ماشینی آغاز شد چندان به طول نخواهد انجامید که از قدرت‌های ضعیف مان پیشی بگیریم. بنابراین، در مرحله‌ای باید منتظر باشیم که ماشین‌ها کنترل امور را به دست گیرند”. ترس تورینگ اکنون ترس هینتون است. هینتون توضیح داد که برای مدت زمانی طولانی باور داشت که هوش ماشینی نمی‌تواند از هوش بیولوژیکی پیشی بگیرد. او در مقاله‌ای در نشریه “نیچر” اشاره کرده بود که فرایند ریاضی پشت هوش مصنوعی نمی‌تواند از مغز انسان که از میلیون‌ها سال تکامل بهره برده پیشی بگیرد. او در سخنرانی اش در کمبریج گفت: “با این وجود، چند ماه پیش ناگهان نظرم تغییر کرد”.

خطر وجودی هوش مصنوعی در حال تبدیل شدن به داستانی از زمانه ماست. “بلیک لمواین” مهندس نرم‌افزار گوگل در ژوئن ۲۰۲۲ میلادی با ابراز نگرانی نسبت به این که LaMDA یک مدل زبان بزرگ (LLM) که گوگل توسعه داده خودآگاه و هوشیار است به فاصله یکماه پس از بیان نظرش از گوگل اخراج شد. یک سرهنگ در نیروی هوایی ایالات متحده در ماه مه ۲۰۲۳ میلادی شبیه سازی‌ای را فاش کرد که در آن یک پهپاد مجهز به هوش مصنوعی که وظیفه حمله به موشک‌های زمین به هوا را داشت، اما تحت نظر یک اپراتور انسانی عمل می‌کرد به جای حمله به هدف به اپراتور حمله کرد. نیروی هوایی ایالات متحده بعدا این روایت را تکذیب کرد. “ریشی سوناک” نخست وزیر بریتانیا خود را در مرکز واکنش جهانی به این مسائل قرار داده است. او در تاریخ ۲۴ مه در دفتر نخست وزیری با “دمیس حسابیس” مدیر عامل گوگل دیپ مایند و “سام آلتمن” مدیر عامل OpenAI شرکت پشتیبان چت جی پی تی (Chat GPT) که توسط مایکروسافت مورد پشتیبانی قرار می‌گیرد ملاقات کرد. دولت بریتانیا از آن زمان به این سو تخصیص ۱۰۰ میلیون پوند به یک کارگروه ایمنی جدید هوش مصنوعی را متعهد شده است.

چت جی پی تی به عنوان یک مدل زبان بزرگ که در نوامبر ۲۰۲۲ راه اندازی شد کاربران اینترنت را با ظرفیت خود برای استناد به اطلاعات، تولید کُد و پاسخ به پرسش‌ها “به روش‌هایی که بسیار شبیه به انسان است” شگفت زده و خوشحال ساخته است. آن اپیلکیشن ظرف مدت دو ماه پس از انتشار ۱۰۰ میلیون کاربر به دست آورد که یک رکورد اینترنتی محسوب می‌شود. گوگل از آن زمان یک مدل رقیب به نام “بارد” (Bard) منتشر کرده است.

در این مدل‌های هوش مصنوعی یک رمز و راز وجود دارد. آن‌ها بسیار سریع‌تر از آن چه کارشناسان انتظار داشتند، بهبود یافته اند. به نظر می‌رسد در عرصه مهندسی بسیار جلوتر از علم حرکت کرده اند. سیستم‌های ساخته شده اند و کار‌های فوق العاده‌ای انجام می دهند، اما حتی مخترعان آن نیز به طور کامل نمی‌دانند چگونه این کار را انجام می‌دهند.

“راجر گروس” محقق هوش مصنوعی و همکار هینتون در دانشگاه تورنتو (جایی که هینتون از سال ۱۹۸۷ در آنجا تدریس کرده است) می‌گوید در بخش عمده دوران ۱۷ ساله کاری اش این گونه به نظر می‌رسید که همه چیز بسیار کُند پیش می‌رود و حتی صحبت در مورد هوش مصنوعی در سطح انسانی امری منطقی به نظر نمی‌رسید. با این وجود، سطح پیشرفت هوش مصنوعی در ماه‌های اخیر چشمگیر بوده است. او می‌گوید: “ما از نقطه‌ای عبور کرده ایم که نمی‌توان خطرات را بی درنگ نادیده گرفت. کسانی که این کار را انجام می‌دهند باید استدلال‌های دقیق تری برای این که چرا و چگونه سیستم‌ها ایمن هستند ارائه دهند”.

خطرات هوش مصنوعی دقیقا چه هستند؟ برای “مایکل لوک” مدیر انستیتوی برای هوش مصنوعی کینگز “ریسک وجودی” مهم‌ترین موضوع محل پرسش نیست. او می‌گوید: “نگرانی فوری‌تر در مورد تعصب و سوگیری احتمالی هوش مصنوعی و مسائل اخلاقی مرتبط با آن است. هوش‌های مصنوعی موجود که مبتنی بر مجموعه‌های داده‌ای مملو از سوگیری‌های بررسی نشده، آموزش دیده اند، در تصمیم گیری‌های عمده شرکت‌ها از بررسی درخواست‌های شغلی گرفته تا تایید وام‌ها مشارکت می‌کنند”.

کارشناسان دیگری نگرانی هینتون را تکرار می‌کنند. یکی از آنان “یوشوا بنجیو” است که جفری هینتون جایزه تورینگ ۲۰۱۸ را با او به اشتراک گذاشت. بنجیو در تاریخ ۳۱ مه به “بی بی سی” گفته بود که به خاطر کاری که در زندگی انجام داده احساس “گمشدگی” می‌کند. او گفته بود: “از نظر احساسی چالش برانگیز است، زیرا محققان به طور فزاینده‌ای مطمئن نیستند که چگونه این سیستم‌ها را متوقف کنند یا از آسیب رسانی آن جلوگیری بعمل آورند”.

این استاد دانشگاه مونترال در ماه مارس از امضا کنندگان نامه‌ای بود که در آن خواستار توقف شش ماهه توسعه هوش‌های مصنوعی‌ای شد که قوی‌تر از جی پی تی – ۴ می‌باشند مدل زبانی‌ای که Chat GPT Plus نسخه برتر چت ربات Open AI بر پایه آن تهیه شده است. “ایلان ماسک” از دیگر امضا کنندگان آن نامه بود. او پیش‌تر در سال ۲۰۱۴ میلادی در مورد خطر “جدی” و “خطرناک” متوجه از جانب هوش مصنوعی در بازه زمانی “پنج یا حداکثر ده ساله” خبر داده بود.

با این وجود، “یان لیکان” سومین برنده جایزه تورینگ در سال ۲۰۱۸ در کنار هینتون و بنجیو و دانشمند ارشد هوش مصنوعی متا از سال ۲۰۱۳ به این سو فکر می‌کند این نگرانی‌ها کاملا بی اساس هستند. لیکان و هینتون برای چندین دهه با یکدیگر دوست بود. هینتون به لیکان آموزش داد. اکنون آن دو دیدگاهی متضاد دارند. لیکان در توئیتی در تاریخ ۲۸ مه نوشته بود که پیش‌بینی‌های هینتون درباره تاثیر هوش مصنوعی بر مشاغل در گذشته “کاملا اشتباه” بودند و ترس هینتون از “تسلط هوش مصنوعی” را رد کرد و احتمال تحقق نگرانی‌های هینتون را “بسیار اندک و نسبتا آسان از نظر قابلیت پیشگیری” دانست. او در تاریخ ۶ ژوئن نوشته بود:”هوش مصنوعی نه تنها جهان را نابود نمی‌کند بلکه آن را نجات خواهد داد”.

هینتون، اما به خبرنگار “نیواستیتسمن” می‌گوید: “این حوزه‌ای است که ما هیچ تجربه و درک درستی از احتمالات نداریم، اما آن‌ها در دستکاری بسیار خوب خواهند بود و اگر عقل داشته باشند به ما نمی‌گویند که بسیار باهوش‌تر از ما هستند. من در مورد هیچ یک از این نتیجه گیری‌ها مطمئن نیستم، اما من مطمئن هستم که چیزی برای نگرانی وجود دارد”.

هینتون موافق بود که انگیزه‌های هوش مصنوعی موجود ناشناخته است تا جایی که اصلا نمی‌دانیم انگیزه‌ای دارند یا خیر، اما او فکر می‌کند که هوش‌های مصنوعی به دنبال کسب کنترل بیش‌تر برای رسین به اهدافی هستند که ما برای شان تعیین کرده ایم. او از این موضوع تحت عنوان “ریسکی بی پایان” یاد کرد.

هینتون در ماموریتی مادام العمر برای درک مغز بوده است. او در سال ۱۹۶۷ به عنوان نوه “جورج بول” که منطق جبری اش مبنای محاسبات را پایه ریزی کرده بود و به عنوان پسر عموی “جوآن هینتون” یکی از معدود فیزیکدانان زن که روی پروژه منهتن کار می‌کرد وارد کمبریج شد.

او در نهایت در رشته روانشناسی تجربی فارغ التحصیل شد و برای مدت کوتاهی ترک تحصیل کرد و نجار شد. هینتون تحت تاثیر آن چه در کمبریج به او آموزش داده شده بود قرار نگرفت. او به این نتیجه رسید که تنها راه برای درک مغز این بود که خودش مغز را بسازد.

در آن زمان در مورد هوش مصنوعی تنها یک دوره تحصیلات تکمیلی در دانشگاه ادینبرو وجود داشت که هینتون در سال ۱۹۷۲ به آن پیوست. ماموریت او برای ساختن مغز در دوره‌ای آغاز شد که اکنون در بریتانیا از آن تحت عنوان “زمستان هوش مصنوعی” یاد می‌شود و بودجه چندانی به این حوزه تخصیص نیافته بود. با این وجود، هینتون با مشکلی بزرگتر از کمبود منابع روبرو بود: او با مبانی فکری این رشته مخالف بود.

در آن زمان، محققان هوش مصنوعی متقاعد شده بودند که ماهیت هوش استدلال است. هدف آنان ساخت مجموعه‌ای از عبارات نمادین برای نشان دادن فرآیند استدلال برای ایجاد “نوعی منطق پاک” ذهن بود همان طور که هینتون بعدا آن را توصیف کرد. این باور یا پارادایم به عنوان “هوش مصنوعی نمادین” شناخته شد. پاردایم هوش مصنوعی نمادین بر این فرض بنا نهاده شده بود که فکر می‌تواند به صورت نمادین در رشته‌های کلمات بازنویسی شود، اما برای هینتون کلمات تنها راهی برای نشان دادن آن چه ما فکر می‌کنیم، بودند. از دید او فکر به خودی خود زبانی نبود. هینتون در سال ۲۰۱۷ میلادی در نبردی چندین دهه‌ای علیه دیدگاهی که زمانی به عنوان یک جزم و امری مسلم قلمداد می‌شد پیروز شد و نشان داد که آن فرض به سادگی “یک اشتباه بزرگ” بود.

او می‌گوید: “این ایده که افکار باید به نوعی زبان باشند احمقانه است”. او در عوض باور داشت که یک فکر صرفا یک بردار بزرگ فعالیت عصبی است و انسان‌ها توسط نورون‌های مغز که خود را با قدرت‌های مختلف به یکدیگر متصل می‌کنند، یاد می‌گیرند. بنابراین، از این دیدگاه می‌توانید با ساختن یک “شبکه عصبی” مصنوعی که این فرآیند را بازتاب می‌دهد هوش را بازآفرینی کنید. از دید او شما به سادگی نیاز به نوشتن یا کشف الگوریتمی دارید که می‌تواند با تنظیم نقاط قوت اتصال بین نورون‌های مصنوعی در پاسخ به داده‌های جدید یاد بگیرد.

او در سال ۱۹۸۶ میلادی با انتشار مقاله‌ای در نشریه نیچر اشاره کرد که یک ماشین از لحاظ نظری می‌تواند به تنهایی شروع به یادگیری کند. مقاله او به عنوان مبنایی بنیادین در توسعه هوش مصنوعی قلمداد شده است.

هینتون در آن زمان الگوریتمی برای اجرای یک مدل هوش مصنوعی یا پایه یک مدل داشت، اما رایانه‌های دهه ۱۹۸۰ میلادی کُند بودند و مجموعه داده‌هایی که شبکه‌های عصبی را می‌توان بر روی آن آموزش داد کوچک بودند. شما به هر سه ذخایر عظیم داده، قدرت محاسباتی کافی و مجموعه‌ای از الگوریتم‌ها نیاز دارید تا به یک شبکه عصبی حیات ببخشید همان طور که برای آتش روشن کردن به سوخت، اکسیژن و گرما نیاز دارید.

“یوشوا بنجیو” در سال ۲۰۱۷ میلادی با ناباوری گفته بود: “شبکه‌های عصبی تقریبا توسط جامعه علمی رها شده بودند. در سال ۲۰۱۰ زمانی که حسابیس دیپ مایند را تاسیس کرد جو سردی نسبت به کار بر روی هوش مصنوعی وجود داشت. در آن زمان هیچ کس در مورد آن صحبت نمی‌کرد. هوش مصنوعی نمادین در دهه ۱۹۹۰ آزمایش شده بود و دانشگاهیانی که حسابیس را در آن زمان دیده بودند گمان می‌کردند وی دیوانه است که فکر می‌کند می‌توان پیشرفت جدیدی را در مورد سیستم‌های یادگیری عمیق شکل داد”.

با این وجود، هینتون در سال ۲۰۱۲ میلادی با دو تن از شاگردان اش شبکه‌ای را ساخت که آن را “الکس نت” نامیدند و نشان داد ماشین‌ها می‌توانند ببینند و آن را به مسابقه بزرگ سالانه تشخیص تصویر ارائه کرد. در سال ۲۰۱۴ میلادی گوگل هینتون را برای کار بر روی هوش مصنوعی استخدام کرد.

هینتون در سال ۲۰۱۵ میلادی گفته بود که هوش مصنوعی حداقل تا سال ۲۰۷۰ با مغز مطابقت نخواهد داشت. هینتون اکنون می‌گوید چت جی پی تی ارتباطات عصبی کمتری نسبت به ما دارد در حدود یک تریلیون به جای ۱۰۰ تریلیون ارتباط در مغز انسان (که هینتون اشاره می‌کند حداقل ده تریلیون آن برای ذخیره دانش استفاده می‌شود). با این وجود، هوش‌های مصنوعی موجود در حال حاضر در برخی از وظایف از انسان‌ها صلاحیت بیش تری دارند: تشخیص گفتار و تصویر، کدگذاری، اشکال بازی. زمانی که این مدل‌ها به اندازه ما ارتباط داشته باشند انسان‌ها در چه حوزه‌هایی غالب خواهند ماند؟ این پرسشی است که هینتون مطرح می‌کند و پاسخ می‌دهد:”در آن زمان انسان در حوزه‌های بسیار کمی غالب باقی خواهد ماند”.

یک هوش مصنوعی می‌تواند از تعاملات مجزای متعدد خود با جهان بیاموزد برخلاف انسان‌ها که هوش شان فردی و خاص است. هر زمان که بخشی از یک شبکه هوش مصنوعی اطلاعات جدیدی را جذب کند هر بخش دیگر از شبکه به روز می‌شود. در مقابل، انسان‌ها از طریق روندی کُند، آهسته و دردناک یاد می‌گیرند. با این وجود، چت جی پی تی همواره اشتباه می‌کند و نمی‌توان به آن اعتماد کرد. هینتون می‌گوید: “چت جی پی تی نه برای آن چه می‌داند بلکه برای چیز‌هایی که به نظر می‌رسد می‌داند، اما نمی‌داند خطرناک است. زمانی که مرتکب خطا می‌شود این دروغ یا توهم نیست بلکه گیج کننده است و عنصری از خیالبافی در آن وجود دارد. ما انسان‌ها این کار را همیشه انجام می‌دهیم. اگر از شما بخواهم خاطره‌ای از مدت‌ها قبل را تعریف کنید به داستانی معقول خواهید رسید که با تمام ردپای کوچک چیز‌هایی که دارید مطابقت دارد. شما به چیزی خواهید رسید که کاملا درست نیست، اما شما را متقاعد خواهد کرد. این به اندازه کافی با چیز‌هایی که شما می‌دانید، درست هستند، مطابقت دارد. چت جی پی تی نیز تقریبا به همین روش کار می‌کند. مانند لپ تاپ هنگام جستجو اطلاعات را بازیابی نمی‌کند. در عوض، سوال شما را از طریق شبکه اتصالات خود اجرا می‌کند و پاسخی را تولید می‌کند که به بهترین وجه با داده‌هایی که بر روی آن آموزش دیده مطابقت داشته باشد”. هینتون می‌گوید خلاص شدن از خطا “کم و بیش ناممکن” است، اما او باور دارد زمانی که هوش مصنوعی به خودآگاهی برسد خود را اصلاح خواهد کرد.

هینتون فکر می‌کند که تفاوت بین ما و هوش مصنوعی فعلی در محدوده ورودی است. چت جی پی تی تک وجهی است و تنها بر روی متن آموزش دیده است در حالی که سایر هوش‌های مصنوعی می‌توانند تصاویر را درک کرده و ایجاد کنند. از دید او این وضعی تغییر خواهد کرد و هوش مصنوعی آینده چند وجهی خواهد بود و می‌تواند با اتصال به یک ربات عمل کند.

فرد سوم “یوشوا بنجیو” از دیگر برندگان جایزه تورینگ ۲۰۱۸ میلادی در سال ۲۰۱۷ میلادی نظر امروز لیکان را داشت و گفته بود نباید درباره هوش مصنوعی نگران بشویم، زیرا ما بسیار دور از زمانی هستیم که یک ماشین بتواند بر جنبه‌های زیادی از دنیای مان تسلط پیدا کند.

اکنون بنیجو نظرش را تغییر داده و می‌گوید چت جی پی تی او را شگفت زده کرده است. بنجیو اکنون با هینتون هم نظر است و می‌گوید آگاهی انسان “ممکن است چندان جادویی نباشد” و یک ماشین “ممکن است به همان چیز از راه‌های ساده‌تر دست یابد”.

هینتون و بنجیو هیچ یک تفاوت اساسی‌ای بین آینده ماشینی و حال حاضر انسانی نمی‌بینند. ایلان ماسک در هفته‌های اخیر با هینتون صحبت کرده است. او نیز معتقد است که هوش مصنوعی به زودی از انسان‌های باهوش پیشی خواهد گرفت. هینتون اخیرا در دیدار با مقام‌های بریتانیایی در مورد از دست رفتن مشاغل زیادی در نتیجه پیشرفت هوش مصنوعی هشدار داده و به دولت بریتانیا در مورد وضع مالیات بر سود شرکت‌های در زمینه بهره وری توصیه‌هایی را ارائه کرده است.

برای “راجر گروس” مسئله اصلی این است که آیا هوش مصنوعی توانایی تاثیرگذاری بر ما و کنترل مان را خواهد داشت یا خیر. سوال اصلی این است که چه کسی به چه کسی وابسته خواهد بود؟ او می‌گوید در گفتگو با هینتون وی گفته است که این وضعیت شبیه نسبت ما با نئاندرتال‌ها است. زمانی که شکل بهتری بهتری از هوش ایجاد شد نئاندرتال‌ها در مسیر انقراض قرار گرفتند. او اکنون معتقد است که هوش ماشینی بسیار بیش‌تر از هوش ما خواهد بود. تفاوت این است که در حال حاضر هوش مصنوعی ما هنوز به انسان نیاز دارد. آنان وجود ندارند مگر این که ما مدیریت شان کنیم. به گفته هینتون راه حل ممکن است حفظ این وابستگی به طور نامحدود باشد این که “آن وابستگی را حفظ کنیم تا بدون ما نتواند کاری انجام دهد”.

دیدگاهتان را بنویسید