هینتون فکر می کند که تفاوت بین ما و هوش مصنوعی فعلی در محدوده ورودی است. چت جی پی تی تک وجهی می باشد و تنها بر روی متن آموزش دیده است در حالی که سایر هوش های مصنوعی می توانند تصاویر را درک کرده و ایجاد کنند. از دید او این وضعی تغییر خواهد کرد و هوش مصنوعی آینده چند وجهی خواهد بود و می تواند با اتصال به یک ربات عمل کند.
در تاریخ ۳۱ مارس “جفری هینتون” دانشمند ۷۵ ساله بریتانیایی – کانادایی که برنده جایزه تورینگ ۲۰۱۸ میلادی برای “نوبل محاسبات” شده بود از گوگل استعفا داد جایی که او تحقیقات هوش مصنوعی را برای یک پژوهش هدایت میکرد. او اخیرا به کینگز کالج کمبریج بازگشت تا سخنرانی کند جایی که در دهه ۱۹۶۰ میلادی در آنجا در مقطع لیسانس تحصیل کرده بود. هینتون برای ارائه پیامی به مخاطبان اش به کمبریج رفته بود: “تهدید متوجه از جانب هوش مصنوعی فوق قدرتمند، تهدیدی واقعی و فوری است”. او در سالن سخنرانی پر از جمعیت گفت: “تصمیم گرفتم درباره این موضوع فریاد بزنم. ممکن است انسانها در مرحلهای گذرا در تکامل هوش باشند”.
به نقل از نیواستیتسمن، هینتون ترسی آشنا را بیان میکرد. “آلن تورینگ” نیز در سال ۱۹۵۱ میلادی با نگاهی به دنیای ماشینهای هوشمند این گونه درباره آینده پیش بینی کرده بود: “به نظر میرسد محتمل است زمانی که روش تفکر ماشینی آغاز شد چندان به طول نخواهد انجامید که از قدرتهای ضعیف مان پیشی بگیریم. بنابراین، در مرحلهای باید منتظر باشیم که ماشینها کنترل امور را به دست گیرند”. ترس تورینگ اکنون ترس هینتون است. هینتون توضیح داد که برای مدت زمانی طولانی باور داشت که هوش ماشینی نمیتواند از هوش بیولوژیکی پیشی بگیرد. او در مقالهای در نشریه “نیچر” اشاره کرده بود که فرایند ریاضی پشت هوش مصنوعی نمیتواند از مغز انسان که از میلیونها سال تکامل بهره برده پیشی بگیرد. او در سخنرانی اش در کمبریج گفت: “با این وجود، چند ماه پیش ناگهان نظرم تغییر کرد”.
خطر وجودی هوش مصنوعی در حال تبدیل شدن به داستانی از زمانه ماست. “بلیک لمواین” مهندس نرمافزار گوگل در ژوئن ۲۰۲۲ میلادی با ابراز نگرانی نسبت به این که LaMDA یک مدل زبان بزرگ (LLM) که گوگل توسعه داده خودآگاه و هوشیار است به فاصله یکماه پس از بیان نظرش از گوگل اخراج شد. یک سرهنگ در نیروی هوایی ایالات متحده در ماه مه ۲۰۲۳ میلادی شبیه سازیای را فاش کرد که در آن یک پهپاد مجهز به هوش مصنوعی که وظیفه حمله به موشکهای زمین به هوا را داشت، اما تحت نظر یک اپراتور انسانی عمل میکرد به جای حمله به هدف به اپراتور حمله کرد. نیروی هوایی ایالات متحده بعدا این روایت را تکذیب کرد. “ریشی سوناک” نخست وزیر بریتانیا خود را در مرکز واکنش جهانی به این مسائل قرار داده است. او در تاریخ ۲۴ مه در دفتر نخست وزیری با “دمیس حسابیس” مدیر عامل گوگل دیپ مایند و “سام آلتمن” مدیر عامل OpenAI شرکت پشتیبان چت جی پی تی (Chat GPT) که توسط مایکروسافت مورد پشتیبانی قرار میگیرد ملاقات کرد. دولت بریتانیا از آن زمان به این سو تخصیص ۱۰۰ میلیون پوند به یک کارگروه ایمنی جدید هوش مصنوعی را متعهد شده است.
چت جی پی تی به عنوان یک مدل زبان بزرگ که در نوامبر ۲۰۲۲ راه اندازی شد کاربران اینترنت را با ظرفیت خود برای استناد به اطلاعات، تولید کُد و پاسخ به پرسشها “به روشهایی که بسیار شبیه به انسان است” شگفت زده و خوشحال ساخته است. آن اپیلکیشن ظرف مدت دو ماه پس از انتشار ۱۰۰ میلیون کاربر به دست آورد که یک رکورد اینترنتی محسوب میشود. گوگل از آن زمان یک مدل رقیب به نام “بارد” (Bard) منتشر کرده است.
در این مدلهای هوش مصنوعی یک رمز و راز وجود دارد. آنها بسیار سریعتر از آن چه کارشناسان انتظار داشتند، بهبود یافته اند. به نظر میرسد در عرصه مهندسی بسیار جلوتر از علم حرکت کرده اند. سیستمهای ساخته شده اند و کارهای فوق العادهای انجام می دهند، اما حتی مخترعان آن نیز به طور کامل نمیدانند چگونه این کار را انجام میدهند.
“راجر گروس” محقق هوش مصنوعی و همکار هینتون در دانشگاه تورنتو (جایی که هینتون از سال ۱۹۸۷ در آنجا تدریس کرده است) میگوید در بخش عمده دوران ۱۷ ساله کاری اش این گونه به نظر میرسید که همه چیز بسیار کُند پیش میرود و حتی صحبت در مورد هوش مصنوعی در سطح انسانی امری منطقی به نظر نمیرسید. با این وجود، سطح پیشرفت هوش مصنوعی در ماههای اخیر چشمگیر بوده است. او میگوید: “ما از نقطهای عبور کرده ایم که نمیتوان خطرات را بی درنگ نادیده گرفت. کسانی که این کار را انجام میدهند باید استدلالهای دقیق تری برای این که چرا و چگونه سیستمها ایمن هستند ارائه دهند”.
خطرات هوش مصنوعی دقیقا چه هستند؟ برای “مایکل لوک” مدیر انستیتوی برای هوش مصنوعی کینگز “ریسک وجودی” مهمترین موضوع محل پرسش نیست. او میگوید: “نگرانی فوریتر در مورد تعصب و سوگیری احتمالی هوش مصنوعی و مسائل اخلاقی مرتبط با آن است. هوشهای مصنوعی موجود که مبتنی بر مجموعههای دادهای مملو از سوگیریهای بررسی نشده، آموزش دیده اند، در تصمیم گیریهای عمده شرکتها از بررسی درخواستهای شغلی گرفته تا تایید وامها مشارکت میکنند”.
کارشناسان دیگری نگرانی هینتون را تکرار میکنند. یکی از آنان “یوشوا بنجیو” است که جفری هینتون جایزه تورینگ ۲۰۱۸ را با او به اشتراک گذاشت. بنجیو در تاریخ ۳۱ مه به “بی بی سی” گفته بود که به خاطر کاری که در زندگی انجام داده احساس “گمشدگی” میکند. او گفته بود: “از نظر احساسی چالش برانگیز است، زیرا محققان به طور فزایندهای مطمئن نیستند که چگونه این سیستمها را متوقف کنند یا از آسیب رسانی آن جلوگیری بعمل آورند”.
این استاد دانشگاه مونترال در ماه مارس از امضا کنندگان نامهای بود که در آن خواستار توقف شش ماهه توسعه هوشهای مصنوعیای شد که قویتر از جی پی تی – ۴ میباشند مدل زبانیای که Chat GPT Plus نسخه برتر چت ربات Open AI بر پایه آن تهیه شده است. “ایلان ماسک” از دیگر امضا کنندگان آن نامه بود. او پیشتر در سال ۲۰۱۴ میلادی در مورد خطر “جدی” و “خطرناک” متوجه از جانب هوش مصنوعی در بازه زمانی “پنج یا حداکثر ده ساله” خبر داده بود.
با این وجود، “یان لیکان” سومین برنده جایزه تورینگ در سال ۲۰۱۸ در کنار هینتون و بنجیو و دانشمند ارشد هوش مصنوعی متا از سال ۲۰۱۳ به این سو فکر میکند این نگرانیها کاملا بی اساس هستند. لیکان و هینتون برای چندین دهه با یکدیگر دوست بود. هینتون به لیکان آموزش داد. اکنون آن دو دیدگاهی متضاد دارند. لیکان در توئیتی در تاریخ ۲۸ مه نوشته بود که پیشبینیهای هینتون درباره تاثیر هوش مصنوعی بر مشاغل در گذشته “کاملا اشتباه” بودند و ترس هینتون از “تسلط هوش مصنوعی” را رد کرد و احتمال تحقق نگرانیهای هینتون را “بسیار اندک و نسبتا آسان از نظر قابلیت پیشگیری” دانست. او در تاریخ ۶ ژوئن نوشته بود:”هوش مصنوعی نه تنها جهان را نابود نمیکند بلکه آن را نجات خواهد داد”.
هینتون، اما به خبرنگار “نیواستیتسمن” میگوید: “این حوزهای است که ما هیچ تجربه و درک درستی از احتمالات نداریم، اما آنها در دستکاری بسیار خوب خواهند بود و اگر عقل داشته باشند به ما نمیگویند که بسیار باهوشتر از ما هستند. من در مورد هیچ یک از این نتیجه گیریها مطمئن نیستم، اما من مطمئن هستم که چیزی برای نگرانی وجود دارد”.
هینتون موافق بود که انگیزههای هوش مصنوعی موجود ناشناخته است تا جایی که اصلا نمیدانیم انگیزهای دارند یا خیر، اما او فکر میکند که هوشهای مصنوعی به دنبال کسب کنترل بیشتر برای رسین به اهدافی هستند که ما برای شان تعیین کرده ایم. او از این موضوع تحت عنوان “ریسکی بی پایان” یاد کرد.
هینتون در ماموریتی مادام العمر برای درک مغز بوده است. او در سال ۱۹۶۷ به عنوان نوه “جورج بول” که منطق جبری اش مبنای محاسبات را پایه ریزی کرده بود و به عنوان پسر عموی “جوآن هینتون” یکی از معدود فیزیکدانان زن که روی پروژه منهتن کار میکرد وارد کمبریج شد.
او در نهایت در رشته روانشناسی تجربی فارغ التحصیل شد و برای مدت کوتاهی ترک تحصیل کرد و نجار شد. هینتون تحت تاثیر آن چه در کمبریج به او آموزش داده شده بود قرار نگرفت. او به این نتیجه رسید که تنها راه برای درک مغز این بود که خودش مغز را بسازد.
در آن زمان در مورد هوش مصنوعی تنها یک دوره تحصیلات تکمیلی در دانشگاه ادینبرو وجود داشت که هینتون در سال ۱۹۷۲ به آن پیوست. ماموریت او برای ساختن مغز در دورهای آغاز شد که اکنون در بریتانیا از آن تحت عنوان “زمستان هوش مصنوعی” یاد میشود و بودجه چندانی به این حوزه تخصیص نیافته بود. با این وجود، هینتون با مشکلی بزرگتر از کمبود منابع روبرو بود: او با مبانی فکری این رشته مخالف بود.
در آن زمان، محققان هوش مصنوعی متقاعد شده بودند که ماهیت هوش استدلال است. هدف آنان ساخت مجموعهای از عبارات نمادین برای نشان دادن فرآیند استدلال برای ایجاد “نوعی منطق پاک” ذهن بود همان طور که هینتون بعدا آن را توصیف کرد. این باور یا پارادایم به عنوان “هوش مصنوعی نمادین” شناخته شد. پاردایم هوش مصنوعی نمادین بر این فرض بنا نهاده شده بود که فکر میتواند به صورت نمادین در رشتههای کلمات بازنویسی شود، اما برای هینتون کلمات تنها راهی برای نشان دادن آن چه ما فکر میکنیم، بودند. از دید او فکر به خودی خود زبانی نبود. هینتون در سال ۲۰۱۷ میلادی در نبردی چندین دههای علیه دیدگاهی که زمانی به عنوان یک جزم و امری مسلم قلمداد میشد پیروز شد و نشان داد که آن فرض به سادگی “یک اشتباه بزرگ” بود.
او میگوید: “این ایده که افکار باید به نوعی زبان باشند احمقانه است”. او در عوض باور داشت که یک فکر صرفا یک بردار بزرگ فعالیت عصبی است و انسانها توسط نورونهای مغز که خود را با قدرتهای مختلف به یکدیگر متصل میکنند، یاد میگیرند. بنابراین، از این دیدگاه میتوانید با ساختن یک “شبکه عصبی” مصنوعی که این فرآیند را بازتاب میدهد هوش را بازآفرینی کنید. از دید او شما به سادگی نیاز به نوشتن یا کشف الگوریتمی دارید که میتواند با تنظیم نقاط قوت اتصال بین نورونهای مصنوعی در پاسخ به دادههای جدید یاد بگیرد.
او در سال ۱۹۸۶ میلادی با انتشار مقالهای در نشریه نیچر اشاره کرد که یک ماشین از لحاظ نظری میتواند به تنهایی شروع به یادگیری کند. مقاله او به عنوان مبنایی بنیادین در توسعه هوش مصنوعی قلمداد شده است.
هینتون در آن زمان الگوریتمی برای اجرای یک مدل هوش مصنوعی یا پایه یک مدل داشت، اما رایانههای دهه ۱۹۸۰ میلادی کُند بودند و مجموعه دادههایی که شبکههای عصبی را میتوان بر روی آن آموزش داد کوچک بودند. شما به هر سه ذخایر عظیم داده، قدرت محاسباتی کافی و مجموعهای از الگوریتمها نیاز دارید تا به یک شبکه عصبی حیات ببخشید همان طور که برای آتش روشن کردن به سوخت، اکسیژن و گرما نیاز دارید.
“یوشوا بنجیو” در سال ۲۰۱۷ میلادی با ناباوری گفته بود: “شبکههای عصبی تقریبا توسط جامعه علمی رها شده بودند. در سال ۲۰۱۰ زمانی که حسابیس دیپ مایند را تاسیس کرد جو سردی نسبت به کار بر روی هوش مصنوعی وجود داشت. در آن زمان هیچ کس در مورد آن صحبت نمیکرد. هوش مصنوعی نمادین در دهه ۱۹۹۰ آزمایش شده بود و دانشگاهیانی که حسابیس را در آن زمان دیده بودند گمان میکردند وی دیوانه است که فکر میکند میتوان پیشرفت جدیدی را در مورد سیستمهای یادگیری عمیق شکل داد”.
با این وجود، هینتون در سال ۲۰۱۲ میلادی با دو تن از شاگردان اش شبکهای را ساخت که آن را “الکس نت” نامیدند و نشان داد ماشینها میتوانند ببینند و آن را به مسابقه بزرگ سالانه تشخیص تصویر ارائه کرد. در سال ۲۰۱۴ میلادی گوگل هینتون را برای کار بر روی هوش مصنوعی استخدام کرد.
هینتون در سال ۲۰۱۵ میلادی گفته بود که هوش مصنوعی حداقل تا سال ۲۰۷۰ با مغز مطابقت نخواهد داشت. هینتون اکنون میگوید چت جی پی تی ارتباطات عصبی کمتری نسبت به ما دارد در حدود یک تریلیون به جای ۱۰۰ تریلیون ارتباط در مغز انسان (که هینتون اشاره میکند حداقل ده تریلیون آن برای ذخیره دانش استفاده میشود). با این وجود، هوشهای مصنوعی موجود در حال حاضر در برخی از وظایف از انسانها صلاحیت بیش تری دارند: تشخیص گفتار و تصویر، کدگذاری، اشکال بازی. زمانی که این مدلها به اندازه ما ارتباط داشته باشند انسانها در چه حوزههایی غالب خواهند ماند؟ این پرسشی است که هینتون مطرح میکند و پاسخ میدهد:”در آن زمان انسان در حوزههای بسیار کمی غالب باقی خواهد ماند”.
یک هوش مصنوعی میتواند از تعاملات مجزای متعدد خود با جهان بیاموزد برخلاف انسانها که هوش شان فردی و خاص است. هر زمان که بخشی از یک شبکه هوش مصنوعی اطلاعات جدیدی را جذب کند هر بخش دیگر از شبکه به روز میشود. در مقابل، انسانها از طریق روندی کُند، آهسته و دردناک یاد میگیرند. با این وجود، چت جی پی تی همواره اشتباه میکند و نمیتوان به آن اعتماد کرد. هینتون میگوید: “چت جی پی تی نه برای آن چه میداند بلکه برای چیزهایی که به نظر میرسد میداند، اما نمیداند خطرناک است. زمانی که مرتکب خطا میشود این دروغ یا توهم نیست بلکه گیج کننده است و عنصری از خیالبافی در آن وجود دارد. ما انسانها این کار را همیشه انجام میدهیم. اگر از شما بخواهم خاطرهای از مدتها قبل را تعریف کنید به داستانی معقول خواهید رسید که با تمام ردپای کوچک چیزهایی که دارید مطابقت دارد. شما به چیزی خواهید رسید که کاملا درست نیست، اما شما را متقاعد خواهد کرد. این به اندازه کافی با چیزهایی که شما میدانید، درست هستند، مطابقت دارد. چت جی پی تی نیز تقریبا به همین روش کار میکند. مانند لپ تاپ هنگام جستجو اطلاعات را بازیابی نمیکند. در عوض، سوال شما را از طریق شبکه اتصالات خود اجرا میکند و پاسخی را تولید میکند که به بهترین وجه با دادههایی که بر روی آن آموزش دیده مطابقت داشته باشد”. هینتون میگوید خلاص شدن از خطا “کم و بیش ناممکن” است، اما او باور دارد زمانی که هوش مصنوعی به خودآگاهی برسد خود را اصلاح خواهد کرد.
هینتون فکر میکند که تفاوت بین ما و هوش مصنوعی فعلی در محدوده ورودی است. چت جی پی تی تک وجهی است و تنها بر روی متن آموزش دیده است در حالی که سایر هوشهای مصنوعی میتوانند تصاویر را درک کرده و ایجاد کنند. از دید او این وضعی تغییر خواهد کرد و هوش مصنوعی آینده چند وجهی خواهد بود و میتواند با اتصال به یک ربات عمل کند.
فرد سوم “یوشوا بنجیو” از دیگر برندگان جایزه تورینگ ۲۰۱۸ میلادی در سال ۲۰۱۷ میلادی نظر امروز لیکان را داشت و گفته بود نباید درباره هوش مصنوعی نگران بشویم، زیرا ما بسیار دور از زمانی هستیم که یک ماشین بتواند بر جنبههای زیادی از دنیای مان تسلط پیدا کند.
اکنون بنیجو نظرش را تغییر داده و میگوید چت جی پی تی او را شگفت زده کرده است. بنجیو اکنون با هینتون هم نظر است و میگوید آگاهی انسان “ممکن است چندان جادویی نباشد” و یک ماشین “ممکن است به همان چیز از راههای سادهتر دست یابد”.
هینتون و بنجیو هیچ یک تفاوت اساسیای بین آینده ماشینی و حال حاضر انسانی نمیبینند. ایلان ماسک در هفتههای اخیر با هینتون صحبت کرده است. او نیز معتقد است که هوش مصنوعی به زودی از انسانهای باهوش پیشی خواهد گرفت. هینتون اخیرا در دیدار با مقامهای بریتانیایی در مورد از دست رفتن مشاغل زیادی در نتیجه پیشرفت هوش مصنوعی هشدار داده و به دولت بریتانیا در مورد وضع مالیات بر سود شرکتهای در زمینه بهره وری توصیههایی را ارائه کرده است.
برای “راجر گروس” مسئله اصلی این است که آیا هوش مصنوعی توانایی تاثیرگذاری بر ما و کنترل مان را خواهد داشت یا خیر. سوال اصلی این است که چه کسی به چه کسی وابسته خواهد بود؟ او میگوید در گفتگو با هینتون وی گفته است که این وضعیت شبیه نسبت ما با نئاندرتالها است. زمانی که شکل بهتری بهتری از هوش ایجاد شد نئاندرتالها در مسیر انقراض قرار گرفتند. او اکنون معتقد است که هوش ماشینی بسیار بیشتر از هوش ما خواهد بود. تفاوت این است که در حال حاضر هوش مصنوعی ما هنوز به انسان نیاز دارد. آنان وجود ندارند مگر این که ما مدیریت شان کنیم. به گفته هینتون راه حل ممکن است حفظ این وابستگی به طور نامحدود باشد این که “آن وابستگی را حفظ کنیم تا بدون ما نتواند کاری انجام دهد”.