تئوری های توطئه هوش مصنوعی در راه است !

از زمانی که پیشرفت‌های علمی و نوآوری‌های فناوری ایجاد شده، مردم به آن‌ها برچسب جادو یا محصول توطئه‌های پلید به کارگردانی بازیگران قدرتمند و نادیده می‌زنند.

فلزکاران قرون وسطایی، که سنگ را به جواهرات و شمشیر تبدیل می کردند، به عنوان عوامل طبقه حاکم یا ماوراء طبیعی دیده می شدند که بافت اجتماعی را تهدید می کردند.  بسیاری هنوز بر این باورند که فرود روی ماه در یک استودیوی تلویزیونی جعلی بوده است.  اخیراً، تئوری‌های توطئه‌ای که به دروغ ادعا می‌کردند فناوری سلول‌های 5G کووید-19 را گسترش می‌دهد، منجر به حمله به برج‌های سلولی در بریتانیا شده‌است.

هوش مصنوعی (AI) یک فناوری آماده برای تفکر توطئه‌آمیز است و از چند جهت با قالب فعال کننده توطئه مطابقت دارد.

**آنچه در مورد هوش مصنوعی می دانیم و نمی دانیم**

برای شروع، هوش مصنوعی می‌تواند به شما بگوید که فکر می‌کند چه اتفاقی می‌افتد، اما نمی‌تواند توضیح دهد که چرا اینطور فکر می‌کند این به این دلیل است که بسیاری از الگوریتم‌هایی که هوش مصنوعی را زیر مجموعه خود قرار می‌دهند، برای پیش‌بینی یا شناسایی روابط بر اساس داده‌های موجود طراحی شده‌اند، به این معنی که چنین مدل‌هایی همبستگی را ارائه می‌کنند، نه علیت.

این شکاف در اینکه هوش مصنوعی چگونه به درخواست‌های ما پاسخ‌ می‌دهند، دقیقاً همان خلأ روایی است که تئوری‌های توطئه برای پر کردن آن وارد عمل می‌شوند.

علاوه بر این، مدل‌هایی که زیربنای سیستم‌های هوش مصنوعی جدید مانند ChatGPT هستند، نتایج بسیار قانع‌کننده و قابل هضمی تولید می‌کنند.  وقتی کسی از این ابزارها سوالی را می‌پرسد، حجم انبوهی از اطلاعات را کنار هم می ریزد و یک نتیجه ساده را که به نظر می رسد منطقی است، بیرون می ریزد.  از آنجایی که نتایج هم پیچیده هستند و هم با صدایی مانند صدای خودمان به ما ارائه می‌شوند، طبیعی است که مردم ادعاهای هوش مصنوعی را درست فرض کنند.

به همین ترتیب، تئوری‌های توطئه حقایق متفاوتی را ارائه می‌کنند که در روایت‌های منظمی پیچیده شده‌اند.  آنها تمام کارهایی را انجام می دهند که در غیر این صورت تفکر انتقادی ایجاب می کرد.  فقط می توان نشست و باور کرد.

هوش مصنوعی و تئوری‌های توطئه نیز منشأ مشترکی دارند که این روزها مشکوک بنظز می‌رسد: نخبگان و نهادهای نخبه هوش مصنوعی و الگوریتم‌ها، حداقل تاکنون، عمدتاً توسط Big Tech توسعه یافته‌اند، و اغلب توسط همان شرکت‌ها یا توسط دولت (توسط شاخه‌های ارتش، IRS، و آژانس‌های مجری قانون) به کار گرفته شده‌اند.

اگر اعتقاد به تئوری‌های توطئه مستلزم اعتقاد به توطئه‌گران است، پس این نهادهای قدرتمند هدف آسانی برای سوء ظن هستند. تصور اینکه چگونه باورهای توطئه هوش مصنوعی ممکن است به سلاح تبدیل شوند نیز آسان است.  رقبای ژئوپلیتیکی یا شرکتی می توانند از تبلیغات برای انتشار اطلاعات نادرست یا شایعات استفاده کنند و اعتماد به پیاده سازی های هوش مصنوعی را تضعیف کنند.  همین بازیگران بد می‌توانند تئوری‌های توطئه بالقوه (PDF) را به گونه‌ای تنظیم کنند که چه گروه‌های خاصی تهدیدکننده‌ترین و در نتیجه باورپذیرترین  هستند.

به عنوان مثال، در موارد اضطراری بهداشت عمومی اخیر، روسیه ادعا کرد که mpox یک سلاح زیستی ایالات متحده است و چین القا کرد که ارتش ایالات متحده ویروس کرونا را منتشر کرده است.

تصور گروه‌هایی که در هر دو کشور چیزی مشابه شوم را در مورد ابزارهای هوش مصنوعی توسعه‌یافته ایالات متحده پیشنهاد می‌کنند، سخت نیست.  اگر صحت قضاوت‌ها و پیش‌بینی‌های هوش مصنوعی زیر سؤال باشد، ممکن است روایت‌های نادرست درباره هوش مصنوعی به ذهن عموم مردم خطور کنند.

**حقیقت در مورد هوش مصنوعی**

نادیده گرفتن همه این پتانسیل برای تفکر توطئه در مورد هوش مصنوعی خطرناک است.  اما مراحلی فراتر از صرف توجه به خطرات وجود دارد.

اگر نمی‌خواهید مردم چیز نادرستی را باور کنند، می‌توانید به آن‌ها نشان دهید که چه چیزی درست است.  مردم وقتی می دانند که یک اجماع علمی وجود دارد، احتمال بیشتری دارد که دانش علمی را درست بپذیرند.  یک ضد روایت فراگیر در مورد حقایق هوش مصنوعی دلایلی را که می‌تواند مستعد تئوری‌های توطئه باشد را در نظر می‌گیرد و این دلایل را با آ مطابق می‌کند.

به جای روایتی که در مورد هوش مصنوعی توسط نهادهای خصوصی کنترل می‌شود، داستان پیرامون توسعه آن می‌تواند شبیه به سایر فناوری‌های دگرگون‌کننده مانند؛ رایانه‌های شخصی باشد که دسترسی ما به اطلاعات را دموکراتیک کرده است، زیرا آنها برای عموم در دسترس‌تر شده‌اند.

به جای اینکه هوش مصنوعی باعث ایجاد اطلاعات نادرست یا سانسور آنلاین شود، الگوریتم‌ها می‌توانند بازتابی صرف از خودمان باشند و آنچه را که می‌خواهیم ببینیم نمایان می‌کنند.

این ضد روایات می‌تواند از پیام‌هایی پشتیبانی کند که به تأثیر اطلاعات نادرست بر نگرش‌ها و باورهای مردم می‌پردازد. افراد ممکن است نگرانی های متفاوتی داشته باشند یا اطلاعاتی در مورد کاربردهای خاص هوش مصنوعی نداشته باشند، مانند؛ تشخیص چهره در استادیوم ها یا درمانگران ربات چت.  کمپین های پیام رسانی می‌توانند به توضیح نحوه استفاده از هوش مصنوعی در این موارد کمک کنند، از جمله اینکه چه داده هایی جمع آوری می شوند، برای چه اهدافی و توسط چه کسانی؟

_اگر نمی‌خواهید مردم چیز نادرستی را باور کنند، می‌توانید به آنها نشان دهید که چه چیزی درست است._

این پیام ها باید بر توافق گسترده علمی و عمومی تأکید کنند تا اطمینان حاصل شود که برای افرادی که دارای جهان بینی یا گرایش های ایدئولوژیک متفاوتی هستند مؤثر هستند.  ارسال پیام باید به موقع باشد، مانند ارائه اخطار در زمان قرار گرفتن در معرض اطلاعات نادرست و پس گرفتن مکرر اطلاعات نادرست.

زمان انجام این کار اکنون است. قبل از اینکه تئوری‌های توطئه در اذهان عمومی تداعی شود.  بخش کلیدی آماده سازی برای به کارگیری این ضدروایت ها شامل تلاش هایی برای از بین بردن احساسات ملتهب است که باورهای توطئه ممکن است برانگیخته شوند.

اینکه تئوری‌های توطئه منجر به حوادث خشونت‌آمیز شوند، عملاً قابل انتظار است.  خشونت، مانند تئوری های توطئه، می تواند مسری باشد.  با این حال، اغلب، بحث‌های آکادمیک و سیاست‌گذاری خشک در مورد هوش مصنوعی و علم از آنچه که عموم مردم درباره هوش مصنوعی تصور می‌کنند، محافظه‌کارتر عمل می‌کنند.

محققان و توسعه‌دهندگان باید تلاش کنند تا اطمینان حاصل کنند که ابزارهای هوش مصنوعی آسیب‌های ناخواسته ایجاد نمی‌کنند، و سپس برای بقیه روشن کنند که چه می‌کنند.  کسانی که به نمایندگی از دیگران، از جمله مراقبان و گروه‌های مدافع، اقدام می‌کنند، باید در نظر داشته باشند که چگونه می‌توانند اطلاعات دقیق را ارتقا دهند و به مردم کمک کنند تا درباره آنچه که آنلاین می‌بینند و به اشتراک می‌گذارند، انتقادی بیندیشند.

در آینده، تئوری‌های توطئه احتمالاً محتمل‌ترین سناریویی را که در آن هوش مصنوعی عمیقاً جامعه را شکل می‌دهد، بر اساس آنچه که می‌تواند انجام دهد و از قبل انجام می‌دهد، منحرف می‌کند.  حتی در این صورت، ممکن است استفاده‌های مفید آن توسط باورهای توطئه‌ای محدود شود که از پذیرش آن جلوگیری می‌کند یا کسانی را که آن را به کار می‌گیرند هدف قرار می‌دهند.  و آسیب‌های اجتماعی می‌تواند به دلیل حساسیت یا تمایل افراد به عمل در خدمت روایات نادرست، تسریع شود.

راهنمایی‌های مقیاس، حداقل تا زمانی که هوش مصنوعی به خودآگاهی برسد و مسائل را در دست بگیرد، می‌تواند بر توانایی ما برای مقابله با چنین تئوری‌های توطئه‌ای بیافزاید.

نویسنده:داگلاس یونگ

منبع: رند

ترجمه:دنیای تحلیل

دیدگاهتان را بنویسید