هوش مصنوعی و اخبار دیجیتال

. چند نهاد خبری مانند بازفید BuzzFeed، نیوز کورپز آستِرِلیا News Corps Australia  و جی/او مدیا G/O Media به سرعت با بکارگیری هوش مصنوعی به تولید محتوا پرداختند. در اوایل سال ۲۰۲۳، BuzzFeed به صورت آزمایشی از ChatGPT برای تدوین آزمون‌ها، مقالات گردشگری و ایجاد یک ربات ارائه کننده ی دستورات آشپزی به نام “Botatouille” استفاده کرد. بسیاری از دیگر سازمان های خبری و رسانه ای، راهبردهای درازمدت ‌تری را برای آینده در نظر می‌گیرند، به عنوان مثال روزنامه واشنگتن پست در ماه مه ۲۰۲۳ اعلام کرد که دو تیم داخلی را برای بررسی کاربردهای آتی هوش مصنوعی راه‌اندازی کرده است.

 دهه هاست که اتاق خبر رسانه ها و خبرگزاری ها، کار در وضعیت های بحرانی پرشماری را تجربه کرده اند، همانطور که فناوری‌های رایج و پرطرفدار هم بارها و بارها به صحنه آمده و الگوی کسب و کار رسانه ها را در معرض تهدید انقلاب و دگرگونی قرار داده اند. هوش مصنوعی (AI) بویژه پس از انتشار نسخه عمومی آزمایشی چت جی پی تی ChatGPT متعلق به شرکت اوپن ای. OpenAI در دسامبر 2022، تازه ترین دردسری است که صنعت خبر، گزارشگری و تحلیل با آن دست به گریبان شده است. چند نهاد خبری مانند بازفید BuzzFeed، نیوز کورپز آستِرِلیا News Corps Australia  و جی/او مدیا G/O Media به سرعت با بکارگیری هوش مصنوعی به تولید محتوا پرداختند. در اوایل سال 2023، BuzzFeed به صورت آزمایشی از ChatGPT برای تدوین آزمون‌ها، مقالات گردشگری و ایجاد یک ربات ارائه کننده ی دستورات آشپزی به نام “Botatouille” استفاده کرد. بسیاری از دیگر سازمان های خبری و رسانه ای، راهبردهای درازمدت ‌تری را برای آینده در نظر می‌گیرند، به عنوان مثال روزنامه واشنگتن پست در ماه مه 2023 اعلام کرد که دو تیم داخلی را برای بررسی کاربردهای آتی هوش مصنوعی راه‌اندازی کرده است. اما در سوی دیگر ماجرا، نویسندگان هستند که عموما برخورد محتاط‌تری داشته اند: انجمن نویسندگان امریکا (Writers Guild of America, East)  و اتحادیه گروه رسانه‌ای Gizmodo در ژوئیه 2023، شرکت  G/O Media را به خاطر انتشار مقالات تولید شده توسط هوش مصنوعی که بدون مشورت ابتدایی با کارکنان تحریریه انجام شد، محکوم کرده هشدار دادند که برنامه‌های غیرقابل اتکای هوش مصنوعی که فاقد اعتبار لازم هستند، به تولید محتواهای نادرست و کپی برداری از آثار نویسندگاه واقعی می پردازند و یک ” تهدید وجودی برای روزنامه‌نگاری به شمار می روند.”

برخی از شرکت های توسعه دهنده هوش مصنوعی تلاش می کنند تا با پیکربندی چت‌بات‌های خود به عنوان ابزارهای تولید ارزش‌افزوده برای صنعت خبری – یعنی کمک بعنوان دستیار و نه جایگزین پرسنل خبری – از این جنجال عبور کنند. در چند ماه گذشته، گزارش می‌شود که گوگل با دست اندرکاران رسانه ها و خبرگزاری های ملی و محلی دیدار داشته تا Genesis را به آنها معرفی کند که یک چت‌بات هوش مصنوعی زایاست که می‌تواند عناوین، پست‌های رسانه‌های اجتماعی و مقالات را تنظیم کند، و در نقش یک ابزار افزایش بهره‌وری و افزایش درآمد مالی رسانه ها عمل نماید. در ژوئیه 2023، OpenAI  با دست اندرکاران “پروژه روزنامه‌نگاری آمریکا” همکاری کرد تا 5 میلیون دلار به صورت مستقیم به عنوان کمک مالی مستقیم به رسانه های محلی ارائه دهد با این هدف که با کاربرد هوش مصنوعی آشنا شوند. در همان ماه، توافقی با انجمن مطبوعات ایالات متحده برای دسترسی به مقالات آرشیو شده این انجمن تا سال 1985، امضا شد تا از این محتواها برای آموزش مدل‌های زبانی بزرگ (LLMs) استفاده شود و در مقابل شرکت OpenAI  هزینه‌های اشتراک و استفاده تجربی از نرم‌افزار را تامین کند. اما این همکاری‌های محدود، چشم بر روی تاریخچه ناخوشایند رابطه فناوری های تازه با اتاق های خبر می بندد، جایی که اغلب خبرنگارانی که از محتواهای تولیدشده آنها برای آموزش الگوریتم‌ها استفاده شده، هیچ جبرانی دریافت نکرده‌اند حتی در حالی که انحصارهای تبلیغات دیجیتالی، مدتی طولانی است که عامل کاهش درآمد بازاریابی رسانه ها و کارکنان آنها بوده اند.

یک توجیه رایج این است که اتاق‌های خبر باید متحول شوند تا خود را با پیشرفت های فناورانه سازگار کنند، اما این توصیف نه دقیق است و نه عادلانه. حتی رسانه ها و نشریاتی که با خواسته های شرکت‌های قدرتمند فناورانه همراهی کرده اند نیز، پیامدهای منفی این همراهی را متحمل شده‌اند. به عنوان مثال، برخی از رسانه‌های خبری دیجیتال برای بهره‌برداری از فرصتِ رشد بی‌سابقه رسانه‌های اجتماعی در اوایل دهه 2010، در راهبردهای توزیع خود بازنگری کردند و به کاربرانشان امکان مشاهده و به اشتراک‌گذاری لینک ها یا پیوندهای مقالات را در کانال‌های غیرمتمرکز دادند تا به یک جریان پایدار از کلیک‌ها دست یابند.  BuzzFeed که ابتدا از طریق رواج در رسانه‌های اجتماعی، و نه اشتراک‌های چاپی سنتی، کسب جایگاه کرد، نمونه ای از این الگوی کسب و کار نوآورانه است. اما وقتی فیس‌بوک در ژانویه 2018 الگوریتم رتبه‌بندی محتوای خود را تغییر داد تا اولویت را به محتواهای تبلیغاتی و تعاملات رابطه- محور بدهد، عملا موجب شد که وبسایت های خبری بیرونی، کمتر مشاهده شوند و در این ماجرا، رسانه هایی مانند BuzzFeed که پرچمدار استفاده از این فن آوری ها بودند، بیشترین آسیب را دیدند. BuzzFeed در آوریل 2023 بخاطر کاهش درآمد، بخش خبری خود را که اتفاقا جایزه پولیتزر را از آن بدست آورده بود، ناگهان تعطیل کرد، حال آنکه رسانه هایی همچون نیویورک تایمز که جریان درآمدی خود را با اشتراک‌های سنتی، تنوع بخشیده بودند، کمتر آسیب‌ دیدند.

مسوولیت پایداری (صنعت) خبری را نمی‌توان تنها بر دوش نشریات و رسانه ها گذاشت؛ پلتفرم‌های دیجیتال بزرگ نیز باید در این مسئولیت‌ سهیم باشند تا پیامدهای قابل توجهی را که برای جامعه دارند، درک کرده و چاره کنند. با این حال، شرکت‌های ارائه دهنده موتورهای جستجو و رسانه‌های اجتماعی در آمریکا، مشمول الزامات قانونی اندکی هستند تا مکلف شوند صحت، انصاف و شفافیت را در الگوریتم‌های خود بگنجانند، از اطلاعات شخصی حساس در تبلیغات خود محافظت کنند، در آموزش های تبلیغاتی فناوری اطلاعات که رقابت عادلانه با ناشران خبری را ترویج می کنند، شرکت کنند و انتشار محتوای زیانبار آنلاین را کاهش دهند. در نبود مقررات روشن برای شرکت های فن آوری در ایالات متحده، شتاب اخیر در پذیرش هوش مصنوعی، دست کم چهار خطر عمده را پدید می آورد که می‌تواند به طور جدی پایداری فعالیت رسانه های خبری و دسترسی عمومی به اطلاعات را در آینده مختل کند.

موتورهای جست وجو ممکن است از هوش مصنوعی برای پاسخ به پرسش‌های کاربران استفاده کنند، که این کار موجب کاهش قابل توجهی در ترافیک وبسایت‌های خبری بیرونی می‌شود. روزنامه‌ها در رابطه متقابل اما در بیشتر موارد نابرابری با موتورهای جستجو قرار دارند. گوگل که تقریباً 92 درصد از بازار موتور جستجوی جهان را کنترل می‌کند، حدود 24 میلیارد بازدید به وب‌سایت‌های خبری ارسال می‌کند. این سهم، ممکن است بیش از یک سوم ترافیک آنلاین رسانه ها باشد که یک معیار حیاتی برای تبلیغات دیجیتال است. پس از انتشار نسخه آزمایشی  ChatGPT، گوگل و مایکروسافت هر دو اعلام کردند که قصد دارند از هوش مصنوعی زایا استفاده کنند تا به طور مستقیم به پرسش‌های کاربران پاسخ دهند. برخلاف نسخه کنونی ChatGPT که به اینترنت متصل نیست و فقط اطلاعاتی را منعکس می کند که تا تا سال 2021 به آن داده شده، Bing مایکروسافت که ChatGPT را هم در خود دارد و Bard گوگل قصد دارند پاسخ‌ها را از اطلاعات زمان واقعی در اکوسیستم اینترنت استخراج کنند، که این دسترسی زنده می‌تواند به آنها امکان تجزیه و تحلیل اخبار فوری را نیز بدهد. به این ترتیب، مدل‌های بزرگ زبانی می‌توانند قدرت دروازه بانی موتورهای جستجوی مسلط را افزایش دهند، کاری که هدف از آن بیشینه کردن تعامل با کاربران یا طول زمانی است که در صفحه پلتفرم آنها می مانند.

اگر مدل‌های زبانی بزرگ(LLMs) ، شمار کمتری از خوانندگان را به کلیک کردن بر روی گوگل برای دسترسی به وب‌سایت‌های بیرونی هدایت کنند، سازمان‌های خبری دیجیتال، با ریسک از دست دادن یک منبع اصلی از دیدرسی آنلاین، کاهش مخاطب و در نتیجه از دست رفتن درآمدهای بزرگ تبلیغاتی روبرو خواهند شد. در آینده، اگر رسانه های خبری نتوانند در درازمدت و به شکل پایداری به ترافیک موتورهای جستجو تکیه کنند، وبسایت‌هایشان ممکن است بیشتر به درآمد حاصل از اشتراک ها وابسته شوند تا از درآمدی که وابسته به شرکت‌های فناوری بزرگ است، رهاتر شوند یعنی از دیواره‌های پرداخت paywalls برای جذب درآمد بهره‌برند. در سال 2019، 76 درصد از روزنامه‌های ایالات متحده از دیواره‌های پرداخت استفاده می‌کردند، در مقایسه با 60 درصد در سال 2017. بسیاری از آنها نرخ اشتراک را در این بازه زمانی به طور چشمگیری افزایش دادند در حالی که درآمد تبلیغاتی آنها همزمان کاهش پیدا ‌کرده است. اشتراک‌های پرداختی می‌توانند به برخی از سازمان‌های خبری کمک کنند تا پایگاه خوانندگان وفادار خود را بسازند، به ویژه اگر محتوای آنها تخصصی یا اختصاصی باشد اما میزان اشتراک‌های پرداختی آنقدر بزرگ نیست که برای حمایت از ادامه کار همه نشریات کفایت کند و نشریات کوچکتر یا کمتر تخصصی تر با احتمال تعطیلی بیشتری روبرو خواهند بود.

همچنین پیامدهای منفی اجتماعی هم در محدود کردن دسترسی به اطلاعات دقیق و مرتبط با زمینه‌هایی همچون دگرش های آب و هوا، بهداشت عمومی و حقوق مدنی وجود دارد. استفن بیتس، استاد دانشگاه نوادا در لاس‌وگاس، هشدار داده که افزایش فراگیر دیواره‌های پرداخت، ممکن است ” بیش از پیش، به پیدایش «بیابان های خبری درآمدی به جای بیابان های جغرافیایی» بیانجامد.” به عبارت دیگر، افرادی که نمی‌توانند هزینه چندین اشتراک رسانه ای را تحمل کنند، با احتمال بیشتری اطلاعات گمراه کننده و محتواهای بی کیفیت را باور کنند – چه توسط انسان تولید شده باشند یا توسط هوش مصنوعی – یعنی اطلاعات و اخباری که به رایگان در رسانه‌های اجتماعی یا موتورهای جستجو در دسترس هستند. در یک اینترنت چندپاره تر، ریسک بیشتری وجود دارد که افراد در حباب های ذهنی و ایدئولوژیک خود زندگی کنند چرا که چت‌بات‌ها نمی‌توانند چندین دیدگاه متنوع را در کنار هم ارائه دهند، کاری که یک خبرنگار انسانی قادر به انجام آن است. الگوریتم‌های رسانه‌های اجتماعی که به طور معمول بر پایه سابقه فعالیت افراد در صفحات اینترنت past browsing activity  یا علایق شخصی آنها، به تولید محتوا یا ارائه مشورت و توصیه می پردازند، به تقویت بیشتر اتاق‌های صدا echo chambers  برپایه مشارکت کاربر و نه خیر عمومی کمک می‌کنند.

پلتفرم‌های رسانه‌های اجتماعی از هوش مصنوعی برای نظم دهی خودکار پست‌ها استفاده می‌کنند که این روش به آنها امکان می دهد تا از رسانه های خبری مشروع، به سود اخبار جعلی، هرزه نوشته ها و محتواهای دستکاری شده که توسط کاربران آپلود شده، اولویت زدایی کنند. پیش از عصر اینترنت، رسانه‌های خبری، توجه عمومی را در مقصدهای متمرکز کنترل می‌کردند و به شکل موثری به عنوان پنجره اصلی انبوه مخاطبان خود برای فهم رویدادهای جاری عمل می‌کردند. اما پلتفرم‌های رسانه‌های اجتماعی در دو دهه گذشته با فراهم کردن امکان انتشار گسترده بین المللی محتوا برای همه، موجب شده اند تا الگوریتم‌های مرتب‌سازی محتوا، به دروازه بانان جدیدی برای کنترل توجه افکار عمومی و تاثیرگذاری اطلاعات تبدیل شوند. روزنامه‌ها به عنوان ناشران اطلاعات، برای انتشار ادعاهای مشکوک یا اخبار نادرست، مسئولیت قانونی دارند اما پلتفرم‌های رسانه‌های اجتماعی عموما چنین مسوولیتی ندارند. بخش 230 از قانون شرافت ارتباطات آمریکا Decency Act of Communications به “شرکت های خدمات رایانه ای آنلاین” اجازه می دهد تا از پاسخگویی به انواع محتوایی که توسط کاربران بارگذاری می‌شود، معافیت داشته باشند. در نتیجه، بسیاری از پلتفرم‌های رسانه‌های اجتماعی از سیستم‌های توصیه هوش مصنوعی استفاده می‌کنند که بطور خودکار محتواها را بر پایه علایق پیش‌بینی شده کاربران یا ارتباطات شخصی مرتب می کنند، کاری که هدفش بیشینه کردن زمان ماندن در صفحه‌ به جای دانش عمومی جمعی است.

وقتی فیس‌بوک در ژانویه 2018 تصمیم گرفت که الگوریتمش محتواهای عمومی خبری را با اولویت پایین‌تری نمایش دهد، وب‌سایت‌های خبری بیرونی، بازدیدکنندگان خود را از دست دادند. بر اساس تجزیه و تحلیل شرکت کامسکور Comscore، در بازه شش ماهه پس از این تغییر الگوریتمی، ترافیک BuzzFeed به میزان 13 درصد و ترافیک ABC News  به میزان 12 درصد کاهش یافت. مرکز پژوهشی پیو Pio دریافت که تنها 31 درصد از افراد بالغ آمریکایی گزارش داده‌اند که تا سال 2022 اخبار درج شده در فیس‌بوک را مصرف کرده‌اند حال آنکه این آمار در سال 2016 شصت و شش درصد بود. توانایی فیس‌بوک به تنهایی برای کاهش حجم مراجعه‌های خودکار به وب‌سایت‌های خبری، در کنار  کاهش کاربران خود فیسبوک در آمریکا که برای نخستین بار در سال 2022 رخ داد، تأثیر غیرمستقیمی بر روی گرایش  عمده ناشران به اتکای به گوگل برای جذب بازدیدکننده و کسب دلارهای تبلیغات دیجیتال برجا گذاشت. علاوه بر این، همانطور که فرانسیس هاوگن Frances Haugen، سوت زن افشاگر فیسبوک در سال 2021، نشان داد، تغییر سیاست الگوریتمی سال 2018 این پلتفرم، نه تنها احتمالا به سودآوری روزنامه‌ها آسیب زد بلکه به تأثیرگذاری متصور آنها در اکوسیستم رسانه‌های اجتماعی نیز آسیب رساند. در یک یادداشت داخلی منتشر شده، دانشمندان داده در این شرکت دریافتند که این تصمیم “اثرات جانبی نامطلوبی روی بخش‌های مهمی از محتوای عمومی، مانند بخش اخبار سیاسی داشته است”، چرا که این الگوریتم مکررا اطلاعات نادرست تولید شده توسط کاربران را همطراز اخبار تولید شده توسط رسانه های معتبر، رتبه‌بندی می‌کرد.

علاوه بر متن، دسترسی گسترده به ابزارهای هوش مصنوعی زایا، برای هر کاربر اینترنتی امکان انتشار آسان و آنلاین تصاویر، ویدیوها و صداهای دست کاری شده را فراهم می‌سازد، کاری که می‌تواند تقلید از رسانه‌های خبری را آسان ساخته یا حتی امنیت فردی خبرنگاران را تهدید کند. در سال 2022، Graphika  ویدیوهای تولیدی توسط هوش مصنوعی را در فیس‌بوک شناسایی کرد که به نام یک سازمان خبری ناموجود به نام “وولف نیوز”، شبیه‌سازی می شد و به نظر می‌آمد پیام‌هایی در حمایت از حزب کمونیست چین را پخش می‌کند. در سال 2018، گروه‌های راست افراطی ویدیوهای ساختگی پورنوگرافی حاوی تصاویر تقلبی رعنا ایوب خبرنگار را برای انتقام از گزارش‌های تحقیقی او منتشر کردند که او را در معرض سالها هراس افکنی، فشار و تهدید به مرگ قرار داد.

در ایالات متحده، هیچ قانون فدرال خاصی وجود ندارد که به طور خاص بر فناوری‌های هوش مصنوعی اصطلاحا دیپ فیک deepfake (ساختگی عمیق یا پوشیده) نظارت کند. بنابراین هر پلتفرم رسانه اجتماعی، فروشگاه برنامه، موتور جستجو و انجمن آنلاینی، نگاه متفاوتی به این محتواها دارد. سیاست شرکت متا این است که محتواهای ساختگی را حذف کند. محتوی هایی که “احتمالاً افراد را به این گمراهی می اندازند که فکر کند فردی در ویدیو، چیزهایی را گفته، حال آنکه واقعاً نگفته باشد” یا که “محتوای یک ویدیو را ترکیب و/یا جایگزین  یا به آن چیزهایی را می افزایند، طوری که واقعی به نظر برسد.” با این حال، شرکت متا، استثناهایی را برای “طنزها یا سروده ها” اعمال می‌کند. علاوه بر این، با توجه به اینکه تصاویر ساختگی، واقعی تر و رایج‌تر می‌شوند، اجرای سیاست های رسانه ای ناظر بر محتواهای ساختگی، بطور فزاینده ای دشوارتر می شود. الگوریتم‌های شناسایی و تشخیص محتواهای واقعی از ساختگی نیز باید پیوسته پیشرفت کنند؛ در غیر این صورت، اکوسیستم اینترنت ممکن است برای خبرنگاران عمومی که اطلاعات ارسالی شان با پذیرش کمتری در میان مخاطبان همراه می شود، به محیط خطیری تبدیل شود.

چت‌بات‌ها نمی‌توانند کارکرد یکسانی با یک خبرنگار انسانی داشته باشند اما مدیران نهادهای خبری ممکن است همچنان از هوش مصنوعی برای بهینه‌سازی عملیات یا توجیه کاهش نیروی کار در کوتاه مدت استفاده کنند. در حال حاضر، هوش مصنوعی عمومی نمی‌تواند از حیث توانایی فنی، با نویسندگان و ویراستاران انسانی رقابت کند. مدل‌های زبانی بزرگ مانند ChatGPT بهترین تجهیزات را برای انجام خودکار تکالیف خاصی چون خلاصه‌نویسی اسناد دارند – اما نه مهارت‌های ویرایشی پیشرفته ای مانند برقراری ارتباط با منابع، تفکر تحلیلی اصیل، درک پیش زمینه ها یا نوشتن متن های بلند خلاقانه. مدل‌های زبانی بزرگ، قادر به پیش بینی الگوها و هم آیی واژه ها، بر پایه مجموعه داده‌های آموزشی خود هستند اما در کاربری هایِ مقیاس بزرگ، دچار اشتباهات واقعی می شوند یا حتی به تولید متونی می پردازند که سراسر جعلی است.

در فوریه 2023، پژوهشگران پن‌استیت Penn State همچنین دریافتند که مدل‌های زبانی بزرگ ممکن است متون سرقتی را کپی‌برداری و ارائه کنند، حال چه اینکه آنها را به شکلی نارسا بازنویسی کنند یا از مواد آموزشی، عینا کپی بردارند. (تشخیص) چنین رفتاری در برخی از مدل‌های زبانی همچونChatGPT، که به طور پیش‌فرض منابع را نشان نمی‌دهند یا به منبع ارجاع نمی‌دهند، دوچندان مشکل است. علاوه بر این، از آنجا که بسیاری از مدل‌های زبانی بزرگ بر پایه متون برگرفته از وب‌سایت‌ها و انجمن‌های آنلاین ساخته شده و آموزش می بینند – متونی که بسیاری از آنها به طور تاریخی، افراد را بر اساس عواملی مانند هویت جنسی، نژاد یا گرایش جنسی، مستثنا کرده یا توصیف می کنند – خروجی‌های خودکار آنها می‌تواند سوگیری‌های اجتماعی گسترده‌تری را بازتولید کند.

اکوسیستم اینترنت ممکن است برای خبرنگاران اجتماعی که با مردم سروکار دارند، به یک فضای خطیر تبدیل شود، خبرنگارانی که با مخاطبانی سروکار دارند که نسبت به اطلاعاتی که آنها منتقل می کنند، پذیرش کمتری دارند. با وجود این کاستی ها، برخی مدیران رسانه های خبری ممکن است از مدل‌های زبانی بزرگ برای کاهش هزینه‌ها در مدت کوتاه استفاده کنند و نه فقط برای افزایش بهره‌وری یا ایجاد ارزش افزوده مالی در درازمدت. وقتی G/O Media، یعنی شرکت مادر Gizmodo و Deadspin، مقالات سرگرمی تولیدی توسط هوش مصنوعی را در ژوئیه 2023 منتشر کرد، بازخورد عمومی بسیاری را به دلیل خطاهای واقعی بی‌شمار، عدم نظارت انسانی و کیفیت کلی ضعیف نوشتارشان در پی آورد. CNET  در ژانویه 2023 استفاده از مدل‌های زبانی بزرگ را پس از شناسایی شمار قابل توجهی از خطاها، اشتباهات و محتواهای سرقتی در مقالات تولیدی هوش مصنوعی متوقف کرد. این پایگاه اعتراف کرد که چنین مطالبی را ماهها بصورت “پنهانی” و بدون اطلاع رسانی روشنی درباره ماهیت آنها منتشر کرده است. همانگونه که دیوید والش David Walsh، تاریخ نگار، می گوید، “مشکل ما با هوش مصنوعی این نیست که واقعاً جایگزین ما خواهد شد، بلکه این است که برای توجیه تصمیمات تجاری فاجعه باری به کار گرفته خواهد شد که کلیت یک صنعت یا پیشه را نابود می کند، دقیقا به این دلیل که هوش مصنوعی عملا نمی‌تواند جایگزین ما بشود.”

در مارس 2023،  شرکت های OpenAI، OpenResearch  و پژوهشگران دانشگاه پنسیلوانیا برآورد کردند که مدل‌های زبانی بزرگ می‌توانند بر 80 درصد از کارکردهای نیروی کار آمریکا تأثیر داشته باشند و نویسندگان، گزارشگران و خبرنگاران در این زمینه از همه آسیب پذیرتر هستند. علاوه بر این، پژوهشگران موسسه فناوری ماساچوست (MIT)، دانشگاه اقتصاد لندن و دانشگاه بوستون، همبستگی correlation منفی ای را میان پذیرش یا بکارگیری هوش مصنوعی با  استخدام پرسنل در بازه زمانی 2010 تا 2018 کشف کردند: برای هر یک درصد افزایش در بکارگیری هوش مصنوعی، شرکت‌ها تقریباً یک درصد استخدام خود را کاهش دادند. شگفت نیست که کارکنان CNET در ماه مه 2023 بلاتکلیفی درازمدت ناشی از بکارگیری هوش مصنوعی را بعنوان یکی از دلایل تشکیل اتحادیه خود اعلام کردند یا انجمن نویسندگان  آمریکا (WGA) پیشنهاد داد که نوشتن صفحات screenwriting را برای هوش مصنوعی ممنوع کنند و نیز از محتواهای خلاقانه برای آموزش الگوریتم‌ها استفاده نشود. تأثیر هوش مصنوعی بر نیروی کار، تنها یک مسئله درازمدت نیست؛ بسیاری از نویسندگان و خبرنگاران هم اکنون هم به میزان قابل توجهی با ناامنی و بلاتکلیفی شغلی دست به گریبان هستند.

هوش مصنوعی زایا می‌تواند حجم هرزه نگاری یا محتواهای نادرست در اینترنت را افزایش دهد تا جایی که اخبار معتبر را در خود غرق کرده و دلارهای تبلیغاتی را از دسترس ناشران سنتی دور سازد. در حالی که مدل‌های زبانی بزرگ امروزی نمی‌توانند نثرهای اصیلی تولید کنند که با نویسندگان ماهر خبری قابل قیاس باشد، این مدل ها برای تولید محتواهای دستکاری شده کم هزینه و بی کیفیت در حجم بالا مناسب هستند. این تولید محتوای تقلبی برای اکثر اتاق‌های خبر سنتی مفید نیست اما به وب‌سایت‌های تبلیغاتی (MFA)  یعنی وب‌سایت‌های اسپمی که تنها برای بیشینه کردن بازدیدهای صفحه و کسب دلارهای تبلیغاتی طراحی شده‌اند، مفید هستند. تا اواخر ماه اوت 2023، شرکت تجزیه و تحلیل نیوزگاردNewsGuard حداقل 437 وب‌سایت را کشف کرد که از هوش مصنوعی زایا برای تولید مقادیر زیادی از مقالات تخیلی استفاده می‌کنند – بسیاری از این محتواها را نظریه‌های توطئه بی پایه، مشورت‌های پزشکی ناقص یا نقد های ساختگی کالاها تشکیل می دهند. این وب‌سایت‌ها برای جذب کلیک های بیشتر، از عناوین و عبارات مختلفی استفاده می کنند، مثلا این عنوان که “آیا لیمو می‌تواند حساسیت پوستی را درمان کند؟” یا این عبارت که “برای این اشتباه متاسفم. من به عنوان یک مدل زبانی هوش مصنوعی، به اطلاعات بیرونی یا به‌روزرسانی‌های خبری فراتر از داده‌های گذشته دسترسی ندارم. با این حال، بر اساس عنوان مقاله داده شده، می‌توان یک عنوان خبری جذاب ارائه داد.”

وب‌سایت‌های تبلیغاتی (MFA) فواید مادی عمومی ای فراهم نمی کنند اما بدون تدابیر نظارتی مناسب، می‌توانند خسارات بیرونی منفی و معنی‌داری را با ظهور هوش مصنوعی پدید آورند. افزایش چشمگیر اسپم ها یا هرزنگارهای تولیدی توسط هوش مصنوعی می‌تواند اعتماد و درک عمومی از رویدادهای مهم جاری را کاهش دهد، به ویژه اگر بازار اخبار واقعی را مشوه کند و خبرگزاری‌های معتبر و مشروع را که منابع متمرکز اطلاعات هستند، در سایه قرار دهد. وقتی اکوسیستم اینترنت با بات‌ها پر شده باشد، برای خبرنگاران انسانی به شدت دشوارتر خواهد بود که اخبار و اطلاعات قابل اعتمادی را منتشر کنند.

مزارع محتوا Content farms  نه تنها توجه کاربران را از وب‌سایت‌های خبری معتبر منحرف می‌کنند بلکه همچنین دلارهای ارزشمند تبلیغات دیجیتال را هم هدر می‌دهند. وب‌سایت‌های تولیدشده توسط هوش مصنوعی که نیوگارد NewsGuard  آنها را شناسایی کرده بود، پر از تبلیغات برنامه‌ریزی‌شده بودند، از جمله از برندهای معروف مانند Subaru  و  Citigroupکه تقریباً همه آنها به طور خودکار از طریق مبادله های تبلیغاتی گوگل Google’s Ad Exchange  لینک داده شده بودند. تبلیغات گوگل Google Ads، سیاست‌هایی را در برابر “محتوای اسپمی که بطور خودکار تولید شده” اجرا می‌کند اما نتایج بررسی محتواها را که توسط الگوریتم جایابی placement algorithm بدست می آید، منتشر نمی کند. در ژوئن 2023، یک مطالعه تحلیلی نشان داد که گوگل مکررا تبلیغاتی ویدئویی را منتشر کرده که متعلق به وب‌سایت‌های بی هویت و هرزنگار است بی آنکه مشتریانی که فضای تبلیغاتی خریداری می کنند، آگاه باشند. همان ماه، انجمن تبلیغ‌کنندگان ملی آمریکا تخمین زد که حدود 13 میلیارد دلار از درآمد تبلیغاتی دیجیتال به طور الگوریتمی به وب‌سایت‌های تبلیغاتی طعمه کلیک clickbait، هدایت می‌شود که تقریباً 15 درصد از کل 88 میلیارد دلاری است که بازاریابان هر سال برای مبادله تبلیغاتی خودکار هزینه می‌کنند. اگر این مبالغ به دلیل تولید محتواهای تبلیغاتی توسط هوش مصنوعی کانالیزه نمی شد، می‌توانست به عنوان یک خط تنفس برای خبرنگارانِ معتبر عمل کند.

تجزیه و تحلیل رویکردها و سیاست ها: 

تلاش حقوقی بزرگی در سراسر جهان در چریان است تا پلتفرم‌های فناوری بزرگ که میزبان محتواهای خبری هستند را وادار به پرداخت حق مولف یا کپی رایت به رسانه ها کند. در ژوئن 2023، پارلمان کانادا قانون آنلاین اخبار را تصویب کرد که از موتورهای جستجوی مشخص و پلتفرم‌های رسانه‌های اجتماعی اختصاصی می‌خواهد که به ناشران اخبار برای هر لینک یا نقل قول مقالات خارجی که کاربرانشان مشاهده یا به اشتراک می‌گذارند، تعرفه ای را پرداخت کنند. استرالیا و اتحادیه اروپا به ترتیب در سال 2021 قانون حقوق رسانه‌های خبری News Media Bargaining Code (NMBC)  و دستورالعمل کپی رایت (مجوز انتشار) را تصویب کردند و قانونگذاران در برزیل، هند، انگلستان، ایالات متحده و کالیفرنیا، یا این قانون را پیشنهاد داده یا تدابیر مشابهی را فعالانه در درست بررسی دارند.

پیش‌بینی‌های مدیر بودجه پارلمان کانادا نشان می‌دهد که با اجرای این قانون، سازمان‌های خبری ممکن است سالانه بالغ بر 329 میلیون دلار درآمد سالانه را میان خود تقسیم کنند. با این حال، این عدد تنها کسری از تقریباً 4.9 میلیارد دلاری است که رسانه‌های خبری کانادایی از سال 2010 تا 2022 از دست داده اند. همچنین اگر گوگل و متا تصمیم بگیرند که این قانون را کاملا نادیده بگیرند، چنین درآمدی هیچگاه محقق نخواهد شد. چند ساعت پس از تصویب قانون اخبار آنلاین در کانادا، شرکت متا اعلام کرد که قصد دارد دسترسی به اخبار را به طور دائمی برای کاربران کانادایی متوقف کند. بلافاصله پس از آن، گوگل نیز اعلام کرد که همه لینک‌های اخبار کانادا را در موتور جستجوی خود مسدود خواهد کرد.

نباید از این واکنش‌ها تعجب کرد: 

درست قبل از تصویب NMBC در استرالیا در سال 2021، متا به طور ناگهانی کاربران را از مشاهده صفحات خبری محروم کرد و گوگل هم اعلام کرد که ممکن است “هیچ گزینه واقعی” دیگری نداشته باشد جز چشم پوشی از ارائه خدمات جستجو در این کشور. با توجه به این تهدیدها، نمایندگان مجلس استرالیا متن نهایی NMBC  را به گونه‌ای اصلاح کردند که متا و گوگل را از هرگونه اقدام الزامی معاف کرد. همچنین پس از اجرای آیین نامه قانون کپی رایت در فرانسه در سال 2021، گوگل کاربران در این کشور را از دیدن پیش‌نمایش مقالات محروم کرد که موجب کاهش چشمگیر کلیک در صفحات خبری شد. این واکنش شرکت های متا و گوگل، دشواری های گفتگوی تحمیلی را روشن می سازد: در شرایطی که دروازه‌بان‌های دیجیتال به راحتی می‌توانند دسترسی کاربران اینترنتی به محتوای خبری را قطع کنند، دشوار بتوان مقررات پرداخت حق مولف به رسانه ها را اجرا کرد.

این تدابیر قانونی، که گاه به عنوان “مالیات لینک” شناخته می‌شوند، به انگیزه های نادرستی دامن می زنند. در گذشته، این تدابیر موجب شدند که گوگل و متا از نمایش محتوای خبری بر روی پلتفرم‌های خود منصرف شوند، که به نوبه خود منجر به کاهش جریان‌ حیاتی ترافیک وب‌سایت‌های خبری بیرونی می‌شود. چنین سیاست هایی می توانند در آینده شرکت هایی چون گوگل را وادارند که به جای نمایش لینک های بیرونی (رسانه ها)، با گنجاندن هوش مصنوعی در موتورهای جستجوی خود، آنها را برای ارائه پاسخ به پرسش‌های کاربران آماده سازند. تدابیر پرداخت اجباری همچنین وابستگی روزنامه‌نگاران به شرکت‌های فناوری بزرگ را تقویت  می کند حال آنکه این قوانین، علل ساختاری سلطه گوگل و متا بر بازار را چاره نمی کنند. به همین دلیل، شرکت‌های فناوری آمریکایی نیاز به قوانین و مقررات روشنی دارند که به شکل معناداری از فن آوری های تبلیغاتی آسیب رسان، گرد‌آوری داده و عملیات نامناسب هوش مصنوعی جلوگیری کند. اینگونه قوانین، به نوبه خود می‌توانند محیط آنلاین سالم‌تر و پایدارتری را فراهم آورند که در آن اتاق‌های خبر هم در طولانی مدت بتوانند رشد کنند.

برای پلتفرم‌های فناوری مهم، نیاز به قوانین و مقررات روشنی هست که مانع رفتارهای ضدرقابتی ای شود که قدرت دروازه‌بانی آنها را در برابر رسانه های خبری تقویت می‌کند. گفتگوهای دوجانبه نمی تواند موثر باشد اگر زمین بازی، برابر نباشد. چرا که گوگل و متا در سال‌های اخیر گام‌هایی برداشته‌اند تا قدرت دروازه‌بانی خود را در زمینه تبلیغات دیجیتال و توزیع محتوا تثبیت کنند و اکنون تقریباً مالک لیگی هستند که روزنامه‌نگاران در چارچوب آن فعالیت می‌کنند. به عنوان مثال، فروش DoubleClick توسط گوگل در سال 2008 به این شرکت امکان انحصاری کردن همه مراحل سه گانه فرآیند تبلیغات دیجیتال را داد: شبکه تبلیغاتی طرف خرید، ابزارهای نشر طرف فروش و مبادله تبلیغاتی  که بیشتر وبسایت‌های خبری در بستر آن، تبلیغاتی آنلاین را به مزایده می‌گذارند. به عبارت دیگر، تسلط بر بازار به این شرکت جستجو اجازه می‌دهد تا 35 درصد از درآمدی را که در غیر این صورت به جیب رسانه ها می رفت، از آنها بگیرد. به همین ترتیب، متا نیز با خرید رقبای نوپایی مانند اینستاگرام (2012) و واتس‌اپ (2014) قدرت دروازه‌بانی خود را افزایش داد و این امکان را یافت که داده‌های کاربران را در تمامی شرکت‌های تابعه‌اش یکپارچه کرده و تبلیغات شخصی‌سازی شده را به صورت دقیق‌تری در قیاس با روزنامه‌های سنتی ارائه دهد.

این رفتارها نگرانی‌های زیادی را در بسیاری از کشورها به وجود آورده‌اند. در ژوئن 2023، کمیسیون اروپایی در یک بیانیه رسمی‌ درباره روش‌های تبلیغاتی گوگل ادعا کرد که کنترل این شرکت بر تمام مراحل فرآیند تبلیغات دیجیتال، این امکان را فراهم آورده که گوگل بطور غیرقانونی رسانه ها را از امتیازات خود محروم سازد. در ژانویه 2023، وزارت دادگستری ایالات متحده نیز علیه گوگل به دلیل رویه های ضدرقابتی این شرکت، که رقابت آزاد در فضای تبلیغاتی دیجیتال را مختل می کند اقامه دعوا کرد و خواستار آن شد که مجموعه مدیریت تبلیغات آن به دو بخش مجزا تقسیم شود. در نوامبر 2021، کمیسیون تجارت فدرال (FTC) به خرید اینستاگرام و واتس‌اپ توسط شرکت متا اعتراض کرد تا امکان واگذاری احتمالی هر دو پلتفرم را فراهم کند.

همچنین در سال 2021، تحقیقات کمیسیون رقابت و مصرف‌کننده استرالیا (ACCC) دریافت که گوگل در ایجاد “نگرانی‌های رقابتی سامان یافته” دخالت داشته است، از جمله بازداشتن رقبای فناوری تبلیغاتی از قرار دادن آیتم های تبلیغات در یوتیوب و دیگر پلتفرم های تابع آن.

هم پلتفرم‌های فناوری و هم اتاق‌های خبر نیاز به چارچوب‌های رسمی برای ترویج اخلاق، عدالت و شفافیت در هر گونه ای از توسعه و بکارگیری هوش مصنوعی دارند. تقریباً 100 میلیون نهاد و شرکت در دو ماه اول عرضه چت جی.پی.تی ChatGPT در این پلتفرم ثبت‌نام کردند که نشان می دهد شرکت‌های زیادی، از جمله موتورهای جستجو و اتاق‌های خبر، مدل های بزرگ زبانی را به کار گرفته اند، پیش از آنکه ضمانت قانونی مستقیمی در کار باشد. آمریکا دارای قوانین حفظ حریم شخصی، حق انتشار یا کپی رایت، حفاظت از مصرف‌کننده و حقوق مدنی فدرال و ایالتی است که بر برخی جنبه‌های فضای دیجیتال هم اعمال می‌شود اما در مورد چگونگی تفسیر آنها در زمینه هوش مصنوعی زایا، ابهامات قانونی گسترده‌ای وجود دارد.

پلتفرم‌های فناوری باید حقوق مالکیت معنوی رسانه های خبری و خالقان انسانی محتواهای رسانه ای را محترم بشمارند به ویژه هنگام استفاده از مقالات دارای کپی رایت برای آموزش الگوریتم‌هایشان. توسعه‌دهندگان هوش مصنوعی، مدل های بزرگ زبانی LLMs را با استخراج میلیاردها مقاله مکتوب، تصاویر، فایل‌های صوتی و خطوط کد نرم‌افزاری که انسان‌ها تولید کرده اند، آموزش می دهند، معمولاً هم بدون پرداخت حق تالیف، بدون ذکر منبع، کسب اجازه  یا حتی آگاهی خالقان اصلی آنها.

علاوه بر این، ابزارهای هوش مصنوعی زایا، در موارد زیادی متن‌ها یا تصاویری را که مشمول کپی رایت هستند، بازتولید می‌کنند، گاهی حتی متن منبع را عینا و واژه به واژه نقل می‌کنند… پلتفرم‌های فناوری بزرگ نیاز به سیاست‌های محکمی در زمینه مدیریت محتوا دارند که به ایجاد یک اکوسیستم اطلاعاتی ایمن و سالم برای سازمان‌های خبری کمک کنند.

دولت‌ها باید سیاست‌هایی را ترویج کنند که ارزش روزنامه‌نگاری را به عنوان یک کالای عمومی به رسمیت می شناسد. صنعت خبر، اثرات بیرونی مثبتی خلق می‌کند که منافع آن به فراتر از مشترکان مستقیم رسانه ها یا خوانندگانشان می رسد. اتاق های خبر، منابع قابل توجهی را به گردآوری، واقعیت سنجی و انتشار اطلاعات به نفع عموم جامعه اختصاص می‌دهند و روزنامه‌نگاران به عنوان سازوکارهایی مستقل برای پاسخگو کردن نهادها و شرکت های قدرتمند تلاش می کنند. با این حال، ارزش اجتماعی بالای روزنامه نگاری، با سامانه سرمایه‌ داری بازار آزاد همخوانی ندارد. روزنامه‌نگاران درآمد خود را از تبلیغات و اشتراک‌ رسانه هایشان کسب می‌کنند و نه بهره‌مندی عمومی از اطلاعاتی که آنها نشر می دهند اما این منابع درآمدی شان هم در معرض تهدید الگوریتم‌های رتبه‌بندی، سطح تقاضای خواننده یا بازاریاب و حتی آسیب ناشی از نوسانات اقتصادی است.

جمع‌بندی: 

با گسترش بیشتر هوش مصنوعی، صنعت خبر و رسانه نیاز به ایجاد فضایی برای خود در یک اکوسیتسم  اطلاع رسانی شلوغ، پر هرج و مرج و کمتر اصیل دارد. رابطه بین پلتفرم‌های فناوری و اتاق‌های خبر در کوتاه و بلند مدت ارتقا خواهد یافت اما نیاز به چارچوب‌های محکم مدیریت دادها است تا از پایداری مالی رسانه ها و نشریات پشتیبانی کند و محیط آنلاین متنوع و معتبری را رشد دهد. موتورهای بزرگ جستجوی و پلتفرم‌های رسانه‌ اجتماعی نیاز به مرزهایی واضح برای نحوه بهره‌برداری از اطلاعات شخصی دارند که از آنها برای تبلیغات و دیگر اهدافشان استفاده می کنند.

مقررات و سیاست‌های کنونی، وافی و کامل نیستند. برای حفظ سلامت و پایداری بلندمدت صنعت خبر، به چیزی بیش از راهکارهای فناورانه نیاز هست. حمایت مالی مستقیم از اتاق‌های خبر، یک امری حیاتی است. علاوه بر این، مدیران اجرایی شرکت‌ها باید به دیدگاهها و نیز رفاه نویسندگان انسانی، از گذر حفاظت از مشاغل و توافق‌نامه هایی با اتحادیه های این صنف اولویت دهند تا روزنامه‌نگاری به عنوان یک گزینه شغلی پایدار و قابل دسترس تر، برقرار بماند. کلام آخر هم اینکه، اقداماتی که امروز توسط پلتفرم های فنآورانه، اتاق‌های خبر، دولت‌ها و افراد انجام می‌شود، چشم انداز درازمدت صنعت خبر را شکل خواهد داد.

نویسنده: کِیتلین چین Caitlin Chin

دیدگاهتان را بنویسید