دهه هاست که اتاق خبر رسانه ها و خبرگزاری ها، کار در وضعیت های بحرانی پرشماری را تجربه کرده اند، همانطور که فناوریهای رایج و پرطرفدار هم بارها و بارها به صحنه آمده و الگوی کسب و کار رسانه ها را در معرض تهدید انقلاب و دگرگونی قرار داده اند. هوش مصنوعی (AI) بویژه پس از انتشار نسخه عمومی آزمایشی چت جی پی تی ChatGPT متعلق به شرکت اوپن ای. OpenAI در دسامبر 2022، تازه ترین دردسری است که صنعت خبر، گزارشگری و تحلیل با آن دست به گریبان شده است. چند نهاد خبری مانند بازفید BuzzFeed، نیوز کورپز آستِرِلیا News Corps Australia و جی/او مدیا G/O Media به سرعت با بکارگیری هوش مصنوعی به تولید محتوا پرداختند. در اوایل سال 2023، BuzzFeed به صورت آزمایشی از ChatGPT برای تدوین آزمونها، مقالات گردشگری و ایجاد یک ربات ارائه کننده ی دستورات آشپزی به نام “Botatouille” استفاده کرد. بسیاری از دیگر سازمان های خبری و رسانه ای، راهبردهای درازمدت تری را برای آینده در نظر میگیرند، به عنوان مثال روزنامه واشنگتن پست در ماه مه 2023 اعلام کرد که دو تیم داخلی را برای بررسی کاربردهای آتی هوش مصنوعی راهاندازی کرده است. اما در سوی دیگر ماجرا، نویسندگان هستند که عموما برخورد محتاطتری داشته اند: انجمن نویسندگان امریکا (Writers Guild of America, East) و اتحادیه گروه رسانهای Gizmodo در ژوئیه 2023، شرکت G/O Media را به خاطر انتشار مقالات تولید شده توسط هوش مصنوعی که بدون مشورت ابتدایی با کارکنان تحریریه انجام شد، محکوم کرده هشدار دادند که برنامههای غیرقابل اتکای هوش مصنوعی که فاقد اعتبار لازم هستند، به تولید محتواهای نادرست و کپی برداری از آثار نویسندگاه واقعی می پردازند و یک ” تهدید وجودی برای روزنامهنگاری به شمار می روند.”
برخی از شرکت های توسعه دهنده هوش مصنوعی تلاش می کنند تا با پیکربندی چتباتهای خود به عنوان ابزارهای تولید ارزشافزوده برای صنعت خبری – یعنی کمک بعنوان دستیار و نه جایگزین پرسنل خبری – از این جنجال عبور کنند. در چند ماه گذشته، گزارش میشود که گوگل با دست اندرکاران رسانه ها و خبرگزاری های ملی و محلی دیدار داشته تا Genesis را به آنها معرفی کند که یک چتبات هوش مصنوعی زایاست که میتواند عناوین، پستهای رسانههای اجتماعی و مقالات را تنظیم کند، و در نقش یک ابزار افزایش بهرهوری و افزایش درآمد مالی رسانه ها عمل نماید. در ژوئیه 2023، OpenAI با دست اندرکاران “پروژه روزنامهنگاری آمریکا” همکاری کرد تا 5 میلیون دلار به صورت مستقیم به عنوان کمک مالی مستقیم به رسانه های محلی ارائه دهد با این هدف که با کاربرد هوش مصنوعی آشنا شوند. در همان ماه، توافقی با انجمن مطبوعات ایالات متحده برای دسترسی به مقالات آرشیو شده این انجمن تا سال 1985، امضا شد تا از این محتواها برای آموزش مدلهای زبانی بزرگ (LLMs) استفاده شود و در مقابل شرکت OpenAI هزینههای اشتراک و استفاده تجربی از نرمافزار را تامین کند. اما این همکاریهای محدود، چشم بر روی تاریخچه ناخوشایند رابطه فناوری های تازه با اتاق های خبر می بندد، جایی که اغلب خبرنگارانی که از محتواهای تولیدشده آنها برای آموزش الگوریتمها استفاده شده، هیچ جبرانی دریافت نکردهاند حتی در حالی که انحصارهای تبلیغات دیجیتالی، مدتی طولانی است که عامل کاهش درآمد بازاریابی رسانه ها و کارکنان آنها بوده اند.
یک توجیه رایج این است که اتاقهای خبر باید متحول شوند تا خود را با پیشرفت های فناورانه سازگار کنند، اما این توصیف نه دقیق است و نه عادلانه. حتی رسانه ها و نشریاتی که با خواسته های شرکتهای قدرتمند فناورانه همراهی کرده اند نیز، پیامدهای منفی این همراهی را متحمل شدهاند. به عنوان مثال، برخی از رسانههای خبری دیجیتال برای بهرهبرداری از فرصتِ رشد بیسابقه رسانههای اجتماعی در اوایل دهه 2010، در راهبردهای توزیع خود بازنگری کردند و به کاربرانشان امکان مشاهده و به اشتراکگذاری لینک ها یا پیوندهای مقالات را در کانالهای غیرمتمرکز دادند تا به یک جریان پایدار از کلیکها دست یابند. BuzzFeed که ابتدا از طریق رواج در رسانههای اجتماعی، و نه اشتراکهای چاپی سنتی، کسب جایگاه کرد، نمونه ای از این الگوی کسب و کار نوآورانه است. اما وقتی فیسبوک در ژانویه 2018 الگوریتم رتبهبندی محتوای خود را تغییر داد تا اولویت را به محتواهای تبلیغاتی و تعاملات رابطه- محور بدهد، عملا موجب شد که وبسایت های خبری بیرونی، کمتر مشاهده شوند و در این ماجرا، رسانه هایی مانند BuzzFeed که پرچمدار استفاده از این فن آوری ها بودند، بیشترین آسیب را دیدند. BuzzFeed در آوریل 2023 بخاطر کاهش درآمد، بخش خبری خود را که اتفاقا جایزه پولیتزر را از آن بدست آورده بود، ناگهان تعطیل کرد، حال آنکه رسانه هایی همچون نیویورک تایمز که جریان درآمدی خود را با اشتراکهای سنتی، تنوع بخشیده بودند، کمتر آسیب دیدند.
مسوولیت پایداری (صنعت) خبری را نمیتوان تنها بر دوش نشریات و رسانه ها گذاشت؛ پلتفرمهای دیجیتال بزرگ نیز باید در این مسئولیت سهیم باشند تا پیامدهای قابل توجهی را که برای جامعه دارند، درک کرده و چاره کنند. با این حال، شرکتهای ارائه دهنده موتورهای جستجو و رسانههای اجتماعی در آمریکا، مشمول الزامات قانونی اندکی هستند تا مکلف شوند صحت، انصاف و شفافیت را در الگوریتمهای خود بگنجانند، از اطلاعات شخصی حساس در تبلیغات خود محافظت کنند، در آموزش های تبلیغاتی فناوری اطلاعات که رقابت عادلانه با ناشران خبری را ترویج می کنند، شرکت کنند و انتشار محتوای زیانبار آنلاین را کاهش دهند. در نبود مقررات روشن برای شرکت های فن آوری در ایالات متحده، شتاب اخیر در پذیرش هوش مصنوعی، دست کم چهار خطر عمده را پدید می آورد که میتواند به طور جدی پایداری فعالیت رسانه های خبری و دسترسی عمومی به اطلاعات را در آینده مختل کند.
موتورهای جست وجو ممکن است از هوش مصنوعی برای پاسخ به پرسشهای کاربران استفاده کنند، که این کار موجب کاهش قابل توجهی در ترافیک وبسایتهای خبری بیرونی میشود. روزنامهها در رابطه متقابل اما در بیشتر موارد نابرابری با موتورهای جستجو قرار دارند. گوگل که تقریباً 92 درصد از بازار موتور جستجوی جهان را کنترل میکند، حدود 24 میلیارد بازدید به وبسایتهای خبری ارسال میکند. این سهم، ممکن است بیش از یک سوم ترافیک آنلاین رسانه ها باشد که یک معیار حیاتی برای تبلیغات دیجیتال است. پس از انتشار نسخه آزمایشی ChatGPT، گوگل و مایکروسافت هر دو اعلام کردند که قصد دارند از هوش مصنوعی زایا استفاده کنند تا به طور مستقیم به پرسشهای کاربران پاسخ دهند. برخلاف نسخه کنونی ChatGPT که به اینترنت متصل نیست و فقط اطلاعاتی را منعکس می کند که تا تا سال 2021 به آن داده شده، Bing مایکروسافت که ChatGPT را هم در خود دارد و Bard گوگل قصد دارند پاسخها را از اطلاعات زمان واقعی در اکوسیستم اینترنت استخراج کنند، که این دسترسی زنده میتواند به آنها امکان تجزیه و تحلیل اخبار فوری را نیز بدهد. به این ترتیب، مدلهای بزرگ زبانی میتوانند قدرت دروازه بانی موتورهای جستجوی مسلط را افزایش دهند، کاری که هدف از آن بیشینه کردن تعامل با کاربران یا طول زمانی است که در صفحه پلتفرم آنها می مانند.
اگر مدلهای زبانی بزرگ(LLMs) ، شمار کمتری از خوانندگان را به کلیک کردن بر روی گوگل برای دسترسی به وبسایتهای بیرونی هدایت کنند، سازمانهای خبری دیجیتال، با ریسک از دست دادن یک منبع اصلی از دیدرسی آنلاین، کاهش مخاطب و در نتیجه از دست رفتن درآمدهای بزرگ تبلیغاتی روبرو خواهند شد. در آینده، اگر رسانه های خبری نتوانند در درازمدت و به شکل پایداری به ترافیک موتورهای جستجو تکیه کنند، وبسایتهایشان ممکن است بیشتر به درآمد حاصل از اشتراک ها وابسته شوند تا از درآمدی که وابسته به شرکتهای فناوری بزرگ است، رهاتر شوند یعنی از دیوارههای پرداخت paywalls برای جذب درآمد بهرهبرند. در سال 2019، 76 درصد از روزنامههای ایالات متحده از دیوارههای پرداخت استفاده میکردند، در مقایسه با 60 درصد در سال 2017. بسیاری از آنها نرخ اشتراک را در این بازه زمانی به طور چشمگیری افزایش دادند در حالی که درآمد تبلیغاتی آنها همزمان کاهش پیدا کرده است. اشتراکهای پرداختی میتوانند به برخی از سازمانهای خبری کمک کنند تا پایگاه خوانندگان وفادار خود را بسازند، به ویژه اگر محتوای آنها تخصصی یا اختصاصی باشد اما میزان اشتراکهای پرداختی آنقدر بزرگ نیست که برای حمایت از ادامه کار همه نشریات کفایت کند و نشریات کوچکتر یا کمتر تخصصی تر با احتمال تعطیلی بیشتری روبرو خواهند بود.
همچنین پیامدهای منفی اجتماعی هم در محدود کردن دسترسی به اطلاعات دقیق و مرتبط با زمینههایی همچون دگرش های آب و هوا، بهداشت عمومی و حقوق مدنی وجود دارد. استفن بیتس، استاد دانشگاه نوادا در لاسوگاس، هشدار داده که افزایش فراگیر دیوارههای پرداخت، ممکن است ” بیش از پیش، به پیدایش «بیابان های خبری درآمدی به جای بیابان های جغرافیایی» بیانجامد.” به عبارت دیگر، افرادی که نمیتوانند هزینه چندین اشتراک رسانه ای را تحمل کنند، با احتمال بیشتری اطلاعات گمراه کننده و محتواهای بی کیفیت را باور کنند – چه توسط انسان تولید شده باشند یا توسط هوش مصنوعی – یعنی اطلاعات و اخباری که به رایگان در رسانههای اجتماعی یا موتورهای جستجو در دسترس هستند. در یک اینترنت چندپاره تر، ریسک بیشتری وجود دارد که افراد در حباب های ذهنی و ایدئولوژیک خود زندگی کنند چرا که چتباتها نمیتوانند چندین دیدگاه متنوع را در کنار هم ارائه دهند، کاری که یک خبرنگار انسانی قادر به انجام آن است. الگوریتمهای رسانههای اجتماعی که به طور معمول بر پایه سابقه فعالیت افراد در صفحات اینترنت past browsing activity یا علایق شخصی آنها، به تولید محتوا یا ارائه مشورت و توصیه می پردازند، به تقویت بیشتر اتاقهای صدا echo chambers برپایه مشارکت کاربر و نه خیر عمومی کمک میکنند.
پلتفرمهای رسانههای اجتماعی از هوش مصنوعی برای نظم دهی خودکار پستها استفاده میکنند که این روش به آنها امکان می دهد تا از رسانه های خبری مشروع، به سود اخبار جعلی، هرزه نوشته ها و محتواهای دستکاری شده که توسط کاربران آپلود شده، اولویت زدایی کنند. پیش از عصر اینترنت، رسانههای خبری، توجه عمومی را در مقصدهای متمرکز کنترل میکردند و به شکل موثری به عنوان پنجره اصلی انبوه مخاطبان خود برای فهم رویدادهای جاری عمل میکردند. اما پلتفرمهای رسانههای اجتماعی در دو دهه گذشته با فراهم کردن امکان انتشار گسترده بین المللی محتوا برای همه، موجب شده اند تا الگوریتمهای مرتبسازی محتوا، به دروازه بانان جدیدی برای کنترل توجه افکار عمومی و تاثیرگذاری اطلاعات تبدیل شوند. روزنامهها به عنوان ناشران اطلاعات، برای انتشار ادعاهای مشکوک یا اخبار نادرست، مسئولیت قانونی دارند اما پلتفرمهای رسانههای اجتماعی عموما چنین مسوولیتی ندارند. بخش 230 از قانون شرافت ارتباطات آمریکا Decency Act of Communications به “شرکت های خدمات رایانه ای آنلاین” اجازه می دهد تا از پاسخگویی به انواع محتوایی که توسط کاربران بارگذاری میشود، معافیت داشته باشند. در نتیجه، بسیاری از پلتفرمهای رسانههای اجتماعی از سیستمهای توصیه هوش مصنوعی استفاده میکنند که بطور خودکار محتواها را بر پایه علایق پیشبینی شده کاربران یا ارتباطات شخصی مرتب می کنند، کاری که هدفش بیشینه کردن زمان ماندن در صفحه به جای دانش عمومی جمعی است.
وقتی فیسبوک در ژانویه 2018 تصمیم گرفت که الگوریتمش محتواهای عمومی خبری را با اولویت پایینتری نمایش دهد، وبسایتهای خبری بیرونی، بازدیدکنندگان خود را از دست دادند. بر اساس تجزیه و تحلیل شرکت کامسکور Comscore، در بازه شش ماهه پس از این تغییر الگوریتمی، ترافیک BuzzFeed به میزان 13 درصد و ترافیک ABC News به میزان 12 درصد کاهش یافت. مرکز پژوهشی پیو Pio دریافت که تنها 31 درصد از افراد بالغ آمریکایی گزارش دادهاند که تا سال 2022 اخبار درج شده در فیسبوک را مصرف کردهاند حال آنکه این آمار در سال 2016 شصت و شش درصد بود. توانایی فیسبوک به تنهایی برای کاهش حجم مراجعههای خودکار به وبسایتهای خبری، در کنار کاهش کاربران خود فیسبوک در آمریکا که برای نخستین بار در سال 2022 رخ داد، تأثیر غیرمستقیمی بر روی گرایش عمده ناشران به اتکای به گوگل برای جذب بازدیدکننده و کسب دلارهای تبلیغات دیجیتال برجا گذاشت. علاوه بر این، همانطور که فرانسیس هاوگن Frances Haugen، سوت زن افشاگر فیسبوک در سال 2021، نشان داد، تغییر سیاست الگوریتمی سال 2018 این پلتفرم، نه تنها احتمالا به سودآوری روزنامهها آسیب زد بلکه به تأثیرگذاری متصور آنها در اکوسیستم رسانههای اجتماعی نیز آسیب رساند. در یک یادداشت داخلی منتشر شده، دانشمندان داده در این شرکت دریافتند که این تصمیم “اثرات جانبی نامطلوبی روی بخشهای مهمی از محتوای عمومی، مانند بخش اخبار سیاسی داشته است”، چرا که این الگوریتم مکررا اطلاعات نادرست تولید شده توسط کاربران را همطراز اخبار تولید شده توسط رسانه های معتبر، رتبهبندی میکرد.
علاوه بر متن، دسترسی گسترده به ابزارهای هوش مصنوعی زایا، برای هر کاربر اینترنتی امکان انتشار آسان و آنلاین تصاویر، ویدیوها و صداهای دست کاری شده را فراهم میسازد، کاری که میتواند تقلید از رسانههای خبری را آسان ساخته یا حتی امنیت فردی خبرنگاران را تهدید کند. در سال 2022، Graphika ویدیوهای تولیدی توسط هوش مصنوعی را در فیسبوک شناسایی کرد که به نام یک سازمان خبری ناموجود به نام “وولف نیوز”، شبیهسازی می شد و به نظر میآمد پیامهایی در حمایت از حزب کمونیست چین را پخش میکند. در سال 2018، گروههای راست افراطی ویدیوهای ساختگی پورنوگرافی حاوی تصاویر تقلبی رعنا ایوب خبرنگار را برای انتقام از گزارشهای تحقیقی او منتشر کردند که او را در معرض سالها هراس افکنی، فشار و تهدید به مرگ قرار داد.
در ایالات متحده، هیچ قانون فدرال خاصی وجود ندارد که به طور خاص بر فناوریهای هوش مصنوعی اصطلاحا دیپ فیک deepfake (ساختگی عمیق یا پوشیده) نظارت کند. بنابراین هر پلتفرم رسانه اجتماعی، فروشگاه برنامه، موتور جستجو و انجمن آنلاینی، نگاه متفاوتی به این محتواها دارد. سیاست شرکت متا این است که محتواهای ساختگی را حذف کند. محتوی هایی که “احتمالاً افراد را به این گمراهی می اندازند که فکر کند فردی در ویدیو، چیزهایی را گفته، حال آنکه واقعاً نگفته باشد” یا که “محتوای یک ویدیو را ترکیب و/یا جایگزین یا به آن چیزهایی را می افزایند، طوری که واقعی به نظر برسد.” با این حال، شرکت متا، استثناهایی را برای “طنزها یا سروده ها” اعمال میکند. علاوه بر این، با توجه به اینکه تصاویر ساختگی، واقعی تر و رایجتر میشوند، اجرای سیاست های رسانه ای ناظر بر محتواهای ساختگی، بطور فزاینده ای دشوارتر می شود. الگوریتمهای شناسایی و تشخیص محتواهای واقعی از ساختگی نیز باید پیوسته پیشرفت کنند؛ در غیر این صورت، اکوسیستم اینترنت ممکن است برای خبرنگاران عمومی که اطلاعات ارسالی شان با پذیرش کمتری در میان مخاطبان همراه می شود، به محیط خطیری تبدیل شود.
چتباتها نمیتوانند کارکرد یکسانی با یک خبرنگار انسانی داشته باشند اما مدیران نهادهای خبری ممکن است همچنان از هوش مصنوعی برای بهینهسازی عملیات یا توجیه کاهش نیروی کار در کوتاه مدت استفاده کنند. در حال حاضر، هوش مصنوعی عمومی نمیتواند از حیث توانایی فنی، با نویسندگان و ویراستاران انسانی رقابت کند. مدلهای زبانی بزرگ مانند ChatGPT بهترین تجهیزات را برای انجام خودکار تکالیف خاصی چون خلاصهنویسی اسناد دارند – اما نه مهارتهای ویرایشی پیشرفته ای مانند برقراری ارتباط با منابع، تفکر تحلیلی اصیل، درک پیش زمینه ها یا نوشتن متن های بلند خلاقانه. مدلهای زبانی بزرگ، قادر به پیش بینی الگوها و هم آیی واژه ها، بر پایه مجموعه دادههای آموزشی خود هستند اما در کاربری هایِ مقیاس بزرگ، دچار اشتباهات واقعی می شوند یا حتی به تولید متونی می پردازند که سراسر جعلی است.
در فوریه 2023، پژوهشگران پناستیت Penn State همچنین دریافتند که مدلهای زبانی بزرگ ممکن است متون سرقتی را کپیبرداری و ارائه کنند، حال چه اینکه آنها را به شکلی نارسا بازنویسی کنند یا از مواد آموزشی، عینا کپی بردارند. (تشخیص) چنین رفتاری در برخی از مدلهای زبانی همچونChatGPT، که به طور پیشفرض منابع را نشان نمیدهند یا به منبع ارجاع نمیدهند، دوچندان مشکل است. علاوه بر این، از آنجا که بسیاری از مدلهای زبانی بزرگ بر پایه متون برگرفته از وبسایتها و انجمنهای آنلاین ساخته شده و آموزش می بینند – متونی که بسیاری از آنها به طور تاریخی، افراد را بر اساس عواملی مانند هویت جنسی، نژاد یا گرایش جنسی، مستثنا کرده یا توصیف می کنند – خروجیهای خودکار آنها میتواند سوگیریهای اجتماعی گستردهتری را بازتولید کند.
اکوسیستم اینترنت ممکن است برای خبرنگاران اجتماعی که با مردم سروکار دارند، به یک فضای خطیر تبدیل شود، خبرنگارانی که با مخاطبانی سروکار دارند که نسبت به اطلاعاتی که آنها منتقل می کنند، پذیرش کمتری دارند. با وجود این کاستی ها، برخی مدیران رسانه های خبری ممکن است از مدلهای زبانی بزرگ برای کاهش هزینهها در مدت کوتاه استفاده کنند و نه فقط برای افزایش بهرهوری یا ایجاد ارزش افزوده مالی در درازمدت. وقتی G/O Media، یعنی شرکت مادر Gizmodo و Deadspin، مقالات سرگرمی تولیدی توسط هوش مصنوعی را در ژوئیه 2023 منتشر کرد، بازخورد عمومی بسیاری را به دلیل خطاهای واقعی بیشمار، عدم نظارت انسانی و کیفیت کلی ضعیف نوشتارشان در پی آورد. CNET در ژانویه 2023 استفاده از مدلهای زبانی بزرگ را پس از شناسایی شمار قابل توجهی از خطاها، اشتباهات و محتواهای سرقتی در مقالات تولیدی هوش مصنوعی متوقف کرد. این پایگاه اعتراف کرد که چنین مطالبی را ماهها بصورت “پنهانی” و بدون اطلاع رسانی روشنی درباره ماهیت آنها منتشر کرده است. همانگونه که دیوید والش David Walsh، تاریخ نگار، می گوید، “مشکل ما با هوش مصنوعی این نیست که واقعاً جایگزین ما خواهد شد، بلکه این است که برای توجیه تصمیمات تجاری فاجعه باری به کار گرفته خواهد شد که کلیت یک صنعت یا پیشه را نابود می کند، دقیقا به این دلیل که هوش مصنوعی عملا نمیتواند جایگزین ما بشود.”
در مارس 2023، شرکت های OpenAI، OpenResearch و پژوهشگران دانشگاه پنسیلوانیا برآورد کردند که مدلهای زبانی بزرگ میتوانند بر 80 درصد از کارکردهای نیروی کار آمریکا تأثیر داشته باشند و نویسندگان، گزارشگران و خبرنگاران در این زمینه از همه آسیب پذیرتر هستند. علاوه بر این، پژوهشگران موسسه فناوری ماساچوست (MIT)، دانشگاه اقتصاد لندن و دانشگاه بوستون، همبستگی correlation منفی ای را میان پذیرش یا بکارگیری هوش مصنوعی با استخدام پرسنل در بازه زمانی 2010 تا 2018 کشف کردند: برای هر یک درصد افزایش در بکارگیری هوش مصنوعی، شرکتها تقریباً یک درصد استخدام خود را کاهش دادند. شگفت نیست که کارکنان CNET در ماه مه 2023 بلاتکلیفی درازمدت ناشی از بکارگیری هوش مصنوعی را بعنوان یکی از دلایل تشکیل اتحادیه خود اعلام کردند یا انجمن نویسندگان آمریکا (WGA) پیشنهاد داد که نوشتن صفحات screenwriting را برای هوش مصنوعی ممنوع کنند و نیز از محتواهای خلاقانه برای آموزش الگوریتمها استفاده نشود. تأثیر هوش مصنوعی بر نیروی کار، تنها یک مسئله درازمدت نیست؛ بسیاری از نویسندگان و خبرنگاران هم اکنون هم به میزان قابل توجهی با ناامنی و بلاتکلیفی شغلی دست به گریبان هستند.
هوش مصنوعی زایا میتواند حجم هرزه نگاری یا محتواهای نادرست در اینترنت را افزایش دهد تا جایی که اخبار معتبر را در خود غرق کرده و دلارهای تبلیغاتی را از دسترس ناشران سنتی دور سازد. در حالی که مدلهای زبانی بزرگ امروزی نمیتوانند نثرهای اصیلی تولید کنند که با نویسندگان ماهر خبری قابل قیاس باشد، این مدل ها برای تولید محتواهای دستکاری شده کم هزینه و بی کیفیت در حجم بالا مناسب هستند. این تولید محتوای تقلبی برای اکثر اتاقهای خبر سنتی مفید نیست اما به وبسایتهای تبلیغاتی (MFA) یعنی وبسایتهای اسپمی که تنها برای بیشینه کردن بازدیدهای صفحه و کسب دلارهای تبلیغاتی طراحی شدهاند، مفید هستند. تا اواخر ماه اوت 2023، شرکت تجزیه و تحلیل نیوزگاردNewsGuard حداقل 437 وبسایت را کشف کرد که از هوش مصنوعی زایا برای تولید مقادیر زیادی از مقالات تخیلی استفاده میکنند – بسیاری از این محتواها را نظریههای توطئه بی پایه، مشورتهای پزشکی ناقص یا نقد های ساختگی کالاها تشکیل می دهند. این وبسایتها برای جذب کلیک های بیشتر، از عناوین و عبارات مختلفی استفاده می کنند، مثلا این عنوان که “آیا لیمو میتواند حساسیت پوستی را درمان کند؟” یا این عبارت که “برای این اشتباه متاسفم. من به عنوان یک مدل زبانی هوش مصنوعی، به اطلاعات بیرونی یا بهروزرسانیهای خبری فراتر از دادههای گذشته دسترسی ندارم. با این حال، بر اساس عنوان مقاله داده شده، میتوان یک عنوان خبری جذاب ارائه داد.”
وبسایتهای تبلیغاتی (MFA) فواید مادی عمومی ای فراهم نمی کنند اما بدون تدابیر نظارتی مناسب، میتوانند خسارات بیرونی منفی و معنیداری را با ظهور هوش مصنوعی پدید آورند. افزایش چشمگیر اسپم ها یا هرزنگارهای تولیدی توسط هوش مصنوعی میتواند اعتماد و درک عمومی از رویدادهای مهم جاری را کاهش دهد، به ویژه اگر بازار اخبار واقعی را مشوه کند و خبرگزاریهای معتبر و مشروع را که منابع متمرکز اطلاعات هستند، در سایه قرار دهد. وقتی اکوسیستم اینترنت با باتها پر شده باشد، برای خبرنگاران انسانی به شدت دشوارتر خواهد بود که اخبار و اطلاعات قابل اعتمادی را منتشر کنند.
مزارع محتوا Content farms نه تنها توجه کاربران را از وبسایتهای خبری معتبر منحرف میکنند بلکه همچنین دلارهای ارزشمند تبلیغات دیجیتال را هم هدر میدهند. وبسایتهای تولیدشده توسط هوش مصنوعی که نیوگارد NewsGuard آنها را شناسایی کرده بود، پر از تبلیغات برنامهریزیشده بودند، از جمله از برندهای معروف مانند Subaru و Citigroupکه تقریباً همه آنها به طور خودکار از طریق مبادله های تبلیغاتی گوگل Google’s Ad Exchange لینک داده شده بودند. تبلیغات گوگل Google Ads، سیاستهایی را در برابر “محتوای اسپمی که بطور خودکار تولید شده” اجرا میکند اما نتایج بررسی محتواها را که توسط الگوریتم جایابی placement algorithm بدست می آید، منتشر نمی کند. در ژوئن 2023، یک مطالعه تحلیلی نشان داد که گوگل مکررا تبلیغاتی ویدئویی را منتشر کرده که متعلق به وبسایتهای بی هویت و هرزنگار است بی آنکه مشتریانی که فضای تبلیغاتی خریداری می کنند، آگاه باشند. همان ماه، انجمن تبلیغکنندگان ملی آمریکا تخمین زد که حدود 13 میلیارد دلار از درآمد تبلیغاتی دیجیتال به طور الگوریتمی به وبسایتهای تبلیغاتی طعمه کلیک clickbait، هدایت میشود که تقریباً 15 درصد از کل 88 میلیارد دلاری است که بازاریابان هر سال برای مبادله تبلیغاتی خودکار هزینه میکنند. اگر این مبالغ به دلیل تولید محتواهای تبلیغاتی توسط هوش مصنوعی کانالیزه نمی شد، میتوانست به عنوان یک خط تنفس برای خبرنگارانِ معتبر عمل کند.
تجزیه و تحلیل رویکردها و سیاست ها:
تلاش حقوقی بزرگی در سراسر جهان در چریان است تا پلتفرمهای فناوری بزرگ که میزبان محتواهای خبری هستند را وادار به پرداخت حق مولف یا کپی رایت به رسانه ها کند. در ژوئن 2023، پارلمان کانادا قانون آنلاین اخبار را تصویب کرد که از موتورهای جستجوی مشخص و پلتفرمهای رسانههای اجتماعی اختصاصی میخواهد که به ناشران اخبار برای هر لینک یا نقل قول مقالات خارجی که کاربرانشان مشاهده یا به اشتراک میگذارند، تعرفه ای را پرداخت کنند. استرالیا و اتحادیه اروپا به ترتیب در سال 2021 قانون حقوق رسانههای خبری News Media Bargaining Code (NMBC) و دستورالعمل کپی رایت (مجوز انتشار) را تصویب کردند و قانونگذاران در برزیل، هند، انگلستان، ایالات متحده و کالیفرنیا، یا این قانون را پیشنهاد داده یا تدابیر مشابهی را فعالانه در درست بررسی دارند.
پیشبینیهای مدیر بودجه پارلمان کانادا نشان میدهد که با اجرای این قانون، سازمانهای خبری ممکن است سالانه بالغ بر 329 میلیون دلار درآمد سالانه را میان خود تقسیم کنند. با این حال، این عدد تنها کسری از تقریباً 4.9 میلیارد دلاری است که رسانههای خبری کانادایی از سال 2010 تا 2022 از دست داده اند. همچنین اگر گوگل و متا تصمیم بگیرند که این قانون را کاملا نادیده بگیرند، چنین درآمدی هیچگاه محقق نخواهد شد. چند ساعت پس از تصویب قانون اخبار آنلاین در کانادا، شرکت متا اعلام کرد که قصد دارد دسترسی به اخبار را به طور دائمی برای کاربران کانادایی متوقف کند. بلافاصله پس از آن، گوگل نیز اعلام کرد که همه لینکهای اخبار کانادا را در موتور جستجوی خود مسدود خواهد کرد.
نباید از این واکنشها تعجب کرد:
درست قبل از تصویب NMBC در استرالیا در سال 2021، متا به طور ناگهانی کاربران را از مشاهده صفحات خبری محروم کرد و گوگل هم اعلام کرد که ممکن است “هیچ گزینه واقعی” دیگری نداشته باشد جز چشم پوشی از ارائه خدمات جستجو در این کشور. با توجه به این تهدیدها، نمایندگان مجلس استرالیا متن نهایی NMBC را به گونهای اصلاح کردند که متا و گوگل را از هرگونه اقدام الزامی معاف کرد. همچنین پس از اجرای آیین نامه قانون کپی رایت در فرانسه در سال 2021، گوگل کاربران در این کشور را از دیدن پیشنمایش مقالات محروم کرد که موجب کاهش چشمگیر کلیک در صفحات خبری شد. این واکنش شرکت های متا و گوگل، دشواری های گفتگوی تحمیلی را روشن می سازد: در شرایطی که دروازهبانهای دیجیتال به راحتی میتوانند دسترسی کاربران اینترنتی به محتوای خبری را قطع کنند، دشوار بتوان مقررات پرداخت حق مولف به رسانه ها را اجرا کرد.
این تدابیر قانونی، که گاه به عنوان “مالیات لینک” شناخته میشوند، به انگیزه های نادرستی دامن می زنند. در گذشته، این تدابیر موجب شدند که گوگل و متا از نمایش محتوای خبری بر روی پلتفرمهای خود منصرف شوند، که به نوبه خود منجر به کاهش جریان حیاتی ترافیک وبسایتهای خبری بیرونی میشود. چنین سیاست هایی می توانند در آینده شرکت هایی چون گوگل را وادارند که به جای نمایش لینک های بیرونی (رسانه ها)، با گنجاندن هوش مصنوعی در موتورهای جستجوی خود، آنها را برای ارائه پاسخ به پرسشهای کاربران آماده سازند. تدابیر پرداخت اجباری همچنین وابستگی روزنامهنگاران به شرکتهای فناوری بزرگ را تقویت می کند حال آنکه این قوانین، علل ساختاری سلطه گوگل و متا بر بازار را چاره نمی کنند. به همین دلیل، شرکتهای فناوری آمریکایی نیاز به قوانین و مقررات روشنی دارند که به شکل معناداری از فن آوری های تبلیغاتی آسیب رسان، گردآوری داده و عملیات نامناسب هوش مصنوعی جلوگیری کند. اینگونه قوانین، به نوبه خود میتوانند محیط آنلاین سالمتر و پایدارتری را فراهم آورند که در آن اتاقهای خبر هم در طولانی مدت بتوانند رشد کنند.
برای پلتفرمهای فناوری مهم، نیاز به قوانین و مقررات روشنی هست که مانع رفتارهای ضدرقابتی ای شود که قدرت دروازهبانی آنها را در برابر رسانه های خبری تقویت میکند. گفتگوهای دوجانبه نمی تواند موثر باشد اگر زمین بازی، برابر نباشد. چرا که گوگل و متا در سالهای اخیر گامهایی برداشتهاند تا قدرت دروازهبانی خود را در زمینه تبلیغات دیجیتال و توزیع محتوا تثبیت کنند و اکنون تقریباً مالک لیگی هستند که روزنامهنگاران در چارچوب آن فعالیت میکنند. به عنوان مثال، فروش DoubleClick توسط گوگل در سال 2008 به این شرکت امکان انحصاری کردن همه مراحل سه گانه فرآیند تبلیغات دیجیتال را داد: شبکه تبلیغاتی طرف خرید، ابزارهای نشر طرف فروش و مبادله تبلیغاتی که بیشتر وبسایتهای خبری در بستر آن، تبلیغاتی آنلاین را به مزایده میگذارند. به عبارت دیگر، تسلط بر بازار به این شرکت جستجو اجازه میدهد تا 35 درصد از درآمدی را که در غیر این صورت به جیب رسانه ها می رفت، از آنها بگیرد. به همین ترتیب، متا نیز با خرید رقبای نوپایی مانند اینستاگرام (2012) و واتساپ (2014) قدرت دروازهبانی خود را افزایش داد و این امکان را یافت که دادههای کاربران را در تمامی شرکتهای تابعهاش یکپارچه کرده و تبلیغات شخصیسازی شده را به صورت دقیقتری در قیاس با روزنامههای سنتی ارائه دهد.
این رفتارها نگرانیهای زیادی را در بسیاری از کشورها به وجود آوردهاند. در ژوئن 2023، کمیسیون اروپایی در یک بیانیه رسمی درباره روشهای تبلیغاتی گوگل ادعا کرد که کنترل این شرکت بر تمام مراحل فرآیند تبلیغات دیجیتال، این امکان را فراهم آورده که گوگل بطور غیرقانونی رسانه ها را از امتیازات خود محروم سازد. در ژانویه 2023، وزارت دادگستری ایالات متحده نیز علیه گوگل به دلیل رویه های ضدرقابتی این شرکت، که رقابت آزاد در فضای تبلیغاتی دیجیتال را مختل می کند اقامه دعوا کرد و خواستار آن شد که مجموعه مدیریت تبلیغات آن به دو بخش مجزا تقسیم شود. در نوامبر 2021، کمیسیون تجارت فدرال (FTC) به خرید اینستاگرام و واتساپ توسط شرکت متا اعتراض کرد تا امکان واگذاری احتمالی هر دو پلتفرم را فراهم کند.
همچنین در سال 2021، تحقیقات کمیسیون رقابت و مصرفکننده استرالیا (ACCC) دریافت که گوگل در ایجاد “نگرانیهای رقابتی سامان یافته” دخالت داشته است، از جمله بازداشتن رقبای فناوری تبلیغاتی از قرار دادن آیتم های تبلیغات در یوتیوب و دیگر پلتفرم های تابع آن.
هم پلتفرمهای فناوری و هم اتاقهای خبر نیاز به چارچوبهای رسمی برای ترویج اخلاق، عدالت و شفافیت در هر گونه ای از توسعه و بکارگیری هوش مصنوعی دارند. تقریباً 100 میلیون نهاد و شرکت در دو ماه اول عرضه چت جی.پی.تی ChatGPT در این پلتفرم ثبتنام کردند که نشان می دهد شرکتهای زیادی، از جمله موتورهای جستجو و اتاقهای خبر، مدل های بزرگ زبانی را به کار گرفته اند، پیش از آنکه ضمانت قانونی مستقیمی در کار باشد. آمریکا دارای قوانین حفظ حریم شخصی، حق انتشار یا کپی رایت، حفاظت از مصرفکننده و حقوق مدنی فدرال و ایالتی است که بر برخی جنبههای فضای دیجیتال هم اعمال میشود اما در مورد چگونگی تفسیر آنها در زمینه هوش مصنوعی زایا، ابهامات قانونی گستردهای وجود دارد.
پلتفرمهای فناوری باید حقوق مالکیت معنوی رسانه های خبری و خالقان انسانی محتواهای رسانه ای را محترم بشمارند به ویژه هنگام استفاده از مقالات دارای کپی رایت برای آموزش الگوریتمهایشان. توسعهدهندگان هوش مصنوعی، مدل های بزرگ زبانی LLMs را با استخراج میلیاردها مقاله مکتوب، تصاویر، فایلهای صوتی و خطوط کد نرمافزاری که انسانها تولید کرده اند، آموزش می دهند، معمولاً هم بدون پرداخت حق تالیف، بدون ذکر منبع، کسب اجازه یا حتی آگاهی خالقان اصلی آنها.
علاوه بر این، ابزارهای هوش مصنوعی زایا، در موارد زیادی متنها یا تصاویری را که مشمول کپی رایت هستند، بازتولید میکنند، گاهی حتی متن منبع را عینا و واژه به واژه نقل میکنند… پلتفرمهای فناوری بزرگ نیاز به سیاستهای محکمی در زمینه مدیریت محتوا دارند که به ایجاد یک اکوسیستم اطلاعاتی ایمن و سالم برای سازمانهای خبری کمک کنند.
دولتها باید سیاستهایی را ترویج کنند که ارزش روزنامهنگاری را به عنوان یک کالای عمومی به رسمیت می شناسد. صنعت خبر، اثرات بیرونی مثبتی خلق میکند که منافع آن به فراتر از مشترکان مستقیم رسانه ها یا خوانندگانشان می رسد. اتاق های خبر، منابع قابل توجهی را به گردآوری، واقعیت سنجی و انتشار اطلاعات به نفع عموم جامعه اختصاص میدهند و روزنامهنگاران به عنوان سازوکارهایی مستقل برای پاسخگو کردن نهادها و شرکت های قدرتمند تلاش می کنند. با این حال، ارزش اجتماعی بالای روزنامه نگاری، با سامانه سرمایه داری بازار آزاد همخوانی ندارد. روزنامهنگاران درآمد خود را از تبلیغات و اشتراک رسانه هایشان کسب میکنند و نه بهرهمندی عمومی از اطلاعاتی که آنها نشر می دهند اما این منابع درآمدی شان هم در معرض تهدید الگوریتمهای رتبهبندی، سطح تقاضای خواننده یا بازاریاب و حتی آسیب ناشی از نوسانات اقتصادی است.
جمعبندی:
با گسترش بیشتر هوش مصنوعی، صنعت خبر و رسانه نیاز به ایجاد فضایی برای خود در یک اکوسیتسم اطلاع رسانی شلوغ، پر هرج و مرج و کمتر اصیل دارد. رابطه بین پلتفرمهای فناوری و اتاقهای خبر در کوتاه و بلند مدت ارتقا خواهد یافت اما نیاز به چارچوبهای محکم مدیریت دادها است تا از پایداری مالی رسانه ها و نشریات پشتیبانی کند و محیط آنلاین متنوع و معتبری را رشد دهد. موتورهای بزرگ جستجوی و پلتفرمهای رسانه اجتماعی نیاز به مرزهایی واضح برای نحوه بهرهبرداری از اطلاعات شخصی دارند که از آنها برای تبلیغات و دیگر اهدافشان استفاده می کنند.
مقررات و سیاستهای کنونی، وافی و کامل نیستند. برای حفظ سلامت و پایداری بلندمدت صنعت خبر، به چیزی بیش از راهکارهای فناورانه نیاز هست. حمایت مالی مستقیم از اتاقهای خبر، یک امری حیاتی است. علاوه بر این، مدیران اجرایی شرکتها باید به دیدگاهها و نیز رفاه نویسندگان انسانی، از گذر حفاظت از مشاغل و توافقنامه هایی با اتحادیه های این صنف اولویت دهند تا روزنامهنگاری به عنوان یک گزینه شغلی پایدار و قابل دسترس تر، برقرار بماند. کلام آخر هم اینکه، اقداماتی که امروز توسط پلتفرم های فنآورانه، اتاقهای خبر، دولتها و افراد انجام میشود، چشم انداز درازمدت صنعت خبر را شکل خواهد داد.