هوش مصنوعی در بسیاری از زمینههای زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانیهای زیادی را برانگیخته است.
دادگاهها برای ارائه پروندههای مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف میکند. مدلهای هوش مصنوعی بر اساس مجموعه دادههای بزرگ آموزش داده میشوند و قوانین جعلی میسازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.
محتوای تولیدشده توسط هوش مصنوعی شاید قانعکننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی میتواند نادرست باشد. توهم هوش مصنوعی زمانی رخ میدهد که مدل هوش مصنوعی تلاش میکند شکافهای آموزشی خود را پر کند و در نتیجه با تولید محتوای نادرست میتواند در اختلافات حقوقی دردسرساز شود و به تصمیمات قانونی نادرست بیانجامد.
جنجالهای حقوقی هوش مصنوعی
شناختهشدهترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال ۲۰۲۳ برمیگردد که در آن وکلا خلاصهای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویورک ارسال کردند. این خلاصه با استفاده از چت جیپیتی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرمافزار میتواند توهم بزند نتوانستند آنرا راستیآزمایی کنند. عواقب این بررسی فاجعهبار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقیشان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.
نمونههای مشهور
با وجود چنین اتفاقات نامطلوبی، نمونههای دیگری همچنان اتفاق میافتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پروندههای وکالت خود را با استفاده از نرمافزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم میکرد ولی ادعا میکرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجالآفرینی کرده است.
چنانچه این روند کنترل نشود، استفاده بیمحابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف میکند. قصور مداوم وکلا در استفاده از این ابزارها میتواند باعث گمراهی و ازدحام در دادگاهها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.
ما تصاویری از افراد مشهور را دیدهایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپفیک) ساخته شدهاند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیلهای مسابقهای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تأثیر قوی بر سیستمهای حقوقی ما دارد.
دادگاهها در پروندههای دعوی که وکلا آنها را پیگیری میکنند باید بر اساس اطلاعاتی که وکیل ارائه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگرانکننده خواهد بود که نه تنها مسائل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستمهای حقوقی جهان است.
قوانین جعلی چگونه به وجود میآیند؟
شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبههای سیستم حقوقی است. اما استفاده از آن با مسئولیتها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفهای آموزش دیدهاند و عموماً ریسکپذیر نیستند. با این حال، برخی از وکلای بیاحتیاط گرفتار خطاهای هوش مصنوعی شدهاند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایندها قانونی راه پیدا کند، مشکلساز میشود، بهویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبرهایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.
اقدامات جهانی
در سرتاسر جهان، قانونگذاران و دادگاهها به روشهای مختلف نسبت به این جریان واکنش نشان دادهاند. چندین دادگاه ایالتی آمریکا راهنمایی، نظرات یا دستوراتی در مورد استفاده مولد از هوش مصنوعی صادر کرده اند که از پذیرش مسئولانه تا ممنوعیت کامل را شامل میشود. انجمنهای حقوقی در بریتانیا و بریتیش کلمبیا و دادگاههای نیوزلند نیز دستورالعملهایی را تدوین کردهاند.
در استرالیا، انجمن وکلای ان اس دابیلو (NSW) یک راهنمای هوش مصنوعی برای وکلای دادگستری دارد و مقالاتی را در مورد استفاده مسئولانه مطابق با قوانین رفتار وکلا منتشر کردهاند.
بسیاری از وکلا و قضات، مانند عموم مردم، درک درستی از هوش مصنوعی مولد دارند و میتوانند محدودیتها و مزایای آن را تشخیص دهند. اما افراد دیگری هم هستند که ممکن است آنقدر آگاه نباشند و نیاز به راهنمایی دارند. در این میان یک رویکرد باید اجباری شود: وکلایی که از ابزارهای هوش مصنوعی مولد استفاده میکنند نمیتوانند آن را جایگزینی برای قضاوت و سخت کوشی خود بدانند و باید درستی و قابلیت اطمینان اطلاعاتی گردآوریشده را بررسی کنند.
به طور کلی، هوش مصنوعی مولد پتانسیل تحولآفرینی برای سیستم حقوقی دارد، استفاده از آن با مسئولیتها و خطراتی همراه است. ایجاد تعادل بین استفاده از مزایای هوش مصنوعی و اطمینان از اینکه استفاده از محتوای تولید شده توسط هوش مصنوعی یکپارچگی سیستم قانونی را تضعیف نمیکند، مهم است.