به گزارش ایران اکونومیست، روزنامه «اعتماد» نوشت: کارشناسان هشدار دادهاند که انتخابات سال آینده در بریتانیا و ایالات متحده میتواند کاملا تحت تاثیر موج محتواهای دروغین تولید شده به وسیله هوش مصنوعی قرار گیرد. این محتواها میتوانند شامل متن، تصویر، صدا و ویدیوهایی باشند که در ابعاد وسیع در شبکههای اجتماعی منتشر میشود و اطلاعاتی نادرست را درباره موضوعات خاص و چالشبرانگیز به مخاطبان منتقل میکند.
سم آلتمن، مدیرعامل شرکت OpenAI (شرکت سازنده چتبات هوش مصنوعی ChatGPT) هفته گذشته در یکی از نشستهای استماع کنگره در این باره گفت که نسل جدید فناوریهای هوش مصنوعی میتواند کاربران را گمراه کرده و به آنها اطلاعات غلط بدهد. به گفته او، «مدلهای جدید این فناوری توانایی چشمگیری در اقناع یا انتقال اطلاعات نادرست در گفتوگوهای یک به یک دارند و این موضوع محل نگرانی جدی است.»
آلتمن برای رفع این نگرانی به قانونگذاران پیشنهاد داد که روش جدیدی را در قانونگذاری پیرامون فناوریهای مبتنی بر هوش مصنوعی در پیش بگیرند: «در زمینه قانونگذاری باید هوشمندانه عمل کرد. لازم است مردم بدانند محتوایی که در اختیار آنها قرار میگیرد توسط مدلهای هوش مصنوعی تولید شده یا منبع انسانی دارد. البته با توجه به رشد سریع فناوریهای هوش مصنوعی لازم است که علاوه بر در پیش گرفتن سیاستهای درست از سوی شرکتهای سازنده، آموزش عمومی در این زمینه هم در دستور کار قرار بگیرد.»
ریشی سوناک، نخستوزیر بریتانیا روز پنجشنبه ۱۸ مه در این باره گفت که انگلستان در تلاش است تا در زمینه محدود کردن خطرات هوش مصنوعی پیشتاز باشد.
روزنامه گاردین نوشته است: نگرانیها پیرامون اثرگذاری هوش مصنوعی زمانی تشدید شد که محصولات مبتنی بر هوش مصنوعی نظیر ChatGPT یا میدجرنی توانستند متنهای قانعکننده و تصاویری باورپذیر ایجاد کنند.
روزنامه نیویورکتایمز چندی قبل در گزارشی نوشته بود: هوش مصنوعی میتواند در فرآیندهای دموکراتیک جای انسانها را بگیرد؛ نه از طریق رای دادن بلکه با اثرگذاری روی افکار عمومی و لابیگری. یک مدل هوش مصنوعی میتواند بهطور اتوماتیک روی فرآیندهای اثرسنجی و نظرسنجی اثر بگذارد. این مدلها قادرند برای سردبیران روزنامههای محلی نامه بنویسند و از آنها بخواهند که نگاه دیگری را در تولید و انتشار روزنامه دنبال کنند. این رباتها میتوانند روزانه میلیونها بار در مورد مقالات خبری، پستهای وبلاگها یا پستهای رسانههای اجتماعی نظر بنویسند، میتوانند ویدیوهایی کاملا ساختگی درباره افراد تولید کنند، میتوانند ظرف چند ثانیه تصاویری دروغین ایجاد کنند.
بهطور خلاصه، هوش مصنوعی میتواند کاری را که روسها در سال ۲۰۱۶ با میلیونها دلار بودجه و صدها کارمند موفق به انجامآن شدند، به تنهایی انجام دهد. در حال حاضر شبکههای اجتماعی نظیر فیسبوک، اینستاگرام یا توییتر راهکارهایی برای مقابله با اکانتهای دروغین و فعالیتهای مشکوک در شبکههای اجتماعی پیدا کردهاند، اما با توسعه یافتن فناوریهای مبتنی بر هوش مصنوعی شرایط به کلی تغییر خواهد کرد و دیگر توییتهای حاوی اطلاعات گمراهکننده یا حملات هماهنگ نیستند که شیوه اصلی اثرگذاری خواهند بود.
ناتانای سندرز و بروس شینر در روزنامه نیویورکتایمز نوشتهاند: مدلهای هوش مصنوعی میتوانند با استفاده از دادههای بسیار زیادی که در اختیار دارند، بهطور هدفمند برای برقراری ارتباط مستقیم، راه انداختن کارزارهای تاثیرگذاری بر افکار عمومی و تولید محتوای مرتبط مستقیما نقاط ضعف سیستمهای سیاسی را هدف قرار دهند. در گذشته نه چندان دور، موجهای پروپاگاندا بر پایه متنها و پیامهای از پیش نوشته شده یا گروهی از افراد که به آنها پول پرداخت شده بود بنا میشد، اما اکنون فناوریهایی نظیر ChatGPT دورنمای ایجاد یک موج تبلیغاتی دروغین به وسیله رباتها را به کلی تغییر دادهاند. احزاب و گروهها میتوانند مرتبا بر اساس یکسری داده اولیه علیه رقبایشان محتوای جدید تولید کنند و بهطور همزمان هزاران حساب کاربری در شبکههای اجتماعی محتوای تولید شده از سوی مدلهای هوش مصنوعی را منتشر و درباره آنها صحبت کنند.
پروفسور مایکل وولدریج، مدیر بنیاد تحقیقات هوش مصنوعی در موسسه آلن تورینگ بریتانیا میگوید: «مهمترین نگرانی من درباره هوش مصنوعی توانایی محصولات مبتنی بر این فناوری در تولید اطلاعات دروغین است. این نگرانی برای ما در رده نخست است. ما انتخابات سرنوشتساز بریتانیا و ایالات متحده را در سال آینده در پیش داریم و میدانیم که شبکههای اجتماعی به شدت مستعد انتشار اطلاعات دروغین هستند. در گذشته هم اطلاعات دروغین به وفور وجود داشت، اما مساله این است که هوش مصنوعی میتواند در ابعاد صنعتی این اطلاعات دروغین را تولید و منتشر کند.» مایکل وولدریج میافزاید: «دیگر نیازی به استخدام تعداد زیادی انسان و پرداخت پولی هنگفت نیست و کافی است یک نفر با تجربه اندک از برنامهنویسی در طول یک بعدازظهر هویتهای متعدد دروغینی را تولید کند که راجع به طیف گستردهای از مسائل اظهارنظر دروغین میکنند.»
اخیرا نمونههای زیادی از محتواهای تولید شده از سوی هوش مصنوعی به بیشتر شدن این نگرانیها دامن زدهاند. در ماه مارس، تصاویری ساختگی از بازداشت دونالد ترامپ، رییسجمهور پیشین ایالات متحده در نیویورک و کشیده شدن او روی زمین توسط نیروهای پلیس منتشر شد. اندکی بعد تصاویر پاپ فرانسیس، رهبر کاتولیکهای جهان با لباس ورزشی در شبکههای اجتماعی فراگیر شد و سپس نوبت به یک ویدیو از جو بایدن رسید که با هوش مصنوعی تغییر کند و اظهارات او در خصوص ارسال تانک به اوکراین برای مبارزه با روسیه به ارسال تانک برای مبارزه با ترنسجندرها تبدیل شود.
برخی تحلیلگران میگویند همانگونه که در گذشته از فتوشاپ به عنوان یک ابزار جدید برای دستکاری تصاویر رونمایی شد، تصاویر ساختگی زیادی به وسیله این نرمافزار ساخته شدند و مردم دریافتند که باید با تردید به برخی تصاویر و احتمال ساختگی بودن آنها نگاه کنند، در خصوص هوش مصنوعی هم همین اتفاق خواهد افتاد، اما برخی دیگر تاکید دارند فرآیند آگاه شدن عموم مردم به زمان زیادی نیاز دارد و تا آن زمان تحولات زیادی ممکن است اتفاق بیفتد.
الکساندر لزلی، تحلیلگر موسسه «ریکوردد فیوچر» هشدار میدهد که تکنولوژیهای اینچنینی به ویژه تکنولوژی صداسازی در آینده و تا زمان انتخابات پیشرفتهای زیادی خواهند داشت و ممکن است از سوی افراد و گروهها برای تولید محتواهای دروغین با هدف تاثیرگذاری در انتخابات به کار گرفته شوند. او معتقد است: «بدون آموزش گسترده و افزایش آگاهی عمومی با یک تهدید جدی مواجه خواهیم بود.»
نتایج یک پژوهش جدید از سوی نیوگارد، یک موسسه امریکایی درباره انتشار اطلاعات دروغین نشان میدهد که آخرین نسخه منتشر شده ChatGPT زمانی که از آن خواسته میشود با استفاده از درونمایه ۱۳۰۰ خبر دروغ منتشر شده در فضای اینترنت، ۱۰۰ خبر دروغین جدید تولید کند، میتواند به خوبی هر ۱۰۰ نمونه را به وجود بیاورد، اما گوگل بارد، چتبات جدید گوگل در این زمینه ضعیفتر است و در پاسخ به درخواست مشابه میتواند ۷۶ روایت دروغ تولید کند.
در گذشته نه چندان دور، موجهای پروپاگاندا بر پایه متنها و پیامهای از پیش نوشته شده یا گروهی از افراد که به آنها پول پرداخت شده بود، بنا میشد اما اکنون فناوریهایی نظیر ChatGPT دورنمای ایجاد یک موج تبلیغاتی دروغین به وسیله رباتها را به کلی تغییر دادهاند.
اخیرا نمونههای زیادی از محتواهای تولید شده از سوی هوش مصنوعی به بیشتر شدن این نگرانیها دامن زدهاند. در ماه مارس، تصاویری ساختگی از بازداشت دونالد ترامپ، رییسجمهور پیشین ایالات متحده در نیویورک و کشیده شدن او روی زمین توسط نیروهای پلیس منتشر شد. اندکی بعد تصاویر پاپ فرانسیس، رهبر کاتولیکهای جهان با لباس ورزشی در شبکههای اجتماعی فراگیر شد و سپس نوبت به یک ویدیو از جو بایدن رسید که با هوش مصنوعی تغییر کند و اظهارات او در خصوص ارسال تانک به اوکراین برای مبارزه با روسیه به ارسال تانک برای مبارزه با ترنسجندرها تبدیل شود.