تایمز در ماه مارس از یک زن ۱۸ ساله اوکراینی به نام "لوبا دوونکو" نام برد و در مقاله منتشر شده اش ادعا کرد که این فرد روزنامهنگاری خوانده، خیلی مسلط انگلیسی صحبت نمیکند و بعد از حمله روسیه شروع به حمل سلاح کرده است. با این حال، موضوع این بود که دوونکو در دنیای واقعی وجود ندارد و خبر کمی پس از انتشار حذف شد.
به گزارش digitaltrends، لوبا دوونکو یک شخصیت آنلاین جعلی بود که برای سرمایه گذاری از علاقه روزافزون به داستانهای جنگ اوکراین و روسیه در توییتر و به دست آوردن طرفداران طراحی شده بود. این حساب نه تنها قبل از مارس هرگز توییت نکرده بود، بلکه نام کاربری متفاوتی نیز داشت. در عکس پروفایل دوونکو، برخی از تارهای موی او از بقیه سرش جدا شده بود، چند مژه از دست رفته بود، و مهمتر از همه، چشمانش دقیقا در مرکز صفحه قرار داشت. همه این موارد نشانههایی از یک چهره مصنوعی بودند که توسط یک الگوریتم هوش مصنوعی ایجاد شده بود.
چهره دوونکو توسط فناوری دیپ فیک ساخته شده است، تکنیکی که به هر کسی اجازه میدهد چهرهای را بر چهره شخص دیگر در یک ویدیو نیز قرار دهد و برای همه چیز از محتوای غیر اخلاقی گرفته تا دستکاری سخنرانی رهبران جهان استفاده میشود این فناوری یک مشکل رو به رشد است که مبارزه با اطلاعات نادرست را دشوارتر میکند.
This is a modal window.
Beginning of dialog window. Escape will cancel and close the window.
End of dialog window.
در چند سال گذشته، در حالی که شبکههای اجتماعی عکسهای بیچهره و ناشناس را سرکوب میکنند، هوش مصنوعی بازیگران و رباتهای مخرب را با یک سلاح ارزشمند مسلح کرده است و آن توانایی تولید تصاویری شبیه به انسانهای واقعی است. نکته جالبی که در ارتباط با این تصاویر وجود دارد این است که این تصاویر منحصر به فرد هستند و حتی با بررسی دقیق، اکثر مردم نمیتوانند تفاوت را تشخیص دهند. دکتر سوفی نایتینگل، استاد روانشناسی در دانشگاه لنکستر بریتانیا، دریافت که افراد فقط ۵۰ درصد شانس دارند که چهرههای ساخته شده با هوش مصنوعی را ببینند و حتی بسیاری آنها را قابل اعتمادتر از چهرههای واقعی میدانند.
چهرههای تولید شده توسط هوش مصنوعی در واقع با سرعتی سرسامآور اینترنت را تسخیر کردهاند. جدا از حسابهایی مانند دوونکوکه از شخصیتهای ترکیبی برای جذب دنبالکنندگان استفاده میکنند، این فناوری اخیراً کمپینهای هشداردهندهتری را تقویت کرده است. استفاده از این فناوری توسط کشورهایی مانند چین در ترویج روایتهای دولتی مشاهده شده است. در یک بررسی گذرا در توییتر، طولی نکشید که چندین ضد واکسن، طرفدار روسیه پیدا شدند. همه در پشت یک چهره کامپیوتری پنهان شده بودند تا برنامههای خود را پیش ببرند و به هر کسی که سر راهشان ایستاده بود حمله کنند. اگرچه توییتر و فیسبوک مرتباً چنین کابرانی را حذف میکنند، اما چارچوبی برای مقابله با لفرادی که دارای چهرهای غیرواقعی هستند، ندارند.
Sensity، یک شرکت راه حلهای کلاهبرداری مبتنی بر هوش مصنوعی، تخمین میزند که حدود ۰.۲ ٪ تا ۰.۷ ٪ از افراد در شبکههای اجتماعی محبوب از عکسهای تولید شده توسط رایانه استفاده میکنند. این به خودی خود چندان زیاد به نظر نمیرسد، اما ارقام برای فیس بوک (۲.۹ میلیارد کاربر)، اینستاگرام (۱.۴ میلیارد کاربر) و توییتر (۳۰۰ میلیون کاربر) است. این موضوع این به معنا است که میلیونها ربات و بازیگر به طور بالقوه میتوانند بخشی از کمپینهای اطلاعات نادرست باشند. شرکت کروم ارقام Sensity را تأیید میکند.
بخشی از اینکه چرا عکسهای تولید شده توسط هوش مصنوعی به سرعت تکثیر شدهاند این است که دریافت آنها چقدر آسان است. در پلتفرمهایی مانند Generated Photos، هر کسی میتواند صدها هزار چهره جعلی با وضوح بالا را با چند دلار به دست آورد و افرادی که برای اهدافی نیاز به گروههایی از کاربران دارند مانند کمپینهای افشاگری شخصی، میتوانند تصاویر جعلی را از وبسایتهایی مانند thispersondoesnotexist.com دانلود کنند. این وبسایتها زندگی را برای افرادی مانند بنجامین استریک، مدیر تحقیقات مرکز انعطافپذیری اطلاعات بریتانیا، که تیمش هر روز ساعتها را صرف پیگیری و تجزیه و تحلیل محتوای فریبنده آنلاین میکند، چالشبرانگیز کرده است.
ایوان براون، بنیانگذار Generated Photos، استدلال میکند که همه چیز بد نیست. او معتقد است که تصاویر جعلی موارد استفاده مثبت زیادی دارند، مانند ناشناس کردن چهرهها در نمای خیابان Google Maps و شبیهسازی دنیای واقعی در بازی و این همان چیزی است که این برنامه تبلیغ میکند. اگر کسی در کار گمراه کردن افراد باشد، براون میگوید امیدوار است که سیستمهای دفاعی ضد کلاهبرداری پلتفرم او بتوانند فعالیتهای مضر را شناسایی کنند و در نهایت شبکههای اجتماعی بتوانند عکسهای تولید شده را از عکسهای معتبر جداکنند.
تایلر ویلیامز، مدیر تحقیقات در Graphika، یک شرکت تحلیل شبکههای اجتماعی که برخی از گستردهترین کمپینهای مرتبط با شخصیتهای جعلی را کشف کرده است، میگوید تا زمانی که یک راهکار درست برای شناسایی تصاویر جعلی وجود نداشته باشد، استفاده از رسانههای های اجتماعی ممکن است به کاهش اعتماد مربوط به نهادهای عمومی مانند دولتها و روزنامهنگارها کمک کند. ویلیامز اضافه میکند که یک عنصر حیاتی در مبارزه با سوء استفاده از چنین فناوریهایی برنامه درسی سواد رسانهای است که از سنین پایین شروع میشود.
چند راه مطمئن برای تشخیص اینکه آیا یک چهره مصنوعی ساخته شده است وجود دارد. نکتهای که در اینجا باید به خاطر داشته باشید این است که این چهرهها به سادگی با ترکیب تعداد زیادی عکس به تصویر کشیده میشوند؛ بنابراین اگرچه چهره واقعی به نظر میرسند، اما سرنخهای زیادی را میتوانید پیدا کنید تا جعلی بودن تصاویر مشخص شود. به طور مثال شکل گوش یا گوشواره ممکن است با هم مطابقت نداشته باشند، رشتههای مو ممکن است با هم تفاوت داشته باشند و عینک ممکن است عجیب باشد.
رایجترین راه این است که وقتی از چند چهره جعلی عبور میکنید، همه چشمهای آنها دقیقاً در یک موقعیت قرار میگیرند در مرکز صفحه این موضوع جعلی بودن تصویر را نشان میدهد. باید توجه کرد که مهمترین تهدیدی که عکسهای تولید شده توسط هوش مصنوعی ایجاد میکنند این است که آنها به سود دروغگویی دامن میزند و اعتماد کردن را به طور کلی دشوار میکنند.