به گزارش ایران اکونومیست و به نقل از سیانان، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعلهای عمیق واقعیتر هشدار داد.
نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت میکند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیکها تصویری آینهای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد میشود.
برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شدهاند، مانند ویدیویی که نشان میداد ولودیمیر زلنسکی رئیسجمهور اوکراین به کشورش میگوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایهگذاری و البته برای کلاهبرداری بود.
اما فقط افراد مشهور در معرض خطر نیستند. شهروندان عادی نیز میتوانند تحت تأثیر این فناوری قرار گیرند.
ساهوتا گفت: ما داستانهای افراد مشهور را میشنویم و در واقع میتوان آن را روی هر کسی انجام داد. دیپ فیک در واقع با فیلم مستهجن انتقام جویانه شروع شد. شما واقعا باید مراقب باشید.
ساهوتا افزود که راه تشخیص محتواهای دستکاری شده از طریق ویدئو و صدایی است که قطع میشوند.
وی گفت: شما باید یک چشم هوشیار داشته باشید. اگر با یک ویدئو مواجه هستید، باید به دنبال چیزهای عجیب و غریب مانند زبان بدن، سایههای عجیب و غریب و این نوع چیزها باشید. در مورد صدا نیز باید بپرسید آیا فرد چیزهایی میگوید که به طور معمول میگوید؟
ساهوتا همچنین استدلال کرد که در حال حاضر سیاستگذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل عمیق و نحوه تشخیص آنها به اندازه کافی تلاش نمیکنند. او توصیه کرد که یک سیستم تأیید محتوا پیادهسازی شود که از توکنهای دیجیتال برای احراز هویت محتواها و شناسایی جعلهای عمیق استفاده کند.
وی گفت: حتی افراد مشهور سعی میکنند راهی برای ایجاد یک تمبر قابل اعتماد، نوعی نشانه یا سیستم احراز هویت بیابند تا در صورت داشتن هر نوع تعامل غیر حضوری، راهی برای تأیید وجود داشته باشد. این چیزی است که در سطح سازمان ملل شروع به اتفاق افتادن کرده است. مثلاً اینکه چگونه مکالمات را احراز هویت کنیم یا صحت یک ویدیو را تایید کنیم؟