به گزارش ایران اکونومیست و به نقل از نیواطلس، در سایر قابلیتهای هوش مصنوعی، از نسخههای جعلی صدای افراد به همراه ویدیوهای جعلی میتوان به گونهای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته است.
علاوه بر این مواردی وجود داشته که افراد تماسهای تلفنی دریافت کردهاند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده را شنیدهاند که از آنها خواسته تا در اسرع وقت، به دلیل شرایط اضطراری، پولی برای شخص واریز کنند. علاوه بر این، از صداهای جعلی میتوان برای دور زدن سیستمهای امنیتی تشخیص صدا استفاده کرد.
اگرچه در حال حاضر فناوریهایی طراحی شدهاند که تشخیص دهند آیا صداهای ظاهرا قانونی جعل عمیق هستند یا خیر، طبق گزارشها، آنتیفیک یکی از اولین سیستمهایی است که از تولید چنین جعلهایی در وهله اول جلوگیری میکند.
به طور خلاصه، این نرمافزار کار را با سختتر کردن خواندن ویژگیهای صوتی خاص در فایل ضبط شده صدای افراد توسط سیستمهای هوش مصنوعی انجام میدهد.
نینگ ژانگ(Ning Zhang)، مخترع، استادیار علوم و مهندسی رایانه در دانشگاه واشنگتن در سنت لویی میگوید: این ابزار از روش هوش مصنوعی مخرب استفاده میکند که در ابتدا بخشی از نرمافزارهای مجرمان سایبری بود، اما اکنون ما از آن برای دفاع در برابر آنها استفاده میکنیم.
ما سیگنال صوتی ضبط شده را اندکی تخریب میکنیم به اندازهای که همچنان برای شنوندگان انسانی درست به نظر برسد اما برای هوش مصنوعی کاملا متفاوت باشد.
این بدان معنی است که حتی اگر یک جعل عمیق از روی یک فایل ضبط شده تغییر یافته با آنتیفیک ایجاد شود، نتیجه شبیه صدای واقعی گوینده نخواهد بود. آزمایشهای انجامشده تاکنون نشان دادهاند که این فناوری بیش از ۹۵ درصد در جلوگیری از ایجاد جعلهای عمیق مؤثر بوده است.
ژانگ میگوید: اگرچه من نمیدانم در آینده در حوزه فناوری تولید صدا با هوش مصنوعی چه اتفاقی رخ میدهد زیرا ابزارها و قابلیتهای جدید همیشه در حال توسعه هستند اما من فکر میکنم استراتژی ما برای استفاده از روشهای رقبا علیه آنها همچنان موثر خواهد بود.