به گزارش ایران اکونومیست؛ یک مقاله جدید نقش پیچیده هوش مصنوعی را در جامعه مورد بحث قرار می دهد و بر پتانسیل آن برای سود و زیان تاکید می کند. او سهم هوش مصنوعی در امنیت ملی، نقش آن در تشدید مسائل اجتماعی مانند رادیکالسازی و قطبیسازی، و اهمیت درک و مدیریت ریسکهای آن را بررسی میکند.
به گفته یکی از دانشگاهیان دانشگاه لنکستر، هوش مصنوعی (AI) و الگوریتمها این قابلیت را دارند و در حال حاضر برای تشدید رادیکالسازی، تقویت قطبیسازی، و انتشار نژادپرستی و بیثباتی سیاسی مورد استفاده قرار میگیرند.
جو برتون، استاد امنیت بینالمللی در دانشگاه لنکستر، معتقد است که هوش مصنوعی و الگوریتمها چیزی بیش از ابزارهایی هستند که توسط آژانسهای امنیت ملی برای خنثی کردن فعالیتهای مخرب آنلاین استفاده میشوند. او پیشنهاد میکند که آنها همچنین میتوانند به قطبیسازی، رادیکالیسم و خشونت سیاسی دامن بزنند و از این طریق به تهدیدی برای امنیت ملی تبدیل شوند.
علاوه بر این، او میگوید، فرآیندهای اوراق بهادارسازی (ارائه فناوری به عنوان یک تهدید وجودی) در نحوه طراحی، استفاده از هوش مصنوعی و نتایج مضری که ایجاد کرده است، مؤثر بوده است.
هوش مصنوعی در اوراق بهادارسازی و تأثیر اجتماعی آن
مقاله پروفسور برتون اخیراً در مجله Elsevier’s high-imact Technology in Society منتشر شده است.
پروفسور برتون می گوید: «هوش مصنوعی اغلب به عنوان ابزاری برای مقابله با افراط گرایی خشونت آمیز در نظر گرفته می شود. "اینجا طرف دیگر بحث است."
این مقاله به چگونگی امنیتی شدن هوش مصنوعی در طول تاریخ خود و در تصاویر رسانهها و فرهنگ عامه، و با کاوش نمونههای مدرن هوش مصنوعی با اثرات قطبیکننده و رادیکالیزهکننده که به خشونت سیاسی کمک کرده است، میپردازد.
بعد از این خبر ترجمه مقاله هوش مصنوعی در جنگ و امنیت سایبری را نیز بخوانید.