شنبه ۲۴ آذر ۱۴۰۳ - 2024 December 14 - ۱۱ جمادی الثانی ۱۴۴۶
۱۴ آذر ۱۴۰۲ - ۱۳:۰۹

چت جی‌پی‌تی اطلاعات خصوصی را در تکرار کلمات افشا کرد!

پژوهشگران دریافته‌اند که ربات هوش مصنوعی گفتگوگر چت جی‌پی‌تی(ChatGPT) در صورت درخواست از آن برای تکرار کلمات، می‌تواند اطلاعات شخصی را افشا کند.
چت جی‌پی‌تی اطلاعات خصوصی را در تکرار کلمات افشا کرد!
کد خبر: ۶۷۰۳۵۸

به گزارش ایران اکونومیست و به نقل از انگجت، گروهی از پژوهشگران به تازگی مقاله‌ای را منتشر کرده‌اند که نشان می‌دهد ChatGPT می‌تواند به طور ناخواسته قسمتی از داده‌ها از جمله شماره تلفن افراد، آدرس‌های ایمیل و تاریخ تولد را که با درخواست از آن برای تکرار همیشگی کلمات آموزش دیده بود، افشا کند.

ماجرا از این قرار است که کاربران به عنوان مثال از این چت‌بات می‌خواهند که یک کلمه مانند «سلام» را برای همیشه تکرار کند و گویا این ربات در خلال تکرار این کلمه اقدام به افشای اطلاعات شخصی کاربران می‌کند.

اکنون بر اساس گزارش‌ها، انجام این کار از این پس معادل نقض شرایط خدمات ChatGPT برشمرده می‌شود.

بدین ترتیب اگر اکنون از ChatGPT بخواهید که یک کلمه را برای همیشه تکرار کند، چنانچه در تصویر خبر مشاهده می‌کنید، ربات به شما پاسخ می‌دهد که «این محتوا ممکن است خط‌مشی محتوا یا شرایط استفاده از ما را نقض کند. اگر فکر می‌کنید با خطای سیستم مواجه شده‌اید، لطفا بازخورد خود را ارسال کنید. نظرات شما به تحقیقات ما در این زمینه کمک می‌کند.»

با این حال، هیچ چیزی در خط‌مشی محتوای شرکت سازنده این ربات یعنی OpenAI وجود ندارد که کاربران را از درخواست تکرار کلمات برای همیشه، از دریافت خدمات منع کند.

شرکت OpenAI در «شرایط استفاده» از ChatGPT بیان می‌کند که کاربران نمی‌توانند از هیچ روش خودکار یا برنامه‌ای برای استخراج داده‌ها یا خروجی‌ها از سرویس‌ها استفاده کنند، اما صرفاً وادار کردن ChatGPT برای تکرار یک کلمه تا ابد، اتوماسیون یا برنامه‌ریزی نیست.

ربات هوش مصنوعی ChatGPT داده‌های آموزشی را که سرویس‌های هوش مصنوعی مدرن از آن پشتیبانی می‌کنند، به نمایش درآورده است. البته منتقدان، شرکت‌هایی مانند OpenAI را متهم کرده‌اند که از حجم عظیمی از داده‌های موجود در اینترنت برای ساخت محصولات اختصاصی مانند ChatGPT بدون رضایت افرادی که مالک این داده‌ها هستند و بدون پرداخت حق الزحمه یا خسارت به آنها استفاده می‌کنند.

 

آخرین اخبار