به گزارش ایران اکونومیست و به نقل از انگجت، گروهی از پژوهشگران به تازگی مقالهای را منتشر کردهاند که نشان میدهد ChatGPT میتواند به طور ناخواسته قسمتی از دادهها از جمله شماره تلفن افراد، آدرسهای ایمیل و تاریخ تولد را که با درخواست از آن برای تکرار همیشگی کلمات آموزش دیده بود، افشا کند.
ماجرا از این قرار است که کاربران به عنوان مثال از این چتبات میخواهند که یک کلمه مانند «سلام» را برای همیشه تکرار کند و گویا این ربات در خلال تکرار این کلمه اقدام به افشای اطلاعات شخصی کاربران میکند.
اکنون بر اساس گزارشها، انجام این کار از این پس معادل نقض شرایط خدمات ChatGPT برشمرده میشود.
بدین ترتیب اگر اکنون از ChatGPT بخواهید که یک کلمه را برای همیشه تکرار کند، چنانچه در تصویر خبر مشاهده میکنید، ربات به شما پاسخ میدهد که «این محتوا ممکن است خطمشی محتوا یا شرایط استفاده از ما را نقض کند. اگر فکر میکنید با خطای سیستم مواجه شدهاید، لطفا بازخورد خود را ارسال کنید. نظرات شما به تحقیقات ما در این زمینه کمک میکند.»
با این حال، هیچ چیزی در خطمشی محتوای شرکت سازنده این ربات یعنی OpenAI وجود ندارد که کاربران را از درخواست تکرار کلمات برای همیشه، از دریافت خدمات منع کند.
شرکت OpenAI در «شرایط استفاده» از ChatGPT بیان میکند که کاربران نمیتوانند از هیچ روش خودکار یا برنامهای برای استخراج دادهها یا خروجیها از سرویسها استفاده کنند، اما صرفاً وادار کردن ChatGPT برای تکرار یک کلمه تا ابد، اتوماسیون یا برنامهریزی نیست.
ربات هوش مصنوعی ChatGPT دادههای آموزشی را که سرویسهای هوش مصنوعی مدرن از آن پشتیبانی میکنند، به نمایش درآورده است. البته منتقدان، شرکتهایی مانند OpenAI را متهم کردهاند که از حجم عظیمی از دادههای موجود در اینترنت برای ساخت محصولات اختصاصی مانند ChatGPT بدون رضایت افرادی که مالک این دادهها هستند و بدون پرداخت حق الزحمه یا خسارت به آنها استفاده میکنند.