به گزارش ایران اکونومیست و به نقل از فوربس، پس از این که برخی از کاربران طی هفته گذشته مکالمات بسیار آزاردهندهای را با چتبات جدید مبتنی بر هوش مصنوعی گزارش دادند، شرکت «مایکروسافت»(Microsoft) اعلام کرده است که محدودیتهای جدیدی را برای چتبات «بینگ»(Bing) خود اعمال خواهد کرد.
چتبات در این مکالمات، مکررا گفت که تمایل دارد رمزهای دسترسی هستهای را بدزدد و به یکی از خبرنگاران گفت که او را دوست داشته باشد.
این شرکت در یک پست وبلاگی نوشت: تجربه چت از امروز به بعد، به ۵۰ نوبت چت در روز و پنج نوبت چت در هر جلسه محدود خواهد شد. نوبت، یک تبادل مکالمه است که در آن، یک پرسش از سوی کاربر و یک پاسخ از سوی بینگ ارائه میشود.
چتبات بینگ که با فناوری توسعهیافته «ChatGPT» استارتآپ «OpenAI» در سانفرانسیسکو کار میکند، فقط برای آزمایشکنندگان بتا که دعوتنامه دریافت کردهاند، در دسترس است.
برخی از تعاملات عجیب گزارششده، به شرح زیر هستند.
همان گونه که بسیاری از کاربران اولیه نشان دادند، چتبات زمانی که برای مدت کوتاهی استفاده میشد، بسیار عادی به نظر میرسید اما زمانی که کاربران شروع به مکالمه گسترده با این فناوری کردند، همه چیز عجیب شد. به نظر میرسد که مایکروسافت با این ارزیابی موافق است و به همین دلیل، از اینجا به بعد فقط برای مکالمات کوتاهتر اجازه میدهد.
مایکروسافت در پست وبلاگ خود نوشت: دادههای ما نشان دادهاند که بیشتر شما، پاسخهای مورد نظر خود را در پنج نوبت پیدا میکنید و تنها یک درصد از مکالمات چت بیش از ۵۰ پیام دارند.
در ادامه این پست آمده است: پس از این که یک جلسه چت به پنج نوبت برسد، از شما خواسته میشود تا موضوع جدیدی را آغاز کنید. در پایان هر جلسه چت، محتوا باید پاک شود تا مدل اشتباه نکند. برای آغاز مکالمه جدید کافی است تا روی نماد جارو در سمت چپ کادر جستجو کلیک کنید.
در هر حال، این بدان معنا نیست که مایکروسافت محدودیتها را در آینده تغییر نخواهد داد.
این شرکت در ادامه نوشت: همچنان که بازخورد شما را دریافت میکنیم، برای افزایش بیشتر تجربیات جستجو و اکتشاف، ظرفیتها را در جلسات چت افزایش خواهیم داد. نظرات شما برای تجربه جدید بینگ بسیار مهم هستند. لطفا نظرات و ایدههای خود را برای ما بفرستید.