اینگونه به نظر میرسد که پیشبینیها درمورد روزگاری که در نهایت کامپیوترها تصمیم میگیرند تا امور را به دست بگیرند، پایانی ندارد با این حال پژوهشی تازه از دانشگاه استنفورد تواناییهای غیرقابل پیشبینی هوش مصنوعی را سراب میداند.
استیون هاوکینگ در این باره هشدار داده بود که توسعه هوش مصنوعی ممکن است روزی به منزله پایان نسل بشر باشد.
ایلان ماسک، یکی از بنیانگذاران شرکت OpenAI هم در این رابطه گفته:« هوش مصنوعی مرا به طرز وحشتناکی میترساند. توانایی آن به مراتب بیشتر از چیزی است که هر کسی میداند و روند پیشرفت آن به صورت تصاعدی بالاست.»
چندی پیش بیش از ۱۰۰۰ لیدر دنیای فناوری، نامهای را به امضا رساندند که در آن بر این نکته تاکید شده بود که فناوریهای هوش مصنوعی، خطرات عمیقی برای جامعه و بشریت ایجاد میکنند و در این نامه آنها خواستار آن شدند که تحقیقات درباره هوش مصنوعی تا زمانی که خطرات احتمالی آن بیشتر شناخته شود، متوقف گردد.
یوشوا بنجیو، استاد و محقق هوش مصنوعی در دانشگاه مونترئال دراین باره گفته:« ما باید حسابی مراقب باشیم.»
این روزها گزارشهای منتشره در رسانهها به طرز فزایندهای، هشدارهایی را در مورد پیامدهای ناخواسته این فناوری مخرب رو به رشد صادر میکنند و این درحالی است که در سوی دیگر وعدههای جذاب و وسوسه کننده فوقالعادهای در مورد خدمات هوش مصنوعی در طیف وسیعی از بخشها، از صنعت و اقتصاد و آموزش و علم گرفته تا کشاورزی، پزشکی و تحقیقات به گوش میرسد.
یکی از موارد نگرانی، درباره رفتارهای پیشبینی نشده است که تحت عنوان مجموعهای از تعاملات پیشبینی نشده و برنامهریزی نشده در یک سیستم تعریف میشوند و از رفتارهای برنامهریزی شده سادهتر در بخشهای جداگانه ناشی میشوند.
محققان بر این باورند که برخی شواهد از چنین رفتاری در برخی مدلها مشاهده شده؛ مثلا در سیستمهایی که یاد میگیرند تا شطرنج بازی کنند و یا استراتژیهایی برای پیشرفت تعیین میکنند و یا زمانی که رباتها تغییرپذیریهایی را در الگوهای حرکتی به نمایش میگذارند که در ابتدا برنامهریزی نشده بود.
اتان دایر، دانشمند کامپیوتر گوگل در واکنش به یک آزمایش هوش مصنوعی که در آن یک کامپیوتر به طرز غیرمنتظرهای به تنهایی و با بهرهگیری از چند ایموجی، عنوانی برای یک فیلم انتخاب کرد گفت:« با وجودی که در انتظار شگفتی بودم، اما واقعا از کارهایی که این مدلها میتوانند انجام دهند، حیرتزده شدم.» اما دایر احتمالا از شنیدن این خبر که یک تیم تحقیقاتی در دانشگاه استنفورد آب پاکی را برروی گزارشهای رفتارهای پیشبینی نشده ریخته، حیرتزده خواهد شد.
رایان شافر، براندو میراندا و سانمی کیوجو، هفته گذشته مقالهای را منتشر و در آن اعلام کردند که شواهد رفتارهای پیشبینینشده مبتنی بر آماری است که به احتمال قریب به یقین به اشتباه تفسیر شدهاند. آنها در این باره گفتهاند:« پیغام ما این است که ادعای قبلی درباره تواناییهای پیشبینینشده، احتمالا سرابی است که توسط تحلیلهای محققان ایجاد شده است.»
آنها در مقاله خود توضیح دادهاندکه توانایی مدلهای زبان بزرگ، با تعیین درصد پیشبینیهای صحیح آنها اندازهگیری میشود. تجزیه و تحلیلهای آماری ممکن است به روشهای متعددی ارائه شوند. محققان معتقدند که زمانی که نتایج در معیارهای غیرخطی و یا ناپیوسته گزارش میشوند، تغییرات تند و تیز و غیرقابل پیشبینیای به نظر میرسند که به اشتباه بهعنوان شاخصهای رفتاری پیشبینی نشده تعبیر خواهند شد.
منبع: خبرآنلاین