دوشنبه ۰۳ دی ۱۴۰۳ - 2024 December 23 - ۲۰ جمادی الثانی ۱۴۴۶
برچسب ها
# اقتصاد
۲۴ ارديبهشت ۱۴۰۲ - ۱۱:۰۰

نگران هوش مصنوعی نباشیم؟

یک گزارش علمی تکان دهنده از نویسنده ای شگفت زده‌تان می کند!
کد خبر: ۶۱۲۹۶۶

این‌گونه به نظر می‌رسد که پیش‌بینی‌ها درمورد روزگاری که در نهایت کامپیوترها تصمیم می‌گیرند تا امور را به دست بگیرند، پایانی ندارد با این حال پژوهشی تازه از دانشگاه استنفورد توانایی‌های غیرقابل‌ پیش‌بینی هوش مصنوعی را سراب می‌داند.

 

 استیون هاوکینگ در این باره هشدار داده بود که توسعه هوش مصنوعی ممکن است روزی به منزله پایان نسل بشر باشد.

 

ایلان ماسک، یکی از بنیانگذاران شرکت OpenAI هم در این رابطه گفته:« هوش مصنوعی مرا به طرز وحشتناکی می‌ترساند. توانایی آن به مراتب بیشتر از چیزی است که هر کسی می‌داند و روند پیشرفت آن به صورت تصاعدی بالاست.»

 

چندی پیش بیش از ۱۰۰۰ لیدر دنیای فناوری، نامه‌ای را به امضا رساندند که در آن بر این نکته تاکید شده بود که فناوری‌های هوش مصنوعی، خطرات عمیقی برای جامعه و بشریت ایجاد می‌کنند و در این نامه آنها خواستار آن شدند که تحقیقات درباره هوش مصنوعی تا زمانی که خطرات احتمالی آن بیشتر شناخته شود، متوقف گردد.

 

یوشوا بنجیو، استاد و محقق هوش مصنوعی در دانشگاه مونترئال دراین باره گفته:« ما باید حسابی مراقب باشیم.»

 

این روزها گزارش‌های منتشره در رسانه‌ها به طرز فزاینده‌ای، هشدارهایی را در مورد پیامدهای ناخواسته این فناوری مخرب رو به رشد صادر می‌کنند و این درحالی است که در سوی دیگر وعده‌های جذاب و وسوسه کننده فوق‌العاده‌ای در مورد خدمات هوش مصنوعی در طیف وسیعی از بخش‌ها، از صنعت و اقتصاد و آموزش و علم گرفته تا کشاورزی، پزشکی و تحقیقات به گوش می‌رسد.

 

یکی از موارد نگرانی، درباره رفتارهای پیش‌بینی‌ نشده است که تحت عنوان مجموعه‌ای از تعاملات پیش‌بینی نشده و برنامه‌ریزی نشده در یک سیستم تعریف می‌شوند و از رفتارهای برنامه‌ریزی شده ساده‌تر در بخش‌های جداگانه ناشی می‌شوند.

 

محققان بر این باورند که برخی شواهد از چنین رفتاری در برخی مدل‌ها مشاهده شده؛ مثلا در سیستم‌هایی که یاد می‌گیرند تا شطرنج بازی کنند و یا استراتژی‌هایی برای پیشرفت تعیین می‌کنند و یا زمانی که ربات‌ها تغییرپذیری‌هایی را در الگوهای حرکتی به نمایش می‌گذارند که در ابتدا برنامه‌ریزی نشده بود.

 

اتان دایر، دانشمند کامپیوتر گوگل در واکنش به یک آزمایش هوش مصنوعی که در آن یک کامپیوتر به طرز غیرمنتظره‌ای به تنهایی و با بهره‌گیری از چند ایموجی، عنوانی برای یک فیلم انتخاب کرد گفت:« با وجودی که در انتظار شگفتی بودم، اما واقعا از کارهایی که این مدل‌ها می‌توانند انجام دهند، حیرت‌زده شدم.» اما دایر احتمالا از شنیدن این خبر که یک تیم تحقیقاتی در دانشگاه استنفورد آب پاکی را برروی گزارش‌های رفتارهای پیش‌بینی نشده ریخته، حیرت‌زده خواهد شد.

رایان شافر، براندو میراندا و سانمی کیوجو، هفته گذشته مقاله‌ای را منتشر و در آن اعلام کردند که شواهد رفتارهای پیش‌بینی‌نشده مبتنی بر آماری است که به احتمال قریب به یقین به اشتباه تفسیر شده‌اند. آنها در این باره گفته‌اند:« پیغام ما این است که ادعای قبلی درباره توانایی‌های پیش‌بینی‌نشده، احتمالا سرابی است که توسط تحلیل‌های محققان ایجاد شده است.»

 

آنها در مقاله خود توضیح داده‌اندکه توانایی مدل‌های زبان بزرگ، با تعیین درصد پیش‌بینی‌های صحیح آنها اندازه‌گیری می‌شود. تجزیه و تحلیل‌های آماری ممکن است به روش‌های متعددی ارائه شوند. محققان معتقدند که زمانی که نتایج در معیارهای غیرخطی و یا ناپیوسته گزارش می‌شوند، تغییرات تند و تیز و غیرقابل پیش‌بینی‌ای به نظر می‌رسند که به اشتباه به‌عنوان شاخص‌های رفتاری پیش‌بینی نشده تعبیر خواهند شد.

  •  

در هر صورت یک ابزار جایگزین برای اندازه‌گیری داده‌های یکسان، استفاده از معیارهای خطی است ه تغییراتی هموار و پیوسته را نشان می‌دهد که برخلاف اندازه‌گیری‌های قبلی، از رفتارهای قابل پیش‌بینی و غیر اضطراری خبر می‌دهند.

تیم دانشگاه استنفورد در ادامه به این نکته اشاره کرده که عدم استفاده از نمونه‌های بزرگ، منجر به نتیجه‌گیری‌های اشتباه می‌شود:« ادعاهای موجود درباره توانایی‌های پیش‌بینی نشده، توسط تحلیل‌های محققان خلق شده‌اند و تغییرات اساسی در رفتار مدل در وظایف و امور خاص نیستند.»

 

آنها در ادامه تاکید کردند که اگر چه روش‌شناسی در تحقیقات گذشته، احتمالا نتایج گمراه‌کننده‌ای را به همراه داشته ، اما هر آنچه که در مقاله تحقیقاتی آنها درج شده نیز نباید به این صورت تفسیر شود که مدل‌های زبانی بزرگ نمی‌توانند توانایی‌های پیش‌بینی نشده را به نمایش بگذارند و روش‌شناسی مناسب، می‌تواند به خوبی از چنین ظرفیت‌هایی رونمایی کند.

این محققان گفته‌اند:«دستورالعمل اصلی، برای یک کار ثابت و یک خانواده مدل ثابت است و محقق می‌تواند معیارهایی برای خلق یک توانایی پیش‌بینی‌نشده برگزیده و یا معیاری برای حذف یک توانایی پیش‌بینی نشده انتخاب کند.»

 

و یا همانطور که یکی از مفسران برجسته گفته:«خروجی الگوریتم، به اندازه پارامترهایی که سازندگان آن تعیین کرده‌اند، خوب از آب در می‌آید. بدان معنا که فضا برای سوگیری‌های احتمالی در خود هوش مصنوعی وجود دارد.»

 

و این مفسر برجسته چه کسی است؟ ChatGPT مایکروسافت!

منبع: خبرآنلاین

آخرین اخبار