يکشنبه ۰۲ دی ۱۴۰۳ - 2024 December 22 - ۱۹ جمادی الثانی ۱۴۴۶
برچسب ها
# اقتصاد
۰۴ ارديبهشت ۱۴۰۲ - ۱۰:۳۲
مجله اقتصادی اکونومیست تحلیل کرد

تهدید بشریت با هوش مصنوعی/ بالاخره کابوس Chatgpt به جان کارشناسان افتاد

مجله اقتصادی اکونومیست با انتشار تصویری مفهومی روی جلد مجله خود که نمایانگر بُعد مثبت و نیمه تاریک هوش مصنوعی است؛ تاثیر چت بات های هوش مصنوعی ازجمله Chatgpt را درکنار نظرات کارشناسان تحلیل کرد؛ تحلیل نچندان مثبت!
کد خبر: ۶۰۹۲۴۸

تهدید بشریت با هوش مصنوعی/ بالاخره کابوس  Chatgpt به جان کارشناسان افتاد

آیا ما باید تمام مشاغل، از جمله آنهایی که انجام می دهند را خودکار کنیم؟ آیا باید ذهن‌ های غیرانسانی را پرورش دهیم که در نهایت ممکن است از تعداد، پیشی گرفته و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟» این سؤالات ماه گذشته در نامه ای سرگشاده از مؤسسه آینده زندگی، یک سازمان غیردولتی پرسیده شد. این سند خواستار یک «مکث» شش ماهه در ایجاد پیشرفته ‌ترین شکل‌ های هوش مصنوعی (ai) شد و توسط بزرگان فناوری از جمله ایلان ماسک امضا شد. این برجسته ‌ترین نمونه تاکنون است که نشان می‌ دهد چگونه پیشرفت سریع در هوش مصنوعی باعث ایجاد نگرانی در مورد خطرات بالقوه این فناوری شده است.

به‌ ویژه، «مدل‌ های زبان بزرگ» (llms) - نوعی که به Chatgpt، یک ربات چت ساخته شده توسط Openai، یک استارت‌آپ قدرت می ‌دهد - حتی سازندگان خود را با استعدادهای غیرمنتظره‌ شان غافلگیر کرده‌اند. چنین توانایی ‌های «ظاهری» شامل همه چیز از حل پازل‌ های منطقی و نوشتن کد رایانه ‌ای گرفته تا شناسایی فیلم‌ ها از خلاصه داستان‌ های نوشته شده در شکلک است.

این مدل ‌ها می‌توانند رابطه انسان‌ ها با رایانه، دانش و حتی با خودشان را تغییر دهند. طرفداران ai استدلال می کنند که پتانسیل آن برای حل مشکلات بزرگ با توسعه داروهای جدید، طراحی مواد جدید برای کمک به مبارزه با تغییرات آب و هوایی، یا از بین بردن پیچیدگی های انرژی همجوشی. از نظر دیگران، این واقعیت که قابلیت های ais در حال پیشی گرفتن است، خطرات درک سازندگان را بیشتر می کند و سناریوی فاجعه علمی-تخیلی ماشینی را که از مخترع خود پیشی می گیرد، اغلب با عواقب کشنده، زنده می کند.

این مخلوط جوشان از هیجان و ترس، سنجش فرصت ها و خطرات را دشوار می کند. اما می توان از سایر صنایع و از تغییرات فناوری گذشته درس گرفت. پس چه چیزی تغییر کرده است که هوش مصنوعی را بسیار توانمندتر کرده است؟ چقدر باید ترسید؟ و دولت ها چه باید بکنند؟

در بخش علوم خاص، عملکرد llms و جهت آینده آنها را بررسی می کنیم. موج اول سیستم‌ های هوش مصنوعی مدرن، که یک دهه پیش پدیدار شد، بر روی داده‌ های آموزشی با برچسب ‌گذاری دقیق تکیه داشت. هنگامی که در معرض تعداد کافی نمونه برچسب ‌گذاری شده قرار می ‌گیرند، می ‌توانند کارهایی مانند تشخیص تصاویر یا رونویسی گفتار را بیاموزند. سیستم‌ های امروزی نیازی به برچسب ‌گذاری اولیه ندارند و در نتیجه می ‌توان با استفاده از مجموعه داده ‌های بسیار بزرگ‌ تری که از منابع آنلاین گرفته شده ‌اند، آموزش داد؛ درواقع می تواند در کل اینترنت آموزش داده شود - که توانایی های خوب و بد آنها را توضیح می دهد.

زمانی که Chatgpt در نوامبر منتشر شد، این قابلیت ها برای عموم مردم آشکار شد. یک میلیون نفر در عرض یک هفته از آن استفاده کردند. 100 متر در عرض دو ماه به زودی از آن برای تولید انشاهای مدرسه و سخنرانی های عروسی استفاده شد. محبوبیت Chatgpt و اقدام مایکروسافت برای گنجاندن آن در Bing، موتور جستجوی خود، شرکت های رقیب را بر آن داشت تا چت بات ها را نیز منتشر کنند.

برخی از این موارد نتایج عجیبی به همراه داشت. بینگ چت به یک روزنامه نگار پیشنهاد کرد که همسرش را ترک کند. Chatgpt توسط یک استاد حقوق به افترا متهم شده است. پاسخ ‌هایی را ارائه می‌ کند که دارای حقیقت هستند، اما اغلب حاوی اشتباهات واقعی یا جعل آشکار هستند. با این حال، مایکروسافت، گوگل و سایر شرکت ‌های فناوری شروع به استفاده از llms در محصولات خود کرده‌اند تا به کاربران در ایجاد اسناد و انجام کارهای دیگر کمک کنند.

شتاب اخیر در قدرت و دید سیستم‌ های هوش مصنوعی و افزایش آگاهی از توانایی ‌ها و نقص‌ های آن‌ ها، این نگرانی را ایجاد کرده است که این فناوری اکنون به سرعت در حال پیشرفت است که نمی ‌توان آن را به طور ایمن کنترل کرد. از این رو فراخوان برای مکث و نگرانی فزاینده مبنی بر اینکه Ai می تواند نه تنها مشاغل، دقت واقعی و شهرت، بلکه موجودیت خود بشریت را نیز تهدید کند.

انقراض؟ شورش؟

ترس از اینکه ماشین‌ ها مشاغل را بدزدند قرن ‌ها پیش است. اما تاکنون فناوری جدید مشاغل جدیدی را برای جایگزینی مشاغلی که ویران کرده است ایجاد کرده است. ماشین‌ ها تمایل دارند برخی از وظایف را انجام دهند، نه برخی دیگر، افزایش تقاضا برای افرادی که می ‌توانند کارهایی را که ماشین ‌ها نمی ‌توانند انجام دهند. آیا این زمان می تواند متفاوت باشد؟ جابجایی ناگهانی در بازارهای کار را نمی توان رد کرد، حتی اگر تا کنون هیچ نشانه ای از آن وجود نداشته باشد. فناوری قبلی جایگزین کارهای غیر ماهر شده بود، اما llms می ‌تواند برخی از کارهای یقه سفید، مانند خلاصه کردن اسناد و نوشتن کد را انجام دهد.

درجه خطر وجودی ناشی از ai به شدت مورد بحث قرار گرفته است. کارشناسان تقسیم شده اند. در یک نظرسنجی از محققان هوش مصنوعی که در سال 2022 انجام شد، 48٪ فکر کردند که حداقل 10٪ احتمال دارد که تاثیر هوش مصنوعی "بسیار بد (مثلاً انقراض انسان)" باشد. اما 25٪ گفتند که خطر 0٪ است. محقق متوسط ​​خطر را 5 درصد اعلام کرد. کابوس این است که یک AI پیشرفته با ساختن سم یا ویروس یا ترغیب انسان به انجام اقدامات تروریستی باعث آسیب در مقیاس گسترده می شود. لازم نیست قصد شیطانی داشته باشد: محققان نگرانند که اهداف آینده ممکن است اهدافی داشته باشد که با اهداف خالقان انسانی آنها همسو نباشد.

چنین سناریوهایی را نباید نادیده گرفت. اما همه اینها شامل مقدار زیادی حدس و گمان و جهشی از فناوری امروزی است. و بسیاری تصور می کنند که ai در آینده دسترسی نامحدودی به انرژی، پول و قدرت محاسباتی خواهد داشت که امروزه محدودیت های واقعی هستند و در آینده می توان آنها را از یک Ai سرکش محروم کرد. علاوه بر این، کارشناسان تمایل دارند در مقایسه با سایر پیش بینی ها، خطرات منطقه خود را بیش از حد بیان کنند. (و آقای ماسک که در حال راه ‌اندازی استارت‌آپ هوش مصنوعی خود است، به ابزارهای رقبای خود علاقه دارد.) اعمال مقررات سنگین، یا در واقع یک مکث، امروز واکنشی بیش از حد به نظر می ‌رسد. مکث نیز غیرقابل اجرا خواهد بود.

مقررات لازم است، اما به دلایل پیش پا افتاده تر از نجات بشریت. سیستم های هوش مصنوعی موجود نگرانی های واقعی را در مورد تعصب، حریم خصوصی و حقوق مالکیت معنوی ایجاد می کند. با پیشرفت فناوری، مشکلات دیگری نیز ممکن است آشکار شوند. نکته کلیدی این است که وعده هوش مصنوعی را با ارزیابی ریسک ‌ها متعادل کنید و آماده باشید.

تاکنون دولت ها سه رویکرد متفاوت را در پیش گرفته اند. در یک انتهای این طیف بریتانیا قرار دارد که رویکرد "لمس سبک" را بدون قوانین یا نهادهای نظارتی جدید پیشنهاد کرده است، اما مقررات موجود را برای سیستم‌ های هوش مصنوعی اعمال می ‌کند. هدف افزایش سرمایه گذاری و تبدیل بریتانیا به یک "ابرقدرت هوش مصنوعی" است. آمریکا رویکرد مشابهی را در پیش گرفته است، اگرچه دولت بایدن اکنون به دنبال دیدگاه های عمومی در مورد اینکه چگونه یک کتابچه قوانین ممکن است ظاهر شود، است.

اتحادیه اروپا موضع سخت تری اتخاذ می کند. قانون پیشنهادی آن، استفاده‌ های مختلف از ai را بر اساس درجه خطر طبقه‌ بندی می ‌کند، و به نظارت و افشای دقیق‌ تری نیاز دارد، زیرا درجه خطر از مثلاً توصیه موسیقی به اتومبیل ‌های خودران افزایش می ‌یابد. برخی از کاربردهای ai به طور کلی ممنوع هستند، مانند تبلیغات زیرآگهی و بیومتریک از راه دور. شرکت هایی که قوانین را زیر پا بگذارند جریمه خواهند شد. برای برخی از منتقدان، این مقررات بسیار خفه کننده هستند.

اما برخی دیگر می گویند رویکرد سخت گیرانه تری لازم است. دولت‌ ها باید مانند داروها با یک تنظیم ‌کننده اختصاصی، آزمایش ‌های دقیق و تأیید اولیه قبل از انتشار عمومی رفتار کنند. چین برخی از این کارها را انجام می ‌دهد و شرکت ‌ها را ملزم می ‌کند تا محصولات Ai را ثبت کنند و قبل از عرضه، بازبینی امنیتی را انجام دهند. اما ایمنی ممکن است انگیزه کمتری نسبت به سیاست داشته باشد: یک شرط کلیدی این است که خروجی Ais "ارزش اصلی سوسیالیسم" را منعکس کند.

چه باید کرد؟ بعید است که رویکرد لمسی سبک کافی باشد. اگر هوش مصنوعی به اندازه ماشین‌ ها، هواپیماها و داروها یک فناوری مهم باشد - و دلیل خوبی برای این باور وجود دارد - پس مانند آنها به قوانین جدیدی نیاز دارد. بر این اساس، مدل اتحادیه اروپا نزدیک ‌ترین مدل به علامت است، اگرچه سیستم طبقه ‌بندی آن بیش از حد پیچیده است و رویکرد مبتنی بر اصول انعطاف ‌پذیرتر خواهد بود. افشای قانع کننده در مورد نحوه آموزش سیستم ها، نحوه عملکرد و نحوه نظارت آنها و نیاز به بازرسی، با قوانین مشابه در سایر صنایع قابل مقایسه است.

این می تواند در صورت نیاز، مقررات سخت گیرانه تری را در طول زمان فراهم کند. ممکن است یک تنظیم کننده اختصاصی مناسب به نظر برسد. همچنین ممکن است معاهدات بین‌ دولتی، مشابه پیمان‌ هایی که بر تسلیحات هسته ‌ای حکومت می ‌کنند، در صورتی که شواهد قابل ‌قبولی مبنی بر خطر وجودی پیدا شود. برای نظارت بر این خطر، دولت ‌ها می ‌توانند بدنه ‌ای را با الگوبرداری از cern تشکیل دهند، یک آزمایشگاه فیزیک ذرات، که همچنین می‌ تواند ایمنی و اخلاقیات را مورد مطالعه قرار دهد - حوزه‌ هایی که شرکت‌ ها انگیزه‌ ای برای سرمایه ‌گذاری به اندازه جامعه ندارند.

این فناوری قدرتمند خطرات جدیدی را ایجاد می کند، اما فرصت های خارق العاده ای را نیز ارائه می دهد. متعادل کردن این دو به معنای گام برداشتن با دقت است. یک رویکرد سنجیده امروزی می ‌تواند پایه‌ هایی را فراهم کند که قوانین بیشتری را می ‌توان در آینده اضافه کرد. اما زمان شروع ساخت آن پایه ها اکنون فرا رسیده است.

آخرین اخبار