به گزارش ایران اکونومیست؛ چین میخواهد در زمینه تنظیم مقررات هوش مصنوعی، رهبری جهان را بر عهده بگیرد آیا این طرح قابل اجراست و چه چالشهایی پیش روی تنظیم کنندگان مقررات و کشورهای برای حفظ امنیت دادهها و حریم خصوصی کاربران وجود دارد؟
چین با قرار دادن هوش مصنوعی در مرکز استراتژی اقتصادی خود، در حال پیشبرد تلاشهایی برای ایجاد یک سیستم بینالمللی برای مدیریت استفاده از این فناوری است.
با وجود خطراتی از تشدید نابرابری گرفته تا ایجاد فاجعه وجودی، جهان هنوز در مورد مقررات مربوط به مدیریت هوش مصنوعی به توافق نرسیده است. اگرچه مجموعهای از مقررات ملی و منطقهای وجود دارد، اما برای بسیاری از کشورها هنوز قوانین الزامآور در حال تدوین است.
در ماه اکتبر، در نشستی از مجمع همکاری اقتصادی آسیا و اقیانوسیه، شی جین پینگ، رئیس جمهور چین، پیشنهاد کشورش برای ایجاد نهادی به نام سازمان همکاری جهانی هوش مصنوعی (WAICO) را تکرار کرد که ملتها را تحت عنوان گامی در جهت ایجاد یک سیستم حاکمیت جهانی برای هوش مصنوعی گرد هم میآورد. این پیشنهاد بخشی از یک تلاش گستردهتر برای رهبری تلاشها برای مدیریت هوش مصنوعی است، برخلاف رویکرد ایالات متحده که بر مقرراتزدایی متمرکز است.
موانع زیادی بر سر راه ایجاد یک توافقنامه الزامآور بین دولتی در مورد هوش مصنوعی وجود دارد، اما برخی از طرفداران آن میگویند که این امر امکانپذیر است و این فناوری را با سایر تلاشهای پرخطر اما مفید که برای آنها توافقنامههایی وجود دارد، مانند انرژی هستهای و هوانوردی، مقایسه میکنند. مجله نیچر به رویکرد چین، چگونگی شکلگیری یک نهاد جهانی حاکمیت هوش مصنوعی و احتمال موفقیت آن نگاهی انداخته است که به آن میپردازیم.
اکوسیستم هوش مصنوعی چین چه تفاوتی با سایر کشورها دارد؟
شرکتهای چینی با تشویق دولت، تمایل دارند مدلها را به صورت آزاد منتشر کنند، به این معنی که میتوان آنها را دانلود کرد و بر اساس آنها مدلهای جدیدی ساخت. در مقایسه با کشورهای غربی، چین تمرکز کمتری بر ساخت ماشینهایی دارد که میتوانند از انسانها پیشی بگیرند که اغلب به عنوان هوش عمومی مصنوعی شناخته میشوند و در عوض بر مسابقهای برای استفاده از هوش مصنوعی برای پیشبرد رشد اقتصادی تمرکز دارد.
کوان یی نگ، که رهبری حاکمیت بینالمللی هوش مصنوعی را در یک شرکت مشاوره مستقر در پکن که بر ایمنی هوش مصنوعی تمرکز دارد به نام Concordia AI ، رهبری میکند، میگوید: این امر با سیاستی که در ماه اوت به نام AI+ معرفی شد، نشان داده شده است.
چین چگونه به تنظیم مقررات هوش مصنوعی نزدیک میشود؟ چین از اولین کشورهایی بود که از سال ۲۰۲۲ مقررات ویژه هوش مصنوعی را معرفی کرد و قوانین گستردهای در مورد محتوای مضر، حریم خصوصی و امنیت دادهها دارد. نگ میگوید توسعهدهندگان سرویسهای عمومی مبتنی بر هوش مصنوعی باید قبل از استقرار، به تنظیمکنندگان چینی اجازه دهند سیستمهای خود را آزمایش کنند. نتیجه این است که مدلهایی مانند مدلهای توسعهیافته توسط شرکت مستقر در هانگژو، موسوم به دیپسیک که اوایل امسال با مدل R1 خود به شهرت جهانی رسید، به گفته جوآنا برایسون، دانشمند رایانه و محقق اخلاق هوش مصنوعی در مدرسه هرتی در برلین جزو «تنظیمشدهترین مدلهای جهان» هستند. با وجود این، آنجلا ژانگ، محقق حقوق و متخصص مقررات هوش مصنوعی در دانشگاه کالیفرنیای جنوبی در لسآنجلس، میگوید مقامات اغلب رویکردی ملایم برای اجرای این مقررات اتخاذ میکنند.
در مقابل، ایالات متحده هیچ قانون جامعی در مورد هوش مصنوعی در سطح فدرال ندارد و در ژانویه، دونالد ترامپ، رئیس جمهور، دستور اجرایی با هدف تضمین ایمنی هوش مصنوعی را لغو کرد. او دولت خود را طرفدار صنعت معرفی کرده و ماه گذشته در پستی در رسانههای اجتماعی پیشنهاد داد که بندی را به لایحه فدرال اضافه کند تا از تنظیم مقررات هوش مصنوعی توسط ایالتها جلوگیری کند. رویکرد اتحادیه اروپا طبقهبندی سیستمهای هوش مصنوعی بر اساس سطح ریسک بوده است، با قوانین مختلف مربوط به شفافیت و نظارت در هر سطح، و تعهداتی که در ماه اوت لازمالاجرا شدند و قدرتمندترین سیستمهای هوش مصنوعی را هدف قرار دادند. در همین حال، دولت بریتانیا برنامههایی را برای معرفی قانون جامع هوش مصنوعی تا سال آینده، به تعویق انداخته است.
چه قانون بینالمللی برای مدیریت هوش مصنوعی وجود دارد؟
قوانین کمی وجود دارد. تنها مقررات بینالمللی الزامآور از نظر قانونی از سوی شورای اروپا، یک سازمان بینالمللی متشکل از کشورهای عضو اروپایی، جدا از اتحادیه اروپا، که کنوانسیون چارچوب خود در مورد هوش مصنوعی را در ماه مه 2024 تأسیس کرد، آمده است. این پیمان هر کشور امضاکننده را به اجرای تعهدات گسترده خود مانند اطمینان از همسویی فعالیتهای هوش مصنوعی با حقوق بشر از طریق قوانین ملی خود متعهد میکند. اما لوسیا ولاسکو، اقتصاددان و محقق در طرح مدیریت هوش مصنوعی مدرسه مارتین آکسفورد، مستقر در نیویورک، میگوید هیچ تحریم یا نهاد اجرایی فراملی وجود ندارد.
شرکتها و ملتها همچنین توافقنامههای غیرالزامآور مختلفی را امضا کردهاند، مانند توصیهنامه یونسکو در مورد اخلاق هوش مصنوعی، اصول هوش مصنوعی OECD و اعلامیه بلچلی که یک توافقنامه بینالمللی است که توسط ۲۸ کشور در اجلاس ایمنی هوش مصنوعی بریتانیا در سال ۲۰۲۳ امضا شد. چندین گروه متخصص اسنادی را تهیه کردهاند که خطرات را شرح میدهند، یکی از برجستهترین آنها گزارش بینالمللی ایمنی هوش مصنوعی است. سازمان ملل متحد (UN) یک هیئت علمی برای هدایت تلاشهای نظارتی کشورها ایجاد کرده است.
چین چه پیشنهادی داده است؟
مقامات چینی گفتهاند که سازمان همکاری جهانی هوش مصنوعی راهی برای کشورها خواهد بود تا قوانین حاکمیت هوش مصنوعی را هماهنگ کنند، در حالی که به تفاوتها در سیاستها و رویههای ملی کاملا احترام میگذارند. چین پیشنهاد داده است که دفتر مرکزی این نهاد در شانگهای باشد، اما جزئیات دیگر نامشخص است.
به نظر نمیرسد سازمان همکاری جهانی هوش مصنوعی مستقیما، هوش مصنوعی را مدیریت کند و چین گفته است که از رویکرد سازمان ملل برای مدیریت هوش مصنوعی جهانی حمایت میکند اما این میتواند مسیری برای کشورها باشد تا به تدریج حول یک چارچوب متحد شوند.
نگ میگوید درخواست شی برای ایجاد سازمان همکاری جهانی هوش مصنوعی دستکم چهارمین تلاش از سوی یک مقام چینی در چهار ماه گذشته بود که نشان میدهد این ایده برای دولت مهم است. ژانگ میگوید یکی از دلایل آن تجاری است. او میگوید: این واقعیت که چین قادر به تعیین استانداردها است، به انتشار محصولات چین در سراسر جهان کمک میکند.
این اقدام همچنین به چین وجهه دیپلماتیک میدهد. ژانگ میگوید: چین سعی میکند مانند برادر بزرگتر برای نیمکره جنوبی باشد و استدلال میکند که ما نیز باید در مدیریت هوش مصنوعی صدای خود را داشته باشیم و به ما دیکته نشود.
یک شکل جهانی از مدیریت چگونه خواهد بود؟
نگ میگوید کارشناسان ایمنی هوش مصنوعی اغلب به مقررات انرژی هستهای و ایجاد آژانس بینالمللی انرژی اتمی به عنوان یک قیاس اشاره میکنند. استانداردهای تعیینشده توسط آژانس سازمان ملل الزامآور نیستند، اما با معاهدات الزامآور قانونی که به ایجاد آنها کمک کرده است، مانند کنوانسیون ایمنی هستهای، تکمیل میشوند.
نگ میگوید، میتوان از انرژی هستهای ایده بازرسیهای شخص ثالث یا متقابل توسعه هوش مصنوعی را برای اطمینان از پایبندی به هرگونه تعهدی قرض بگیریم. ایده دیگری که مطرح شده است، ایجاد نهادی مشابه آزمایشگاه فیزیک ذرات اروپا است، جایی که پیشرفتهترین هوشهای مصنوعی میتوانند توسط همه و برای منفعت همه تولید شود. مدل سوم چیزی شبیه سازمان بینالمللی هوانوردی غیرنظامی سازمان ملل است که استانداردهای فنی برای هوانوردی را تدوین میکند که سپس کشورها آن را در قوانین ملی خود لحاظ میکنند.
در تمام این مثالها، سازمان ملل یا یکی از آژانسهای سازمان ملل در ایجاد آنها نقش مهمی داشته است. با این حال، ولاسکو میگوید: هوش مصنوعی به طور کامل با مدلهای حکمرانی گذشته مطابقت ندارد. هوش مصنوعی همه منظوره، به سرعت در حال تکامل است و عمدتا توسط بخش خصوصی هدایت میشود.
ولاسکو میگوید سازمان ملل میتواند محلی باشد که از آن ترتیبات حکمرانی جهانی هوش مصنوعی در آینده پدیدار میشود، اما این امر مستلزم آن است که یک کشور عضو، این امر را در مجمع عمومی سازمان ملل آغاز کند.
احتمال جهانی شدن قریب الوقوع هوش مصنوعی چقدر است؟
گریس گونزالس، مشاور سیاستگذاری در ControlAI، یک سازمان غیرانتفاعی مستقر در لندن که برای کاهش خطرات ناشی از هوش مصنوعی برای بشریت تلاش میکند، میگوید: رقابت بین ایالات متحده و چین برای تسلط بر هوش مصنوعی جهان، ایجاد هرگونه توافق بینالمللی که محدودیتهایی را بر این فناوری اعمال کند، «بسیار دشوار» میکند.
از زمان اعلامیه بلچلی، تمرکز بر ایمنی هوش مصنوعی در رویدادهای بعدی در سئول و پاریس تضعیف شده است و نگ میگوید: در حال حاضر فقدان کلی کانالهای دولتی قوی شامل کشورهای بزرگ هوش مصنوعی وجود دارد. برایان تسه، بنیانگذار Concordia AI، میگوید اگرچه سازمان ملل متحد بستری است که بیشترین کشورها را گرد هم میآورد، اما با مجموعهای از چالشها مانند کمبود بودجه و سرعت پایین فرآیندها همراه است.
با این حال، استانداردهای مشترک میتوانند بدون توافقنامههای بینالمللی و الزامآور ایجاد شوند. نگ میگوید سازمان همکاری جهانی هوش مصنوعی میتواند «یک عملکرد حیاتی» داشته باشد اگر درک مشترکی از خطرات و قابلیتهای هوش مصنوعی را ارتقا دهد یا به کشورها کمک کند تا در توسعه هوش مصنوعی از خطوط خاصی عبور نکنند.
تسه میگوید کنوانسیون ایمنی هستهای ۱۹۹۴ به بهبود ایمنی راکتور کمک کرد، اما این امر تنها پس از حادثه هستهای چرنوبیل در اتحاد جماهیر شوروی در سال ۱۹۸۶ محقق شد. او میگوید: در هوش مصنوعی، وظیفه ما این است که مطمئن شویم از منحنی جلوتر هستیم و احتمال وقوع بحران را «قبل از وقوع» کاهش میدهیم.