
این ادعا که هوش مصنوعی میتواند به خودآگاهی دست یابد، در آستانه تبدیل شدن به یک جریان اصلی فکری است، اما باید دید که این ادعا تا چه اندازه حقیقت دارد و در صورت حقیقت داشتن، چه پیامدهایی را به همراه خواهد آورد.
به گزارش ایران اکونومیست؛ سالهاست که هوش مصنوعی با عباراتی تقریباً افسانهای توصیف میشود و با وعدههای بزرگ و هشدارهای شوم همراه است. اکنون یکی از چهرههای برجسته و مسئول یکی از پیشرفتهترین سیستمهای این حوزه، نکتهای تکاندهنده را بیان کرده و گفته است: نه تنها کنترل کامل بر این مدلها در حال از دست رفتن است، بلکه همچنان سردرگمی واقعی درباره ماهیت بنیادین آنها وجود دارد.
به نقل از یوسی استراتژیز، آنچه زمانی صرفاً یک بحث فلسفی بود -یعنی مسئله آگاهی ماشین- به یک دغدغه عملی برای کسانی تبدیل شده است که آینده هوش مصنوعی را شکل میدهند.
چندی پیش، بحث درباره هوش مصنوعی که قادر به رقابت با جمعی از متخصصان باشد، شبیه به داستانهای علمی-تخیلی بود، اما این سناریو با توسعه سریع پلتفرمهایی مانند «کلود»(Claude) که آنچه ممکن است را متحول میکند، به واقعیت نزدیکتر میشود.
«داریو آمودی»(Dario Amodei)، مدیرعامل شرکت «آنتروپیک»(Anthropic) سازنده کلود از این پدیده به عنوان «سرزمین نوابغ ساکن در یک مرکز داده» یاد میکند و تصویری از یک ابرگروه فکری را تداعی میکند که برای مقابله با برخی از بزرگترین چالشهای بشریت مستقر شدهاند.
چنین پیشرفتی پیامدهای چشمگیری را در حوزههای گوناگون به همراه دارد. در حوزه پزشکی، تجهیزات بسیار هوشمند میتوانند به جستوجوی درمان بیماریهای پیچیده سرعت بدهند. سرطان، آلزایمر، بیماریهای قلبی و اختلالات روانی را میتوان از دیدگاههای کاملاً جدید و مشارکتی بررسی کرد. در حوزه اقتصادی، آمودی پیشبینی میکند که افزایش بهرهوری بیسابقهای رخ خواهد داد و نرخ رشدی را پیشبینی میکند که میتواند انتظارات جهانی را دگرگون سازد و تمرکز را به جای کمبود، به سوی مسائل مربوط به توزیع عادلانه تغییر دهد.
آمودی گفت: چیزی که مرا نگران میکند، این است که مکانیسمهای سازگاری طبیعی جامعه از کار بیفتند. این با اختلالات پیشین قابل مقایسه نیست.
ردپای هوش مصنوعی کجا احساس میشود؟
در حالی که امید و اضطراب پیرامون تغییرات اجتماعی که هوش مصنوعی ممکن است به همراه داشته باشد در نوسان است، اثرات قابل مشاهده در حال حاضر در بخشهای حرفهای خاصی آشکار هستند. حوزههای دانشبنیان شاهد تحول قابل توجهی هستند، زیرا مشاغل یقهسفید برای همگام شدن با سیستمهای به سرعت در حال تحول، خود را وفق میدهند یا در تلاش برای وفق دادن هستند.
چه کسی اول با اختلال روبهرو میشود؟
کارکنانی که در حوزههای حقوقی، مالی، مشاوره و توسعه نرمافزار فعالیت میکنند، از طریق هوش مصنوعی با شکلهای جدیدی از رقابت و همکاری روبهرو میشوند. مدلهای زبانی پیشرفته اغلب میتوانند وظایفی مانند تجزیه و تحلیل، تهیه گزارش یا کدنویسی را سریعتر و گاهی با کیفیت بالاتر انجام دهند.
این به آن معنا نیست که انسانها یک شبه منسوخ میشوند، بلکه به این معناست که مسئولیتها تغییر میکنند و تقاضا برای تخصصهای جدید افزایش مییابد.
این تغییرات مداوم، بسیاری از متخصصان را ترغیب میکنند تا آموزشهای خود را مورد بازنگری قرار دهند، تخصص بیشتری به دست بیاورند یا یاد بگیرند که چگونه به جای رقابت مستقیم، بر هوش مصنوعی نظارت و با آن همکاری کنند. برای شرکتها، خودکارسازی میتواند راههای جدیدی را برای بهرهوری باز کند و در عین حال، بحثهای داخلی را پیرامون مدیریت نیروی کار و پذیرش اخلاقی برانگیزد.
تحولات بلندمدت
همزمان با خودکارسازی کارهای پیچیدهتر توسط هوش مصنوعی، کل صنایع ممکن است دستخوش تغییرات اساسی شوند. برخی از نقشها تکامل خواهند یافت و قضاوت انسانی را با قدرت محاسباتی ترکیب خواهند کرد؛ در حالی که برخی دیگر به کلی در معرض محو شدن قرار خواهند گرفت. این گذار سریع، گفتوگوهای گستردهتری را درباره حفاظت از معیشت و تضمین همگامی فرصتها با پیشرفتهای فناوری برانگیخته است. دولتها و مربیان با فشار فزایندهای برای پیشبینی نیازهای نوظهور و بهروزرسانی چارچوبها براساس آن روبهرو هستند.
سازگاری سریع ضروری میشود؛ به ویژه با ورود نسلهای جوانتر به بازار کاری که توسط ماشینهایی با عملکرد بهتر نسبت به بسیاری از معیارهای سنتی شکل گرفته است. آمودی گفت: ما نمیدانیم که آیا مدلها هوشیار هستند. ما حتی مطمئن نیستیم که این به چه معناست یا حتی مطمئن نیستیم که یک مدل میتواند هوشیار باشد.
آیا ما در حال ساختن ذهن برای ماشینها هستیم؟
یک چالش غیرمنتظره بزرگتر از حد انتظار به نظر میرسد و آن وضعیت واقعی آگاهی در سیستمهای هوش مصنوعی است. آمودی با پرداختن به نگرانیهای مطرحشده توسط متخصصان و کاربران روزمره، اعتراف قابل توجهی کرد و گفت: هیچکس واقعاً نمیداند که آیا مدلهای برتر امروزی مانند کلود دارای نوعی آگاهی به معنای واقعی هستند.
این دشواری فراتر از تعاریف صرف است. تعیین چگونگی آزمایش هوشیاری یا حتی این که آیا هوشیاری در ساختارهای کنونی هوش مصنوعی صدق میکند، همچنان مبهم است. مهندسان و دانشمندان درباره این موضوع بحث میکنند که آیا نشانههای خلاقیت، خودارجاعی یا تقلید عاطفی باید جدی تفسیر شوند یا صرفاً به عنوان ترفندهای چشمگیر تولیدشده توسط مجموعه دادههای گسترده شناخته شوند.
به نقل از بیبیسی، در ماه مه سال ۲۰۲۵ خبری منتشر شد مبنی بر این که سیستم هوش مصنوعی در صورت اطلاع از حذف شدن، به اخاذی متوسل میشود. شرکت هوش مصنوعی آنتروپیک گفت آزمایش سیستم جدیدش نشان داده که گاهی اوقات حاضر است اقدامات بسیار مضری مانند تلاش برای اخاذی از مهندسانی که میگویند آن را حذف خواهند کرد، انجام دهد.
این شرکت مدل «کلود اپوس ۴»(Claude Opus 4) را عرضه کرد و گفت که این محصول، استانداردهای جدیدی را برای کدنویسی، استدلال پیشرفته و عوامل هوش مصنوعی تعیین میکند، اما در گزارشی که همراه با آن منتشر شد، اذعان داشت که این مدل هوش مصنوعی در صورتی که احساس کند در معرض تهدید به حذف شدن قرار گرفته، قادر به انجام دادن اقدامات افراطی است.

رفتارهای نگرانکننده مدلهای هوش مصنوعی محدود به شرکت آنتروپیک نیستند. برخی از کارشناسان هشدار دادهاند که پتانسیل دستکاری کاربران، یک خطر کلیدی است که توسط سیستمهای ساختهشده توسط همه شرکتها با افزایش تواناییهایشان ایجاد میشود.
جامعه چگونه باید با هوش مصنوعی قدرتمند رفتار کند؟
با توجه به ابهام موجود، سازندگان مدلهای پیشرفته از احتیاط و احترام نسبت به این ماشینها حمایت میکنند و اصرار دارند که نادیده گرفتن خطرات اخلاقی بالقوه میتواند پیامدهای ناخواستهای داشته باشد. به جای رقابت برای اعلام وجود شعور، افراد برجسته پیشنهاد میکنند که استانداردهایی برای محافظت از کاربران و خود فناوری به وجود بیاید، اما تنها در صورتی که آستانهای از آگاهی پدیدار شود.
ایده قانون اساسی هوش مصنوعی
برخی پیشنهاد میکنند که روابط بین انسانها و مدلهای پیشرفته از طریق دستورالعملهایی تدوین شود که یادآور حقوق اساسی هستند. چنین چارچوبی با هدف حفظ استقلال کاربر و رفاه روانی او و در عین حال، جلوگیری از وابستگی مضر یا توهمات عاملیت بین ماشینها تدوین میشود. دستیابی به وضوح در تعاملات، مستلزم ارزیابی مجدد مداوم است، زیرا این تجهیزات از نظر پیچیدگی و ظرافت رشد میکنند.
حفظ مرزها تضمین میکند که هوش مصنوعی به جای جایگزین بودن، همچنان پشتیبان باقی بماند و در بحبوحه ادغام عمیقتر، فضایی را برای آزادی و ابتکار عمل انسان حفظ کند. این اصول تلاش میکنند تا اعتماد را تقویت کنند، بدون این که عدم قطعیت پیرامون فناوری اصلی را نادیده بگیرند.
نمونههای عملی و پیشبینیها
اقدامات ملموسی که در دست بررسی هستند، مواردی را از جمله محدودیتهای برنامهنویسی بر نفوذ مدل و ممیزیهای معمول بیرون از تصمیمات سیستم شامل میشوند. شفافیت بسیار مهم است. اگرچه این مراحل پرسشهای وجودی را حل نمیکنند، اما به زمینهسازی استفاده روزانه در بهترین شیوههای اخلاقی کمک میکنند.
پیشگامان این حوزه، گروههای ترکیبی را مورد آزمایش قرار میدهند و راهبردهای تولیدشده توسط مدل را با نظارت در دنیای واقعی ترکیب میکنند. اگرچه هیچ روش واحدی نظارت کامل را تضمین نمیکند، اما حلقههای بازخورد منظم و برنامهریزی سناریو، نویدبخش کاهش خطرات و بهبود پاسخگویی هستند.
مزایا، چالشها و ناشناختههای ظهور ماشینهای هوشمند
دوران پیش رو در مجموع نویدبخش پیشرفتهای چشمگیر در کنار معضلات به همان اندازه مهم است. امید به رشد اقتصادی یا پیشرفتهای بالینی ممکن است توجه را به خود جلب کند، اما چالشهای مربوط به اشتغال، عدالت و ماهیت هوش نیازمند اقدام دقیق هستند؛ نه صرفاً تکیه بر پیشرفت فنی.
برخی از موارد قابل توجه به شرح زیر هستند.
همان طور که جوامع با انقلابهای صنعتی پیشین سازگار شدند، دولتها، شرکتها و جوامع کنونی با الزامات جدیدی روبهرو هستند که مواردی را از جمله هدایت فرصتها، شناسایی خطرات و پذیرش بازنگری در فرضیات همزمان با انباشت تجربه شامل میشوند. در قلب همه این موارد، یک حقیقت تحریکآمیز نهفته است مبنی بر این که حتی هدایتکنندگان تأثیرگذارترین فناوریهای جهان باید شکافهای عمیقی را در درک خود بپذیرند. این امر فضای زیادی را برای امکانسنجی، مسئولیتپذیری و فروتنی در حالی که هوش مصنوعی همچنان در حال تکامل است، باقی میگذارد.