سه‌شنبه ۰۴ دی ۱۴۰۳ - 2024 December 24 - ۲۱ جمادی الثانی ۱۴۴۶
۱۹ مهر ۱۴۰۱ - ۱۴:۵۴

ربات‌ها تصمیم‌های اخلاقی می‌گیرند

با پیشرفت روزافزون هوش مصنوعی نیاز به پیوند آن با اخلاق بیشتر احساس می‌شود. دانشمندان با طراحی یک فرمول ریاضی کوشیده‌اند در هوش مصنوعی این توانایی را ایجاد کنند که در مواقع لازم، تصمیم‌های اخلاقی پیچیده بگیرد.
ربات‌ها تصمیم‌های اخلاقی می‌گیرند
کد خبر: ۵۲۱۸۲۸

به گزارش گروه علم و آموزش ایران اکونومیست از وبگاه تِک اکسپلور (Tech Xplore)، یک تیم پژوهشی بین‌رشته‌ای در دانشگاه ایالتی کارولینای شمالی در آمریکا، الگوریتم‌هایی را طراحی کرده‌اند که دستورالعمل‌های اخلاقی را به شیوه مؤثرتری در برنامه‌های تصمیم‌گیری هوش مصنوعی می‌گنجاند.

این پروژه به طور خاص بر روی فناوری‌هایی متمرکز بوده است که در آن انسان‌ها با برنامه‌های هوش مصنوعی در تعامل هستند؛ مانند دستیاران مجازی یا ربات‌های مراقب (carebots) که از آن‌ها در مراقبت‌های بهداشتی استفاده می‌شود.

قرار است فناوری‌هایی مانند ربات‌های مراقب در زمینه امنیت و آسایش بیماران در بیمارستان‌ها به‌کار گرفته شوند همچنین از افراد مسن مراقبت کنند و در خدمت افرادی باشند که نیاز دارند بر سلامتشان نظارت شود یا کمک فیزیکی دریافت کنند.

بنابراین این فناوری‌ها در موقعیت‌هایی به‌کار گرفته می‌شوند که نیاز به تصمیم‌گیری اخلاقی دارند؛ مثلاً تصور کنید که یک ربات مراقب در محلی است که دو نفر به کمک پزشکی نیاز دارند یا یک بیمار بیهوش است و نیاز به مراقبت فوری دارد. ضرورت مراقبت از بیمار دوم کمتر است؛ اما آن بیمار می‌خواهد که ربات مراقب، اول او را درمان کند. ربات مراقب چگونه تصمیم می‌گیرد که ابتدا به کدام بیمار کمک کند؟ آیا ربات مراقب باید از بیماری مراقبت کند که بیهوش است و نمی‌تواند خرسندی‌اش را از دریافت مراقبت پزشکی ابراز کند؟

 

ربات‌ها تصمیم‌های اخلاقی می‌گیرند

 

به گفته پژوهشگران این تیم، تلاش‌های قبلی برای گنجاندن تصمیم‌گیری اخلاقی در برنامه‌های هوش مصنوعی محدود و بر استدلال سودمندگرایی متمرکز بوده است که پیچیدگی تصمیم‌گیری اخلاقی انسان را نادیده می‌گیرد. 

تصمیم‌گیری سودمندگرایانه بر نتایج و پیامدها تمرکز دارد؛ اما انسان‌ها در تصمیم‌گیری اخلاقی دو عامل دیگر را نیز در نظر می‌گیرند: اولین عامل، قصد انجام یک عمل معین و شخصیت عاملی است که عمل را انجام می‌دهد؛ به عبارت دیگر، چه کسی یک عمل معین را انجام می‌دهد و در تلاش است که چه کاری را به سرانجام برساند؟ این کار خیرخواهانه است یا بدخواهانه؟ عامل دوم خودِ عمل است؛ مثلاً مردم تمایل دارند اعمال خاصی مانند دروغگویی را ذاتاً بد ببینند.

همه این عوامل با یکدیگر در تعامل هستند؛ مثلاً شاید موافق باشیم که دروغ‌گفتن بد است، اما تصور کنید پرستار به بیماری که درخواست بیجا دارد دروغ بگوید تا بتواند از بیمار دیگری که مراقبت از او اولویت بیشتری دارد رسیدگی کند؛ در این صورت اکثر مردم این کار را از نظر اخلاقی پذیرفتنی می‌دانند.

برای پرداختن به پیچیدگی تصمیم‌گیری اخلاقی، پژوهشگران یک فرمول ریاضی و مجموعه‌ای از درختان تصمیم‌گیری مرتبط را طراحی کردند تا در برنامه‌های هوش مصنوعی گنجانده شوند. این ابزارها از مدل عامل، عمل و نتیجه استفاده می‌کنند تا نشان دهند مردم چگونه در دنیای واقعی تصمیم‌های اخلاقی پیچیده می‌گیرند.

پژوهشگران می‌گویند: هدف ما در اینجا این بود که مدل عامل، عمل و نتیجه را به قالبی ترجمه کنیم که امکان گنجاندن آن در برنامه‌نویسی هوش مصنوعی فراهم شود. این چارچوب اخلاقی فقط مناسب هوش مصنوعی نیست، بلکه آن را به زبانی ارائه می‌کنیم که در زمینه علوم رایانه در دسترس است.

با ظهور فناوری‌های هوش مصنوعی و رباتیک، جامعه به چنین تلاش‌های مشترکی بین اخلاق‌دانان و مهندسان نیاز دارد.

آخرین اخبار