خبرگزاری برنا؛ گروه تحقیقاتی "اخلاقیات ماشینهای هوشمند" به سرپرستی مایکل لاکاسو دیدگاههای اخلاقی افراد را در مورد موقعیتهای نجات خیالی و امدادگر انسان یا ربات که به طور خاص برای این کار طراحی شده است، مورد بررسی قرار دادند. امدادگر باید تصمیم بگیرد که مثلاً یک قربانی بی گناه حادثه قایق را نجات دهد یا دو فردی که رفتار غیرمسئولانه آنها باعث حادثه شده است.
یوکا سوندوال نویسنده اصلی این مطالعه گفت: بحث نجات تعداد افراد بیشتر در مقابل اولویت دادن به افراد بی گناه است.
هدف این مطالعه جمعآوری دادهها در مورد عواملی است که افراد در ارزیابیهای اخلاقی خود در مورد موقعیتهای دشوار تصمیمگیری بر آنها تأکید میکنند و اینکه آیا اگر تصمیم گیری به عهده یک ربات گذاشته شود، این تاکیدات تغییر میکند یا خیر. به عبارت دیگر، آیا از رباتهای امدادگر انتظار میرود به اولویتهای متفاوت با انسانها پایبند باشند؟
مهمترین یافته این تحقیق این بود که شرکت کنندگان در مطالعه و پاسخ دهندگان به یک نظرسنجی آنلاین (به زبان فنلاندی) بر بی گناهی بیشترِ افرادی که قرار بود نجات یابند، تاکید داشتند. بطور کلی از نظر مردم بهتر است یک فرد بی گناه نجات داده شود تا دو فردی که باعث حادثه شده اند، چه امدادگر انسان باشد یا ربات. پاسخ دهندگان میخواستند که امدادگر تنها در شرایطی که همه طرفهای درگیر در بروز حادثه به یک اندازه مقصر هستند یا مقصر نیستند، تعداد افراد نجات یافته را به حداکثر برساند.
این مطالعه همچنین تاکید میکند که اگر امدادگر تصمیم میگرفت با نجات افراد عامل ایجاد حادثه، تعداد نجاتیافتگان را به حداکثر برساند، تصمیم رباتها بسیار بیشتر از امدادگران انسانی محکوم میشد.
مایکل لاکاسو گفت: بر اساس نتایج این مطالعه به نظر میرسد تصمیمهای رباتها بر اساس معیارهای اخلاقی سختگیرانه تری ارزیابی میشود.
در حالی که رباتها و انسانها در معرض انتظارات اخلاقی مشابهی هستند، اما انتظار میرود رباتها در برآورده کردن این انتظارات بهتر از انسان عمل کنند.
یک دلیل احتمالی این است که مردم امیدوارند تصمیم گیری خودکار، بسیار بیشتر از تصمیم گیری افراد "درست" باشد. اگر این اتفاق نیفتد، هدف اتوماسیون و خودکارسازی را زیر سوال میبرد.
ساندوال افزود: شاید تصمیمهای اخلاقی ضعیفی را که انسانها گرفته اند، بتوان اتفاقات قابل درک دانست؛ در حالی که در مورد رباتها این تصمیمها نشانه خطا در برنامهنویسی قلمداد میشوند.
بررسی نگرشها نسبت به فناوری جدید
در سطح عملی، معیارهای اخلاقی سختگیرانهتر میتواند به واکنشهای منفی قابل توجه در شرایط زندگی واقعی منجر شود؛ جایی که نتیجه تصمیم گیری خودکار از دیدگاه شهروندان از نظر اخلاقی ضعیف است. انتظارات بالا ممکن است مانع گسترش تصمیم گیری خودکار شود.
این مطالعه بخشی از مطالعات حوزه روانشناسی اخلاقی و تعامل انسان و فناوری است و هدف آن گسترش درک ما از تفکر و نگرش اخلاقی به فناوریهای جدید است.
ساندوال با تاکید بر اهمیت این مطالعه اظهار داشت: توسعه هوش مصنوعی و رباتیک در حال حاضر بحث روز است. امکان تصمیم گیری خودکار در بخشهای مختلف جامعه در حال افزایش است و تلاش برای پیش بینی مشکلات مربوط به این حوزه مفید است.
انتهای پیام/