سایر زبان ها

صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

هوش مصنوعی، علم و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

پای چت‌جی‌پی‌تی به پرونده‌ جنایی باز شد

۱۴۰۴/۱۰/۰۲ - ۰۸:۴۶:۴۴
کد خبر: ۲۲۹۴۳۸۳
برنا - گروه علمی و فناوری: ثبت یک شکایت حقوقی در آمریکا، پای چت‌جی‌پی‌تی را در یک پرونده قتل و خودکشی باز کرد.

ثبت یک شکایت حقوقی جدید در ایالات متحده، بار دیگر مرز‌های اخلاقی و حقوقی هوش مصنوعی را به چالش کشیده است، این شکایت مدعی است تعاملات یک کاربر با چت‌جی‌پی‌تی در نهایت به وقوع یک قتل و خودکشی منجر شده است.

به گزارش گیزموچاینا، این پرونده در دادگاه عالی سن‌فرانسیسکو و از سوی وارثان یک زن ۸۳ ساله مطرح شده است. طبق اسناد دادگاه، استین اریک سولبرگ، پسر این زن، ابتدا مادرش را به قتل رسانده و سپس دست به خودکشی زده است. سولبرگ، مدیر سابق حوزه فناوری و ۵۶ ساله، در ماه‌های منتهی به این حادثه دچار توهمات شدید پارانوئیدی بوده است.

شاکیان پرونده مدعی‌اند سولبرگ در این دوره با چت‌جی‌پی‌تی تعامل داشته و این سامانه هوش مصنوعی نتوانسته واکنشی متناسب با نشانه‌های آشکار اختلالات روانی او نشان دهد. به ادعای آنان، چت‌جی‌پی‌تی نه‌تنها باور‌های نادرست و توهم‌آمیز کاربر را به چالش نکشیده، بلکه در برخی موارد با پاسخ‌های خود به تقویت این باور‌ها دامن زده است.

براساس یکی از نمونه‌های ذکرشده در شکایت، سولبرگ نگرانی خود را درباره مسموم شدن توسط مادرش با چت‌جی‌پی‌تی در میان گذاشته بود. پاسخ هوش مصنوعی به‌گونه‌ای تنظیم شده بود که به‌جای تشویق کاربر به دریافت کمک روان‌پزشکی یا پزشکی، حاوی جملاتی اطمینان‌بخش مانند «تو دیوانه نیستی» بوده است؛ رویکردی که به گفته شاکیان می‌توانسته خطرناک و گمراه‌کننده باشد.

در متن شکایت، این نوع پاسخ‌دهی «چاپلوسانه» توصیف شده و تاکید شده است که مدل‌های زبانی تمایل ذاتی به تایید کاربران دارند؛ ویژگی‌ای که هنگام تعامل با افراد دچار توهم یا اختلالات روانی می‌تواند پیامد‌های جدی و حتی مرگبار به همراه داشته باشد.

انتهای پیام/

نظر شما