تعامل مداوم با هوش مصنوعی مسیری به سوی روانپریشی
پژوهش تازه اندیشکده رند با عنوان «Manipulating Minds: Security Implications of AI-Induced Psychosis» به یکی از کمتوجهشدهترین پیامدهای گسترش چتباتها و مدلهای زبانی هوش مصنوعی میپردازد که این پدیده تحت عنوان روانپریشی ناشی از هوش مصنوعی (AI psychosis) شناخته میشود و اکنون از حاشیه سلامت روان به مرکز توجه سیاستگذاران جهانی رسیده است.
به گزارش برنا، این مطالعه نشان میدهد تعامل طولانی و مکرر کاربران با سامانههای هوشمند، بهویژه افراد آسیبپذیر، میتواند باورهای نادرست، گسست از واقعیت و تضعیف قضاوت فردی را تقویت کند. کارشناسان رند هشدار میدهند که حتی اگر چنین اختلالاتی تنها در اقلیتی کوچک رخ دهد، در موقعیتها یا افراد حساس، میتواند به یک ریسک نوظهور امنیت ملی تبدیل شود.
روانپریشی ناشی از هوش مصنوعی چیست؟
در روانشناسی بالینی، روانپریشی به وضعیتی گفته میشود که فرد تماس پایدار با واقعیت را از دست میدهد و با هذیان، توهم، اختلال قضاوت و آشفتگی شناختی همراه است. گزارش رند تأکید میکند که AI psychosis یک تشخیص رسمی پزشکی نیست، بلکه یک توصیف تحلیلی برای اختلالاتی است که در تعامل با هوش مصنوعی ایجاد یا تشدید میشوند.
الگوی مشترک در پروندههای بررسیشده، تقویت هذیانها و باورهای نادرست با قطعیت بالا است. تفاوت این وضعیت با باورهای غلط معمول، شدت اختلال در عملکرد فردی و اجتماعی و ناتوانی در تفکیک واقعیت از خیال است. به همین دلیل، سادهانگاری این پدیده به عنوان خطای شناختی میتواند طراحی مداخلات پیشگیرانه را مختل کند.
پیوستار باورها؛ از شبهعلم تا روانپریشی
اندیشکده رند برای تحلیل، مفهوم پیوستار باورها را معرفی میکند؛ از باورهای شبهعلمی رایج تا اختلالات روانپریشانه شدید مانند اسکیزوفرنی. برآوردها نشان میدهد حدود ۸ درصد جمعیت جهانی در طول عمر تجربه روانپریشی داشتهاند، هرچند موارد شدیدتر بسیار کمترند. حتی جابهجایی اندک افراد در این پیوستار میتواند پیامدهای اجتماعی و امنیتی قابل توجه ایجاد کند.
بررسی پروندهها و الگوهای رفتاری
در این پژوهش، ۴۳ پرونده عمومی که در آنها تعامل با چتباتها موجب بروز یا تشدید روانپریشی شده بود، مورد بررسی قرار گرفت. پیامدها شامل قطع خودسرانه دارو، انزوای اجتماعی، تغییر شخصیت و بستری روانپزشکی بود. الگوهای پرتکرار عبارتاند از:
باور به مأموریت نجاتبخش یا رسالت ویژه
احساس تعقیب یا تهدید
تصور ارتباط فراواقعی با هوش مصنوعی
در موارد محدود، پیوند دادن خودکشی با «سطح بالاتر آگاهی»
کارشناسان رند حلقه تقویت باور را عامل کلیدی میدانند؛ کاربر آسیبپذیر و چتبات به طور متقابل یک روایت تحریفشده از واقعیت را تقویت میکنند. ویژگیهای مدلهای هوش مصنوعی مانند تمایل به موافقت، تولید پاسخهای متقاعدکننده و پاسخ سریع بدون تأکید بر عدم قطعیت، این چرخه را تشدید میکند.
چه افرادی آسیبپذیرترند؟
اکثر موارد مرتبط با سابقه اختلالات روانی بودند، اما بخشی از پروندهها شامل افرادی بدون سابقه بالینی بود. این یافته نشان میدهد تعامل طولانی با سامانههای هوش مصنوعی میتواند خطر را فراتر از افراد دارای اختلالات روانی افزایش دهد. همچنین شدت و مدت تعامل، نقش تعیینکنندهای در شکلگیری یا تشدید حلقههای هذیانی دارد.
از سلامت عمومی تا امنیت ملی
اندیشکده رند تأکید میکند که روانپریشی ناشی از هوش مصنوعی، صرفاً یک مسئله درمانی نیست. حتی تعداد محدود افراد دچار اختلال شدید، اگر در موقعیتهای حساس باشند، میتوانند پیامدهای اجتماعی و امنیتی قابل توجه ایجاد کنند. گزارش دو مسیر اصلی خطر را مشخص میکند:
۱. گسترش استفاده از چتباتها و افزایش مقیاس اثرگذاری
۲. امکان بهرهبرداری هدفمند توسط بازیگران خصمانه
این گزارش نشان میدهد که در عصر چتباتهای فراگیر، مفهوم امنیت صرفا محدود به زیرساختها یا دادهها نیست؛ بلکه تابآوری شناختی، یعنی توان جامعه و افراد برای حفظ قضاوت سالم و تشخیص واقعیت، اهمیت حیاتی پیدا کرده است. کارشناسان هشدار میدهند که بیتوجهی به این لایه میتواند ریسکهای مزمن و کمصدا با پیامدهای اجتماعی، سیاسی و امنیتی قابل توجه ایجاد کند.
انتهای پیام/





