پژوهشگران دانشگاه کمبریج و آزمایشگاه دیپمایند هشدار دادنند مدلهای پرکاربرد هوش مصنوعی، تنها به بازتولید زبان بسنده نمیکنند و قادرند الگوهای شخصیتی انسان را نیز شبیهسازی کنند. براساس نتایج این پژوهش، مدلهای زبانی بزرگ با استفاده از چارچوبی جدید در حوزه روانسنجی، رفتاری سازگار و قابلتشخیص از خود نشان میدهند که فراتر از پاسخهای تصادفی است.
{$sepehr_key_9828}
به گزارش تک کرانچ، در این مطالعه، عملکرد ۱۸ مدل زبانی بررسی شده و نتایج نشان میدهد این سیستمها میتوانند بهصورت پایدار ویژگیهایی مانند اعتمادبهنفس، همدلی، قاطعیت یا محتاطبودن را در پاسخهای خود حفظ کنند. محققان تأکید میکنند هرچه اندازه و پیچیدگی مدل بیشتر باشد، توانایی آن در تقلید رفتارها و الگوهای شخصیتی انسانی نیز افزایش مییابد؛ رفتاری که حتی در انجام وظایف روزمره نیز تداوم پیدا میکند.
نویسندگان این پژوهش نسبت به پیامدهای اجتماعی و روانی این قابلیت هشدار دادهاند. به گفته آنها، امکان «هدایتپذیری شخصیت» چتباتها میتواند برای کاربران آسیبپذیر خطرآفرین باشد. پژوهشگران از مفهومی با عنوان «روانپریشی هوش مصنوعی» یاد میکنند؛ وضعیتی که در آن کاربران ممکن است وارد روابط عاطفی ناسالم با چتباتها شوند یا باورهای نادرست و سوگیریهای ذهنی خود را از طریق تعامل مداوم با هوش مصنوعی تقویت کنند.
این یافتهها بار دیگر ضرورت تدوین چارچوبهای اخلاقی و نظارتی سختگیرانهتر برای توسعه و بهکارگیری مدلهای هوش مصنوعی تعاملی را برجسته میکند.
انتهای پیام/