
پژوهشگران دریافتهاند که ارائه اطلاعات آزاردهنده به چت جیپیتی میتواند باعث بروز نوعی اضطراب مصنوعی در این مدل شود. این وضعیت ممکن است باعث افزایش احتمال بروز واکنشهای جانبدارانه و تغییر در نحوه پردازش دادهها توسط این چتبات شود.
به گزارش فورچون، براساس این مطالعه، زمانی که مدلهای زبانی بزرگ مانند چت جیپیتی با موضوعات حساس یا دادههای نگرانکننده مواجه میشوند، پاسخهای آنها میتواند دستخوش تغییر شود و حتی در برخی موارد، سوگیریهایی را نشان دهد که معمولاً در شرایط عادی مشاهده نمیشود.
این یافتهها نهتنها در زمینه توسعه هوش مصنوعی اخلاقی و بدون سوگیری اهمیت دارند، بلکه میتوانند به درک بهتر نحوه تعامل سیستمهای هوش مصنوعی با کاربران در زمینههای حساس از جمله سلامت روان کمک کنند. برخی از محققان پیشنهاد کردهاند که این ویژگی میتواند در طراحی ابزارهای هوش مصنوعی برای حمایت روانی مورد استفاده قرار گیرد، اما نیاز به نظارت دقیق و بهبود روشهای پردازش دادهها وجود دارد تا از ایجاد پاسخهای نامناسب یا مخرب جلوگیری شود.
این تحقیق نشاندهنده ضرورت کنترل و اصلاح مدلهای زبانی بزرگ در مواجهه با اطلاعات احساسی و چالشبرانگیز است تا بتوان از آنها بهطور مؤثر و مسئولانه در تعاملات انسانی بهره برد.
انتهای پیام/