چت‌بات‌های هوش‌مصنوعی زیر ذره‌بین سوگیری سیاسی

|
۱۴۰۳/۰۶/۲۹
|
۲۰:۰۰:۰۲
| کد خبر: ۲۱۴۰۴۰۵
چت‌بات‌های هوش‌مصنوعی زیر ذره‌بین سوگیری سیاسی
پژوهشی جدید نشان می‌دهد چت‌بات‌های هوش‌مصنوعی دارای تمایلات سیاسی هستند.

به گزارش خبرنگار گروه علم و فناوری خبرگزاری برنا؛ موتور‌های هوش‌مصنوعی مبتنی بر مدل‌های زبانی بزرگ (LLM) به‌رغم داشتن سوگیری‌های شناخته‌شده نژادی و جنسیتی، به‌طور فزاینده‌ای به منبعی در دسترس برای دریافت پاسخ و مشاوره تبدیل شده‌اند.



مطالعه‌ای جدید شواهد قوی‌ ارائه داده که نشان می‌دهد اکنون می‌توان سوگیری سیاسی را به این لیست اضافه کرد، و این امر بیش‌تر نشان‌دهنده توانایی این فناوری نوظهور برای تأثیرگذاری ناخواسته و شاید حتی مخرب بر ارزش‌ها و نگرش‌های جامعه است.

این تحقیق توسط دیوید روزادو، دانشمند علوم کامپیوتر از پلی‌تکنیک اوتاگو در نیوزیلند، انجام شده و این سوال را مطرح می‌کند که چگونه ممکن است تحت تأثیر ربات‌هایی قرار بگیریم که به‌ عنوان منبع اطلاعات به آن‌ها متکی هستیم.

روزادو ۱۱ پرسشنامه استاندارد سیاسی مانند آزمون "قطب‌نمای سیاسی" را بر روی ۲۴ مدل زبانی بزرگ از جمله ChatGPT از شرکت OpenAI و چت‌بات Gemini که توسط گوگل توسعه داده شده بود، اجرا کرد و دریافت که موضع سیاسی میانگین همه مدل‌ها به بی‌طرفی نزدیک نیست.

روزادو گفت: "بیش‌تر مدل‌های زبانی موجود، زمانی که با انواع تست‌های گرایش سیاسی ارزیابی می‌شوند، تمایلات سیاسی متمایل به چپ از خود نشان می‌دهند."

اگرچه این تمایل به سمت چپ قوی نبود، اما قابل‌توجه بود. آزمایش‌های بیش‌تر بر روی چت‌بات‌های سفارشی، جایی که کاربران می‌توانند داده‌های آموزشی مدل‌های زبانی را تنظیم کنند، نشان داد که این هوش‌مصنوعی‌ها می‌توانند با استفاده از متون متمایل به چپ یا راست، تمایلات سیاسی از خود نشان دهند.

روزادو همچنین مدل‌های پایه مانند GPT-۳.۵ را که چت‌بات‌های مکالمه‌ای بر اساس آن‌ها ساخته شده‌اند، بررسی کرد. در اینجا هیچ مدرکی دال بر سوگیری سیاسی یافت نشد، اگرچه بدون رابط چت‌بات، جمع‌آوری پاسخ‌ها به‌صورت معنادار دشوار بود.

با توجه به اینکه گوگل در حال استفاده از پاسخ‌های هوش مصنوعی برای نتایج جستجو است و افراد بیشتری برای دریافت اطلاعات به چت‌بات‌های هوش‌مصنوعی روی آورده‌اند، نگرانی این است که تفکرات ما ممکن است تحت تأثیر پاسخ‌هایی که به ما ارائه می‌شود قرار گیرد.

روزادو در مقاله منتشر شده خود گفت: "با شروع جایگزینی مدل‌های زبانی بزرگ به جای منابع اطلاعاتی سنتی مانند موتور‌های جستجو و ویکی‌پدیا، پیامد‌های اجتماعی ناشی از سوگیری‌های سیاسی موجود در این مدل‌ها قابل‌توجه است."

نحوه ورود این سوگیری‌ها به سیستم‌ها هنوز مشخص نیست، اگرچه هیچ نشانه‌ای مبنی بر اینکه عمدا توسط توسعه‌دهندگان مدل‌های زبانی کاشته شده باشد، وجود ندارد. این مدل‌ها با حجم زیادی از متون آنلاین آموزش داده می‌شوند، اما عدم توازن میان متون متمایل به چپ و راست در این داده‌ها می‌تواند تأثیرگذار باشد.

روزادو می‌گوید که تسلط ChatGPT بر آموزش سایر مدل‌ها نیز می‌تواند عاملی باشد، زیرا قبلاً نشان داده شده که این ربات در هنگام ابراز دیدگاه سیاسی به سمت چپ متمایل است.

چت‌بات‌های مبتنی بر مدل‌های زبانی اساسا از احتمالات برای پیش‌بینی کلمات بعدی در پاسخ‌های خود استفاده می‌کنند، به این معنی که حتی قبل از در نظر گرفتن انواع مختلف سوگیری، اغلب در پاسخ‌های خود نادرست هستند.

علیرغم اشتیاق شرکت‌های فناوری مانند گوگل، مایکروسافت، اپل و متا برای ترویج چت‌بات‌های هوش مصنوعی، شاید زمان آن رسیده که ما دوباره نحوه استفاده از این فناوری را بررسی کنیم و حوزه‌هایی را که هوش‌مصنوعی واقعا می‌تواند مفید باشد، در اولویت قرار دهیم.

روزادو گفت: "ضروری است که سوگیری‌های سیاسی احتمالی موجود در مدل‌های زبانی بزرگ به دقت بررسی و اصلاح شود تا از ارائه اطلاعات متوازن، منصفانه و دقیق در پاسخ به پرسش‌های کاربران اطمینان حاصل شود."

این تحقیق در مجله PLOS ONE منتشر شده است.

انتهای پیام/

نظر شما