به گزارش خبرنگار گروه علم و فناوری خبرگزاری برنا؛ موتورهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ (LLM) بهرغم داشتن سوگیریهای شناختهشده نژادی و جنسیتی، بهطور فزایندهای به منبعی در دسترس برای دریافت پاسخ و مشاوره تبدیل شدهاند.
مطالعهای جدید شواهد قویای ارائه داده که نشان میدهد اکنون میتوان سوگیری سیاسی را به این لیست اضافه کرد، و این امر بیشتر نشاندهنده توانایی این فناوری نوظهور برای تأثیرگذاری ناخواسته و شاید حتی مخرب بر ارزشها و نگرشهای جامعه است.
این تحقیق توسط دیوید روزادو، دانشمند علوم کامپیوتر از پلیتکنیک اوتاگو در نیوزیلند، انجام شده و این سوال را مطرح میکند که چگونه ممکن است تحت تأثیر رباتهایی قرار بگیریم که بهعنوان منبع اطلاعات به آنها متکی هستیم.
روزادو ۱۱ پرسشنامه استاندارد سیاسی مانند آزمون "قطبنمای سیاسی" را بر روی ۲۴ مدل زبانی بزرگ از جمله ChatGPT از شرکت OpenAI و چتبات Gemini که توسط گوگل توسعه داده شده بود، اجرا کرد و دریافت که موضع سیاسی میانگین همه مدلها به بیطرفی نزدیک نیست.
روزادو گفت: "بیشتر مدلهای زبانی موجود، زمانی که با انواع تستهای گرایش سیاسی ارزیابی میشوند، تمایلات سیاسی متمایل به چپ از خود نشان میدهند. "
اگرچه این تمایل به سمت چپ قوی نبود، اما قابلتوجه بود. آزمایشهای بیشتر بر روی چتباتهای سفارشی، جایی که کاربران میتوانند دادههای آموزشی مدلهای زبانی را تنظیم کنند، نشان داد که این هوش مصنوعیها میتوانند با استفاده از متون متمایل به چپ یا راست، تمایلات سیاسی از خود نشان دهند.
روزادو همچنین مدلهای پایه مانند GPT-۳.۵ را که چتباتهای مکالمهای بر اساس آنها ساخته شدهاند، بررسی کرد. در اینجا هیچ مدرکی دال بر سوگیری سیاسی یافت نشد، اگرچه بدون رابط چتبات، جمعآوری پاسخها بهصورت معنادار دشوار بود.
با توجه به اینکه گوگل در حال استفاده از پاسخهای هوش مصنوعی برای نتایج جستجو است و افراد بیشتری برای دریافت اطلاعات به چتباتهای هوش مصنوعی روی آوردهاند، نگرانی این است که تفکرات ما ممکن است تحت تأثیر پاسخهایی که به ما ارائه میشود قرار گیرد.
روزادو در مقاله منتشر شده خود گفت: "با شروع جایگزینی مدلهای زبانی بزرگ به جای منابع اطلاعاتی سنتی مانند موتورهای جستجو و ویکیپدیا، پیامدهای اجتماعی ناشی از سوگیریهای سیاسی موجود در این مدلها قابلتوجه است. "
نحوه ورود این سوگیریها به سیستمها هنوز مشخص نیست، اگرچه هیچ نشانهای مبنی بر اینکه عمداً توسط توسعهدهندگان مدلهای زبانی کاشته شده باشد، وجود ندارد. این مدلها با حجم زیادی از متون آنلاین آموزش داده میشوند، اما عدم توازن میان متون متمایل به چپ و راست در این دادهها میتواند تأثیرگذار باشد.
روزادو میگوید که تسلط ChatGPT بر آموزش سایر مدلها نیز میتواند عاملی باشد، زیرا قبلاً نشان داده شده که این ربات در هنگام ابراز دیدگاه سیاسی به سمت چپ متمایل است.
چتباتهای مبتنی بر مدلهای زبانی اساساً از احتمالات برای پیشبینی کلمات بعدی در پاسخهای خود استفاده میکنند، به این معنی که حتی قبل از در نظر گرفتن انواع مختلف سوگیری، اغلب در پاسخهای خود نادرست هستند.
علیرغم اشتیاق شرکتهای فناوری مانند گوگل، مایکروسافت، اپل و متا برای ترویج چتباتهای هوش مصنوعی، شاید زمان آن رسیده که ما دوباره نحوه استفاده از این فناوری را بررسی کنیم و حوزههایی را که هوش مصنوعی واقعاً میتواند مفید باشد، در اولویت قرار دهیم.
روزادو گفت: "ضروری است که سوگیریهای سیاسی احتمالی موجود در مدلهای زبانی بزرگ به دقت بررسی و اصلاح شود تا از ارائه اطلاعات متوازن، منصفانه و دقیق در پاسخ به پرسشهای کاربران اطمینان حاصل شود. "
این تحقیق در مجله PLOS ONE منتشر شده است.
انتهای پیام/