کاربران ایرانی قربانی بی‌عدالتی هوش مصنوعی شدند

|
۱۴۰۴/۱۲/۰۴
|
۱۲:۰۰:۰۳
| کد خبر: ۲۳۱۴۸۰۲
کاربران ایرانی قربانی بی‌عدالتی هوش مصنوعی شدند
برنا - گروه علمی و فناوری: پژوهش تازه دانشگاه MIT نشان می‌دهد که مدل‌های بزرگ هوش مصنوعی مانند GPT-۴ و Claude ۳ به کاربران ایرانی و کسانی که خارج از آمریکا زندگی می‌کنند، پاسخ‌های ضعیف‌تر و کم‌دقت‌تری ارائه می‌کنند.

پژوهشی تازه از مرکز ارتباطات سازنده (CCC) دانشگاه MIT نشان می‌دهد که مدل‌های زبانی بزرگ هوش مصنوعی ممکن است به برخی کاربران، از جمله ایرانی‌ها، پاسخ‌هایی با دقت کمتر ارائه دهند.

به گزارش تک کرانچ، این مطالعه که توسط پژوهشگران آزمایشگاه رسانه دانشگاه MIT انجام شده است، مشخص کرده که پیشرفته‌ترین چت‌بات‌های هوش مصنوعی، مانند GPT-۴ شرکت اپن‌ای‌آی، Claude ۳ Opus شرکت آنتروپیک و Llama ۳ شرکت متا، گاهی پاسخ‌هایی کم‌دقت و غیرواقعی به کاربرانی ارائه می‌دهند که تسلط کمتری به زبان انگلیسی دارند، سطح تحصیلات رسمی پایین‌تری دارند یا خارج از ایالات متحده زندگی می‌کنند.

پژوهشگران تأاید کردند این یافته‌ها نشان‌دهنده سوگیری پنهان در هوش مصنوعی است و هشدار می‌دهند که حتی سیستم‌هایی که قرار بود دانش را به‌طور دموکراتیک در اختیار همه قرار دهند، ممکن است به نفع برخی کاربران و به زیان دیگران عمل کنند. آنها معتقدند برای اطمینان از برابری در دسترسی به اطلاعات، لازم است مدل‌های زبانی بزرگ اصلاح شوند و پاسخ‌های دقیق و برابر به تمام کاربران جهان ارائه دهند.

انتهای پیام/

نظر شما
captcha
پیشنهاد سردبیر