صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

علمی و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

هوش‌مصنوعی نباید بر یک زبان متمرکز باشد

۱۴۰۳/۰۵/۰۵ - ۱۲:۱۳:۰۱
کد خبر: ۲۱۲۰۸۷۴
کارشناسان اعلام کردند که تمرکز مدل‌های هوش‌مصنوعی فقط بر زبان انگلیسی این احتمال را ایجاد می‌کند که قابلیت‌های آن برای سایر زبان‌ها نادیده گرفته شود.

به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛ در طول سال گذشته، دولت‌ها، دانشگاه‌ها و صنعت منابع قابل‌توجهی را برای بررسی مضرات هوش‌مصنوعی پیشرفته سرمایه‌گذاری کرده‌اند. اما به نظر می‌رسد که یک عامل بزرگ در این فرایند نادیده گرفته می‌شود: در حال حاضر، آزمایش‌ها و مدل‌های اولیه هوش‌مصنوعی به زبان انگلیسی محدود می‌شود.

پس از انتشار ابزار هوش‌مصنوعی «چت جی پی تی» در نوامبر سال ۲۰۲۲، توسعه‌دهندگان هوش‌مصنوعی از قابلیت نمایش داده شده توسط این مدل ابراز شگفتی کردند: این مدل می‌تواند حداقل به ۸۰ زبان و نه فقط انگلیسی صحبت کند.
 
در سال گذشته، کارشناسان اعلام کرده‌اند که GPT-۴ در ده‌ها زبان از Google Translate موتور ترجمه گوگل بهتر عمل می‌کند. اما این تمرکز بر زبان انگلیسی این احتمال را ایجاد می‌کند که قابلیت‌های مدل‌های هوش‌مصنوعی برای سایر زبان‌ها نادیده گرفته شود.
 
در حالی که امسال نیمی از مردم جهان به پای صندوق‌های رای می‌روند، کارشناسان درباره ظرفیت سیستم‌های هوش‌مصنوعی نه تنها برای انتشار اطلاعات نادرست، بلکه توانایی آن در تهدید یکپارچگی انتخابات ابراز نگرانی کرده‌اند.
تهدیدات در این زمینه از «دیپ‌فیک و شبیه‌سازی صدا» تا «دستکاری هویت و اخبار جعلی تولیدشده توسط هوش‌مصنوعی» متغیر است.
 
به‌نظر می‌رسد انتشار «چند مدل‌ها» یعنی سیستم‌های هوش‌مصنوعی که می‌توانند هر کاری را که انجام می‌دهید بگویند، ببینند و بشنوند (مانند GPT-۴o و Gemini Live) توسط غول‌های فناوری از جمله «اپن‌ای‌آی» و گوگل می‌تواند این تهدید را حتی بدتر کند.
 
با این حال، تقریبا همه گفتگو‌ها درباره راهبرد‌های این فناوری از جمله اجلاس ایمنی هوش ‌مصنوعی ماه مه در سئول و
انتشار نقشه راه هوش‌مصنوعی در سنای آمریکا، زبان‌های غیرانگلیسی را نادیده می‌گیرند.
 
این فقط مسئله کنار گذاشتن برخی از زبان‌ها نیست. در آمریکا، تحقیقات نشان داده جوامعی که زبان دومشان انگلیسی است، نسبت به جوامع انگلیسی‌زبان در برابر اطلاعات نادرست آسیب‌پذیرتر هستند.  
 
چنین نتایجی برای جوامعی که عموما میزبان مهاجران هستند، هم در آمریکا و هم در اروپا تکرار شده است.
بدتر از آن، سیاست‌های تعدیل محتوا در شبکه‌های اجتماعی یعنی فضایی که دروغ‌های تولیدشده توسط هوش‌مصنوعی در آن گسترش می‌یابد، به‌ شدت نسبت به زبان انگلیسی تعصب دارند.
 
در حالی که ۹۰ درصد از کاربران فیسبوک خارج از آمریکا و کانادا هستند، گردانندگان محتوای این شرکت فقط ۱۳ درصد از ساعات کاری خود را صرف تمرکز بر اطلاعات نادرست در خارج از آمریکا کرده‌اند.  
 
حتی زمانی که سیاست‌گذاران، مدیران شرکت‌ها و کارشناسان هوش‌مصنوعی برای مبارزه با اطلاعات نادرست تولیدشده توسط هوش‌مصنوعی آماده می‌شوند، تلاش‌های آن‌ها بر کسانی که به احتمال زیاد در معرض چنین کمپین‌های دروغینی قرار می‌گیرند و آسیب‌پذیر هستند، از جمله مهاجران سایه انداخته است.
 
این مشکل زمانی که به ظرفیت سیستم‌های هوش‌مصنوعی برای ایجاد تلفات انسانی انبوه مثل تولید یک سلاح زیستی می‌رسد، بیش‌تر نگران‌کننده است. در سال ۲۰۲۳ کارشناسان ابراز نگرانی کردند که مدل‌های زبان بزرگ (LLM) می‌تواند برای ترکیب عوامل بیماری‌زا و بروز همه‌گیری استفاده شود. از آن زمان، مقالات تحقیقاتی بسیاری درخصوص این موضوع منتشر شده است.
 
یکی از یافته‌های رایج این گزارش‌ها این است که نسل کنونی سیستم‌های هوش‌مصنوعی در ارائه اطلاعات خطرناکی که می‌تواند برای ساخت سلاح‌های زیستی به عوامل مخرب ارائه شود، بهتر از موتور‌های جستجو مانند گوگل نیستند.
 
تحقیقات شرکت پیشرو در فناوری هوش‌مصنوعی «اپن ای آی» در ابتدای سال ۲۰۲۴ به این نتیجه رسید، به دنبال آن گزارشی در RAND Corporation منتشر شد که نتیجه مشابهی را نشان داد.
 
چیزی که در مورد این مطالعات شگفت‌آور است، نبود تقریبا کامل آزمون در زبان‌های غیرانگلیسی است. این امر منحرف‌کننده است، زیرا بیش‌تر تلاش‌های غرب برای مبارزه با بازیگران غیردولتی در مناطقی از جهان متمرکز شده که به ندرت با زبان انگلیسی به عنوان زبان اول صحبت می‌شود.
 
مشکل این نیست که زبان‌های پشتو، عربی، روسی یا سایر زبان‌ها ممکن است نتایج خطرناک‌تری نسبت به زبان انگلیسی داشته باشند، مسئله این است که استفاده از این زبان‌ها برای کاربرانی که به زبان‌های غیرانگلیسی بهتر تسلط دارند، یک توانایی است.
 
LLM‌ها اغلب مترجمان بهتری نسبت به سرویس‌های سنتی هستند. برای یک تروریست بسیار ساده‌تر است که به سادگی درخواست خود را در یک LLM به زبان مورد علاقه خود وارد کند و مستقیماً به آن زبان هم پاسخ بگیرد.  
 
این تصور که سیستم‌های هوش مصنوعی پیشرفته ممکن است اگر به زبان انگلیسی از آن‌ها سؤال شود، نتیجه را به هر زبانی به خوبی ارائه دهند طیف گسترده‌ای از کاربرد‌ها را دارد.
 
شاید شهودی‌ترین مثال در اینجا «Spear phishing» باشد که افراد خاصی را با استفاده از تکنیک‌های ایمن کردن اطلاعات با دریافت پول هدف قرار می‌دهد. از زمان رایج‌شدن کلاهبرداری‌های موسوم به روش «شاهزاده نیجریه»، کارشناسان یک قانون اساسی را برای محافظت
 
کاربران از خود ارائه می‌کنند: اگر به نظر می‌رسد پیام به انگلیسی غیر روان و با دستور زبان نادرست نوشته شده، مطمئن باشید که یک کلاهبرداری است.
 
اکنون چنین پیام‌هایی می‌توانند توسط کسانی که هیچ دانشی از زبان انگلیسی ندارند، به سادگی با تایپ پیام خود به زبان مادری‌شان و دریافت پاسخ روان به زبان انگلیسی، ایجاد شود. در این شرایط چیزی درباره اینکه سیستم‌های هوش‌مصنوعی چقدر ممکن است کلاهبرداری‌ها را تقویت کنند، گفته نمی‌شود.
 
واضح است که زبان سوال در هوش مصنوعی از اهمیت بالایی برخوردار است و کار‌های زیادی با آن می‌توان انجام داد. این شامل دستورالعمل‌ها و الزامات جدید برای آزمایش مدل‌های هوش‌مصنوعی از موسسات دولتی و دانشگاهی است و شرکت‌ها را برای ایجاد معیار‌های جدیدی که ممکن است در زبان‌های غیر انگلیسی کم‌تر قابل اجرا باشد، تشویق می‌کند.
 
مهم‌تر از همه، ضروری است که مهاجران و مردم کشور‌های جهان سوم بهتر در این تلاش‌ها دیده شوند. ائتلاف‌هایی که برای ایمن نگه‌داشتن جهان از خطرات هوش‌مصنوعی تلاش می‌کنند، باید بیش‌تر شبیه به آن شوند.
 
انتهای پیام/
نظر شما