به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛ در طول سال گذشته، دولتها، دانشگاهها و صنعت منابع قابلتوجهی را برای بررسی مضرات هوشمصنوعی پیشرفته سرمایهگذاری کردهاند. اما به نظر میرسد که یک عامل بزرگ در این فرایند نادیده گرفته میشود: در حال حاضر، آزمایشها و مدلهای اولیه هوشمصنوعی به زبان انگلیسی محدود میشود.
پس از انتشار ابزار هوشمصنوعی «چت جی پی تی» در نوامبر سال ۲۰۲۲، توسعهدهندگان هوشمصنوعی از قابلیت نمایش داده شده توسط این مدل ابراز شگفتی کردند: این مدل میتواند حداقل به ۸۰ زبان و نه فقط انگلیسی صحبت کند.
در سال گذشته، کارشناسان اعلام کردهاند که GPT-۴ در دهها زبان از Google Translate موتور ترجمه گوگل بهتر عمل میکند. اما این تمرکز بر زبان انگلیسی این احتمال را ایجاد میکند که قابلیتهای مدلهای هوشمصنوعی برای سایر زبانها نادیده گرفته شود.
در حالی که امسال نیمی از مردم جهان به پای صندوقهای رای میروند، کارشناسان درباره ظرفیت سیستمهای هوشمصنوعی نه تنها برای انتشار اطلاعات نادرست، بلکه توانایی آن در تهدید یکپارچگی انتخابات ابراز نگرانی کردهاند.
تهدیدات در این زمینه از «دیپفیک و شبیهسازی صدا» تا «دستکاری هویت و اخبار جعلی تولیدشده توسط هوشمصنوعی» متغیر است.
بهنظر میرسد انتشار «چند مدلها» یعنی سیستمهای هوشمصنوعی که میتوانند هر کاری را که انجام میدهید بگویند، ببینند و بشنوند (مانند GPT-۴o و Gemini Live) توسط غولهای فناوری از جمله «اپنایآی» و گوگل میتواند این تهدید را حتی بدتر کند.
با این حال، تقریبا همه گفتگوها درباره راهبردهای این فناوری از جمله اجلاس ایمنی هوش مصنوعی ماه مه در سئول و
انتشار نقشه راه هوشمصنوعی در سنای آمریکا، زبانهای غیرانگلیسی را نادیده میگیرند.
این فقط مسئله کنار گذاشتن برخی از زبانها نیست. در آمریکا، تحقیقات نشان داده جوامعی که زبان دومشان انگلیسی است، نسبت به جوامع انگلیسیزبان در برابر اطلاعات نادرست آسیبپذیرتر هستند.
چنین نتایجی برای جوامعی که عموما میزبان مهاجران هستند، هم در آمریکا و هم در اروپا تکرار شده است.
بدتر از آن، سیاستهای تعدیل محتوا در شبکههای اجتماعی یعنی فضایی که دروغهای تولیدشده توسط هوشمصنوعی در آن گسترش مییابد، به شدت نسبت به زبان انگلیسی تعصب دارند.
در حالی که ۹۰ درصد از کاربران فیسبوک خارج از آمریکا و کانادا هستند، گردانندگان محتوای این شرکت فقط ۱۳ درصد از ساعات کاری خود را صرف تمرکز بر اطلاعات نادرست در خارج از آمریکا کردهاند.
حتی زمانی که سیاستگذاران، مدیران شرکتها و کارشناسان هوشمصنوعی برای مبارزه با اطلاعات نادرست تولیدشده توسط هوشمصنوعی آماده میشوند، تلاشهای آنها بر کسانی که به احتمال زیاد در معرض چنین کمپینهای دروغینی قرار میگیرند و آسیبپذیر هستند، از جمله مهاجران سایه انداخته است.
این مشکل زمانی که به ظرفیت سیستمهای هوشمصنوعی برای ایجاد تلفات انسانی انبوه مثل تولید یک سلاح زیستی میرسد، بیشتر نگرانکننده است. در سال ۲۰۲۳ کارشناسان ابراز نگرانی کردند که مدلهای زبان بزرگ (LLM) میتواند برای ترکیب عوامل بیماریزا و بروز همهگیری استفاده شود. از آن زمان، مقالات تحقیقاتی بسیاری درخصوص این موضوع منتشر شده است.
یکی از یافتههای رایج این گزارشها این است که نسل کنونی سیستمهای هوشمصنوعی در ارائه اطلاعات خطرناکی که میتواند برای ساخت سلاحهای زیستی به عوامل مخرب ارائه شود، بهتر از موتورهای جستجو مانند گوگل نیستند.
تحقیقات شرکت پیشرو در فناوری هوشمصنوعی «اپن ای آی» در ابتدای سال ۲۰۲۴ به این نتیجه رسید، به دنبال آن گزارشی در RAND Corporation منتشر شد که نتیجه مشابهی را نشان داد.
چیزی که در مورد این مطالعات شگفتآور است، نبود تقریبا کامل آزمون در زبانهای غیرانگلیسی است. این امر منحرفکننده است، زیرا بیشتر تلاشهای غرب برای مبارزه با بازیگران غیردولتی در مناطقی از جهان متمرکز شده که به ندرت با زبان انگلیسی به عنوان زبان اول صحبت میشود.
مشکل این نیست که زبانهای پشتو، عربی، روسی یا سایر زبانها ممکن است نتایج خطرناکتری نسبت به زبان انگلیسی داشته باشند، مسئله این است که استفاده از این زبانها برای کاربرانی که به زبانهای غیرانگلیسی بهتر تسلط دارند، یک توانایی است.
LLMها اغلب مترجمان بهتری نسبت به سرویسهای سنتی هستند. برای یک تروریست بسیار سادهتر است که به سادگی درخواست خود را در یک LLM به زبان مورد علاقه خود وارد کند و مستقیماً به آن زبان هم پاسخ بگیرد.
این تصور که سیستمهای هوش مصنوعی پیشرفته ممکن است اگر به زبان انگلیسی از آنها سؤال شود، نتیجه را به هر زبانی به خوبی ارائه دهند طیف گستردهای از کاربردها را دارد.
شاید شهودیترین مثال در اینجا «Spear phishing» باشد که افراد خاصی را با استفاده از تکنیکهای ایمن کردن اطلاعات با دریافت پول هدف قرار میدهد. از زمان رایجشدن کلاهبرداریهای موسوم به روش «شاهزاده نیجریه»، کارشناسان یک قانون اساسی را برای محافظت
کاربران از خود ارائه میکنند: اگر به نظر میرسد پیام به انگلیسی غیر روان و با دستور زبان نادرست نوشته شده، مطمئن باشید که یک کلاهبرداری است.
اکنون چنین پیامهایی میتوانند توسط کسانی که هیچ دانشی از زبان انگلیسی ندارند، به سادگی با تایپ پیام خود به زبان مادریشان و دریافت پاسخ روان به زبان انگلیسی، ایجاد شود. در این شرایط چیزی درباره اینکه سیستمهای هوشمصنوعی چقدر ممکن است کلاهبرداریها را تقویت کنند، گفته نمیشود.
واضح است که زبان سوال در هوش مصنوعی از اهمیت بالایی برخوردار است و کارهای زیادی با آن میتوان انجام داد. این شامل دستورالعملها و الزامات جدید برای آزمایش مدلهای هوشمصنوعی از موسسات دولتی و دانشگاهی است و شرکتها را برای ایجاد معیارهای جدیدی که ممکن است در زبانهای غیر انگلیسی کمتر قابل اجرا باشد، تشویق میکند.
مهمتر از همه، ضروری است که مهاجران و مردم کشورهای جهان سوم بهتر در این تلاشها دیده شوند. ائتلافهایی که برای ایمن نگهداشتن جهان از خطرات هوشمصنوعی تلاش میکنند، باید بیشتر شبیه به آن شوند.
انتهای پیام/