هشدار جدی MIT درباره ناامنی ایجنت‌های هوش مصنوعی

|
۱۴۰۴/۱۲/۰۲
|
۰۸:۵۵:۳۱
| کد خبر: ۲۳۱۳۸۹۹
هشدار جدی MIT درباره ناامنی ایجنت‌های هوش مصنوعی
برنا - گزوه علمی و فناوری: گزارش جدید پژوهشگران MIT نشان می‌دهد بسیاری از ایجنت‌های هوش مصنوعی از نظر شفافیت و کنترل امنیتی در وضعیت نگران‌کننده‌ای قرار دارند.

گزارش تازه‌ای از پژوهشگران MIT نشان می‌دهد بخش قابل‌توجهی از ایجنت‌های هوش مصنوعی از نظر شفافیت عملکرد و سازوکار‌های کنترل امنیتی در وضعیت نگران‌کننده‌ای قرار دارند.

به گزارش تک کرانچ، در این مطالعه که ۳۰ سامانه مختلف را بررسی کرده، مشخص شده برخی از این ابزار‌ها هیچ‌گونه نظارت مؤثر بر نحوه استفاده کاربران ندارند، بسیاری هویت غیرانسانی خود را به‌طور شفاف اعلام نمی‌کنند و حتی به «دکمه توقف اضطراری» مجهز نیستند.

به‌گفته محققان، ایجنت‌هایی که به سرویس‌های حساسی مانند ایمیل یا پایگاه‌های داده متصل هستند، در صورت بروز خطا یا رفتار پیش‌بینی‌نشده می‌توانند خسارات گسترده‌ای ایجاد کنند؛ آن هم بدون اینکه امکان مداخله و توقف فوری وجود داشته باشد.

بر اساس نتایج این ارزیابی، در میان نمونه‌های بررسی‌شده تنها ChatGPT Agent عملکرد خود را با امضای رمزنگاری‌شده ثبت می‌کند. در مقابل، برخی ابزار‌ها از جمله Comet فاقد محیط ایزوله و آزمون‌های ایمنی کافی گزارش شده‌اند و حتی به‌دلیل جعل هویت انسانی با شکایت‌هایی مواجه بوده‌اند. همچنین اشاره شده که بعضی راهکار‌های سازمانی، نتایج واقعی آزمون‌های امنیتی خود را به‌صورت کامل افشا نمی‌کنند.

پژوهشگران تأکید کرده‌اند در صورت بی‌توجهی به این خلأ‌های امنیتی، صنعت توسعه ایجنت‌های هوش مصنوعی احتمالاً در آینده نزدیک با چارچوب‌های نظارتی سخت‌گیرانه‌تری روبه‌رو خواهد شد.

انتهای پیام/

نظر شما
captcha
پیشنهاد سردبیر