هشدار جدی MIT درباره ناامنی ایجنتهای هوش مصنوعی
گزارش تازهای از پژوهشگران MIT نشان میدهد بخش قابلتوجهی از ایجنتهای هوش مصنوعی از نظر شفافیت عملکرد و سازوکارهای کنترل امنیتی در وضعیت نگرانکنندهای قرار دارند.
به گزارش تک کرانچ، در این مطالعه که ۳۰ سامانه مختلف را بررسی کرده، مشخص شده برخی از این ابزارها هیچگونه نظارت مؤثر بر نحوه استفاده کاربران ندارند، بسیاری هویت غیرانسانی خود را بهطور شفاف اعلام نمیکنند و حتی به «دکمه توقف اضطراری» مجهز نیستند.
بهگفته محققان، ایجنتهایی که به سرویسهای حساسی مانند ایمیل یا پایگاههای داده متصل هستند، در صورت بروز خطا یا رفتار پیشبینینشده میتوانند خسارات گستردهای ایجاد کنند؛ آن هم بدون اینکه امکان مداخله و توقف فوری وجود داشته باشد.
بر اساس نتایج این ارزیابی، در میان نمونههای بررسیشده تنها ChatGPT Agent عملکرد خود را با امضای رمزنگاریشده ثبت میکند. در مقابل، برخی ابزارها از جمله Comet فاقد محیط ایزوله و آزمونهای ایمنی کافی گزارش شدهاند و حتی بهدلیل جعل هویت انسانی با شکایتهایی مواجه بودهاند. همچنین اشاره شده که بعضی راهکارهای سازمانی، نتایج واقعی آزمونهای امنیتی خود را بهصورت کامل افشا نمیکنند.
پژوهشگران تأکید کردهاند در صورت بیتوجهی به این خلأهای امنیتی، صنعت توسعه ایجنتهای هوش مصنوعی احتمالاً در آینده نزدیک با چارچوبهای نظارتی سختگیرانهتری روبهرو خواهد شد.
انتهای پیام/