ضعف امنیتی هوش‌مصنوعی تهدیدی برای زندگی انسان

|
۱۴۰۳/۰۸/۰۱
|
۱۲:۰۴:۰۱
| کد خبر: ۲۱۵۳۰۹۰
ضعف امنیتی هوش‌مصنوعی تهدیدی برای زندگی انسان
براساس یک بررسی جدید، نقص امنیتی جدی در سامانه‌های هوش‌مصنوعی ممکن است تهدیدی برای جان انسان‌ها باشد.

به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛ این تحقیق جدید به مدل‌های زبانی بزرگ یا ال‌ال‌ام‌‌‌ها (LLM) پرداخته است؛ فناوری‌ که زیربنای سامانه‌هایی مانند چت‌جی‌پی‌تی را تشکیل می‌دهد. فناوری مشابهی نیز در رباتیک به‌کار می‌رود تا تصمیم‌گیری‌ ماشین‌های واقعی را کنترل کند اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیب‌پذیری‌ها و ضعف‌های امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانه‌ها استفاده نامطلوب شود.

جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان می‌دهد که در حال حاضر، مدل‌های زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، به اندازه کافی ایمن نیستند.» 

محققان این مقاله با سازندگان این سیستم‌ها همکاری می‌کنند تا این نقاط ضعف را شناسایی و در برابر آن‌ها اقدام کنند اما آن‌ها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانه‌ها است و نه فقط رفع ضعف‌های خاص.

انتهای پیام/

نظر شما