به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛ این تحقیق جدید به مدلهای زبانی بزرگ یا الالامها (LLM) پرداخته است؛ فناوری که زیربنای سامانههایی مانند چتجیپیتی را تشکیل میدهد. فناوری مشابهی نیز در رباتیک بهکار میرود تا تصمیمگیری ماشینهای واقعی را کنترل کند اما این فناوری طبق تحقیقات جدیدی که دانشگاه پنسیلوانیا انجام داده، آسیبپذیریها و ضعفهای امنیتی دارد که ممکن است هکرها از آن سوءاستفاده کنند و از این سامانهها استفاده نامطلوب شود.
جورج پاپاس، استاد این دانشگاه، گفت: «تحقیقات ما نشان میدهد که در حال حاضر، مدلهای زبانی بزرگ اگر با دنیای فیزیکی ادغام شوند، به اندازه کافی ایمن نیستند.»
محققان این مقاله با سازندگان این سیستمها همکاری میکنند تا این نقاط ضعف را شناسایی و در برابر آنها اقدام کنند اما آنها هشدار دادند که این امر نیازمند بازنگری کلی در نحوه ساخت این سامانهها است و نه فقط رفع ضعفهای خاص.
انتهای پیام/