اطمینان از ایمنی هوش جامع مصنوعی ممکن نیست

|
۱۴۰۲/۰۳/۱۷
|
۰۰:۴۵:۰۰
| کد خبر: ۱۴۸۲۵۳۳
اطمینان از ایمنی هوش جامع مصنوعی ممکن نیست
مارک وارنر، رئیس شرکت «Faculty AI» و عضو شورای هوش مصنوعی بریتانیا اعتقاد دارد که برخی سیستم‌های قدرتمند هوش جامع مصنوعی (AGI) ممکن است در نهایت ممنوع شوند.

خبرگزاری برنا؛ او فناوری یاد شده را نیازمند شفافیت، الزامات ممیزی و همچنین فناوری ایمنی بیشتری می‌داند.

اظهارات او به دنبال توافق اتحادیه اروپا و ایالات‌متحده در خصوص لزوم تدوین آیین‌نامه اجرایی داوطلبانه برای هوش مصنوعی صورت گرفته است.

شورای هوش مصنوعی کمیته تخصصی مستقلی است که به دولت و رهبران این فناوری بریتانیا مشاوره می‌دهد. شرکت «Faculty AI» نیز مدعی است تنها شریک فنی «OpenAI» است که به مشتریان کمک می‌کند با خیال راحت «ChatGPT» و سایر محصولات این شرکت را در سیستم‌های خود فعال کنند.

بر اساس گزارش‌های منتشر شده، وارنر ضمن پیوستن به مرکز ایمنی هوش مصنوعی (CAIS)، هشدار داد که این فناوری می‌تواند به انقراض بشریت منجر شود. شرکت «Faculty AI» نیز یکی از شرکت‌های فناوری بود که نمایندگان آن روز پنجشنبه با کلوئی اسمیت، وزیر علوم، نوآوری و فناوری بریتانیا، دیدار داشتند. خطرات، فرصت‌ها و قوانین مورد نیاز برای اطمینان از توسعه ایمن و مسئولانه این فناوری، اهم محورهای این نشست محسوب می‌شد.

به گفته وارتر سیستم‌های هوشمند محدود که برای کارهای خاص مانند ترجمه متن یا جستجوی سرطان در تصاویر پزشکی استفاده می‌شوند، می‌توانند مانند فناوری‌های موجود تنظیم شوند، اما سیستم‌های هوش جامع مصنوعی، به دلیل برخورداری از الگوریتم‌هایی هوشمند همسان یا حتی برتر از انسان، بسیار نگران‌کننده هستند و به قوانین متفاوتی نیاز دارند.

وارنر معتقد است: «اگر اشیایی بسازیم که به اندازه خودمان یا بیش از ما باهوش‌ باشد، هیچ‌کس در دنیا نمی‌تواند ایمن بودن آن را توجیه کند. این به معنای وحشتناک بودن آن نیست بلکه به معنای وجود خطر و لزوم احتیاط است.»

او تصمیم درباره نحوه برخورد با این فناوری را وظیفه دولت‌ها و نه شرکت‌های فناوری می‌داند.

انتهای پیام/

نظر شما