به گزارش خبرنگار علم و فناوری خبرگزاری برنا، به گفته یکی از دانشمندان برجسته که با ایلان ماسک بر روی خطرات هوشمصنوعی همکاری کرده است، نفوذ ماسک بر دولت آینده ترامپ میتواند به وضع استانداردهای ایمنی سختگیرانهتر برای هوشمصنوعی منجر شود.
مکس تگمارک، استاد هوشمصنوعی و فیزیکدان و اخترشناسی سوئدی- آمریکایی در موسسه فناوری ماساچوست (MIT)، اظهار کرد که حمایت ایلان ماسک از لایحه شکست خورده هوشمصنوعی در کالیفرنیا، نگرانیهای مستمر او را در مورد این فناوری نشان میدهد؛ مسئلهای که در کمپین انتخاباتی ترامپ چندان مطرح نشده بود.
تگمارک در این خصوص گفت انتظار میرود ماسک نفوذ زیادی در دولت ترامپ داشته باشد، ممکن است ترامپ را متقاعد کند که استانداردهایی را معرفی کند که از توسعه هوشمصنوعی عمومی جلوگیری کند.
وی همچنین افزود: اگر ایلان بتواند ترامپ را در مسائل مربوط به هوشمصنوعی متقاعد کند، احتمالا شاهد تصویب استانداردهای ایمنی خواهیم بود، چیزی که مانع از توسعه AGI شود.
تگمارک اشاره کرد که حمایت ماسک از لایحه SB ۱۰۴۷ در کالیفرنیا، که شرکتها را موظف میکرد مدلهای بزرگ هوشمصنوعی را قبل از انتشار آزمایش کنند، نشانهای مثبت برای حامیان ایمنی هوشمصنوعی بود. این لایحه پس از اینکه گاوین نیوسام، فرماندار کالیفرنیا، آن را وتو کرد و گفت که ممکن است منجر به خروج کسبوکارهای هوشمصنوعی از ایالت شود و نوآوری را متوقف کند، رد شد.
تگمارک گفت: ایلان ماسک اعلام کرد که از این لایحه حمایت میکند و میخواهد مقرراتی در این زمینه وجود داشته باشد. فکر میکنم که این کاملا غیرممکن نیست که او بتواند ترامپ را متقاعد کند که هوشمصنوعی باید کنترل شود.
ماسک سال گذشته استارتاپ هوشمصنوعی خود را راهاندازی کرد و گفت که جهان باید نگران آیندهای شبیه به فیلم «ترمیناتور» باشد تا از بدترین سناریوها، مانند فرار سیستمهای هوشمصنوعی از کنترل انسانها، جلوگیری کند. سایر متخصصان هوشمصنوعی نیز معتقدند که تمرکز بر نگرانیهای آخرالزمانی ممکن است توجه را از مشکلات کوتاهمدت هوشمصنوعی، مانند محتوای دستکاریشده و گمراهکننده، منحرف کند.
دولت ترامپ اعلام کرده است که قصد دارد دستور اجرایی دولت بایدن در زمینه ایمنی هوشمصنوعی را لغو کند. این دستور شامل الزام شرکتها به اشتراکگذاری نتایج آزمایشهای ایمنی مدلهای پرخطر هوشمصنوعی با دولت است؛ مدلهایی که تهدیدی برای امنیت ملی، امنیت اقتصادی یا سلامت عمومی دارند.
انتهای پیام/