به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛ تنظیمگرهای ارتباطی هوشمصنوعی از ریاضیات برای ایجاد محافظتهای مورد نیاز فناوری هوشمصنوعی استفاده میکنند.
صفرها را بشمارید؛ ۱۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰ یا ۱۰۰ سپتییلیون محاسبات برای آموزش سیستمهای هوشمصنوعی بر روی حجم عظیمی از دادهها نیاز است.
چیزی که به برخی از قانونگذاران و حامیان ایمنی هوشمصنوعی هشدار میدهد، سطحی از قدرت محاسباتی است که ممکن است فناوری پیشرفته هوشمصنوعی را برای ایجاد یا تکثیر سلاحهای کشتار جمعی یا انجام حملات سایبری فاجعهبار قادر سازد.
کسانی که چنین مقرراتی را تدوین کردهاند، اذعان دارند که این مقررات نقطه شروعی ناقص برای تمایز بین سیستمهای مولد هوشمصنوعی کنونی و نسل بعدی هستند که ممکن است حتی قدرتمندتر باشد.
منتقدان به آستانهها حمله کرده و آنها را تلاشی از سوی دولتها برای تنظیم ریاضیات میدانند. به گفته آنها وقتی برخی از قوانین آستانهای مبتنی بر سرعت محاسباتی تعیین میکنند، به سردرگمیها افزوده میشود.
منظور آنها چند عملیات شناور در ثانیه است که به آن «فلاپس flops» گفته میشود، در حالی که دیگرقوانین بر اساس تعداد تجمعی محاسبات است، بدون توجه به اینکه چقدر زمان میبَرد.
فرمان اجرایی که سال گذشته توسط جو بایدن امضا شد، بر آستانه ۱۰ تا ۲۶ تکیه دارد. قانون جدید ایمنی هوشمصنوعی کالیفرنیا هم که فرماندار «گاوین نیوسام» تا ۳۰ سپتامبر (۹ مهر) فرصت دارد آن را امضا یا وتو کند، معیار دومی را به این معادله اضافه میکند: ساخت مدلهای هوشمصنوعی تنظیم شده باید حداقل ۱۰۰ میلیون دلار هزینه داشته باشد.
قانون جامع هوشمصنوعی اتحادیه اروپا هم عملیات ممیز شناور را اندازهگیری میکند، اما آستانه را ۱۰ برابر پایینتر، معادل ۱۰ به توان ۲۵ تعیین کرده است.
این قاعده شامل برخی از سیستمهای هوشمصنوعی کنونی میشود. دولت چین هم به اندازهگیری قدرت محاسباتی برای تعیین اینکه کدام سیستمهای هوش مصنوعی به تدابیر حفاظتی نیاز دارند، توجه کرده است.
هیچ کدام از مدلهای هوشمصنوعی که اکنون به صورت عمومی در دسترس هستند، با آستانه بالاتر کالیفرنیا مطابقت ندارد، هرچند احتمالا برخی از شرکتها شروع به ساخت آنها کردهاند. اگر اینطور باشد، آنها موظفند جزئیات و تدابیر ایمنی خاصی را با دولت آمریکا به اشتراک بگذارند، که از قانون دوران جنگ کره استفاده کرد تا شرکتهای فناوری را ملزم کند در صورت ساخت چنین مدلهای هوشمصنوعی، وزارت بازرگانی آمریکا را مطلع کنند.
محققان هوشمصنوعی هنوز در حال بحث هستند که چگونه به بهترین نحو، قابلیتهای جدیدترین فناوری هوشمصنوعی مولد را ارزیابی و آن را با هوش انسانی مقایسه کنند. آزمایشهایی وجود دارد که هوشمصنوعی را در حل پازلها، استدلال منطقی یا پیشبینی سرعت و دقت بررسی میکند تا دریابد که چگونه به پرسشهای افراد از چتبات پاسخ میدهد.
این اندازهگیریها به ارزیابی سودمندی ابزار هوشمصنوعی برای یک کار معین کمک میکنند، اما هیچ راه آسانی برای دانستن اینکه کدام ابزار آنقدر توانایی دارد که برای بشریت خطرآفرین باشد، وجود ندارد.
آنتونی آگویر، فیزیکدان و مدیر اجرایی مؤسسه آینده زندگی گفت: این محاسبه عدد flop، به طور کلی به عنوان بهترین چیزی که در این زمینه داریم، شناخته میشود. این موسسه از تصویب لایحه سنا ۱۰۴۷ کالیفرنیا و سایر قوانین ایمنی هوشمصنوعی در سراسر جهان حمایت کرده است.
آگویر افزود: محاسبات ممیز شناور ممکن است تخیلی به نظر برسد، اما در واقع فقط اعدادی هستند که با هم جمع یا ضرب میشوند و آن را به یکی از سادهترین راهها برای ارزیابی توانایی و ریسک یک مدل هوش مصنوعی تبدیل میکند.
وی تصریح کرد: بیشترین کاری که انجام میشود، فقط ضربکردن جداول بزرگ اعداد با هم است. میتوانید به سادگی فکر کنید که چند عدد را در ماشین حساب خود وارد کرده و آنها را جمع یا ضرب میکنید و این همان کاری است که آنها انجام میدهند؛ ۱۰ تریلیون بار یا صد تریلیون بار.
انتهای پیام/