صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

علمی و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

چه زمانی هوش‌مصنوعی خطرناک می‌شود؟

۱۴۰۳/۰۶/۱۷ - ۰۸:۵۸:۴۰
کد خبر: ۲۱۳۵۵۱۱
وبسایت جامائیکاگلینر درباره خطرات هوش‌مصنوعی نوشت: چه زمانی هوش‌مصنوعی آنقدر قدرتمند می‌شود که خطر امنیتی ایجاد کند و نباید بدون نظارت دقیق مورد استفاده قرار بگیرد؟

به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛ تنظیم‌گر‌های ارتباطی هوش‌مصنوعی از ریاضیات برای ایجاد محافظت‌های مورد نیاز فناوری هوش‌مصنوعی استفاده می‌کنند.

صفر‌ها را بشمارید؛ ۱۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰،۰۰۰ یا ۱۰۰ سپتییلیون محاسبات برای آموزش سیستم‌های هوش‌مصنوعی بر روی حجم عظیمی از داده‌ها نیاز است.

چیزی که به برخی از قانون‌گذاران و حامیان ایمنی هوش‌مصنوعی هشدار می‌دهد، سطحی از قدرت محاسباتی است که ممکن است فناوری پیشرفته هوش‌مصنوعی را برای ایجاد یا تکثیر سلاح‌های کشتار جمعی یا انجام حملات سایبری فاجعه‌بار قادر سازد.

کسانی که چنین مقرراتی را تدوین کرده‌اند، اذعان دارند که این مقررات نقطه شروعی ناقص برای تمایز بین سیستم‌های مولد هوش‌مصنوعی کنونی و نسل بعدی هستند که ممکن است حتی قدرتمندتر باشد.

منتقدان به آستانه‌ها حمله کرده و آن‌ها را تلاشی از سوی دولت‌ها برای تنظیم ریاضیات می‌دانند. به گفته آن‌ها وقتی برخی از قوانین آستانه‌ای مبتنی بر سرعت محاسباتی تعیین می‌کنند، به سردرگمی‌ها افزوده می‌شود.

منظور آن‌ها چند عملیات شناور در ثانیه است که به آن «فلاپس flops» گفته می‌شود، در حالی که دیگرقوانین بر اساس تعداد تجمعی محاسبات است، بدون توجه به اینکه چقدر زمان می‌بَرد. 

فرمان اجرایی که سال گذشته توسط جو بایدن امضا شد، بر آستانه ۱۰ تا ۲۶ تکیه دارد. قانون جدید ایمنی هوش‌مصنوعی کالیفرنیا هم که فرماندار «گاوین نیوسام» تا ۳۰ سپتامبر (۹ مهر) فرصت دارد آن را امضا یا وتو کند، معیار دومی را به این معادله اضافه می‌کند: ساخت مدل‌های هوش‌مصنوعی تنظیم‌ شده باید حداقل ۱۰۰ میلیون دلار هزینه داشته باشد.

قانون جامع هوش‌مصنوعی اتحادیه اروپا هم عملیات ممیز شناور را اندازه‌گیری می‌کند، اما آستانه را ۱۰ برابر پایین‌تر، معادل ۱۰ به توان ۲۵ تعیین کرده است.

این قاعده شامل برخی از سیستم‌های هوش‌مصنوعی کنونی می‌شود. دولت چین هم به اندازه‌گیری قدرت محاسباتی برای تعیین اینکه کدام سیستم‌های هوش مصنوعی به تدابیر حفاظتی نیاز دارند، توجه کرده است.

هیچ کدام از مدل‌های هوش‌مصنوعی که اکنون به صورت عمومی در دسترس هستند، با آستانه بالاتر کالیفرنیا مطابقت ندارد، هرچند احتمالا برخی از شرکت‌ها شروع به ساخت آن‌ها کرده‌اند. اگر این‌طور باشد، آن‌ها موظفند جزئیات و تدابیر ایمنی خاصی را با دولت آمریکا به اشتراک بگذارند، که از قانون دوران جنگ کره استفاده کرد تا شرکت‌های فناوری را ملزم کند در صورت ساخت چنین مدل‌های هوش‌مصنوعی، وزارت بازرگانی آمریکا را مطلع کنند.

محققان هوش‌مصنوعی هنوز در حال بحث هستند که چگونه به بهترین نحو، قابلیت‌های جدیدترین فناوری هوش‌مصنوعی مولد را ارزیابی و آن را با هوش انسانی مقایسه کنند. آزمایش‌هایی وجود دارد که هوش‌مصنوعی را در حل پازل‌ها، استدلال منطقی یا پیش‌بینی سرعت و دقت بررسی می‌کند تا دریابد که چگونه به پرسش‌های افراد از چت‌بات پاسخ می‌دهد.

این اندازه‌گیری‌ها به ارزیابی سودمندی ابزار هوش‌مصنوعی برای یک کار معین کمک می‌کنند، اما هیچ راه آسانی برای دانستن اینکه کدام ابزار آنقدر توانایی دارد که برای بشریت خطرآفرین باشد، وجود ندارد.

آنتونی آگویر، فیزیکدان و مدیر اجرایی مؤسسه آینده زندگی گفت: این محاسبه عدد flop، به طور کلی به عنوان بهترین چیزی که در این زمینه داریم، شناخته می‌شود. این موسسه از تصویب لایحه سنا ۱۰۴۷ کالیفرنیا و سایر قوانین ایمنی هوش‌مصنوعی در سراسر جهان حمایت کرده است.

آگویر افزود: محاسبات ممیز شناور ممکن است تخیلی به نظر برسد، اما در واقع فقط اعدادی هستند که با هم جمع یا ضرب می‌شوند و آن را به یکی از ساده‌ترین راه‌ها برای ارزیابی توانایی و ریسک یک مدل هوش مصنوعی تبدیل می‌کند.

وی تصریح کرد: بیش‌ترین کاری که انجام می‌شود، فقط ضرب‌کردن جداول بزرگ اعداد با هم است. می‌توانید به سادگی فکر کنید که چند عدد را در ماشین حساب خود وارد کرده و آنها را جمع یا ضرب می‌کنید و این همان کاری است که آن‌ها انجام می‌دهند؛ ۱۰ تریلیون بار یا صد تریلیون بار.

انتهای پیام/

نظر شما