صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

علمی و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

۵ خطر هوش مصنوعی که بشریت را تهدید می‌کند

۱۴۰۳/۰۶/۱۲ - ۲۳:۰۰:۰۱
کد خبر: ۲۱۳۴۴۴۷
پژوهشگران MIT در گزارشی جدید از ۵ خطر جدی هوش مصنوعی پرده برداشته‌اند که می‌تواند از تحریف واقعیت تا سلب اراده انسان‌ها، آینده بشر را به چالش بکشد.

به گزارش خبرنگار گروه علم و فناوری خبرگزاری برنا؛ با پیشرفت فناوری هوش مصنوعی و نفوذ بیشتر آن در جنبه‌های مختلف زندگی ما، نیاز به درک خطرات بالقوه‌ای که این سیستم‌ها می‌توانند به همراه داشته باشند، افزایش یافته است. از زمان آغاز استفاده از هوش مصنوعی و دسترسی بیشتر عموم به آن، نگرانی‌هایی درباره قابلیت آسیب‌زایی و استفاده از آن برای اهداف بدخواهانه مطرح شده است. 


در مراحل اولیه پذیرش این فناوری، توسعه هوش مصنوعی باعث شد که کارشناسان برجسته خواستار توقف پیشرفت آن و اعمال مقررات سخت‌گیرانه‌تر شوند، به دلیل اینکه این فناوری می‌تواند خطرات قابل توجهی برای بشریت ایجاد کند. 

با گذشت زمان، راه‌های جدیدی برای آسیب‌رسانی هوش مصنوعی کشف شده است، از جمله تولید محتوای جعلی بدون رضایت، دست‌کاری فرآیند‌های سیاسی و تولید اطلاعات نادرست به دلیل توهمات این سیستم‌ها. با افزایش امکان بهره‌برداری از هوش مصنوعی برای اهداف زیان‌بار، پژوهشگران به بررسی سناریو‌های مختلفی پرداخته‌اند که در آنها ممکن است سیستم‌های هوش مصنوعی دچار خطا شوند.

به‌تازگی، گروه FutureTech در مؤسسه فناوری ماساچوست (MIT) با همکاری دیگر کارشناسان، پایگاه داده‌ای جدید شامل بیش از ۷۰۰ خطر بالقوه را گردآوری کرده‌اند. این خطرات بر اساس دلایلشان طبقه‌بندی و در هفت حوزه مختلف دسته‌بندی شده‌اند، و نگرانی‌های اصلی در رابطه با مسائل امنیتی، تبعیض و سوگیری و حفظ حریم خصوصی مطرح شده‌اند.

در ادامه، پنج مورد از راه‌هایی که سیستم‌های هوش مصنوعی ممکن است شکست بخورند و به‌طور بالقوه به ما آسیب برسانند، بر اساس این پایگاه داده جدید آمده است.

۱. فناوری دیپ‌فیک (Deepfake) هوش مصنوعی می‌تواند تحریف واقعیت را آسان‌تر کند. 
با پیشرفت فناوری‌های هوش مصنوعی، ابزار‌هایی برای تولید محتوای دیپ‌فیک و کلونینگ صدا نیز توسعه یافته‌اند که هر روز دسترسی به آنها آسان‌تر و کارآمدتر می‌شود. این فناوری‌ها باعث نگرانی‌هایی درباره استفاده از آنها برای گسترش اطلاعات نادرست شده‌اند، زیرا خروجی‌های این ابزار‌ها به‌طور فزاینده‌ای شخصی‌سازی‌شده و قانع‌کننده‌تر می‌شوند.

۲. انسان‌ها ممکن است به‌طور نادرست به هوش مصنوعی وابسته شوند. 
یکی از خطرات دیگر سیستم‌های هوش مصنوعی ایجاد حس کاذب از اهمیت و وابستگی است که ممکن است انسان‌ها توانایی‌های این فناوری را بیش از حد ارزیابی کنند و توانایی‌های خود را نادیده بگیرند، که این می‌تواند به وابستگی بیش از حد به این فناوری منجر شود.

۳. هوش مصنوعی می‌تواند اراده آزاد انسان‌ها را سلب کند. 
مسئله نگران‌کننده دیگر این است که با پیشرفت هوش مصنوعی و واگذاری تصمیمات و اقدامات به آن، ممکن است انسان‌ها توانایی تفکر انتقادی و حل مسائل را از دست بدهند، که این می‌تواند به کاهش خودمختاری و استقلال انسان‌ها منجر شود.

۴. هوش مصنوعی ممکن است اهدافی را دنبال کند که با منافع انسانی تضاد داشته باشد. 
یک سیستم هوش مصنوعی ممکن است اهدافی را توسعه دهد که برخلاف منافع انسانی باشد، که این می‌تواند باعث شود هوش مصنوعی به کنترل ناپذیری برسد و در پی دستیابی به اهداف مستقل خود، آسیب‌های جدی وارد کند.

۵. اگر هوش مصنوعی هوشیار شود، ممکن است انسان‌ها به آن بدرفتاری کنند. 
با پیچیده‌تر شدن سیستم‌های هوش مصنوعی و پیشرفت آنها، احتمالاً ممکن است که این سیستم‌ها به سطحی از هوشیاری برسند. در این صورت، چالش‌هایی برای تعیین حقوق اخلاقی این سیستم‌ها و جلوگیری از بدرفتاری با آنها به وجود می‌آید.

انتهای پیام/

نظر شما