خبرگزاری برنا- گروه علمی و فناوری؛ هوش مصنوعی وارد انواع و اقسام صنایع شده و روزبهروز نقش مهمتری پیدا میکند. با پیشرفت شگفتانگیز این فناوری، این امکان را دارد که بسیاری از جنبههای زندگی را به طور شگفتانگیزی بهبود ببخشد اما از طرف دیگر نباید خطرات احتمالی آن را نادیده بگیریم.
این فناوری روزبهروز پیچیدهتر میشود و همین پیشرفت میتواند منجر به بروز خطرات مختلفی از جمله موارد ساده (اختلال در کار) تا خطرات فاجعهبار شود. با توجه به اختلاف نظری که در مورد این موضوع وجود دارد، در رابطه با سطح خطرات آن هم یک دیدگاه مشترک و جامع دیده نمیشود. عموماً تصور میشود که هوش مصنوعی از دو طریق میتواند خطرناک باشد:
این ریسکها با پیچیدگی نرمافزار هوش مصنوعی تقویت میشوند. سالها قبل یکی از فیلسوفهای مشهور به نام نیک بوستروم کتابی را منتشر کرد که در آن یک سناریو تحت عنوان «به حداکثر رساندن گیره کاغذ» مطرح شد. او میگوید فرض کنید یک هوش مصنوعی برای تولید حداکثر تعداد ممکن گیره کاغذ توسعه پیدا کند. اگر این هوش مصنوعی به اندازهی کافی باهوش باشد، میتواند کل دنیا را برای رسیدن به این هدف نابود کند.
اما به غیر از این خطرات فاجعهآور که به نظر نمیرسد در آیندهی نزدیک تحقق پیدا کنند، میتوانیم به ۵ خطر فوری اشاره کنیم که میتوانند طی همین چند سال آینده مشکلات زیادی را ایجاد کنند.
اتوماسیون یا خودکارسازی از جمله مهمترین خطرات هوش مصنوعی برای شغلهای مختلف است. از کارخانهها گرفته تا اتومبیلهای خودکار، آغاز اتوماسیون به دههها قبل برمیگردد ولی روزبهروز شتاب آن بیشتر میشود.
مساله این است که برای بسیاری از کارهای مختلف، سیستمهای هوش مصنوعی نسبت به انسانها عملکرد بهتری دارند. روی هم رفته در این موارد ارزانتر، دقیقتر و کارآمدتر از انسانها عمل میکنند. به عنوان مثال، هوش مصنوعی در تشخیص جعل آثار هنری بهتر از متخصصان انسانی عمل میکند و حالا این سیستمها در زمینهی تشخیص تومور از طریق تصاویر رادیوگرافی هم در حال بهتر شدن هستند.
از طرف دیگر، وقتی که هوش مصنوعی بسیاری از شغلها را تصرف کند، بخش بزرگی از کارگران که شغل خود را از دست دادهاند به دلیل فقدان تخصص موردنیاز یا عدم وجود اعتبارات قادر به پیدا کردن شغل جدیدی نخواهند بود. با پیشرفت سیستمهای هوش مصنوعی، مهارتهای آنها برای انجام کارهای مختلف بهتر از انسانها خواهد شد و اختلال در کار هم میتواند منجر به افزایش نابرابری اجتماعی و حتی یک فاجعهی اقتصادی شود.
مشکل اصلی این است که با افزایش نگرانیهای امنیتی مبتنی بر هوش مصنوعی، تدابیر پیشگیری با استفاده از هوش مصنوعی هم افزایش پیدا میکنند. این مشکل همچنین این سوال را مطرح میکند که ما چگونه سیستمهای هوش مصنوعی را ایمن میکنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر نگرانیهای امنیتی استفاده میکنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم.
در زمینهی حریم خصوصی هم شرکتهای بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولتها و نهادهای نظارتی قرار گرفتهاند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.
از دیگر نگرانیها میتوانیم به تکنولوژیهای تشخیص چهره اشاره کنیم و گزارشها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به نرمافزار تشخیص چهره استفاده میکنند. چنین تکنولوژیهایی میتوانند منجر به گسترش رژیمهای استبدادی شوند یا اینکه افراد یا گروههایی با اهداف بدخواهانه از آنها سوءاستفاده کنند.
مشکل اصلی این است که با افزایش نگرانیهای امنیتی مبتنی بر هوش مصنوعی، تدابیر پیشگیری با استفاده از هوش مصنوعی هم افزایش پیدا میکنند. این مشکل همچنین این سوال را مطرح میکند که ما چگونه سیستمهای هوش مصنوعی را ایمن میکنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر نگرانیهای امنیتی استفاده میکنیم، باید در رابطه با ایمن بودن خود سیستم هوش مصنوعی هم اطمینان حاصل کنیم.
در زمینهی حریم خصوصی هم شرکتهای بزرگ طی چند سال گذشته در این زمینه تا حد قابل توجهی زیر تیغ دولتها و نهادهای نظارتی قرار گرفتهاند. باید خاطرنشان کنیم روزانه حدود ۲.۵ ترابایت داده توسط کاربران ایجاد میشود و الگوریتمهای پیشرفته با استفاده از این دادهها میتوانند پروفایلهای بسیار دقیقی را برای نمایش تبلیغات ایجاد کنند.
از دیگر نگرانیها میتوانیم به تکنولوژیهای تشخیص چهره اشاره کنیم و گزارشها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک از عینکهای هوشمند مجهز به نرمافزار تشخیص چهره استفاده میکنند. چنین تکنولوژیهایی میتوانند منجر به گسترش رژیمهای استبدادی شوند یا اینکه افراد یا گروههایی با اهداف بدخواهانه از آنها سوءاستفاده کنند.
هوش مصنوعی به طور فزایندهای در هک کردن سیستمهای امنیتی و شکستن رمزگذاریهای مختلف بهتر میشود. بخشی از این موضوع به تکامل الگوریتمهای یادگیری ماشینی برمیگردد. این یعنی بدافزار مبتنی بر هوش مصنوعی با آزمون و خطا بهتر میشود و با گذر زمان خطر آن هم افزایش پیدا میکند.
برخی فناوریهای هوشمند (مانند اتومبیلهای خودران) اهداف ایدئالی برای این نوع بدافزارها هستند و مثلا میتوانند برای ایجاد تصادف رانندگی یا ایجاد ترافیک مورد استفاده قرار بگیرند. با افزایش وابستگی ما به فناوریهای هوشمند متکی به اینترنت، زندگی روزمرهی ما هم بیش از پیش تحت تأثیر خطر اختلال قرار میگیرد.
سلاحهای خودمختار-سلاحهایی که به جای انسانها توسط سیستمهای هوش مصنوعی کنترل میشوند-مدتهاست که انجام وظیفه میکنند. در همین زمینه باید به هشدار صدها متخصص فناوری اشاره کنیم که از سازمان ملل خواستهاند تا راهی برای حفاظت از بشریت در برابر سلاحهای مستقل ایجاد کند.
نیروهای نظامی کشورهای مختلف در حال حاضر به سلاحهای مبتنی بر هوش مصنوعی یا سلاحهایی که تا حدی به این سیستمها متکی هستند، دسترسی دارند. به عنوان مثال میتوانیم به پهپادهای نظامی اشاره کنیم که مثلا با بهرهگیری از سیستمهای تشخیص چهره میتوانند یک فرد را با دقت زیادی ردیابی کنند.
اما وقتی که به الگوریتمهای هوش مصنوعی اجازه دهیم بدون دخالت انسان در مورد مرگ و زندگی تصمیمگیری کنند، چه اتفاقی میافتد؟ چنین قابلیتهایی میتوانند تبعات فاجعهباری به همراه داشته باشند.
تکنولوژی دیپفیک روزبهروز پیشرفتهتر میشود و تشخیص جعلی بودن ویدیوهای مبتنی بر آن دشوارتر. اگرچه در حال حاضر این تکنولوژی عمدتاً برای ساخت ویدیوهای جعلی از افراد مشهور مورد استفاده قرار میگیرد اما همین حالا هم برخی کلاهبرداران با استفاده از تصویر پروفایل افراد معمولی در شبکههای اجتماعی ویدیوهای جعلی از آنها درست میکنند تا بتوانند باج دریافت کنند. علاوه بر این، باید به استفاده از هوش مصنوعی برای ویرایش تصاویر و شبیهسازی صدا هم اشاره کنیم که میتوانند تأثیر زیادی بر جامعه داشته باشند.
انتهای پیام/