گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوریهای مرتبط با هوش مصنوعی بعد از معرفی چتباتها توسط مایکروسافت بار دیگر بر سر زبانها افتادند، کاربران مختلف هیجانزده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند.
چتباتها البته برای همۀ جهان خوشایند نبودهاند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیشبینی میکند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای جستجو باشند.
هوش مصنوعی و فناوریهای وابسته به آن محدود به چتباتها نیستند، یکی از مهمترین و البته خطرناکترین پدیدههای حاصل از هوش مصنوعی، تکنولوژی جعل عمیق یا «دیپ فیک» است، این فناوری در نگاه اول جذاب به نظر میرسد و کاربران عادی فضای وب سعی میکنند با ساخت ویدئوهای سرگرمکننده از دیپ فیکها لذت ببرند، ساخت ویدئوهای سرگرمکننده از افراد مشهور مانند بازیگران از جمله پرکاربردترین زمینههای استفاده از «دیپفیکها» است.
«نمونه دیپ فیک ساخته شده از بازیگران مشهور»
گروهی دیگر از کاربران هم برای سرگرم شدن به ساخت ویدئوهای فیک از سایر افراد مشهور جهان مانند سرمایهداران بزرگ همچون ایلان ماسک استفاده میکنند.
«نمونه دیپ فیک ساخته شده از ایلان ماسک»
موضوع اما به همین جا ختم نمیشود و نباید سادهاندیشانه از کنار «دیپ فیک» به عنوان یک فناوری صرفاً سرگرم کننده عبور کنیم، این تکنولوژی در کنار همۀ وجوه سرگرمی خود، خطرات جدی هم همراه با خود دارد که برخی از آنها را در زیر مرور میکنیم.
امروز هوش مصنوعی محدود به تولید ویدئوهای جعلی نیست و فناوری توان ساخت صوتهای مجعول از افراد معروف را هم دارد، یکی از زمینههای چالش بر انگیز برای تولید فایلهای چندرسانهای جعلی، تولید ویدئو یا صوت با فناوری «جعل عمیق» دربارۀ یک کشور از زبان سیاستمدارانش است.
«نمونه دیپ فیک ساخته شده از سیاستمداران معروف جهان»
تصور کنید به یک باره سخنرانی ویدئویی از پوتین (رئیس جمهور روسیه)، شی (رئیس جمهور چین) یا بایدن (رئیس جمهور آمریکا) در فضای مجازی پخش شود که حاوی پیامی برای مردم جهان با این مضمون است؛ «امروز جنگ جهانی سوم با فرمان من شروع میشود، دستور حملۀ اتمی به تمام کشورهای متخاصم را میدهم!» حتی تصورش هم رعب آور است که چطور باید جلوی پخش این شایعۀ را گرفت؟!
مثال برای این شکل از بحرانها کم نیست، فرض کنید، در یک روز صد ویدئو از مسئولین مختلف کشور خودمان دربارۀ یک موضوع چالش برانگیز پخش شود و پیامی نگران کننده برای افکار عمومی به همراه داشته باشد، برای مثال پیام این باشد که قیمت یک کالای اساسی از روز بعد ده برابر میشود، چطور باید افکار عمومی را در چنین شرایطی آرام کرد، در حالی که صد ویدئو از تصدیق چنین موضوعی از زبان مسئولان مختلف کشور شنیدهاند؟!
البته نگرانی از خطرات دیپفیک محدود به یک جغرافیای محدود نیست، باراک اوباما رئیس جمهور سابق آمریکا هم نگران تبعات این فناوری ترسناک است، وی مدتی پیش در گفتگویی رسانهای عنوان کرده بود: افراد قادر به تکثیر من و تغییر سخنهایم هستند و این کار بهاندازهای دقیق انجام میشود که گویی نسخه تکثیرشده، بهواقع من هستم و آن صحبتها از زبان من گفته میشود؛ درحالیکه همهچیز کاملاً ساختگی است. اگر به مرحلهای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایههای دموکراسی ما که برمبنای حقیقت بنا شده، به لرزه خواهد افتاد.
«نمونه دیپ فیک ساخته شده از باراک اوباما»
پیش از معرفی این فناوری، مردم جهان برای پذیرفتن واقعی یا غیرواقعی بودن یک موضوع، خصوصاً در مسائل حساس سیاسی و امنیتی به دنبال پیدا کردن یک صوت یا ویدئو از سوی افراد مرتبط با ماجرا بودند اما حالا دستگاههای امنیتی و اپوزیسونهای کشورهای مختلف برای رسیدن به اهداف خود قادر به تولید و انتشار ساعتها ویدئو و صوتی جعلی هستند.
متاسفانه فعلاً راهکار قطعی و عمومی هم برای تشخیص ویدئوی درست از نادرست وجود ندارد، البته دستگاههای نظامی و امنیتی با استفاده از فناوری «یادگیری عمیق» به کمک ماشین قادر هستند که نادرست بودن، یک ویدئو را تشخیص دهند اما این فناوری در حال حاضر در اختیار عموم نیست.
راهکار اساسی برای مواجهه با دیپفیکها تلاش دولتها برای ارتقاء سواد رسانهای و آموختن این مهم به افکار عمومی است که برای قضاوت دربارۀ یک ویدئو یا صوت باید اظهارات شنیده شده را با مواضع گذشته فرد تطبیق دهند.
سالها قبل انگارهای در فرهنگ عامۀ ما وجود داشت با این مضمون که انسان تا چیزی را نشنیده یا ندیده، نباید باور کند اما حالا به نظر میرسد که باید فرهنگ عامه را هم تغییر داد، «انسان دیگر قادر نیست به گوش و چشم خود هم اعتماد کند!» به عبارت دیگر نابینایی و ناشنوایی در حال فراگیری در جهان است؛ چرا که اگر چارهاندیشی انجام نشود، رسانههای غیر موثق به راحتی توان تخدیر ذهنی مخاطب خود را پیدا خواهند کرد!
گروهی دیگر از افراد این فناوری را برای کلاهبرداری به کار میگیرند، آنها از تصویر نمایۀ کاربران عادی شبکههای اجتماعی، ویدئوهای جعلی میسازند و قربانی را وادار میکنند که «باج» پرداخت کند!
کلاهبرداران امکان ساخت و انتشار ویدئوهای جعلی با موضوعات مختلفی را دارند که کاربران ناآگاه را بدل به قربانی بالقوه برای آنها کند، فریب دادن مردم و دریافت اطلاعات حسابهای بانکی یکی از محتملترین اهداف کلاهبرداران اینترنتی در استفاده از دیپ فیک است.
یکی از بحثبرانگیزترین و غیراخلاقیترین زمینههای فعالیت دیپفیک، تولید محتوای ویدئویی بزرگسالانه است. سال ۲۰۱۷ میلادی، کاربری در وبسایت ردیت؛ ویدئویی غیراخلاقی و دروغین از بازیگری با نام Gal Gadot منتشر کرد که وی را درحال ایفای نقش در فیلمهای غیراخلاقی نشان میداد. اگرچه این ویدئو توسط فناوری دیپفیک ساخته شده بود اما نوع مونتاژ بهگونهای بود که در نگاه نخست کمتر کسی میتوانست متوجه جعلیبودن ویدئو شود.
طولی نکشید که اتفاقات مشابه با همین مضمون برای دیگر بازیگران مطرحِ سینما رخ داد؛ بدینگونه، افرادی که در ابتداییترین جنبههای زندگی روزمره خود جانب احتیاط را پیشه میکنند، خود را در ویدئوهایی دیدند که پیشتر تصور آن نیز از ذهنها دور بواسکارلت جوهانسون، یکی از بازیگران مطرح سینمای هالیوود که خود قربانی این ویدئوها بوده است، میگوید:
البته فقط افراد مشهور نیستند که قربانی چنین محتوایی میشوند، فراگیری فناوری «جعل عمیق» میتواند منجر به انتشار هزاران ویدئو به قصد اخاذی از افراد مختلف جامعه شود همانطور که گفته شد، اساسی ترین راهکار جلوگیری از این مشکل در کنار تلاش برای فراگیر شدن ابزارهای مرتبط با «یادگیری عمیق» بین مردم جهت بررسی فایلهای مختلف، ارتقاء سواد رسانهای در میان آنها است.
انتهای پیام/