صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

علمی و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

دیپ فیک در کمین شماست

ببینید و بشنوید اما باور نکنید!

۱۴۰۱/۱۲/۲۶ - ۱۱:۱۷:۱۷
کد خبر: ۱۴۵۰۰۱۲
دیپ فیک استفاده‌ از هوش مصنوعی برای تولید صوت، تصویر یا ویدئو جعلی است، امروز به واسطۀ رشد چشمگیر دیپ‌فیک‌ها دیگر نمی‌توان به راحتی به دیده یا شنیدۀ خود نیز اعتماد کرد، این گزارش ماهیت دیپ‌فیک و راه‌های شناخت و مواجهه با آن را بررسی می‌کند.

گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوری‌های مرتبط با هوش مصنوعی بعد از معرفی چت‌بات‌ها توسط مایکروسافت بار دیگر بر سر زبان‌ها افتادند، کاربران مختلف هیجان‌زده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند.

چت‌بات‌ها البته برای همۀ جهان خوشایند نبوده‌اند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیش‌بینی می‌کند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای جستجو باشند.

هوش مصنوعی و فناوری‌های وابسته به آن محدود به چت‌بات‌ها نیستند، یکی از مهم‌ترین و البته خطرناک‌ترین پدیده‌های حاصل از هوش مصنوعی، تکنولوژی جعل عمیق یا «دیپ فیک» است، این فناوری در نگاه اول جذاب به نظر می‌رسد و کاربران عادی فضای وب سعی می‌کنند با ساخت ویدئوهای سرگرم‌کننده از دیپ فیک‌ها لذت ببرند، ساخت ویدئوهای سرگرم‌کننده از افراد مشهور مانند بازیگران از جمله پرکاربردترین زمینه‌های استفاده از «دیپ‌فیک‌ها» است.

«نمونه‌ دیپ فیک ساخته شده از بازیگران مشهور»

گروهی دیگر از کاربران هم برای سرگرم شدن به ساخت ویدئوهای فیک از سایر افراد مشهور جهان مانند سرمایه‌داران بزرگ همچون ایلان ماسک استفاده می‌کنند.

«نمونه‌ دیپ فیک ساخته شده از ایلان ماسک»

موضوع اما به همین جا ختم نمی‌شود و نباید ساده‌اندیشانه از کنار «دیپ فیک» به عنوان یک فناوری صرفاً سرگرم کننده عبور کنیم، این تکنولوژی در کنار همۀ وجوه سرگرمی خود، خطرات جدی هم همراه با خود دارد که برخی از آن‌ها را در زیر مرور می‌کنیم.

الف ـ جعل ویدئو یا صوت از سیاستمداران معروف

امروز هوش مصنوعی محدود به تولید ویدئوهای جعلی نیست و فناوری توان ساخت صوت‌های مجعول از افراد معروف را هم دارد، یکی از زمینه‌های چالش بر انگیز برای تولید فایل‌های چندرسانه‌ای جعلی، تولید ویدئو یا صوت با فناوری «جعل عمیق» دربارۀ یک کشور از زبان سیاستمدارانش است.

«نمونه‌ دیپ فیک ساخته شده از سیاستمداران معروف جهان»

تصور کنید به یک باره سخنرانی ویدئویی از پوتین (رئیس جمهور روسیه)، شی (رئیس جمهور چین) یا بایدن (رئیس جمهور آمریکا) در فضای مجازی پخش شود که حاوی پیامی برای مردم جهان با این مضمون است؛ «امروز جنگ جهانی سوم با فرمان من شروع می‌شود، دستور حملۀ اتمی به تمام کشورهای متخاصم را می‌دهم!» حتی تصورش هم رعب آور است که چطور باید جلوی پخش این شایعۀ را گرفت؟!

مثال برای این شکل از بحران‌ها کم نیست، فرض کنید، در یک روز صد ویدئو از مسئولین مختلف کشور خودمان دربارۀ یک موضوع چالش برانگیز پخش شود و پیامی نگران کننده برای افکار عمومی به همراه داشته باشد، برای مثال پیام این باشد که قیمت یک کالای اساسی از روز بعد ده برابر می‌شود، چطور باید افکار عمومی را در چنین شرایطی آرام کرد، در حالی که صد ویدئو از تصدیق چنین موضوعی از زبان مسئولان مختلف کشور شنیده‌اند؟!

البته نگرانی از خطرات دیپ‌فیک محدود به یک جغرافیای محدود نیست، باراک اوباما رئیس جمهور سابق آمریکا هم نگران تبعات این فناوری ترسناک است، وی مدتی پیش در گفتگویی رسانه‌ای عنوان کرده بود: افراد قادر به تکثیر من و تغییر سخن‌هایم هستند و این کار به‌اندازه‌ای دقیق انجام می‌شود که گویی نسخه تکثیر‌شده، به‌واقع من هستم و آن‌ صحبت‌ها از زبان من گفته می‌شود؛ در‌حالی‌که همه‌چیز کاملاً ساختگی است. اگر به‌ مرحله‌ای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایه‌های دموکراسی ما که برمبنای حقیقت بنا شده، به‌ لرزه خواهد افتاد.

«نمونه‌ دیپ فیک ساخته شده از باراک اوباما»

پیش از معرفی این فناوری، مردم جهان برای پذیرفتن واقعی یا غیرواقعی بودن یک موضوع، خصوصاً در مسائل حساس سیاسی و امنیتی به دنبال پیدا کردن یک صوت یا ویدئو از سوی افراد مرتبط با ماجرا بودند اما حالا دستگاه‌های امنیتی و اپوزیسون‌های کشورهای مختلف برای رسیدن به اهداف خود قادر به تولید و انتشار ساعت‌ها ویدئو و صوتی جعلی هستند.

متاسفانه فعلاً راهکار قطعی و عمومی هم برای تشخیص ویدئوی درست از نادرست وجود ندارد، البته دستگاه‌های نظامی و امنیتی با استفاده از فناوری «یادگیری عمیق» به کمک ماشین قادر هستند که نادرست بودن، یک ویدئو را تشخیص دهند اما این فناوری در حال حاضر در اختیار عموم نیست.

راهکار اساسی برای مواجهه با دیپ‌فیک‌ها تلاش دولت‌ها برای ارتقاء سواد رسانه‌ای و آموختن این مهم به افکار عمومی است که برای قضاوت دربارۀ یک ویدئو یا صوت باید اظهارات شنیده شده را با مواضع گذشته فرد تطبیق دهند.

سال‌ها قبل انگاره‌ای در فرهنگ عامۀ ما وجود داشت با این مضمون که انسان تا چیزی را نشنیده یا ندیده، نباید باور کند اما حالا به نظر می‌رسد که باید فرهنگ عامه را هم تغییر داد، «انسان دیگر قادر نیست به گوش و چشم خود هم اعتماد کند!» به عبارت دیگر نابینایی و ناشنوایی در حال فراگیری در جهان است؛ چرا که اگر چاره‌اندیشی انجام نشود، رسانه‌های غیر موثق به راحتی توان تخدیر ذهنی مخاطب خود را پیدا خواهند کرد!

 

ب ـ کلاهبرداری و سوء استفادۀ مالی از افراد

گروهی دیگر از افراد این فناوری را برای کلاهبرداری به کار می‌گیرند، آن‌ها از تصویر نمایۀ کاربران عادی شبکه‌های اجتماعی، ویدئوهای جعلی می‌سازند و قربانی را وادار می‌کنند که «باج» پرداخت کند!

کلاهبرداران امکان ساخت و انتشار ویدئوهای جعلی با موضوعات مختلفی را دارند که کاربران ناآگاه را بدل به قربانی بالقوه برای آن‌ها کند، فریب دادن مردم و دریافت اطلاعات حساب‌های بانکی یکی از محتمل‌ترین اهداف کلاهبرداران اینترنتی در استفاده از دیپ فیک است.

ج ـ اخاذی از افراد با تولید ویدئوهای غیر اخلاقی!

یکی از بحث‌برانگیز‌ترین و غیراخلاقی‌ترین زمینه‌های فعالیت دیپ‌فیک، تولید محتوای ویدئویی بزرگسالانه است. سال ۲۰۱۷ میلادی، کاربری در وب‌سایت ردیت؛ ویدئویی غیراخلاقی و دروغین از بازیگری با نام Gal Gadot منتشر کرد که وی را درحال ایفای نقش در فیلم‌های غیراخلاقی نشان می‌داد. اگرچه این ویدئو توسط فناوری دیپ‌فیک ساخته شده بود اما نوع مونتاژ به‌گونه‌ای بود که در نگاه نخست کمتر کسی می‌توانست متوجه جعلی‌بودن ویدئو شود.

طولی نکشید که اتفاقات مشابه با همین مضمون برای دیگر بازیگران مطرحِ سینما رخ داد؛ بدین‌گونه، افرادی که در ابتدایی‌ترین جنبه‌های زندگی روزمره خود جانب احتیاط را پیشه می‌کنند، خود را در ویدئو‌هایی دیدند که پیش‌تر تصور آن نیز از ذهن‌ها دور بواسکارلت جوهانسون، یکی از بازیگران مطرح سینمای هالیوود که خود قربانی این ویدئو‌ها بوده است، می‌گوید:

البته فقط افراد مشهور نیستند که قربانی چنین محتوایی می‌شوند، فراگیری فناوری «جعل عمیق»  می‌تواند منجر به انتشار هزاران ویدئو به قصد اخاذی از افراد مختلف جامعه شود همانطور که گفته شد، اساسی ترین‌ راهکار جلوگیری از این مشکل در کنار تلاش برای فراگیر شدن ابزارهای مرتبط با «یادگیری عمیق» بین مردم جهت بررسی فایل‌های مختلف، ارتقاء سواد رسانه‌ای در میان آن‌ها است. 

انتهای پیام/

نظر شما