به گزارش خبرنگار خبرگزاری برنا، بر اساس آخرین اطلاعیههای مرکز بررسی شکایات جرائم اینترنتی FBI، طی روزها و ماههای گذشته شکایتهای زیادی دربارۀ تلاش افراد برای جعل و استفاده از تصاویر، ویدیوها و ... جهت دستیابی به موقعیتهای شغلی به این مرکز میرسد.
Deepfakes یا جعل عمیق توسط مایکروسافت اینطور تعریف میشود؛ "عکسها، فیلمها یا فایلهای صوتی دستکاری شده توسط هوش مصنوعی (AI) با استفاده از روشهایی پیچیده که تمایز آنها نسبت به نمونۀ اصلی را دشوار میکند.
رایج ترین دیپ فیک که این روزهای جهان، ساخت ویدیو با استفاده از جایگزینی تصاویر فردی مشهور با شخصی عادی و صداگذاری آن بر اساس میل سازنده است، در حقیقت جملاتی به گوینده نسبت داده میشود که اساساً از زبان وی نبوده است، سازندگان این ویدیوها معمولا از آنها برای اخاذی از قربانی استفاده میکنند.
به طور معمول، ویدیوهای دیپفیک با استفاده از نقشهبرداری چهره و هوش مصنوعی ایجاد میشوند تا ماکتهای دیجیتالی مشابهای از یک فرد برای جعل هویت خود ایجاد کنند.
هنگامی که جلسه استماع کمیته اطلاعات مجلس نمایندگان آمریکا در سال 2019 برگزار شد، هشداری عمومی در مورد قدرت های فریبنده نرم افزار هوش مصنوعی صادر شد، ویدیوهای دیپ فیک پیش از این به عنوان یک تهدید فزاینده برای امنیت ملی آمریکا معرفی شدهاند.
این هشدار کمیته مجلس نمایندگان زمانی منتشر شد که ویدئویی جعلی از نانسی پلوسی، رئیس مجلس نمایندگان آمریکا، دست به دست در شبکههای اجتماعی میچرخید و میلیونها بار تماشا میشد، صحت این ویدیو همان زمان رد شد اما این تکذیبیه مانع چرخش شایعات بین مردم آمریکا نشد.
افبیآی توضیح میدهد: «دیپفیکها شامل یک ویدیو، یک تصویر یا صدای ضبط شده هستند که بهطور کاملاً استادانه و غیرقابل تشخیص کسی را متهم به انجام کار یا گفتن جملهای میکنند که اساساً وجود خارجی نداشته است!
تشخیص دیپفیکها بسیار دشوار است به طوری که اخیراً یکی از حسابهای کاربری TikTok با جعل ویدیوهایی از تام کروز بازیگر مطرح هالیوود، مخاطبان زیادی را جذب کرده است!
اغلب مردم عادی دنیا که آموزش خاصی برای تشخیص دیپفیکها ندیدهاند با دیدن این ویدیوها تصور خواهند کرد که واقعا در حال تماشای تامکروز هستند که ویدیوهایی از صحنههای مختلف زندگی وی در فضای مجازی به اشتراک گذاشته شده است اما اگر کسی آموزش دیده باشد با دقت در جزئیات در خواهد یافت که نقصهایی هرچند کوچک در همخوانی تصویر و صدا، رفتارهای اغراق آمیز، زبان بدن و امثال آن وجود دارد.
دربارۀ مصاحبههای شغلی آنلاین که FBI در اطلاعیۀ خود به آن پرداخته است، بیشتر شکایات دربارۀ جعل صوتی در طول مصاحبههای آنلاین و سایر ویژگیهایی گیجکننده برای شرکتکنندگان است.
هرچند نشانه هایی وجود دارد که بررسی آنها میتواند که مصاحبهگر را برای تمایز دادن اطلاعات جعلی از واقعی یاری کند، یکی از این راهها تطابق حرکات دهان و فک فرد مصاحبه کننده در برابر دوربین است که باید همخوانی کامل با کلمات ادا شده داشته باشد تا بتوان از صحت اطلاعات اطمینان پیدا کرد.. FBI در ادامه خاطرنشان میکند که در برخی مواقع، اعمالی مانند سرفه، عطسه یا سایر اعمال شنیداری با آنچه که در ویدئو وجود دارد، یکسان نیست که همین مسئله نیز میتواند تا راهی برای شناخت اطلاعات جعلی باشد.
براندون هافمن، مدیر ارشد امنیت اطلاعات در Netenrich، (یک شرکت امنیت سایبری) در این رابطه به فاکس نیوز گفت: «فناوری Deepfake به جایی رسیده است که تأیید صحت یک ویدیو به عنوان واقعی بودن تقریباً غیرممکن است.
ظاهراً فناوری علاوه بر مزایایی که دارد، گاهی اوقات ترسناک هم میشود، قبل از این گارآگاهان پلیس بیشتر وقت خود را باید صرف تشخیص متون جعلی یا نهایت صوتهای غیرواقعی میکردند اما حالا به طرز وحشتناکی این مسئله به دنیای ویدیو نیز تعمیم پیدا کرده است، حال به خصوص کشورهایی که مدیریت ضعیفتری بر عرصۀ رسانه و فضای مجازی خود دارند با چالشهای بیشتری در رابطه با شناسایی و مواجهه با اطلاعات نادرست پیدا خواهند کرد، چالشی که پیش از هرقشری سلبریتیهای هنری و سیاسی را در سراسر جهان درگیر خود خواهد کرد و باید دید که متخصصان چه راهکارهایی برای کنترل جریان آگاهی و انتشار اطلاعات صحیح پیشنهاد خواهند داد.
انتهای پیام/
خبرنگار: زهرا وجدانی