گاردین: خیریههای بینالمللی از تصاویر جعلی فقر در تبلیغات استفاده میکنند
گزارشها حاکی از آن است که سازمانهای امدادی و بهداشتی در جهان به طور فزایندهای از تصاویر ساختگی تولیدشده با هوش مصنوعی برای نمایش فقر، گرسنگی و خشونت در کمپینهای تبلیغاتی خود استفاده میکنند؛ پدیدهای که کارشناسان آن را «فقرنمایی ۲.۰» یا نسخه جدیدی از «Poverty Porn» توصیف کردهاند.
به گزارش گاردین، تصاویر تولیدشده توسط هوش مصنوعی که کودکان گرسنه، پناهندگان و قربانیان خشونت جنسی را به تصویر میکشند، در سایتهای عکس استوک مانند Adobe Stock Photos و فریپیک منتشر شده و توسط برخی از سازمانهای غیردولتی برای جلب توجه در شبکههای اجتماعی مورد استفاده قرار میگیرند.
نوآ آرنولد، فعال سازمان سوئیسی Fairpicture که در زمینه ترویج تولید محتوای اخلاقی در حوزه توسعه جهانی فعالیت دارد، میگوید: «این تصاویر در همه جا دیده میشوند؛ برخی سازمانها به طور فعال از آنها استفاده میکنند و برخی دیگر در حال آزمایش و بررسی هستند.»
آرسنی آلنیچف، پژوهشگر مؤسسه پزشکی گرمسیری آنتورپ، با اشاره به اینکه تاکنون بیش از ۱۰۰ تصویر ساختگی از فقر شدید در کمپینهای جهانی مشاهده کرده است، اظهار داشت: «این تصاویر زبان تصویری فقر را بازتولید میکنند؛ کودکانی با بشقابهای خالی، زمین ترکخورده و کلیشههایی از جوامع فقیر که نگاه تحقیرآمیز به جنوب جهانی را تداوم میبخشند.»
به گفته وی، کاهش بودجه سازمانهای مردمنهاد و نگرانی از مسائل مربوط به رضایت افراد، از دلایل اصلی گرایش به استفاده از تصاویر مصنوعی است. آلنیچف افزود: «سازمانها به این نتیجه رسیدهاند که تولید تصاویر ساختگی ارزانتر است و دردسرهای اخلاقی و حقوقی عکسبرداری از افراد واقعی را ندارد.»
در جستوجوهای ساده با کلیدواژههایی مانند «poverty» در سایتهایی، چون Adobe Stock و فریپیک، دهها تصویر با عناوینی نظیر «کودک در کمپ پناهندگان» یا «داوطلب سفیدپوست در حال کمک به کودکان سیاهپوست» دیده میشود. کارشناسان هشدار میدهند این نوع تصاویر نژادپرستانه و کلیشهای، تصویری تحریفشده از فقر در کشورهای آفریقایی و آسیایی ارائه میدهند.
خوآکین آبل، مدیرعامل فریپیک، در واکنش به انتقادات گفت: مسئولیت استفاده از تصاویر افراطی بر عهده کاربران است نه پلتفرم. او افزود: «ما تلاش کردهایم با افزایش تنوع جنسیتی و نژادی در تصاویر دیگر، تعادل ایجاد کنیم، اما واقعیت این است که اگر مشتریان جهانی چنین تصاویری بخواهند، کاری از دست ما برنمیآید.»
در سالهای اخیر، برخی نهادهای بینالمللی نیز از هوش مصنوعی برای بازنمایی موضوعات حساس استفاده کردهاند. شاخه هلندی سازمان Plan International در سال ۲۰۲۳ کمپینی علیه ازدواج کودکان منتشر کرد که در آن تصاویر AI از دختری با چشم کبود و نوجوان باردار دیده میشد. همچنین سازمان ملل متحد ویدیویی با بازسازی خشونتهای جنسی از طریق هوش مصنوعی منتشر کرده بود که پس از انتقاد رسانهها حذف شد.
سخنگوی سازمان ملل در اینباره گفت: «این ویدیو که بیش از یک سال پیش با ابزاری در حال توسعه ساخته شده بود، حذف شد، زیرا ممکن بود خطراتی برای صحت اطلاعات ایجاد کند و مرز میان واقعیت و محتوای مصنوعی را از بین ببرد.»
کارشناسان هشدار دادند استفاده گسترده از این تصاویر نهتنها اخلاقی نیست، بلکه میتواند سوگیریهای نژادی و فرهنگی را در نسلهای بعدی مدلهای هوش مصنوعی بازتولید و تقویت کند.
در همین حال، سخنگوی Plan International اعلام کرد این سازمان از سال جاری دستورالعملی برای پرهیز از استفاده از هوش مصنوعی در نمایش چهره کودکان واقعی تدوین کرده و هدف از استفاده قبلی، حفاظت از حریم خصوصی و کرامت افراد بوده است.
انتهای پیام/



