متا به پنهانکاری درباره آسیبهای شبکههای اجتماعی متهم شد
اسناد جدید ارائه شده در دادگاه آمریکا نشان میدهد شرکت متا پس از دستیابی به شواهد علّی مبنی بر تأثیر منفی فیسبوک و اینستاگرام بر سلامت روان کاربران، تحقیقات داخلی خود را متوقف کرده و یافتهها را علنی نکرده است.
به گزارش رویترز، براساس اسناد بدون سانسور منتشرشده در جریان یک شکایت دستهجمعی از سوی مناطق آموزشی ایالات متحده، پروژهای تحقیقاتی با نام رمز Project Mercury در سال ۲۰۲۰ نشان داده بود کاربرانی که به مدت یک هفته از فیسبوک استفاده نکردند، کاهش قابل توجهی در احساس افسردگی، اضطراب، تنهایی و مقایسه اجتماعی گزارش کردهاند.
شاکیان مدعی شدند متا به جای انتشار نتایج، این تحقیق را متوقف و نتایج منفی را ناشی از «فضای رسانهای موجود» درباره این شرکت معرفی کرده است، در حالی که کارکنان داخلی اعتبار علمی یافتهها را تأیید کرده بودند.
طبق این اسناد، متا در عین حال به کنگره آمریکا اعلام کرده بود امکان سنجش دقیق تأثیر محصولاتش بر سلامت روان دختران نوجوان را ندارد.
اندی استون، سخنگوی متا با رد این ادعاها اعلام کرد این پژوهش به دلیل ضعفهای روششناسی متوقف شده و این شرکت طی سالهای گذشته برای افزایش ایمنی کاربران بهویژه نوجوانان اقدامهای متعددی انجام داده است.
این شکایت که از سوی شرکت حقوقی Motley Rice ثبت شده، علاوه بر متا، شرکتهای گوگل، تیکتاک و اسنپچت را نیز به پنهانکاری درباره خطرات محصولاتشان، تشویق استفاده کودکان زیر ۱۳ سال و ضعف در مقابله با محتوای سوءاستفاده از کودکان متهم میکند.
در بخش دیگری از این شکایت، شاکیان مدعی شدند شرکت تیکتاک با حمایت مالی از انجمن ملی اولیا و مربیان آمریکا (National PTA)، در تلاش بوده روایت مثبتی از ایمنی پلتفرمش در میان نهادهای مرتبط با کودکان ایجاد کند. طبق اسناد دادگاه، برخی مدیران تیکتاک در مکاتبات داخلی ادعا کردهاند که این انجمن «در ادامه هر آنچه ما بخواهیم انجام خواهد داد» و حتی مدیرعامل آن نیز آماده حمایت رسانهای از مواضع تیکتاک بوده است.
در همین حال، بخش عمده اتهامات متوجه شرکت متا است. براساس اسناد داخلی مورد استناد شاکیان، متا بهصورت آگاهانه ویژگیهای ایمنی نوجوانان را به شکلی طراحی کرده که ناکارآمد و کماستفاده باشند و از آزمایش قابلیتهایی که ممکن بود رشد کاربران را کاهش دهد، جلوگیری کرده است.
در بخش دیگری از این اسناد آمده است که متا برای حذف حسابهای مرتبط با قاچاق جنسی انسان، آستانه بسیار بالایی در نظر گرفته بود؛ بهطوری که یک کاربر باید دستکم ۱۷ بار به چنین فعالیتی متهم میشد تا از پلتفرم حذف شود.
شاکیان همچنین ادعا کردهاند که متا با وجود آگاهی از اینکه الگوریتمهایش با افزایش تعامل نوجوانان، محتوای آسیبزاتر را به آنها نمایش میدهند، به بهینهسازی این فرایند ادامه داده است.
طبق این اسناد، متا همچنین به دلیل نگرانی درباره تأثیر اقدامات ایمنی بر رشد پلتفرم، تلاشها برای محدود کردن ارتباط شکارچیان جنسی با کودکان را برای سالها به تعویق انداخته و به تیمهای ایمنی خود فشار وارد کرده تا تصمیمات اتخاذنشده را توجیه کنند.
انتهای پیام/



