خبرگزاری برنا؛ با استناد به گزارش رصدخانه اینترنت استنفورد، این رسانه اجتماعی در بازه دو ماهه مارس و می سال جاری در شناسایی و حذف ۴۰ مورد سوءاستفاده جنسی از کودکان (CSAM) در این پلتفرم موفق نبوده است.
این تیم با استفاده از «API» توییتر، ابردادههای مربوط به ۱۰۰ هزار توییت را جمعآوری و سپس با ابزار «PhotoDNA» مایکروسافت شروع به اسکن عکسها جهت استخراج تصاویر حاوی محتوای ممنوعه کردند. «PhotoDNA» در جریان این تحقیقات، موفق به شناسایی ۴۰ مورد از تصاویر غیرقانونی یاد شده در میان توییتهای استخراج شده بود.
تیم تحقیقاتی اعلام کرد: «ما در جریان تحقیقات، مشکلاتی را در مکانیسمهای تشخیص سوءاستفاده جنسی از کودکان توییتر کشف و در ماه آوریل به مرکز ملی کودکان مفقود و مورد سوءاستفاده قرار گرفته آمریکا (NCMEC) گزارش کردیم. با این وجود مشکل همچنان ادامه داشت. از آنجایی که هیچ ارتباطی با واحد اعتماد و ایمنی توییتر نداشتیم، به یک واسطه شخص ثالث مراجعه کردیم تا یک جلسه توجیهی ترتیب دهیم. توییتر از این مشکل مطلع شد و به نظر می رسد این مشکل از ۲۰ می مرتفع شده است.»
به دنبال تصمیم ایلان ماسک مبنی بر اخذ هزینه ۴۲ هزار دلار در ماه برای دسترسی «API» این توییتر که پیشتر رایگان بود، تحقیقاتی مانند مورد اخیر، بسیار دشوار و پرهزینه شده است. رصدخانه اینترنت استنفورد، اخیراً به دلیل این هزینههای گزاف، مجبور به توقف استفاده از سطح سازمانی این ابزار شده است.
تیم تحقیقاتی اعلام کرد: «توییتر تنها پلتفرمی نیست که با سوءاستفاده جنسی از کودکان سروکار دارد و همچنین تمرکز اصلی گزارش آینده ما نیست. با این وجود خرسندیم که در بهبود ایمنی کودکان در توییتر نقش داشتهایم و از کمک آنها به رفع این مشکل سپاسگزاریم.»
انتهای پیام/