کشف نواقص مکانیسم توییتر برای تشخیص سوء‌استفاده از کودکان

|
۱۴۰۲/۰۳/۱۸
|
۲۲:۴۵:۰۰
| کد خبر: ۱۴۸۳۳۵۱
کشف نواقص مکانیسم توییتر برای تشخیص سوء‌استفاده از کودکان
توییتر در ماه‌های اخیر موفق به حذف تصاویر سوءاستفاده جنسی از کودکان در بستر این پلتفرم نشده است.

خبرگزاری برنا؛ با استناد به گزارش رصدخانه اینترنت استنفورد، این رسانه اجتماعی در بازه دو ماهه مارس و می سال جاری در شناسایی و حذف ۴۰ مورد سوء‌استفاده جنسی از کودکان (CSAM) در این پلتفرم موفق نبوده است.

این تیم با استفاده از «API» توییتر، ابرداده‌های مربوط به ۱۰۰ هزار توییت را جمع‌آوری و سپس با ابزار «PhotoDNA» مایکروسافت شروع به اسکن عکس‌ها جهت استخراج تصاویر حاوی محتوای ممنوعه کردند. «PhotoDNA» در جریان این تحقیقات، موفق به شناسایی ۴۰ مورد از تصاویر غیرقانونی یاد شده در میان توییت‌های استخراج شده بود.

تیم تحقیقاتی اعلام کرد: «ما در جریان تحقیقات، مشکلاتی را در مکانیسم‌های تشخیص سوء‌استفاده جنسی از کودکان توییتر کشف و در ماه آوریل به مرکز ملی کودکان مفقود و مورد سوء‌استفاده قرار گرفته آمریکا (NCMEC) گزارش کردیم. با این وجود مشکل همچنان ادامه داشت. از آنجایی که هیچ ارتباطی با واحد اعتماد و ایمنی توییتر نداشتیم، به یک واسطه شخص ثالث مراجعه کردیم تا یک جلسه توجیهی ترتیب دهیم. توییتر از این مشکل مطلع شد و به نظر می رسد این مشکل از ۲۰ می مرتفع شده است.»

به دنبال تصمیم ایلان ماسک مبنی بر اخذ هزینه ۴۲ هزار دلار در ماه برای دسترسی «API» این توییتر که پیش‌تر رایگان بود، تحقیقاتی مانند مورد اخیر، بسیار دشوار و پرهزینه شده است. رصدخانه اینترنت استنفورد، اخیراً به دلیل این هزینه‌های گزاف، مجبور به توقف استفاده از سطح سازمانی این ابزار شده است.

تیم تحقیقاتی اعلام کرد: «توییتر تنها پلتفرمی نیست که با سوء‌استفاده جنسی از کودکان سروکار دارد و همچنین تمرکز اصلی گزارش آینده ما نیست. با این وجود خرسندیم که در بهبود ایمنی کودکان در توییتر نقش داشته‌ایم و از کمک آن‌ها به رفع این مشکل سپاسگزاریم.»

انتهای پیام/

نظر شما