فناوری به کمک والدین می آید

|
۱۴۰۲/۰۲/۰۲
|
۱۴:۴۵:۰۰
| کد خبر: ۱۴۶۳۷۹۱
فناوری به کمک والدین می آید
محققان یک سامانه یادگیری ماشینی ابداع کرده‌اند که با شناسایی گفت‌وگوهای خطردار در اینستاگرام می‌تواند فرصت‌هایی برای سکوها و والدین به منظور محافظت از کاربران جوان و آسیب‌پذیر در عین حفظ حریم خصوصی آنها ایجاد کند.

خبرگزاری برنا؛ در حالی که سازمان‌های تنظیم مقررات با چالش‌های محافظت از کاربران جوان‌ رسانه‌های اجتماعی در برابر سوءاستفاده و باج‌خواهی در عین صیانت از حریم خصوصی آنها دست و پنجه نرم می‌کنند، یک گروه از محققان چهار دانشگاه آمریکا راهی برای استفاده از فناوری یادگیری ماشین برای علامت‌دار کردن گفت‌وگوهای خطرناک در اینستاگرام بدون نیاز به شنود کاربران پیشنهاد کرده‌اند.
این گروه از محققان نتایج تحقیقات خود را درباره شناخت اینکه چه نوع از داده‌های ورودی از قبیل «متادیتا»، متن و تصویر می‌تواند بیشترین سودمندی را برای مدل‌های یادگیری ماشین به منظور شناسایی گفت‌وگوهای پرخطر داشته باشد، در نشریه «اقدامات انجمن کنفرانس ماشین‌های محاسباتی درباره تراکنش انسان  رایانه» منتشر کردند.
یافته‌های آنها حاکی از آن است که گفت‌وگوهای پرخطر از طریق مشخصات متادیتا از قبیل طول گفت‌وگو و چگونگی درگیر شدن کاربران در گفت‌وگوها قابل ردیابی و شناسایی هستند.
تلاش های این محققان به یکی از مشکلات رو به رشد در یک رسانه اجتماعی محبوب بین نوجوانان ۱۳ تا ۲۱ ساله در کشور آمریکا می‌پردازد. مطالعات اخیر نشان داده است که اذیت و آزار در اینستاگرام موجب افزایش افسردگی در میان کاربران و به خصوص موجب اختلالات روانی و تغذیه‌ای در میان دختران نوجوان شده است.
در همین حال رسانه‌های اجتماعی تحت فشارهای فزاینده‌ای برای محافظت از حریم خصوصی کاربران قرار دارند. در نتیجه، شرکت «متا» اداره‌کننده فیسبوک و اینستاگرام، در تدارک رمزگذاری نهایی تمام پیام ها در سکوهای این شرکت است. این بدان معناست که محتوای پیام ها از لحاظ فنی ایمن است و فقط توسط افراد حاضر در گفت‌وگو قابل دسترسی خواهد بود.
اما این تدابیر امنیتی همچنین استفاده از فناوری‌های خودکار برای ردیابی و جلوگیری از خطر های برخط را دشوارتر می‌سازد. در این حال سامانه ابداعی جدید محققان از الگوریتم‌های یادگیری ماشین در یک رویکرد لایه‌ای استفاده کرده است که یک پروفایل متادیتا از گفت‌وگوهای پرخطر ایجاد می‌کند. این برنامه در آزمایش‌ها، دقت و صحت ۸۷ درصدی در زمینه شناسایی گفت‌وگوهای پرخطر نشان داده است.
این محققان برای تحلیل تصاویر و فیلم‌ها که نقش مهمی در ارتباطات اینستاگرامی دارند، یک مجموعه از برنامه‌ها را مورد استفاده قرار دادند و سپس برنامه‌های یادگیری ماشین با استفاده از یک تحلیل متنی، بار دیگر پروفایلی از کلمات نشانگر تصاویر و فیلم‌های خطردار در گفت‌وگوها را ایجاد کردند. در این مورد نیز این سامانه یادگیری ماشین تصاویر و فیلم‌های پرخطر را با دقت و صحت ۸۵ درصدی شناسایی کرده است.

انتهای پیام/

نظر شما