صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

علمی و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

خطر هوش‌مصنوعی در کمین کاربران شبکه‌های اجتماعی

۱۴۰۳/۰۷/۰۸ - ۰۸:۰۵:۵۰
کد خبر: ۲۱۴۳۸۸۴
شرکت‌های هوش‌مصنوعی در حال جمع‌آوری اطلاعات شخصی کاربران برای آموزش سیستم‌های خود هستند و در این اقدام توجهی به رضایت کاربران نمی‌شود.

به گزارش خبرنگار علم و فناوری خبرگزاری برنا؛  رقابت برای ساخت جدیدترین، بهترین و پیشرفته‌ترین فناوری هوش‌مصنوعی، صنعت فناوری که به طور طبیعی به داده‌ها نیاز دارد را به شدت حریص کرده است.

شرکت‌هایی که به‌دنبال توسعه موتور‌های جستجوی مبتنی بر هوش‌مصنوعی، نویسندگان ایمیل هوشمند یا چت‌بات‌ها هستند، در حال جمع‌آوری پست‌ها و داده‌های شخصی شما و استفاده از آن‌ها برای آموزش این سیستم‌ها هستند که به مقادیر فزاینده‌ای از متن و تصاویر نیاز دارند.

حتی اگر به آن‌ها اجازه استفاده از داده‌هایتان برای آموزش هوش‌مصنوعی را نداده‌اید، برخی از شرکت‌ها به‌طور پیش‌فرض شما را انتخاب کرده‌اند.

فهمیدن این که چگونه می‌توان از جمع‌آوری داده‌های شما برای آموزش هوش‌مصنوعی آن‌ها جلوگیری کرد، چندان شهودی نیست.

بیش از ۳۰۰ هزار کاربر اینستاگرام در روز‌های گذشته پیامی را منتشر و اعلام کرده‌اند که به متا اجازه نمی‌دهند از هیچ‌یک از اطلاعات شخصی‌شان برای تقویت و آموزش هوش‌مصنوعی استفاده کند.

البته یک پست ساده در اینستاگرام هیچ تأثیری در جلوگیری از استفاده متا از داده‌های شما به این شکل نخواهد داشت.

تنظیمات پیش‌فرض برای پذیرش، یک مشکل در سطح صنعت است. گزارش جدید کمیسیون تجارت فدرال آمریکا (FTC) درباره شیوه‌های داده‌ای ۹ شبکه اجتماعی از جمله واتس‌اپ، فیسبوک، یوتیوب و آمازون نشان داد که تقریباً همه آن‌ها اطلاعات شخصی کاربران را به سیستم‌های خودکار منتقل می‌کنند بدون اینکه راهی جامع یا شفاف برای انصراف کاربران وجود داشته باشد.

در گزارش FTC آمده است: کمبود دسترسی، انتخاب، کنترل، شفافیت، توضیح‌پذیری و قابلیت تفسیر در ارتباط با استفاده شرکت‌ها از سیستم‌های خودکار وجود داشت.

در بیش‌تر موارد، می‌توانید انصراف دهید. اگر از سایت‌ها و برنامه‌های شرکت‌های فناوری استفاده می‌کنید، احتمالا همچنان داده‌های شما را جمع‌آوری می‌کنند، اما می‌توانید از وارد شدن آن به دستگاه‌های اتوماسیون آن‍‌ها جلوگیری کنید.

برای اینکه این کار را برای شما آسان‌تر کنیم، فرآیند دشواری را طی کرده‌ایم تا بفهمیم چگونه می‌توانید داده‌های خود را از دستگاه هوش‌مصنوعی در سکو‌های اصلی بیرون بکشید تا مجبور نباشید در تنظیمات بی‌پایان و متن‌های طولانی غرق شوید و خودتان آن را پیدا کنید.

در حالی که برخی از فرآیند‌های انصراف ساده بودند، اما برخی دیگر بسیار پیچیده‌تر بودند. تا کنون، متا سخت‌ترین سکو برای یافتن راه‌هایی برای محافظت از داده‌هایمان بوده است.

برخی از سایت‌های دیگر هیچ راهی برای انصراف ارائه ندادند. به عنوان مثال، هیچ تنظیمات قابل مشاهده‌ای در یوتیوب یا ردیت وجود ندارد که به ما اجازه دهد از پست‌ها و محتوای خود در برابر استفاده برای آموزش هوش‌مصنوعی شرکت‌ها یا مدل‌های دیگر شرکت‌ها به‌دلیل ماهیت عمومی آن سکو‌ها محافظت کنیم.

نکته دیگری که باید به خاطر بسپارید این است که حتی اگر به مدل‌های هوش‌مصنوعی اجازه ندهید که اطلاعات شخصی یا پست‌های شما را برای آموزش استفاده کنند، هر چت‌بات هوش‌مصنوعی احتمالا درخواست‌هایی را که شما به آن داده‌اید به مجموعه داده‌های آموزشی خود اضافه می‌کند.

انتهای پیام/

نظر شما