هوش مصنوعی انسان‌ها را شبیه به هم می‌کند

|
۱۴۰۵/۰۱/۰۷
|
۲۲:۰۰:۰۳
| کد خبر: ۲۳۲۴۷۰۷
هوش مصنوعی انسان‌ها را شبیه به هم می‌کند
برنا - گروه علمی و فناوری: مطالعات جدید نشان می‌دهد تعامل گسترده با مدل‌های زبانی می‌تواند به‌تدریج سبک نوشتار، شیوه استدلال و حتی دیدگاه‌های کاربران را تغییر دهد.

در قلب مدل‌های هوش مصنوعی امروزی مجموعه‌های عظیمی از داده‌های آموزشی قرار دارد؛ متن‌ها، ویدئو‌ها و تصاویر تولیدشده توسط انسان‌ها که برای آموزش مدل‌ها به کار می‌روند تا الگو‌ها را شناسایی کرده و محتوا تولید کنند. با این حال، در حالی که انسان‌ها به‌وضوح در حال آموزش دادن به سیستم‌های هوش مصنوعی هستند اکنون این پرسش مطرح شده است که آیا این فرایند می‌تواند معکوس نیز شود؛ آیا هوش مصنوعی نیز در حال آموزش دادن به انسان‌هاست؟

به گزارش نشریه Nature، تعداد فزاینده‌ای از مطالعات نشان می‌دهد افرادی که از مدل‌های زبانی بزرگ (LLM) استفاده می‌کنند، ممکن است به‌تدریج الگو‌های نوشتاری، شیوه‌های استدلال و حتی برخی دیدگاه‌های خود را از این سیستم‌ها اقتباس کنند. برخی پژوهشگران هشدار می‌دهند که این روند می‌تواند در نهایت به نوعی یکنواختی در نوشتار انسانی منجر شود و حتی به متونی که توسط افرادی نوشته می‌شود که مستقیما از هوش مصنوعی استفاده نمی‌کنند نیز سرایت کند.

 

همگن شدن گفتمان انسانی

 

ژیوار سوراتی، دانشمند علوم رایانه در دانشگاه کالیفرنیای جنوبی در لس‌آنجلس و از نویسندگان یکی از مقالات مرتبط با این موضوع معتقد است مدل‌های زبانی بزرگ در حال همگن‌سازی گفتمان انسانی هستند. او توضیح می‌دهد که وقتی افراد زیادی با این مدل‌ها تعامل داشته باشند و به‌تدریج سبک نوشتاری، دیدگاه‌ها و شیوه‌های استدلال آنها را بپذیرند این الگو‌ها به‌مرور در محیط اجتماعی فراگیر می‌شوند و در نهایت به‌عنوان شکل درست بیان اطلاعات تلقی خواهند شد.

 

با این حال همه پژوهشگران با این دیدگاه موافق نیستند. برخی معتقدند ذهن انسان ممکن است همچنان در برابر این اثر هموارکننده مقاومت کند. در یک مطالعه که در ماه نوامبر به‌صورت پیش‌چاپ در سرور arXiv منتشر شد پژوهشگران گروه‌هایی از نویسندگان را شناسایی کردند که نشانه‌های سبکی متمایز و انسانی خود را حفظ کرده‌اند و به نظر می‌رسد اصالت را به کارایی ارائه‌شده توسط هوش مصنوعی ترجیح می‌دهند. این پژوهش هنوز تحت داوری همتا قرار نگرفته است.

 

کاهش تنوع در سبک نوشتار

 

در پیش‌چاپ دیگری که سال گذشته در arXiv منتشر شد، سوراتی و همکارانش پست‌های شبکه اجتماعی ردیت محتوای خبری و مطالعات پیش‌چاپ را پیش و پس از عرضه چت‌جی‌پی‌تی در سال ۲۰۲۲ بررسی کردند. نتایج این تحلیل نشان داد متن‌هایی که پس از معرفی این پلتفرم منتشر شده‌اند از نظر سبک نوشتاری تنوع کمتری نسبت به متون پیش از آن دارند.

 

پژوهشگران در مقاله‌ای تازه‌تر استدلال کرده‌اند که این پدیده تنها به سبک نوشتار محدود نمی‌شود و ممکن است بر دیدگاه‌ها و شیوه‌های استدلال افراد نیز تاثیر بگذارد. آنها به پیش‌چاپی از سال ۲۰۲۳ اشاره می‌کنند که در آن شرکت‌کنندگان با مدل‌های زبانی تعامل داشتند که دیدگاه‌های مثبت یا منفی درباره شبکه‌های اجتماعی بیان می‌کردند. نتایج نشان داد پس از این تعامل دیدگاه‌های شرکت‌کنندگان تا حدی به سمت مواضع مطرح‌شده توسط مدل‌های هوش مصنوعی تغییر کرده است.

 

اولیور هاوزر، پژوهشگر اقتصاد و هوش مصنوعی در دانشگاه اکستر بریتانیا معتقد است این پدیده جنبه‌های مثبت نیز دارد. به گفته او یکی از مزایای تعامل با هوش مصنوعی این است که می‌تواند به افراد کمک کند واضح‌تر و قابل‌فهم‌تر بنویسند. با این حال او هشدار می‌دهد که اگر این روند به شکل گسترده پذیرفته شود ممکن است پیامد‌های منفی در سطح جمعی داشته باشد.

 

هاوزر می‌گوید: به‌محض اینکه این پذیرش فراگیر شود، این جمع است که بیشترین آسیب را خواهد دید.

 

تاثیر بر دیدگاه‌های اجتماعی و سیاسی

 

مطالعه‌ای که به‌تازگی در مجله Science Advances منتشر شده نیز نشان می‌دهد استفاده از دستیار‌های هوش مصنوعی می‌تواند نگرش افراد نسبت به مسائل اجتماعی را تغییر دهد. در این پژوهش شرکت‌کنندگان از ابزار‌های هوش مصنوعی برای نوشتن درباره موضوعات اجتماعی–سیاسی مانند مجازات اعدام استفاده کردند.

 

نتایج نشان داد دیدگاه‌های شرکت‌کنندگان پس از این تعامل بیش از پیش به مواضعی شبیه شد که در متن‌های تولیدشده توسط مدل‌های زبانی دیده می‌شد؛ در حالی که چنین تغییری در گروه کنترل که از هوش مصنوعی استفاده نکرده بودند مشاهده نشد.

 

استرلینگ ویلیامز‑سسی، دانشمند اطلاعات در دانشگاه کرنل در ایتاکا نیویورک و یکی از نویسندگان این پژوهش، می‌گوید این پدیده می‌تواند در نهایت تنوع دیدگاه‌های سیاسی را نیز کاهش دهد. البته میزان این اثر به سوگیری‌ها و گرایش‌هایی بستگی دارد که در مدل‌های مختلف زبانی وجود دارد.

 

نکته قابل توجه در این پژوهش آن بود که شرکت‌کنندگان متوجه تاثیرگذاری چت‌بات‌ها بر دیدگاه‌های خود نشدند. حتی زمانی که به آنها هشدار داده شد ممکن است هوش مصنوعی دیدگاه‌هایشان را سوگیرانه کند نتایج تغییر محسوسی نشان نداد. ویلیامز‑سسی می‌گوید هنوز مشخص نیست چگونه می‌توان از چنین تاثیراتی جلوگیری کرد و احتمالا ارائه یک هشدار ساده به کاربران کافی نخواهد بود.

 

پیامد‌ها برای علم و نوآوری

 

هاوزر همچنین هشدار می‌دهد که یکنواختی ناشی از استفاده گسترده از ابزار‌های هوش مصنوعی ممکن است تفکر علمی و نوآوری را نیز محدود کند. به گفته او در چنین شرایطی ممکن است ایده‌هایی که در ابتدا عجیب یا غیرمنطقی به نظر می‌رسند اما می‌توانند به جهش‌های علمی منجر شوند نادیده گرفته شوند.

پژوهشی که در ماه ژانویه در مجله Nature منتشر شد نیز نشان داد دانشمندانی که از ابزار‌های هوش مصنوعی در تحقیقات خود استفاده می‌کنند، نسبت به پژوهشگرانی که از این ابزار‌ها استفاده نمی‌کنند، تمایل دارند بر دامنه محدودتری از حوزه‌های علمی تمرکز کنند.

آیا هوش مصنوعی الزاما به یکنواختی منجر می‌شود؟

با این حال همه مطالعات چنین نتیجه‌ای را تایید نمی‌کنند. در مقاله‌ای که در ماه نوامبر منتشر شد پژوهشگران گزارش دادند نویسندگان انسانی هنگام تعامل با هوش مصنوعی به شیوه‌های متفاوتی تکامل پیدا می‌کنند. در حالی که سبک نوشتار برخی افراد به مدل‌های هوش مصنوعی نزدیک‌تر می‌شود، برخی دیگر سبک شخصی خود را حفظ می‌کنند یا حتی سبکی ایجاد می‌کنند که بیش از پیش از نوشتار تولیدشده توسط هوش مصنوعی متمایز است.

یون وان، پژوهشگر همکاری انسان و هوش مصنوعی در دانشگاه هیوستون–داون‌تاون تگزاس می‌گوید برخی مطالعاتی که درباره کاهش تنوع در نوشتار انسانی هشدار داده‌اند باعث شد او و همکارانش این فرضیه را دوباره بررسی کنند. به گفته او: ما فکر کردیم شاید واقعیت به این شکل نباشد.

در پژوهشی که تیم او انجام داد، ۱۰ شخصیت هوش مصنوعی با پیشینه‌های فرهنگی و سبک‌های فکری متفاوت طراحی شد که طرح‌هایی برای داستان تولید می‌کردند و شرکت‌کنندگان انسانی بر اساس آنها داستان‌های خلاقانه می‌نوشتند. تحلیل نتایج که سال گذشته به‌صورت پیش‌چاپ در arXiv منتشر شد و هنوز داوری نشده است نشان داد داستان‌های تولیدشده با کمک این شخصیت‌ها سطحی از تنوع مشابه داستان‌هایی داشتند که بدون کمک هوش مصنوعی نوشته شده بودند.

وان معتقد است طراحی چنین شخصیت‌های سفارشی می‌تواند راهی برای کاهش خطر یکنواختی در تعامل انسان و هوش مصنوعی باشد و به حفظ تنوع در خلاقیت و بیان انسانی کمک کند.

انتهای پیام/

نظر شما
captcha
پیشنهاد سردبیر