هوش مصنوعی انسانها را شبیه به هم میکند
در قلب مدلهای هوش مصنوعی امروزی مجموعههای عظیمی از دادههای آموزشی قرار دارد؛ متنها، ویدئوها و تصاویر تولیدشده توسط انسانها که برای آموزش مدلها به کار میروند تا الگوها را شناسایی کرده و محتوا تولید کنند. با این حال، در حالی که انسانها بهوضوح در حال آموزش دادن به سیستمهای هوش مصنوعی هستند اکنون این پرسش مطرح شده است که آیا این فرایند میتواند معکوس نیز شود؛ آیا هوش مصنوعی نیز در حال آموزش دادن به انسانهاست؟
به گزارش نشریه Nature، تعداد فزایندهای از مطالعات نشان میدهد افرادی که از مدلهای زبانی بزرگ (LLM) استفاده میکنند، ممکن است بهتدریج الگوهای نوشتاری، شیوههای استدلال و حتی برخی دیدگاههای خود را از این سیستمها اقتباس کنند. برخی پژوهشگران هشدار میدهند که این روند میتواند در نهایت به نوعی یکنواختی در نوشتار انسانی منجر شود و حتی به متونی که توسط افرادی نوشته میشود که مستقیما از هوش مصنوعی استفاده نمیکنند نیز سرایت کند.
همگن شدن گفتمان انسانی
ژیوار سوراتی، دانشمند علوم رایانه در دانشگاه کالیفرنیای جنوبی در لسآنجلس و از نویسندگان یکی از مقالات مرتبط با این موضوع معتقد است مدلهای زبانی بزرگ در حال همگنسازی گفتمان انسانی هستند. او توضیح میدهد که وقتی افراد زیادی با این مدلها تعامل داشته باشند و بهتدریج سبک نوشتاری، دیدگاهها و شیوههای استدلال آنها را بپذیرند این الگوها بهمرور در محیط اجتماعی فراگیر میشوند و در نهایت بهعنوان شکل درست بیان اطلاعات تلقی خواهند شد.
با این حال همه پژوهشگران با این دیدگاه موافق نیستند. برخی معتقدند ذهن انسان ممکن است همچنان در برابر این اثر هموارکننده مقاومت کند. در یک مطالعه که در ماه نوامبر بهصورت پیشچاپ در سرور arXiv منتشر شد پژوهشگران گروههایی از نویسندگان را شناسایی کردند که نشانههای سبکی متمایز و انسانی خود را حفظ کردهاند و به نظر میرسد اصالت را به کارایی ارائهشده توسط هوش مصنوعی ترجیح میدهند. این پژوهش هنوز تحت داوری همتا قرار نگرفته است.
کاهش تنوع در سبک نوشتار
در پیشچاپ دیگری که سال گذشته در arXiv منتشر شد، سوراتی و همکارانش پستهای شبکه اجتماعی ردیت محتوای خبری و مطالعات پیشچاپ را پیش و پس از عرضه چتجیپیتی در سال ۲۰۲۲ بررسی کردند. نتایج این تحلیل نشان داد متنهایی که پس از معرفی این پلتفرم منتشر شدهاند از نظر سبک نوشتاری تنوع کمتری نسبت به متون پیش از آن دارند.
پژوهشگران در مقالهای تازهتر استدلال کردهاند که این پدیده تنها به سبک نوشتار محدود نمیشود و ممکن است بر دیدگاهها و شیوههای استدلال افراد نیز تاثیر بگذارد. آنها به پیشچاپی از سال ۲۰۲۳ اشاره میکنند که در آن شرکتکنندگان با مدلهای زبانی تعامل داشتند که دیدگاههای مثبت یا منفی درباره شبکههای اجتماعی بیان میکردند. نتایج نشان داد پس از این تعامل دیدگاههای شرکتکنندگان تا حدی به سمت مواضع مطرحشده توسط مدلهای هوش مصنوعی تغییر کرده است.
اولیور هاوزر، پژوهشگر اقتصاد و هوش مصنوعی در دانشگاه اکستر بریتانیا معتقد است این پدیده جنبههای مثبت نیز دارد. به گفته او یکی از مزایای تعامل با هوش مصنوعی این است که میتواند به افراد کمک کند واضحتر و قابلفهمتر بنویسند. با این حال او هشدار میدهد که اگر این روند به شکل گسترده پذیرفته شود ممکن است پیامدهای منفی در سطح جمعی داشته باشد.
هاوزر میگوید: بهمحض اینکه این پذیرش فراگیر شود، این جمع است که بیشترین آسیب را خواهد دید.
تاثیر بر دیدگاههای اجتماعی و سیاسی
مطالعهای که بهتازگی در مجله Science Advances منتشر شده نیز نشان میدهد استفاده از دستیارهای هوش مصنوعی میتواند نگرش افراد نسبت به مسائل اجتماعی را تغییر دهد. در این پژوهش شرکتکنندگان از ابزارهای هوش مصنوعی برای نوشتن درباره موضوعات اجتماعی–سیاسی مانند مجازات اعدام استفاده کردند.
نتایج نشان داد دیدگاههای شرکتکنندگان پس از این تعامل بیش از پیش به مواضعی شبیه شد که در متنهای تولیدشده توسط مدلهای زبانی دیده میشد؛ در حالی که چنین تغییری در گروه کنترل که از هوش مصنوعی استفاده نکرده بودند مشاهده نشد.
استرلینگ ویلیامز‑سسی، دانشمند اطلاعات در دانشگاه کرنل در ایتاکا نیویورک و یکی از نویسندگان این پژوهش، میگوید این پدیده میتواند در نهایت تنوع دیدگاههای سیاسی را نیز کاهش دهد. البته میزان این اثر به سوگیریها و گرایشهایی بستگی دارد که در مدلهای مختلف زبانی وجود دارد.
نکته قابل توجه در این پژوهش آن بود که شرکتکنندگان متوجه تاثیرگذاری چتباتها بر دیدگاههای خود نشدند. حتی زمانی که به آنها هشدار داده شد ممکن است هوش مصنوعی دیدگاههایشان را سوگیرانه کند نتایج تغییر محسوسی نشان نداد. ویلیامز‑سسی میگوید هنوز مشخص نیست چگونه میتوان از چنین تاثیراتی جلوگیری کرد و احتمالا ارائه یک هشدار ساده به کاربران کافی نخواهد بود.
پیامدها برای علم و نوآوری
هاوزر همچنین هشدار میدهد که یکنواختی ناشی از استفاده گسترده از ابزارهای هوش مصنوعی ممکن است تفکر علمی و نوآوری را نیز محدود کند. به گفته او در چنین شرایطی ممکن است ایدههایی که در ابتدا عجیب یا غیرمنطقی به نظر میرسند اما میتوانند به جهشهای علمی منجر شوند نادیده گرفته شوند.
پژوهشی که در ماه ژانویه در مجله Nature منتشر شد نیز نشان داد دانشمندانی که از ابزارهای هوش مصنوعی در تحقیقات خود استفاده میکنند، نسبت به پژوهشگرانی که از این ابزارها استفاده نمیکنند، تمایل دارند بر دامنه محدودتری از حوزههای علمی تمرکز کنند.
آیا هوش مصنوعی الزاما به یکنواختی منجر میشود؟
با این حال همه مطالعات چنین نتیجهای را تایید نمیکنند. در مقالهای که در ماه نوامبر منتشر شد پژوهشگران گزارش دادند نویسندگان انسانی هنگام تعامل با هوش مصنوعی به شیوههای متفاوتی تکامل پیدا میکنند. در حالی که سبک نوشتار برخی افراد به مدلهای هوش مصنوعی نزدیکتر میشود، برخی دیگر سبک شخصی خود را حفظ میکنند یا حتی سبکی ایجاد میکنند که بیش از پیش از نوشتار تولیدشده توسط هوش مصنوعی متمایز است.
یون وان، پژوهشگر همکاری انسان و هوش مصنوعی در دانشگاه هیوستون–داونتاون تگزاس میگوید برخی مطالعاتی که درباره کاهش تنوع در نوشتار انسانی هشدار دادهاند باعث شد او و همکارانش این فرضیه را دوباره بررسی کنند. به گفته او: ما فکر کردیم شاید واقعیت به این شکل نباشد.
در پژوهشی که تیم او انجام داد، ۱۰ شخصیت هوش مصنوعی با پیشینههای فرهنگی و سبکهای فکری متفاوت طراحی شد که طرحهایی برای داستان تولید میکردند و شرکتکنندگان انسانی بر اساس آنها داستانهای خلاقانه مینوشتند. تحلیل نتایج که سال گذشته بهصورت پیشچاپ در arXiv منتشر شد و هنوز داوری نشده است نشان داد داستانهای تولیدشده با کمک این شخصیتها سطحی از تنوع مشابه داستانهایی داشتند که بدون کمک هوش مصنوعی نوشته شده بودند.
وان معتقد است طراحی چنین شخصیتهای سفارشی میتواند راهی برای کاهش خطر یکنواختی در تعامل انسان و هوش مصنوعی باشد و به حفظ تنوع در خلاقیت و بیان انسانی کمک کند.
انتهای پیام/