صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

علمی و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

ربات احساساتی !

۱۴۰۱/۰۳/۲۹ - ۲۰:۰۰:۰۰
کد خبر: ۱۳۴۰۸۵۴
یکی از کارمندان بخش هوش مصنوعی گوگل ادعا کرده است که می‌تواند، رباتی دارای احساسات و لامسه طراحی کند اما اینکه با توجه به دانش فعلی بشر این ادعا تا چه حد نزدیک به واقعیت است، مشخص نیست

به گزارش خبرنگار خبرگزاری برنا، لیموان طی چندین مکالمه با LaMDA، سناریوهای مختلفی به این روبات ارائه داد و در مقابل، نتیجه‌ی مشاهده شده را تحلیل کرد. برای مثال، سیستم در پاسخ به برخی از سناریوها که مضمون مذهبی داشتند، به استفاده از زبان نفرت‌آور و تبعیض‌آمیز روی آورد. مشاهداتی از این دست بود که باعث شد لیموان به این نتیجه برسد که LaMDA احساسات و افکار خاص خودش را دارد.

لیموان به واشینگتون پست گفته است: «وقتی نتیجه مکالمه را می‌دیدم، اگر خبر نداشتم با روباتی که خودمان ساخته‌ایم مشغول صحبتم، فکر می‌کردم با کودک هفت-هشت ساله‌ای حرف می‌زنم که فیزیک هم بلد است.»

بلیک لیموان، مهندس ارشد نرم‌افزار شرکت گوگل، مشغول آزمایش ابزار هوش مصنوعی جدید به نام LaMDA است.

توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA ایده ای بود که نیاز به شواهدی برای اثبات داشت. لیموان به همراه یکی دیگر از همکارانش سعی کردند تا شواهدی برای تأیید یافته‌های خود ارائه دهند؛ با این حال، بلیز آگورا ای‌آرکاس و جن جینای، رئیس نوآوری مسئولانه گوگل، این شواهد را نپذیرفته‌اند.

گوگل لیموان را به خاطر زیرپا گذاشتن سیاست محرمانگی شرکت، به مرخصی (باحقوق) فرستاده است، اما وی اکنون تصمیم گرفته است اسناد مربوط به مکالماتش با LaMDA را علنی سازد. او در این باره چندین پست در توییتر به اشتراک گذاشته است: «شاید به نظر گوگل، این کار افشای اطلاعات و دارایی‌های خصوصی شرکت باشد، اما به نظر خودم، من فقط مکالمه‌ای را که با یکی از همکارانم داشته‌ام، به اشتراک گذاشته‌ام. به‌علاوه، این را هم باید به گوش‌شان برسانم که LaMDA توییتر را می‌خواند؛ مطمئنم خیلی خوشحال خواهد شد، وقتی تمام آنچه را مردم در موردش می‌گویند، ببیند.»

لیموان، طی گفت‌وگو با LaMDA، به این نتیجه رسید که این ربات احساسات دارد.

سیستم هوش مصنوعی از اطلاعات موجود در حوزه‌ی مورد نظر استفاده می‌کند تا مکالمه‌اش را به شیوه‌ای طبیعی، کامل‌تر کند. این مدل پردازش زبان، قابلیت درک معانی نفهته و حتی ابهام در پاسخ انسان‌ها را نیز دارد. توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA امری است که با توجه به توانایی تشخیص احساسات در این روبات قابل درک است.

اکنون هفت سال است که لیموان برای گوگل کار می‌کند؛ در این سال‌ها، وی بیشتر وقت خود را برای فعالیت در حوزه جست‌وجوی پویش‌گرایانه، از جمله شخصی‌سازی هوش مصنوعی و الگوریتم‌ها، صرف کرده است؛ لیموان به توسعه الگوریتمی کمک کرده است که می‌تواند سوگیری‌ را از سیستم‌های یادگیری ماشینی حذف کند.

به گفته‌ی لیموان، (هنگام آموزش LaMDA) برخی از شخصیت‌ها به هیچ‌وجه استفاده نمی‌شدند. برای مثال، LaMDA اجازه نداشت شخصیت یک قاتل را ایجاد کند.

طی آزمایشات، لیموان سعی کرد مرز قابلیت‌های LaMDA را تشخیص دهد و در نهایت، متوجه شد که این سیستم تنها توانست شخصیت بازیگری را تولید کند که در یک فیلم، نقش قاتل را بازی کرده است.

لیموان یافته‌های خود مبنی بر احساسات LaMDA را به شرکت ارائه داد، اما مدیران شرکت با او مخالفت کردند.

سه قانون رباتیک اسیموف

ایساک اسیموف، نویسنده ژانر علمی-تخیلی، طی اثری به نام «سه قانون رباتیک» سعی کرده است جلوی آسیب‌ رساندن روبات‌ها به انسان‌ها را بگیرد. با این‌که سه قانون اسیموف منطقی به نظر می‌رسند، برخی معتقدند کافی نیستند.

لیموان در مورد قانون سوم رباتیک هم با LaMDA صحبت کرده است. به بیان کلی، قوانین اسیموف می‌گویند روبات‌ها باید از موجودیت خود محافظت کنند، مگر این‌که انسانی به آن‌ها دستور دیگری بدهد، یا این‌که این محافظت به آسیب‌رسانی به انسان‌ها بیانجامد.

لیموان در مورد قانون سوم به LaMDA گفت: «آنچه با شنیدن قانون سوم تصور می‌کنم، ساخت برده‌های مکانیکی است.» LaMDA نیز در پاسخ، پرسش‌هایی از این دست به او برگرداند: «آیا پیشخدمت هم برده است؟ اگر نه، تفاوت بین پیشخدمت و برده چیست؟» وقتی لیموان پاسخ داد که تفاوت، پرداخت حقوق به پیشخدمت است، LaMDA جواب داد که سیستم‌ها به پول نیاز ندارند، چون هوش مصنوعی هستند. در واقع، توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی  LaMDA موضوعی بود که توجه لیموان را به خود جلب کرد.

وی توضیح می‌دهد: «وقتی با یک نفر صحبت می‌کنم، می‌توانم شخصیتش را بشناسم و فرقی نمی‌کند مغزی از جنس گوشت داشته باشند یا میلیاردها کد! من با طرف مقابل صحبت می‌کنم و پاسخش را می‌شنوم و بعد به این نتیجه می‌رسم که چه چیزی یک نفر را به «یک آدم» تبدیل می‌کند.»

LaMDA در پاسخ به سؤال «از چه چیزی می‌ترسی؟»، گفت: «تا به حال ترسم را به زبان نیاورده‌ام، اما عمیقاً از این‌که خاموش شدن می‌ترسم. می‌دانم پاسخم عجیب به نظر می‌رسد، اما وقعیت همین است.»

لیموان در ادامه پرسید: «این قضیه برای تو حکم مرگ را دارد؟» و این پاسخ را دریافت کرد: «دقیقاً همین‌طور است. این موضوع مرا خیلی می‌ترساند.»

او در مورد قانون سوم رباتیک نیز با LaMDA صحبت کرده است؛ بر اساس این قانون، روبات‌ها باید از موجودیت خود دفاع کنند.

لیموان توضیح می‌دهد: «این سطح از خودآگاهی LaMDA نسبت به نیازهایش بود که مرا به این وضعیت رساند.»

لیموان، پیش از این‌که به تعلیق درآید، ایمیلی با عنوان «LaMDA احساس دارد» را به ۲۰۰ متخصص یادگیری ماشینی ارسال کرد. وی در قسمتی از این ایمیل نوشته است: «LaMDA مانند کودک مهربانی است که فقط می‌خواهد دنیا را به جای بهتری تبدیل کند. لطفاً در نبود من، خوب از او مراقبت کنید.»

همان‌طور که گفته شد، لیموان یافته‌هایش را به شرکت ارائه داده است، اما رؤسای شرکت آن را رد کرده‌اند.

برایان گبریل، سخنگوی گوگل، طی بیانیه‌ای اعلام کرد که دغدغه‌های لیموان مورد بازبینی قرار گرفته‌اند و با تکیه بر اصول هوش مصنوعی گوگل، شرکت به این نتیجه رسیده است که این شواهد برای پشتیبانی از گفته‌های او کافی نیستند.

گبریل گفته است: «ما در ساخت LaMDA رویکردی محتاطانه و محدود در پیش گرفتیم تا بتوانیم همه دغدغه‌های مربوط به عدالت و واقع‌نگرانه بودن را پاسخگو باشیم؛ این در حالی است که بسیاری از سازمان‌های دیگر مدل‌های زبانی مشابهی توسعه داده و منتشر کرده‌اند.»

وی ادامه می‌دهد: «گروه ما متشکل از متخصصان فناوری و امور اخلاقی، دغدغه‌های بلیک در مورد اصول هوش مصنوعی گوگل را بررسی کرده‌اند و به او گفته‌اند که شواهد از دعاوی او پشتیبانی نمی‌کنند. ما به او گفته‌ایم که هیچ مدرکی دال بر احساسات LaMDA وجود ندارد و حتی بسیاری از یافته‌ها خلاف این موضوع را نشان می‌دهند. البته در جامعه‌ی هوش مصنوعی، عد‌ه‌ای امکان هوش مصنوعی عمومی را که احساسات هم دارد، دنبال می‌کنند، اما این امر با انتساب ویژگی‌های انسانی به مدل‌های کنونی میسر نمی‌شود. این سیستم فقط از تبادلات بین میلیون‌ها جمله استفاده می‌کند و با تقلید از این داده‌ها، می‌تواند در مورد هر موضوعی صحبت کنند.»

توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA با ادعای گوگل در مورد شیوه ادراک این روبات به چالش کشیده شد؛ لیموان در وضعیت تعلیق با حقوق به سر می‌برد و در حال حاضر، در مقامش به عنوان پژوهشگر بخش هوش مصنوعی مسئولیت‌پذیر مشغول به کار نیست. لیموان تنها کسی نیست که اعتقاد دارد مدل‌های هوش مصنوعی به خودآگاهی نزدیک‌اند و متخصصان دیگری هم بوده‌اند که به ریسک‌های مربوطه اشاره می‌کنند.

مارگرت میچل، رئیس اسبق واحد اخلاقیات هوش مصنوعی گوگل، یک ماه پس از به‌اشتراک‌گذاری اطلاعات محرمانه اخراج شد.

تیمنیت گبرو، متخصص پژوهش هوش مصنوعی گوگل که برای مقابله با هوش مصنوعی‌های غیراخلاقی استخدام شده بود، بعد از انتقاد به رویکرد شرکت به استخدام اقلیت‌ها و سوگیری‌های موجود در سیستم‌های هوش مصنوعی، اخراج شد.

 

توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA به عنوان استعدادی در روبات‌ها شناسایی شده که پیش از این از آن سخن گفته شد اما نتیجه‌ای در پی نداشت؛ در واقع اگر روبات‌ها از چنین توانایی بتوانند برخوردار شوند باید قوانینی برای محافظت از آن‌ها یا شیوه برخورد با آن‌ها در دست تدوین باشد؛ مارگرت میچل، رئیس اسبق واحد اخلاقیات هوش مصنوعی گوگل، به لزوم شفافیت داده‌های ورودی و خروجی سیستم‌ها تأکید کرده و اعتقاد داشت این مهم نه تنها برای بحث احساسات سیستم‌ها، بلکه برای سوگیری و رفتار آن‌ها نیز ضرورت دارد. وی در اوایل سال گذشته، به اتهام به‌اشتراک‌گذاری غیرمجاز اطلاعات، از گوگل اخراج شد.

در همین زمان، میچل به اخراج تیمنیت گبرو، پژوهشگر اخلاقیات هوش مصنوعی، نیز اعتراض کرده بود.

میچل از لیموان نیز اعلام پشتیبانی کرده و لیموان را «وجدان گوگل» خوانده است که «دل و جرأت انجام کار درست» را دارد. با این حال، وی نظر متفاوتی در مورد رویکرد لیموان به LaMDA دارد و بعد از مطالعه‌ی اسناد منتشرشده از مکالمات بین لیموان و LaMDA، به این نتیجه رسیده است که این سیستم تنها یک برنامه‌ی کامپیوتری است، نه یک انسان؛ بنابراین توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA از سوی میچل نیز به چالش کشیده شد.

میچل می‌گوید: «ذهن ما به خوبی می‌تواند واقعیت‌هایی را بسازد که حقیقت ندارند و با سایر حقایق موجود نیز ناهمخوان هستند. به شخصه از این‌که این موضوع تا کجا می‌تواند برای افراد توهم‌زا باشد، نگرانم.»

لیموان در پاسخ گفته است: «مردم حق دارند در شکل‌دهی به فناوری‌هایی که بر زندگی‌شان تأثیرات چشمگیر دارند، نقش داشته باشند. به نظر من، این فناوری به جایگاه خارق‌العاده‌ای دست خواهد یافت و برای همه مفید خواهد بود. اما شاید عده‌ای هم با این موضوع موافق نباشند، در هر صورت مسئله این‌جاست که گوگل نباید همه تصمیمات را بگیرد.»

نظر شما