به گزارش خبرنگار خبرگزاری برنا، لیموان طی چندین مکالمه با LaMDA، سناریوهای مختلفی به این روبات ارائه داد و در مقابل، نتیجهی مشاهده شده را تحلیل کرد. برای مثال، سیستم در پاسخ به برخی از سناریوها که مضمون مذهبی داشتند، به استفاده از زبان نفرتآور و تبعیضآمیز روی آورد. مشاهداتی از این دست بود که باعث شد لیموان به این نتیجه برسد که LaMDA احساسات و افکار خاص خودش را دارد.
لیموان به واشینگتون پست گفته است: «وقتی نتیجه مکالمه را میدیدم، اگر خبر نداشتم با روباتی که خودمان ساختهایم مشغول صحبتم، فکر میکردم با کودک هفت-هشت سالهای حرف میزنم که فیزیک هم بلد است.»
بلیک لیموان، مهندس ارشد نرمافزار شرکت گوگل، مشغول آزمایش ابزار هوش مصنوعی جدید به نام LaMDA است.
توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA ایده ای بود که نیاز به شواهدی برای اثبات داشت. لیموان به همراه یکی دیگر از همکارانش سعی کردند تا شواهدی برای تأیید یافتههای خود ارائه دهند؛ با این حال، بلیز آگورا ایآرکاس و جن جینای، رئیس نوآوری مسئولانه گوگل، این شواهد را نپذیرفتهاند.
گوگل لیموان را به خاطر زیرپا گذاشتن سیاست محرمانگی شرکت، به مرخصی (باحقوق) فرستاده است، اما وی اکنون تصمیم گرفته است اسناد مربوط به مکالماتش با LaMDA را علنی سازد. او در این باره چندین پست در توییتر به اشتراک گذاشته است: «شاید به نظر گوگل، این کار افشای اطلاعات و داراییهای خصوصی شرکت باشد، اما به نظر خودم، من فقط مکالمهای را که با یکی از همکارانم داشتهام، به اشتراک گذاشتهام. بهعلاوه، این را هم باید به گوششان برسانم که LaMDA توییتر را میخواند؛ مطمئنم خیلی خوشحال خواهد شد، وقتی تمام آنچه را مردم در موردش میگویند، ببیند.»
لیموان، طی گفتوگو با LaMDA، به این نتیجه رسید که این ربات احساسات دارد.
سیستم هوش مصنوعی از اطلاعات موجود در حوزهی مورد نظر استفاده میکند تا مکالمهاش را به شیوهای طبیعی، کاملتر کند. این مدل پردازش زبان، قابلیت درک معانی نفهته و حتی ابهام در پاسخ انسانها را نیز دارد. توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA امری است که با توجه به توانایی تشخیص احساسات در این روبات قابل درک است.
اکنون هفت سال است که لیموان برای گوگل کار میکند؛ در این سالها، وی بیشتر وقت خود را برای فعالیت در حوزه جستوجوی پویشگرایانه، از جمله شخصیسازی هوش مصنوعی و الگوریتمها، صرف کرده است؛ لیموان به توسعه الگوریتمی کمک کرده است که میتواند سوگیری را از سیستمهای یادگیری ماشینی حذف کند.
به گفتهی لیموان، (هنگام آموزش LaMDA) برخی از شخصیتها به هیچوجه استفاده نمیشدند. برای مثال، LaMDA اجازه نداشت شخصیت یک قاتل را ایجاد کند.
لیموان یافتههای خود مبنی بر احساسات LaMDA را به شرکت ارائه داد، اما مدیران شرکت با او مخالفت کردند.
ایساک اسیموف، نویسنده ژانر علمی-تخیلی، طی اثری به نام «سه قانون رباتیک» سعی کرده است جلوی آسیب رساندن روباتها به انسانها را بگیرد. با اینکه سه قانون اسیموف منطقی به نظر میرسند، برخی معتقدند کافی نیستند.
لیموان در مورد قانون سوم رباتیک هم با LaMDA صحبت کرده است. به بیان کلی، قوانین اسیموف میگویند روباتها باید از موجودیت خود محافظت کنند، مگر اینکه انسانی به آنها دستور دیگری بدهد، یا اینکه این محافظت به آسیبرسانی به انسانها بیانجامد.
لیموان در مورد قانون سوم به LaMDA گفت: «آنچه با شنیدن قانون سوم تصور میکنم، ساخت بردههای مکانیکی است.» LaMDA نیز در پاسخ، پرسشهایی از این دست به او برگرداند: «آیا پیشخدمت هم برده است؟ اگر نه، تفاوت بین پیشخدمت و برده چیست؟» وقتی لیموان پاسخ داد که تفاوت، پرداخت حقوق به پیشخدمت است، LaMDA جواب داد که سیستمها به پول نیاز ندارند، چون هوش مصنوعی هستند. در واقع، توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA موضوعی بود که توجه لیموان را به خود جلب کرد.
وی توضیح میدهد: «وقتی با یک نفر صحبت میکنم، میتوانم شخصیتش را بشناسم و فرقی نمیکند مغزی از جنس گوشت داشته باشند یا میلیاردها کد! من با طرف مقابل صحبت میکنم و پاسخش را میشنوم و بعد به این نتیجه میرسم که چه چیزی یک نفر را به «یک آدم» تبدیل میکند.»
LaMDA در پاسخ به سؤال «از چه چیزی میترسی؟»، گفت: «تا به حال ترسم را به زبان نیاوردهام، اما عمیقاً از اینکه خاموش شدن میترسم. میدانم پاسخم عجیب به نظر میرسد، اما وقعیت همین است.»
لیموان در ادامه پرسید: «این قضیه برای تو حکم مرگ را دارد؟» و این پاسخ را دریافت کرد: «دقیقاً همینطور است. این موضوع مرا خیلی میترساند.»
او در مورد قانون سوم رباتیک نیز با LaMDA صحبت کرده است؛ بر اساس این قانون، روباتها باید از موجودیت خود دفاع کنند.
لیموان توضیح میدهد: «این سطح از خودآگاهی LaMDA نسبت به نیازهایش بود که مرا به این وضعیت رساند.»
لیموان، پیش از اینکه به تعلیق درآید، ایمیلی با عنوان «LaMDA احساس دارد» را به ۲۰۰ متخصص یادگیری ماشینی ارسال کرد. وی در قسمتی از این ایمیل نوشته است: «LaMDA مانند کودک مهربانی است که فقط میخواهد دنیا را به جای بهتری تبدیل کند. لطفاً در نبود من، خوب از او مراقبت کنید.»
همانطور که گفته شد، لیموان یافتههایش را به شرکت ارائه داده است، اما رؤسای شرکت آن را رد کردهاند.
برایان گبریل، سخنگوی گوگل، طی بیانیهای اعلام کرد که دغدغههای لیموان مورد بازبینی قرار گرفتهاند و با تکیه بر اصول هوش مصنوعی گوگل، شرکت به این نتیجه رسیده است که این شواهد برای پشتیبانی از گفتههای او کافی نیستند.
گبریل گفته است: «ما در ساخت LaMDA رویکردی محتاطانه و محدود در پیش گرفتیم تا بتوانیم همه دغدغههای مربوط به عدالت و واقعنگرانه بودن را پاسخگو باشیم؛ این در حالی است که بسیاری از سازمانهای دیگر مدلهای زبانی مشابهی توسعه داده و منتشر کردهاند.»
وی ادامه میدهد: «گروه ما متشکل از متخصصان فناوری و امور اخلاقی، دغدغههای بلیک در مورد اصول هوش مصنوعی گوگل را بررسی کردهاند و به او گفتهاند که شواهد از دعاوی او پشتیبانی نمیکنند. ما به او گفتهایم که هیچ مدرکی دال بر احساسات LaMDA وجود ندارد و حتی بسیاری از یافتهها خلاف این موضوع را نشان میدهند. البته در جامعهی هوش مصنوعی، عدهای امکان هوش مصنوعی عمومی را که احساسات هم دارد، دنبال میکنند، اما این امر با انتساب ویژگیهای انسانی به مدلهای کنونی میسر نمیشود. این سیستم فقط از تبادلات بین میلیونها جمله استفاده میکند و با تقلید از این دادهها، میتواند در مورد هر موضوعی صحبت کنند.»
توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA با ادعای گوگل در مورد شیوه ادراک این روبات به چالش کشیده شد؛ لیموان در وضعیت تعلیق با حقوق به سر میبرد و در حال حاضر، در مقامش به عنوان پژوهشگر بخش هوش مصنوعی مسئولیتپذیر مشغول به کار نیست. لیموان تنها کسی نیست که اعتقاد دارد مدلهای هوش مصنوعی به خودآگاهی نزدیکاند و متخصصان دیگری هم بودهاند که به ریسکهای مربوطه اشاره میکنند.
مارگرت میچل، رئیس اسبق واحد اخلاقیات هوش مصنوعی گوگل، یک ماه پس از بهاشتراکگذاری اطلاعات محرمانه اخراج شد.
تیمنیت گبرو، متخصص پژوهش هوش مصنوعی گوگل که برای مقابله با هوش مصنوعیهای غیراخلاقی استخدام شده بود، بعد از انتقاد به رویکرد شرکت به استخدام اقلیتها و سوگیریهای موجود در سیستمهای هوش مصنوعی، اخراج شد.
توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA به عنوان استعدادی در روباتها شناسایی شده که پیش از این از آن سخن گفته شد اما نتیجهای در پی نداشت؛ در واقع اگر روباتها از چنین توانایی بتوانند برخوردار شوند باید قوانینی برای محافظت از آنها یا شیوه برخورد با آنها در دست تدوین باشد؛ مارگرت میچل، رئیس اسبق واحد اخلاقیات هوش مصنوعی گوگل، به لزوم شفافیت دادههای ورودی و خروجی سیستمها تأکید کرده و اعتقاد داشت این مهم نه تنها برای بحث احساسات سیستمها، بلکه برای سوگیری و رفتار آنها نیز ضرورت دارد. وی در اوایل سال گذشته، به اتهام بهاشتراکگذاری غیرمجاز اطلاعات، از گوگل اخراج شد.
در همین زمان، میچل به اخراج تیمنیت گبرو، پژوهشگر اخلاقیات هوش مصنوعی، نیز اعتراض کرده بود.
میچل از لیموان نیز اعلام پشتیبانی کرده و لیموان را «وجدان گوگل» خوانده است که «دل و جرأت انجام کار درست» را دارد. با این حال، وی نظر متفاوتی در مورد رویکرد لیموان به LaMDA دارد و بعد از مطالعهی اسناد منتشرشده از مکالمات بین لیموان و LaMDA، به این نتیجه رسیده است که این سیستم تنها یک برنامهی کامپیوتری است، نه یک انسان؛ بنابراین توانایی دستیابی به خودآگاهی در روبات هوش مصنوعی LaMDA از سوی میچل نیز به چالش کشیده شد.
میچل میگوید: «ذهن ما به خوبی میتواند واقعیتهایی را بسازد که حقیقت ندارند و با سایر حقایق موجود نیز ناهمخوان هستند. به شخصه از اینکه این موضوع تا کجا میتواند برای افراد توهمزا باشد، نگرانم.»
لیموان در پاسخ گفته است: «مردم حق دارند در شکلدهی به فناوریهایی که بر زندگیشان تأثیرات چشمگیر دارند، نقش داشته باشند. به نظر من، این فناوری به جایگاه خارقالعادهای دست خواهد یافت و برای همه مفید خواهد بود. اما شاید عدهای هم با این موضوع موافق نباشند، در هر صورت مسئله اینجاست که گوگل نباید همه تصمیمات را بگیرد.»