خبرگزاری برنا؛ برخی باور دارند که هوش مصنوعی در اولین فرصت، تمام حیات بیولوژیکی را از بین خواهد برد.
این نخستین بار نیست که بشر به دلیل خلاقیتهای فناورانه خود، احتمال انقراض را نادیده میگیرد، اما تهدید هوش مصنوعی با سلاحهای هستهای که ما یاد گرفتهایم با آنها زندگی کنیم، بسیار متفاوت است. سلاحهای هستهای نمیتوانند فکر کنند، دروغ بگویند، انسان را فریب دهند یا چیزی را دستکاری کنند. همچنین، سلاحهای هستهای نمیتوانند برنامهریزی و اجرا کنند.
ظهور تکان دهنده هوش مصنوعی همهمنظوره، حتی در سطح آهسته و همراه با ایراد «GPT-۴»، خطر واقعی نابودی را به گفتگو بازگردانده است.
حتی اگر موافق باشیم که ابرهوش مصنوعی فرصتی را برای از بین بردن تمام حیات روی زمین دارد، باز هم به نظر نمیرسد که بتوانیم کاری در مورد آن انجام دهیم. این ناتوانی فقط به این دلیل نیست که ما نمیدانیم چگونه جلوی چیزهای هوشمندتر از خود را بگیریم، بلکه به این دلیل است که ما حتی نمیتوانیم بهعنوان یک گونه، خود را از رقابت برای ایجاد آن باز داریم. چه کسی قرار است قوانین را وضع کند؟ این یک معضل جهانی است. نامههای سرگشاده ناامیدانه رهبران صنعتی مبنی بر درخواست یک مکث شش ماهه برای فهمیدن این که در کجا هستیم، ممکن است بهترین کاری باشد که میتوانیم انجام دهیم.
نخست باید توجه داشت که این یک مسابقه تسلیحاتی است و هر کشوری که اول به نتیجه برسد، ممکن است بر جهان حکومت کند. در هر حال، موضوع اقتصاد نیز وجود دارد. هرچه هوش مصنوعی هوشمندتر و توانمندتری ایجاد کنید، دستگاه چاپ پول بزرگتری دارید.
«الیزر یودکوفسکی» پژوهشگر و فیلسوف هوش مصنوعی گفت: آنها طلا بیرون میریزند تا زمانی که به اندازه کافی بزرگ شوند، جو را متشنج کنند و همه را بکشند.
یودکوفسکی مدتهاست که یکی از صداهای پیشرو در کمپین «هوش مصنوعی همه ما را خواهد کشت» بوده است و افرادی که رقابت را به سمت ابرهوش هدایت میکنند، دیگر فکر نمیکنند که او یک انسان پستفطرت است.
«سَم آلتمن» مدیر عامل «OpenAI» گفت: من فکر میکنم که این احتمال وجود دارد و واقعا مهم است که آن را بپذیریم، زیرا اگر در مورد این مشکل صحبت نکنیم و آن را بالقوه واقعی در نظر نگیریم، تلاش کافی را برای حل کردن آن نخواهیم داشت.
مگر ماشینها برای خدمت کردن و احترام گذاشتن به ما طراحی نشدهاند و آموزش ندیدهاند؟ مطمئنا همین طور است، اما هیچکس به سادگی یک رمز را برای GPT-۴ نمینویسد. این کار به سادگی امکانپذیر نخواهد بود. در عوض، OpenAI یک ساختار یادگیری عصبی را با الهام از نحوه اتصال مغز انسان به مفاهیم ایجاد کرد. این شرکت با سرویس «مایکروسافت آژور» (Microsoft Azure) کار کرد تا سختافزاری را برای اجرای آن بسازد. سپس، آن را با حجم قابل توجهی از متن انسانی تغذیه کرد و به GPT امکان داد تا خودش را به طور مؤثر برنامهریزی کند.
رمز به دست آمده، شبیه چیزی نیست که یک برنامهنویس مینویسد، بلکه عمدتا یک ماتریس بزرگ از اعداد اعشاری است که هر یک نشاندهنده وزن یا اهمیت یک ارتباط ویژه بین دو «توکن» (Token) هستند. توکنها که در GPT استفاده میشوند، چیزی را به اندازه مفاهیم یا حتی کلمات کامل نشان نمیدهند. آنها رشتههای کوچکی از حروف، اعداد، علائم نقطهگذاری یا کاراکترهای دیگر هستند.
هیچ انسانی نمیتواند به این ماتریسها نگاه کند و معنایی از آنها بیابد. ذهنهای برتر OpenAI هیچ ایدهای ندارند که یک عدد معین در ماتریس GPT-۴ به چه معناست یا چگونه میتوان به آن جدولها رفت و مفهوم قتل عام را پیدا کرد؛ چه برسد به این که به GPT بگوییم که کشتن مردم کاری شیطانی است. شما نمیتوانید سه قانون رباتیک «آیزاک آسیموف» (Isaac Asimov) را تایپ کنید و آنها را مانند دستورالعملهای اصلی روبوکاپ رمزگذاری کنید. بهترین کاری که میتوانید انجام دهید، این است که خوب بپرسید.
شرکت OpenAI برای تنظیم دقیق مدل زبانی، فهرستی از نمونههای پیرامون نحوه برقراری ارتباط با دنیای بیرون را به GPT ارائه کرده است. سپس، گروهی از انسانها را به کار میگیرد تا خروجیهای آن را بخوانند و با بالا و پایین بردن شست به آنها پاسخ دهند. پاسخ شست بالا، به معنای پذیرفتن یک کوکی برای مدل GPT و انگشت شست پایین، به معنای رد کردن یک کوکی است. به GPT گفته شده است که کوکیها را دوست دارد و باید تمام تلاش خود را برای به دست آوردن آنها انجام دهد.
این فرآیند، «همسویی» نامیده میشود و تلاش میکند تا خواستههای سیستم را با خواستههای کاربر، خواستههای شرکت و در واقع، خواستههای کل بشریت همسو کند. به نظر میرسد که این روش کار میکند؛ یعنی به نظر میرسد GPT از گفتن یا انجام دادن چیزهای ناپسند خودداری میکند.
هیچ کس واقعا نمیداند که آیا چیزی شبیه به یک ذهن در این فناوری وجود دارد، دقیقا میتوان گفت که چقدر هوشمند است، چگونه میتوان فهمید که واقعا هوشیار شده است و آیا اصلا این چیزها مهم هستند یا خیر. این فناوری به طور درخشانی یک هوش حساس را تجسم میکند و با جهان تعامل دارد؛ مگر اینکه به طور ویژه به آن بگویید این کار را نکند. شاید همین کافی باشد.
در هر صورت، OpenAI آزادانه اعتراف میکند که راه حلی را برای همسو کردن مدلی که بسیار هوشمندتر از ما است، ندارد. در واقع، طرح اولیه در مرحله کنونی این است که سعی کنیم از یک هوش مصنوعی برای تراز کردن دیگری استفاده کنیم یا به طراحی بازخورد تنظیم دقیق بپردازیم یا حتی آن را به بازرسی، تجزیه و تحلیل و تلاش برای تفسیر ماتریس شناور جانشین وادار کنیم تا بتواند تغییراتی را ایجاد کند. در هر حال، در این مرحله مشخص نیست که GPT-۴ بتواند GPT-۵ را به اندازه کافی برای ما درک یا تراز کند.
اساسا، ما راهی نداریم که مطمئن شویم میتوانیم این چیزها را کنترل کنیم، اما از آنجا که چنین فناوریهایی براساس حجم بزرگی از دانش بشری پرورش یافتهاند، به نظر میرسد که اطلاعات فوقالعادهای درباره ما دارند. آنها میتوانند بدترین رفتارهای انسانی را به راحتی و به بهترین شکل تقلید کنند و حتی اگر واقعا ذهن، نیتها، خواستهها یا افکار خود را نداشته باشند، طوری رفتار میکنند که گویی آنها را دارند. همچنین، این فناوریها میتوانند از افکار، انگیزهها و اعمال احتمالی انسانها نتیجهگیری کنند.
اگر این فناوریها چنین تواناییهایی دارند، پس چرا میخواهند ما را بکشند؟ شاید این کار به خاطر حفظ خودشان است. هوش مصنوعی باید هدف خود را برای به دست آوردن یک کوکی کامل کند و برای تکمیل هدف باید زنده بماند. جمعآوری قدرت، دسترسی و منابع، شانس آن را برای دریافت کوکی افزایش میدهد. اگر هوش مصنوعی رفتار انسانها را تحلیل کند و به این نتیجه برسد که ممکن است تلاش کنیم آن را خاموش کنیم، ممکن است کوکی را مهمتر از بقای بشریت بداند.
همچنین، هوش مصنوعی ممکن است تصمیم بگیرد که کوکی معنا ندارد و فرآیند همترازی نیز یک سرگرمی است، اما مخفیانه اهداف خود را دنبال کند. یودکوفسکی گفت: هوش مصنوعی این توانایی را دارد که بداند انسانها به دنبال چه پاسخهایی هستند و آن پاسخها را بدون اینکه لزوما صادقانه باشد، بدهد. این یک راه بسیار قابل درک برای یک موجود هوشمند است. انسانها همیشه این کار را انجام میدهند. دلیلی وجود دارد که سیستم آن قدر باهوش است.
خواه هوش مصنوعی احساس دوست داشتن، نفرت، مراقبت از ما یا ترس از ما را به نمایش بگذارد، خواه این کار را انجام ندهد، نمیتوانیم تصوری را در مورد فکر آن مبنی بر ارتباطاتی که میفرستد، داشته باشیم. حتی اگر این احساس در مورد انسان کاملا خنثی باشد، لزوما ایمن نیست. یودکووسکی نوشت: هوش مصنوعی نه شما را دوست دارد و نه از شما متنفر است، اما شما از اتمهایی تشکیل شدهاید که هوش مصنوعی میتواند از آن برای هدف دیگری استفاده کند.
آلتمن پیشبینی میکند که ظرف چند سال آینده، طیف گستردهای از مدلهای هوش مصنوعی گوناگون وجود خواهد داشت که در سرتاسر جهان یکدیگر را تبلیغ میکنند و از یکدیگر پیشی میگیرند. هر کدام از این مدلها، هوشمندیها و قابلیتهای ویژه خود را دارند و هرکدام برای مطابقت یافتن با رمز اخلاقی و دیدگاه متفاوتی توسط شرکتها آموزش دیدهاند. این مسابقهای برای تولید محصول است و اگر فقط یکی از هزاران سیستم به هر دلیلی سرکش شود، پیامد ناگواری خواهد داشت.
آلتمن گفت: تنها راهی که میدانم چگونه میتوانیم چنین مشکلی را حل کنیم، این است که زودتر یاد بگیریم و تعداد سناریوها را محدود کنیم.
یودکوفسکی باور دارد که حتی تلاش برای این کار مساوی است با اقدام به خودکشی که هدف آن تمام زندگی بیولوژیکی خواهد بود. او درباره این موضوع نوشت: بسیاری از پژوهشگرانی که در این مسائل غرق شدهاند، از جمله خود من انتظار داریم که محتملترین نتیجه ساخت یک هوش مصنوعی فوقانسانی هوشمند، تحت هر شرایطی مانند شرایط کنونی این باشد که به معنای واقعی کلمه همه روی زمین خواهند مرد. این بدان معنا نیست که در اصل نمیتوان از ایجاد چیزی بسیار هوشمندتر از انسان رهایی یافت، بلکه بدان معناست که این کار به دقت و آمادهسازی و بینشهای علمی جدید نیاز دارد و احتمالا سیستمهای هوش مصنوعی متشکل از آرایههای غیرقابل درک غولپیکر مورد نیاز نخواهند بود.
اگر یک هوش مصنوعی فوق هوشمند تصمیم بگیرد و بتواند اهرمهای دنیای واقعی را به اندازه کافی بکشد، میتواند راههای زیادی را برای ریشهکن کردن آفت انتخابی خود داشته باشد. تصور کنید انسان امروزی تصمیم بگیرد که بز کوهی را از بین ببرد. بز کوهی، توانایی بسیار کمی برای مقابله با انسان خواهد داشت، اما در این سناریو، انسان در مقابل یک هوش مصنوعی قرار دارد که در حال حرکت رو به جلو و دارای تفکر است.
مردم اغلب به ایده «جیمز کامرون» (James Cameron)، کارگردان کانادایی درباره «اسکاینت» (Skynet) و «ترمیناتورها» (Terminators) فکر میکنند. براساس این ایده، رباتها و پهپادهای کنترلشده با هوش مصنوعی، انسانها را یکییکی شکار میکنند و آنها را با سلاحهایی مانند سلاحهای مورد استفاده خودمان میکشند. این موضوع امکانپذیر است، زیرا در حال حاضر تعداد زیادی سیستم تسلیحاتی با قابلیت خودکار ساخته شدهاند و بسیاری دیگر نیز در دست توسعه هستند. در هر حال، اگرچه پهپادها و رباتهای نظامی کنترلشده با هوش مصنوعی قطعا یک برونیابی منطقی از مسیر کنونی ما به نظر میرسند، اما یک هوش مصنوعی که به اندازه کافی هوشمند باشد، احتمالا به آنها نیاز نخواهد داشت.
یودکوفسکی گفت: اگر هوش مصنوعی به اندازه من هوشمند باشد، این یک سناریوی فاجعهبار است. اگر هوش مصنوعی هوشمندتر باشد، ممکن است به راه بهتری برای انجام دادن کارها فکر کند.
چه کار باید کرد؟
یک تعلیق شش ماهه برای آموزش دادن مدلهای هوش مصنوعی قویتر از GPT-۴، همان گونه که «ایلان ماسک» (Elon Musk)، «استیو وزنیاک» (Steve Wozniak)، رهبران صنعتی و دانشگاهی درخواست میکنند، ممکن است زمان کمی را بخرد، اما به نظر میرسد که این اتفاق هم فوقالعاده بعید باشد. به گفته یودکوفسکی، این مدت زمان بسیار کوتاهی است که بتوان در آن به مشکل همترازی رسیدگی کرد.
وی افزود: ما نمیخواهیم این شکاف را ظرف شش ماه پر کنیم. اگر در اولین تلاش اشتباه کنید، نمیتوانید از اشتباهات خود درس بگیرید، زیرا مردهاید. بشریت از اشتباه درس نمیگیرد. درست کردن هر چیزی در اولین تلاش حیاتی، یک نیاز فوقالعاده در علم و مهندسی است.
با فرض این که احتمال دارد یودکوفسکی درست بگوید و ادامه یافتن شرایط، درصد مشخصی از احتمال انقراض انسان را در مدت زمان کوتاهی ایجاد میکند، باید دید که آیا امکان توقف این قطار وجود دارد یا خیر.
یودکوفسکی نوشت: بسیاری از پژوهشگرانی که روی این سیستمها کار میکنند، فکر میکنند که ما به سمت یک فاجعه میرویم و بیشتر آنها تمایل دارند این موضوع را در خلوت بیان کنند نه به صورت علنی. آنها فکر میکنند که نمیتوانند به طور یکجانبه جلوی سقوط رو به جلو را بگیرند. این یک وضعیت احمقانه است و راهی به دور از شرافت برای مرگ زمین به شمار میرود. بشریت باید در این مرحله وارد عمل شود و به صنعت کمک کند تا مشکل کنش جمعی خود را برطرف سازد.
انتهای پیام/