باور عجیب یک فیلسوف آمریکایی در رابطه با ChatGPT

|
۱۴۰۱/۱۲/۲۰
|
۲۰:۱۵:۰۰
| کد خبر: ۱۴۴۷۲۰۲
باور عجیب یک  فیلسوف آمریکایی در رابطه با ChatGPT
متفکر، زبان‌شناس و فیلسوف برجسته آمریکایی باور دارد که چت‌بات‌های هوش مصنوعی در وضعیت فعلی هرگز نمی‌توانند چیزی فراتر از یک اسباب‌بازی باشند.

خبرگزاری برنا- گروه علمی و فناوری؛ اگرچه چت‌بات‌هایی مثل ChatGPT می‌توانند کاربرد‌های مفیدی در زمینه‌های مختلف داشته باشند، اما «نوآم چامسکی»، زبان‌شناس و فیلسوف برجسته، در یادداشتی مدعی شده است که این فناوری هرگز نمی‌تواند گفتگو‌های ناب، فکرشده و بحث‌برانگیز داشته باشد.

 
نوآم چامسکی اخیراً در مقاله‌ای در وب‌سایت نیویورک تایمز پذیرفته است که ChatGPT از شرکت OpenAI، بارد از گوگل و سیدنی از مایکروسافت نمونه‌های شگفت‌انگیزی از فناوری یادگیری ماشینی هستند. بااین‌حال، او باور دارد که فقدان اخلاق و تفکر معقولانه باعث می‌شود هوش مصنوعی مصداقی برای «ابتذال شر» یا بی‌تفاوتی نسبت به واقعیت و حقیقت باشد.
 
چامسکی می‌گوید: با توجه به علم زبان‌شناسی و فلسفه دانش می‌دانیم که این [فناوری]به‌شکلی عمیق با شیوه استدلال و استفاده از زبان توسط انسان‌ها تفاوت دارد. این تفاوت‌ها محدودیت‌های بزرگی را بر دامنه قابلیت‌های این برنامه‌ها اعمال می‌کنند.
 
این متفکر سرشناس آمریکایی باور دارد که به همین دلیل است که هوش مصنوعی در مرحله ماقبل انسانی یا غیرانسانی در فرایند تکامل شناختی گیر کرده: هوش حقیقی با قابلیت تفکر و بروز رفتار‌های غیرمحتمل، اما خردمندانه به نمایش درمی‌آید.
 
توانایی استدلال براساس اطلاعات موجود و رسیدن به نتیجه‌گیری‌های جدید یکی از ویژگی‌های برجسته مغز انسان است. چامسکی می‌گوید مغز ما به‌جای این که صرفاً بتواند روابط میان معانی را شناسایی کند، تکامل پیدا کرده است تا «خلق توضیح» کند. چامسکی ادامه می‌دهد: «اگر ChatGPT می‌خواهد کارآمد باشد، باید برای خلق خروجی‌های بدیع توانمند شود و اگر می‌خواهد توسط اکثر کاربران پذیرفته شود، باید از هر‌گونه محتوای غیراخلاقی مبرا گردد.»
 
نوآم چامسکی می‌گوید ترس از افسارگسیختگی هوش مصنوعی احتمالاً باعث می‌شود که این فناوری هرگز نتواند تصمیم‌گیری عقلانی داشته باشد و درباره گزاره‌های اخلاقی اظهارنظر کند. در‌ نتیجه هوش مصنوعی ممکن است در حد یک اسباب‌بازی باقی بماند.
 
این زبان‌شناس مشهور ادامه می‌دهد: «ChatGPT نشانگر چیزی شبیه به ابتذال شر است؛ این فناوری استدلال‌های استاندارد ادبی را در نوعی ابزار ابرقدرتمندِ تکمیل خودکار خلاصه می‌کند، از موضع‌گیری روی موضوعات مختلف سر باز می‌زند، نه‌تن‌ها بر جهل، بلکه بر عدم هوشمندی اتکا می‌کند و نهایتاً با ادعای تبعیت از فرمان‌ها به دفاع از خود می‌پردازد و مسئولیت رفتارش را به سازندگانش واگذار می‌کند.»
 
چامسکی در آخر می‌گوید: ChatGPT به‌خاطر فقدان ظرفیت استدلال‌کردن به‌خاطر اصول اخلاقی خود، به‌شکلی خام توسط برنامه‌نویسانش محدود شده است تا هیچ مشارکت بدیعی در گفتگو‌های بحث‌برانگیز، اما مهم نداشته باشد. این برنامه خلاقیت را فدای شکلی از بی‌اخلاقی کرده است.

انتهای پیام/

نظر شما