سایر زبان ها

صفحه نخست

فیلم

عکس

ورزشی

اجتماعی

باشگاه جوانی

سیاسی

فرهنگ و هنر

اقتصادی

هوش مصنوعی، علم و فناوری

بین الملل

استان ها

رسانه ها

بازار

صفحات داخلی

برنده نوبل فیزیک هشدار داد:

هوش مصنوعی توهم دانایی ایجاد می‌کند!

۱۴۰۴/۱۰/۰۸ - ۰۸:۲۰:۳۵
کد خبر: ۲۲۹۶۴۵۰
برنا - گروه علمی و فناوری: فیزیکدان برنده جایزه نوبل می‌گوید بزرگ‌ترین خطر هوش مصنوعی نه فنی بلکه روان‌شناختی است؛ جایی که این فناوری با پاسخ‌های قاطع، حس دانستن کاذب ایجاد می‌کند و می‌تواند تفکر انتقادی انسان را تضعیف کند.

یک فیزیکدان برنده جایزه نوبل نسبت به خطری کمتر دیده‌شده اما جدی در استفاده از هوش مصنوعی هشدار داده و می‌گوید این فناوری می‌تواند توهم دانایی ایجاد کند؛ احساسی که فرد تصور می‌کند موضوعی را فهمیده در حالی که در واقع چنین نیست.

به گزارش برنا، "سال پرلموتر" فیزیکدان آمریکایی و برنده جایزه نوبل فیزیک که به‌دلیل کشف شتاب‌دار بودن انبساط جهان شناخته می‌شود معتقد است بزرگ‌ترین تهدید هوش مصنوعی نه فنی بلکه روان‌شناختی است.

به گفته او هوش مصنوعی با ارائه پاسخ‌های روان و قاطع ممکن است قضاوت افراد را تضعیف کند؛ آن هم درست در زمانی که این فناوری بیش از پیش در کار، آموزش و زندگی روزمره نفوذ می‌کند.

پرلموتر در گفت‌وگویی در یک پادکست با نیکولای تانگن، مدیرعامل صندوق سرمایه‌گذاری بانک مرکزی نروژ توضیح می‌دهد: نکته فریبنده هوش مصنوعی این است که این احساس را ایجاد می‌کند که شما اصول اولیه را یاد گرفته‌اید در حالی که واقعاً چنین نیست.

 او هشدار می‌دهد که دانشجویان ممکن است خیلی زود و پیش از آن‌که توانایی انجام کار فکری مستقل را به دست آورند به این ابزار تکیه کنند.

هوش مصنوعی؛ ابزار کمکی نه جایگزین تفکر

پرلموتر تاکید می‌کند که راه‌حل کنار گذاشتن هوش مصنوعی نیست بلکه باید آن را به‌عنوان ابزاری برای پشتیبانی از تفکر انتقادی به کار گرفت نه جایگزین آن. 

به گفته او هوش مصنوعی زمانی مفید است که کاربر از پیش مهارت‌های تفکر انتقادی را داشته باشد.

او می‌گوید: وقتی با روش‌ها و ابزار‌های مختلف فکر کردن درباره یک مسئله آشنا باشید هوش مصنوعی می‌تواند به پیدا کردن اطلاعات موردنیاز کمک کند.

مشکل اعتماد بیش از حد

یکی از نگرانی‌های اصلی پرلموتر لحن بیش‌ازحد مطمئن هوش مصنوعی است. به گفته او این فناوری اغلب با قطعیتی صحبت می‌کند که لزوما شایسته آن نیست و همین موضوع می‌تواند حس تردید و شک‌گرایی را در مخاطب تضعیف کند.

او این وضعیت را مشابه یکی از خطرناک‌ترین سوگیری‌های شناختی انسان می‌داند: تمایل به اعتماد به اطلاعاتی که ظاهری معتبر دارند یا باور‌های قبلی ما را تایید می‌کنند. پرلموتر توصیه می‌کند خروجی‌های هوش مصنوعی نیز مانند هر ادعای انسانی دیگر ارزیابی شوند؛ با سنجش اعتبار، میزان عدم‌قطعیت و احتمال خطا، نه پذیرش بی‌چون‌وچرا.

یادگیری تشخیص فریب

به گفته این فیزیکدان در علم همواره فرض بر این است که پژوهشگران ممکن است دچار خطا شوند به همین دلیل سازوکار‌هایی برای کشف اشتباهات طراحی می‌شود. برای مثال دانشمندان گاهی نتایج را از خود پنهان می‌کنند تا پس از بررسی‌های کامل از تاثیر سوگیری تاییدی بکاهند. پرلموتر معتقد است همین رویکرد باید در مواجهه با هوش مصنوعی نیز به کار گرفته شود.

او می‌گوید: ما ممکن است خودمان را فریب دهیم، هوش مصنوعی هم ممکن است دچار خطا شود و در نهایت ما را گمراه کند.

 از نظر او سواد هوش مصنوعی یعنی بدانیم چه زمانی نباید به خروجی آن اعتماد کنیم و با عدم‌قطعیت کنار بیاییم، نه اینکه پاسخ‌ها را حقیقت مطلق بدانیم.

پرلموتر در عین حال تاکید می‌کند که این چالش راه‌حل دائمی ندارد زیرا خود هوش مصنوعی دائما در حال تغییر است. به گفته او جامعه باید همواره از خود بپرسد: آیا هوش مصنوعی به ما کمک می‌کند یا بیشتر ما را فریب می‌دهد؟

انتهای پیام/

نظر شما