هوش مصنوعی توهم دانایی ایجاد میکند!
یک فیزیکدان برنده جایزه نوبل نسبت به خطری کمتر دیدهشده اما جدی در استفاده از هوش مصنوعی هشدار داده و میگوید این فناوری میتواند توهم دانایی ایجاد کند؛ احساسی که فرد تصور میکند موضوعی را فهمیده در حالی که در واقع چنین نیست.
به گزارش برنا، "سال پرلموتر" فیزیکدان آمریکایی و برنده جایزه نوبل فیزیک که بهدلیل کشف شتابدار بودن انبساط جهان شناخته میشود معتقد است بزرگترین تهدید هوش مصنوعی نه فنی بلکه روانشناختی است.
به گفته او هوش مصنوعی با ارائه پاسخهای روان و قاطع ممکن است قضاوت افراد را تضعیف کند؛ آن هم درست در زمانی که این فناوری بیش از پیش در کار، آموزش و زندگی روزمره نفوذ میکند.
پرلموتر در گفتوگویی در یک پادکست با نیکولای تانگن، مدیرعامل صندوق سرمایهگذاری بانک مرکزی نروژ توضیح میدهد: نکته فریبنده هوش مصنوعی این است که این احساس را ایجاد میکند که شما اصول اولیه را یاد گرفتهاید در حالی که واقعاً چنین نیست.
او هشدار میدهد که دانشجویان ممکن است خیلی زود و پیش از آنکه توانایی انجام کار فکری مستقل را به دست آورند به این ابزار تکیه کنند.
هوش مصنوعی؛ ابزار کمکی نه جایگزین تفکر
پرلموتر تاکید میکند که راهحل کنار گذاشتن هوش مصنوعی نیست بلکه باید آن را بهعنوان ابزاری برای پشتیبانی از تفکر انتقادی به کار گرفت نه جایگزین آن.
به گفته او هوش مصنوعی زمانی مفید است که کاربر از پیش مهارتهای تفکر انتقادی را داشته باشد.
او میگوید: وقتی با روشها و ابزارهای مختلف فکر کردن درباره یک مسئله آشنا باشید هوش مصنوعی میتواند به پیدا کردن اطلاعات موردنیاز کمک کند.
مشکل اعتماد بیش از حد
یکی از نگرانیهای اصلی پرلموتر لحن بیشازحد مطمئن هوش مصنوعی است. به گفته او این فناوری اغلب با قطعیتی صحبت میکند که لزوما شایسته آن نیست و همین موضوع میتواند حس تردید و شکگرایی را در مخاطب تضعیف کند.
او این وضعیت را مشابه یکی از خطرناکترین سوگیریهای شناختی انسان میداند: تمایل به اعتماد به اطلاعاتی که ظاهری معتبر دارند یا باورهای قبلی ما را تایید میکنند. پرلموتر توصیه میکند خروجیهای هوش مصنوعی نیز مانند هر ادعای انسانی دیگر ارزیابی شوند؛ با سنجش اعتبار، میزان عدمقطعیت و احتمال خطا، نه پذیرش بیچونوچرا.
یادگیری تشخیص فریب
به گفته این فیزیکدان در علم همواره فرض بر این است که پژوهشگران ممکن است دچار خطا شوند به همین دلیل سازوکارهایی برای کشف اشتباهات طراحی میشود. برای مثال دانشمندان گاهی نتایج را از خود پنهان میکنند تا پس از بررسیهای کامل از تاثیر سوگیری تاییدی بکاهند. پرلموتر معتقد است همین رویکرد باید در مواجهه با هوش مصنوعی نیز به کار گرفته شود.
او میگوید: ما ممکن است خودمان را فریب دهیم، هوش مصنوعی هم ممکن است دچار خطا شود و در نهایت ما را گمراه کند.
از نظر او سواد هوش مصنوعی یعنی بدانیم چه زمانی نباید به خروجی آن اعتماد کنیم و با عدمقطعیت کنار بیاییم، نه اینکه پاسخها را حقیقت مطلق بدانیم.
پرلموتر در عین حال تاکید میکند که این چالش راهحل دائمی ندارد زیرا خود هوش مصنوعی دائما در حال تغییر است. به گفته او جامعه باید همواره از خود بپرسد: آیا هوش مصنوعی به ما کمک میکند یا بیشتر ما را فریب میدهد؟
انتهای پیام/





