به گزارش خبرنگار علم و فناوری خبرگزاری برنا، سوی جاناتان بیرچ، یک فیلسوف و استاد فلسفه در دانشکده اقتصاد لندن برجسته هشدار داده است که هوشمصنوعی ممکن است باعث ایجاد "شکافهای اجتماعی" بین کسانی شود که معتقدند سیستمهای هوشمصنوعی دارای آگاهی هستند و کسانی که بر این باورند که این فناوری هیچ احساسی ندارد.
هفته گذشته، گروهی از محققان پیشبینی کردند که آغاز آگاهی در سیستمهای هوشمصنوعی تا سال ۲۰۳۵ محتمل است و برخی از آنها گفتهاند که این موضوع ممکن است منجر به ایجاد فرهنگهای فرعی شود که یکدیگر را به اشتباهات بزرگی در مورد این که آیا برنامههای کامپیوتری باید حقوق رفاهی مشابه انسانها یا حیوانات داشته باشند، متهم کنند.
بیرچ گفت که او نگران "شکافهای اجتماعی بزرگ" است، زیرا مردم در مورد این که آیا سیستمهای هوشمصنوعی واقعا قادر به احساساتی مانند درد و شادی هستند یا خیر، اختلاف نظر دارند. وی هشدار داد که این بحث مشابه فیلمهای علمی-تخیلی مانند «هوشمصنوعی» (۲۰۰۱) و «هر» (۲۰۱۳) است، که در آن انسانها با احساسات هوشمصنوعی روبهرو هستند.
بحث درباره احساسات در هوشمصنوعی مشابه اختلافنظرهایی است که در مورد آگاهی حیوانات وجود دارد، به عنوان مثال در هند، جایی که میلیونها نفر گیاهخوار هستند، و در آمریکا، که یکی از بزرگترین مصرفکنندگان گوشت در جهان است. ممکن است نظرات در مورد آگاهی هوشمصنوعی نیز بر اساس فرهنگها و دینها متفاوت باشد.
بیرچ همچنین گفت که شرکتهای فناوری بزرگ تمایل دارند که بیشتر بر جنبههای قابلاعتماد و سودآوری هوشمصنوعی تمرکز کنند و نمیخواهند به بحث درباره آگاهی احتمالی این سیستمها پرداخته شود. این در حالی است که محققان و فلاسفه خواستار بررسی این موضوع هستند که آیا این سیستمها ممکن است قادر به احساس خوشحالی یا رنج باشند.
پاتریک باتلین، پژوهشگر دانشگاه آکسفورد، هشدار داد که اگر سیستمهای هوشمصنوعی به سطحی از آگاهی برسند، ممکن است به شکلی خطرناک برای انسانها مقاومت کنند. او پیشنهاد کرده است که ممکن است لازم باشد توسعه هوشمصنوعی تا زمانی که تحقیقات بیشتری درباره آگاهی انجام شود، کند شود.
در همین حال، برخی از محققان مانند آنیل ست، عصبشناس برجسته، معتقدند که آگاهی هوشمصنوعی هنوز راه زیادی تا رسیدن به آن دارد و ممکن است اصلا امکانپذیر نباشد. اما حتی اگر این امکان بعید باشد، او بر این باور است که نباید به طور کامل آن را رد کرد.
انتهای پیام/