به گزارش برنا؛ مطالعهای جدید که در مجله پزشکی «جاما اینترنال مدیساین» (JAMA Internal Medicine ) منتشر شده، نشان میدهد ابزارهای هوش مصنوعی میتوانند به پزشکان در تهیه پاسخهای نوشتاری باکیفیت و همچنین تعامل همدلانه با بیماران کمک کنند.
این مطالعه، عملکرد «چت جیپیتی» (ChatGPT) را با پاسخهای مکتوبشده پزشکان در انجمن آنلاین «اَسکداکس»( AskDocs) مقایسه کرده است. توضیح اینکه اَسکداکس فضایی است که در آن افراد میتوانند به صورت عمومی پرسشهای پزشکی خود را مطرح کنند و متخصصان مراقبتهای بهداشتیِ تاییدشده نیز به آنها پاسخ میدهند.
دستیارهای هوش مصنوعی برخلاف انسانها احساس همدردی واقعی ندارند و بنابراین، در معرض رنج عاطفی ناشی از همدردی با درد دیگران قرار نمیگیرند. فرسودگی شغلی پزشکان رو به افزایش است و تا حد زیادی به حجم زیاد کارهای اداری نسبت داده میشود.
محققان به طور تصادفی ۱۹۵ پاسخ تاییدشده پزشکان به یک پرسش عمومی در این پلتفرم را نمونهبرداری کرده و سپس همین سوال را از ChatGPT پرسیدهاند. سپس، یک گروه سه نفره از متخصصان مراقبتهای بهداشتی مستقل، بدون اینکه بدانند چه کسی به سوال پاسخ داده، بهترین پاسخ را انتخاب کردهاند. در ادامه کیفیت اطلاعات ارائه شده و همچنین سطح همدلی یا «عملکرد بالینی» مورد ارزیابی قرار گرفته است.
متخصصان مراقبتهای بهداشتی مستقل، در ۷۹درصد موارد پاسخهای ChatGPT را انتخاب کردهاند. پاسخهای ChatGPT در قیاس با پاسخهای پزشکان، ۳.۶ برابر از نظر کیفیت و ۹.۸ برابر از نظر همدلی، امتیاز بالاتری دریافت داشته است.
همچنین، پاسخهای ChatGPT به طور قابل توجهی طولانیتر بوده است. (به طور متوسط ۲۱۱ کلمه)، در حالی که پاسخهای پزشکان بسیار کوتاهتر (به طور متوسط ۵۲ کلمه) به ثبت رسیده است. تیم بالینی که پاسخها را ارزیابی میکرد، دریافته که پاسخهای ChatGPT هم دقیق و هم ظریف است.
روندهای نوظهور حضور هوش مصنوعی در عرصه پزشکی
در اینجا چهار روند نوظهور در ارتباط با آینده تقویت پاسخگویی پزشکان به بیماران با استفاده از هوش مصنوعی آمده است:
۱- تحقیق در مورد ابزارهای هوش مصنوعی که در محیطهای بالینی ادغام شدهاند، مفید خواهد بود.
این مطالعه نشان نمیدهد که هوش مصنوعی میتواند جایگزین پزشکان شود و در یک محیط بالینی انجام نشده است اما پتانسیل دستیارهای هوش مصنوعی مانند ChatGPT را برای کمک به پزشکان در پاسخدهی به بیماران برجسته میکند.
گام بعدی بررسی عملکرد دستیارهای هوش مصنوعی در محیطهای بالینی (به جای یک بستر عمومی رسانههای اجتماعی) خواهد بود، از جمله اینکه چگونه این دستیارها در صورت ادغام یکپارچه با پلتفرمهای امنِ ثبتِ الکترونیکِ پزشکی (جایی که پزشکان به سؤالات خصوصی مستقیم بیماران پاسخ میدهند)، عمل میکنند.
نوع سوالات در یک محیط بالینی خصوصی ممکن است به موارد فردی مختص شده باشد و به شیوهای متفاوت از سؤالات مطرح شده در بسترهای عمومی نوشته شود.
پرسشهای خصوصی بیماران ممکن است این را پیشفرض قرار دهند که پزشک از قبل در مورد شرایط آنها مطلع است یا به مطالبی اشاره کند که پیشتر به صورت حضوری مورد بحث قرار گرفته است. این نوع سوالها ممکن است چالشهای متفاوتی برای ChatGPT ایجاد کند.
مدلهای هوش مصنوعی هنوز در زمینه تعصب، توهم و گاهی اوقات محاسبات اشتباه محدودیتهایی دارند
۲- کمک هوش مصنوعی میتواند از فرسودگی و رنج عاطفی پزشکان و متخصصان مراقبتهای بهداشتی بکاهد.
دستیارهای هوش مصنوعی برخلاف انسانها احساس همدردی واقعی ندارند و بنابراین، در معرض رنج عاطفی ناشی از همدردی با درد دیگران قرار نمیگیرند. فرسودگی شغلی پزشکان رو به افزایش است و تا حد زیادی به حجم زیاد کارهای اداری نسبت داده میشود.
براساس گزارش سال ۲۰۲۳ «فرسودگی شغلی و افسردگی پزشکان» موسسه «مدسکیپ»، ۵۳ درصد از پزشکان دچار فرسودگی شغلی هستند و تقریباً ۲۵درصد از آنها علائم افسردگی را نشان میدهند.
مهمترین عامل موثر در فرسودگی، وظایف اداری و دیوانسالاری بوده است، به طوری که پزشکان گزارش میدهند بیش از ۹ ساعت در هفته صرف امور ثبت و مستندات میکنند. ابزارهای هوش مصنوعی میتوانند با ارائه پیشنویسهایی برای برقراری ارتباط با بیماران، بخشی از این بار کاری را کاهش دهند.
۳- آموزش محدودیتهای هوش مصنوعی از جمله تعصب، برای پزشکان ضروری است.
مدلهای هوش مصنوعی هنوز در زمینه «تعصب، توهم و گاهی اوقات محاسبات اشتباه» محدودیتهایی دارند. بنابراین، نظارت پزشک و متخصصان مراقبتهای بهداشتی همچنان ضروری است، زیرا ارتباطات پزشکی بر سلامت بیماران تاثیر میگذارد. آموزش و آگاهیرسانی به پزشکان در مورد این محدودیتهای هوش مصنوعی باید انجام شود تا از ارسال پیشنویسهای تولیدشده از سوی هوش مصنوعی بدون بررسی توسط پزشک جلوگیری شود.
۴-تاثیر بلندمدت ابزارهای هوش مصنوعی بر قضاوت بالینی، تصمیمگیری و روابط بین فردی پزشکان در حال حاضر ناشناخته است.
اثرات بلندمدت وابستگی به ابزارهای هوش مصنوعی مشخص نیست. عواقب تکیه بیش از حد پزشکان به این ابزارها برای تولید پاسخ به بیماران چیست؟ آیا تعصبی که در دادههای آموزشی هوش مصنوعی وجود دارد، بر رفتار، تصمیمگیری یا روابط بین فردی پزشک تأثیر خواهد گذاشت؟ پاسخ به این پرسشها نامشخص است و کشف اینکه هوش مصنوعی چطور رابطهی پزشک و بیمار را تغییر میدهد، بخشی از این جستوجو خواهد بود.
اگر پزشکان بیش از حد به ابزارهای هوش مصنوعی تکیه کنند، ممکن است مهارتهای بالینی خود و رابطه شخصی با بیماران را از دست بدهند
جمعبندی
هوش مصنوعی ظرفیت زیادی برای بهبود مراقبتهای بهداشتی دارد. ابزارهای هوش مصنوعی میتوانند به پزشکان در تشخیص بیماریها، ارائه درمانهای موثرتر و بهبود ارتباطات با بیماران کمک کنند.
با این حال، استفاده از هوش مصنوعی در مراقبتهای بهداشتی چالشهایی نیز دارد. یکی از این چالشها، محدودیتهای هوش مصنوعی است. مدلهای هوش مصنوعی هنوز در زمینههایی مانند تعصب، توهم و محاسبات اشتباه، محدودیتهایی دارند. این محدودیتها میتوانند منجر به خطاهای تشخیصی یا درمانی شوند.
چالش دیگر، تاثیر بلندمدت هوش مصنوعی بر رابطه پزشک و بیمار است. اگر پزشکان بیش از حد به ابزارهای هوش مصنوعی تکیه کنند، ممکن است مهارتهای بالینی خود و رابطه شخصی با بیماران را از دست بدهند.
برای غلبه بر این چالشها، آموزش و نظارت بر پزشکان در مورد محدودیتهای هوش مصنوعی ضروری است. همچنین، باید تحقیقات بیشتری در مورد تاثیر بلندمدت هوش مصنوعی بر مراقبتهای بهداشتی انجام شود.
در مجموع، هوش مصنوعی میتواند ابزاری قدرتمند برای بهبود مراقبتهای بهداشتی باشد. با این حال، استفاده از آن باید با دقت و آگاهی انجام شود تا جلوی بروز خطاها و عواقب منفی احتمالی را بگیرد.