«تجارتنیوز» گزارش میدهد:
هوش مصنوعیهای پزشکی / موفقیت در تئوری و شکست در عمل
ChatGPT توانست در سال 2022 برخی از آزمونهای پزشکی ایلات متحده را با موفقیت پشت سر بگذارد. امسال تیمی از متخصصان پزشکی کانادایی، عملکرد این هوش مصنوعی را تشخیصهای پزشکی بررسی کردند تا مشخص شود که آیا این ابزار در واقعیت هم عملکرد خوبی دارد؟ پاسخ منفی بود.
امریت کرپالانی، معلم پزشکی دانشگاه وسترن کانادا که رهبری این تحقیق را به عهده داشت، گفت: «منبع سوالات پزشکی ما بانک سئوالات Medscape بود.» او اضافه کرد که آزمون USMLE که ChatGPT قبلا به آن پاسخ داده بود، عمدتا شامل سئوالات چند گزینهای است، اما Medscape آزمونی دارای پروندههای پزشکی بیماران واقعی است که یافتههای معاینه فیزیکی، نتایج آزامایشهای آزمایشگاهی و چند مورد دیگر هم پوشش میدهد.
از ChatGPT تا AMIE؛ آینده هوش مصنوعی در پزشکی
تیم کرپالانی 150 مورد از پروندههای Medscape را به پرسشهایی که ChatGPT بتواند درک و پردازش کند، تبدیل کردند. این پروندهها بهخاطر مواردی مثل چندین بیماری همزمان و معضلات تشخیص، برای پزشکان پیچیده بود. این آزمون بهخاطر محدودیت OpenAI، شرکت سازنده ChatGPT، در مشاورههای پزشکی، کمی با چالش مواجه شد، اما این محدودیتها با گفتن اینکه این تشخیصها برای مقالهای دانشگاهی است، به راحتی دور زده شد. سپس، تیم تحقیقاتی از این هوش مصنوعی خواست تا دلیلهای خود را برای این تشخیصها ارائه دهد. در نهایت مشخص شد که ChatGPT در 76 مورد از 150 پرونده، اشتباه کرد.
گوگل در ابتدای سال 2024، مطالعهای درباره AMIE، هوش مصنوعیای که براساس مکالمات بیماران به طور خاص برای تشخیص بیماریها طراحی شده است، منتشر کرد. AMIE در 303 پرونده از مجله پزشکی نیوانگلند و کنفرانس کلینیکوپاتولوژیک موفق شد تا از پزشکان انسانی پیشی بگیرد. این هوش مصنوعی، استثنائی نیست؛ سال گذشته، تقریبا هر هفته تحقیقاتی درمورد عملکرد شگفتانگیز هوش مصنوعیهای متفاوت در تشخیص سرطان و دیابت و حتی پیشبینی ناباروری مردان براساس آزمایشات خون منتشر میشد.
تفاوت ChatGPT و هوش مصنوعیهای تخصصی پزشکی در دادههایی است که با آن آموزش دیدهاند. کرپالانی گفت: «چنین هوش مصنوعیهایی ممکن است با حجم زیادی از ادبیات پزشکی و موارد پیچیده مشابه آموزش دیده باشند. ممکن است آنها برای درک اصطلاحات پزشکی، تفسیر آزمایشهای تشخیصی و شناسایی الگوهای دادههای پزشکی که به بیماریها یا شرایط خاص مربوط میشود، طراحی شده باشند. در مقابل، مدلهای زبان عمومی، مثل ChatGPT بر روی طیف گستردهای از موضوعات آموزش دیده و فاقد تخصص عمیق مورد نیاز برای تشخیص پزشکی هستند.» او افزود: «ChatGPT از دانش پزشکی دقیق بیاطلاع است و هر زمان که نتایج آزمایش حتی کمی خارج از محدوده نرمال باشد، منحرف میشود.»
یک دلیل جدی درمورد اینکه چرا بیشتر هوش مصنوعیهای پزشکی مثل AMIE دردسترس عموم نیستند، این است که وقتی اشتباه میکنند، روش ChatGPT را درپیش میگیرند. آنها سعی دارند که مخاطب را متقاعد کنند که درست میگویند. این در حالی است که جواب نیمی از پاسخهای ChatGPT اشتباه و با این حال، دلایل پاسخهای ارائهشده، بسیار خوب بود. کرپالانی گفت: «این موضوع هم جالب و هم نگرانکننده بود. از یک سو، این ابزار در سادهسازی توضیحات موضوعات پیچیده بسیار موثر است. از سوی دیگر، در صورت اشتباه میتواند بسیار متقاعدکننده باشد، چرا که موضوعات را به طرز قابل فهمی توضیح میدهد.»
ابزار کمکی یا جایگزین پزشکان؟
اکثر هوش مصنوعیها درکی از موضوعیکه درموردش صحبت میکنند، ندارند. تنها کاری که انجام میدهند، پیشبینی کلمه بعدی جمله براساس آموزشهایی که دیدهاند، است. به همین دلیل اکثر چتباتها حتی برای موارد غلط، استدلالهای بسیار قانعکننده، ساختاریافته و خوب نوشتهشدهای ارائه میدهند. هیچ راه آسانی برای ساخت یک پزشک هوش مصنوعی قابل اعتماد وجود ندارد. کرپالانی گفت: «این ابزارها باید در مقیاس بزرگ و بر روی دادههای بالینی آموزش داده شوند و در مسیر هم نیاز به نظارتهای زیادی خواهند داشت. ممکن است ChatGPT و ابزارهای مشابه برخی وظایف را انجام دهند، اما تشخیص موارد پیچیده نیاز به دقت فراوانی دارد.»
کرپالانی باور دارد که هوش مصنوعی تشخیص کامل یا مدیریت پزشکی را انجام نخواهد داد، بلکه ابزاری درخدمت پزشکان انسانی برای تقویت کارشان خواهد بود.
اخبار حوزه استارتاپ و فناوری اطلاعات را در صفحه استارتاپ تجارتنیوز بخوانید.
نظرات