فونیکس - هدر اخبار
کد مطلب: ۹۲۹۷۳۳

«تجارت‌نیوز» گزارش می‌دهد:

هوش مصنوعی‌های پزشکی / موفقیت در تئوری و شکست در عمل

هوش مصنوعی‌های پزشکی / موفقیت در تئوری و شکست در عمل

ChatGPT توانست در سال 2022 برخی از آزمون‌های پزشکی ایلات متحده را با موفقیت پشت سر بگذارد. امسال تیمی از متخصصان پزشکی کانادایی، عملکرد این هوش مصنوعی را تشخیص‌های پزشکی بررسی کردند تا مشخص شود که آیا این ابزار در واقعیت هم عملکرد خوبی دارد؟ پاسخ منفی بود.

به گزارش تجارت نیوز،

امریت کرپالانی، معلم پزشکی دانشگاه وسترن کانادا که رهبری این تحقیق را به عهده داشت، گفت: «منبع سوالات پزشکی ما بانک سئوالات Medscape بود.» او اضافه کرد که آزمون USMLE که ChatGPT قبلا به آن پاسخ داده بود، عمدتا شامل سئوالات چند گزینه‌ای است، اما Medscape آزمونی دارای پرونده‌های پزشکی بیماران واقعی است که یافته‌های معاینه فیزیکی، نتایج آزامایش‌های آزمایشگاهی و چند مورد دیگر هم پوشش می‌دهد.

از ChatGPT تا AMIE؛ آینده هوش مصنوعی در پزشکی

تیم کرپالانی 150 مورد از پرونده‌های Medscape را به پرسش‌هایی که ChatGPT بتواند درک و پردازش کند، تبدیل کردند. این پرونده‌ها به‌خاطر مواردی مثل چندین بیماری همزمان و معضلات تشخیص، برای پزشکان پیچیده بود. این آزمون به‌خاطر محدودیت OpenAI، شرکت سازنده ChatGPT، در مشاوره‌های پزشکی، کمی با چالش مواجه شد، اما این محدودیت‌ها با گفتن این‌که این تشخیص‌ها برای مقاله‌ای دانشگاهی است، به راحتی دور زده شد. سپس، تیم تحقیقاتی از این هوش مصنوعی خواست تا دلیل‌های خود را برای این تشخیص‌ها ارائه دهد. در نهایت مشخص شد که ChatGPT در 76 مورد از 150 پرونده، اشتباه کرد.

گوگل در ابتدای سال 2024، مطالعه‌ای درباره AMIE، هوش مصنوعی‌ای که براساس مکالمات بیماران به طور خاص برای تشخیص بیماری‌ها طراحی شده است، منتشر کرد. AMIE در 303 پرونده از مجله پزشکی نیوانگلند و کنفرانس کلینیکوپاتولوژیک موفق شد تا از پزشکان انسانی پیشی بگیرد. این هوش مصنوعی، استثنائی نیست؛ سال گذشته، تقریبا هر هفته تحقیقاتی درمورد عملکرد شگفت‌انگیز هوش مصنوعی‌های متفاوت در تشخیص سرطان و دیابت و حتی پیش‌بینی ناباروری مردان براساس آزمایشات خون منتشر می‌شد.

تفاوت ChatGPT و هوش مصنوعی‌های تخصصی پزشکی در داده‌هایی است که با آن آموزش دیده‌اند. کرپالانی گفت: «چنین هوش مصنوعی‌هایی ممکن است با حجم زیادی از ادبیات پزشکی و موارد پیچیده مشابه آموزش دیده باشند. ممکن است آن‌ها برای درک اصطلاحات پزشکی، تفسیر آزمایش‌های تشخیصی و شناسایی الگوهای داده‌های پزشکی که به بیماری‌ها یا شرایط خاص مربوط می‌شود، طراحی شده باشند. در مقابل، مدل‌های زبان عمومی، مثل ChatGPT بر روی طیف گسترده‌ای از موضوعات آموزش دیده و فاقد تخصص عمیق مورد نیاز برای تشخیص پزشکی هستند.» او افزود: «ChatGPT از دانش پزشکی دقیق بی‌اطلاع است و هر زمان که نتایج آزمایش حتی کمی خارج از محدوده نرمال باشد، منحرف می‌شود.»

یک دلیل جدی درمورد این‌که چرا بیشتر هوش مصنوعی‌های پزشکی مثل AMIE دردسترس عموم نیستند، این است که وقتی اشتباه می‌کنند، روش ChatGPT را درپیش می‌گیرند. آن‌ها سعی دارند که مخاطب را متقاعد کنند که درست می‌گویند. این در حالی است که جواب نیمی از پاسخ‌های ChatGPT اشتباه و با این حال، دلایل پاسخ‌های ارائه‌شده، بسیار خوب بود. کرپالانی گفت: «این موضوع هم جالب و هم نگران‌کننده بود. از یک سو، این ابزار در ساده‌سازی توضیحات موضوعات پیچیده بسیار موثر است. از سوی دیگر، در صورت اشتباه می‌تواند بسیار متقاعدکننده باشد، چرا که موضوعات را به طرز قابل فهمی توضیح می‌دهد.»

ابزار کمکی یا جایگزین پزشکان؟

اکثر هوش مصنوعی‌ها درکی از موضوعیکه درموردش صحبت می‌کنند، ندارند. تنها کاری که انجام می‌دهند، پیش‌بینی کلمه بعدی جمله براساس آموزش‌هایی که دیده‌اند، است. به همین دلیل اکثر چت‌بات‌ها حتی برای موارد غلط، استدلال‌های بسیار قانع‌کننده، ساختاریافته و خوب نوشته‌شده‌ای ارائه می‌دهند. هیچ راه آسانی برای ساخت یک پزشک هوش مصنوعی قابل اعتماد وجود ندارد. کرپالانی گفت: «این ابزارها باید در مقیاس بزرگ و بر روی داده‌های بالینی آموزش داده شوند و در مسیر هم نیاز به نظارت‌های زیادی خواهند داشت. ممکن است ChatGPT و ابزارهای مشابه برخی وظایف را انجام دهند، اما تشخیص موارد پیچیده نیاز به دقت فراوانی دارد.»

کرپالانی باور دارد که هوش مصنوعی تشخیص کامل یا مدیریت پزشکی را انجام نخواهد داد، بلکه ابزاری درخدمت پزشکان انسانی برای تقویت کارشان خواهد بود.

اخبار حوزه استارتاپ و فناوری اطلاعات را در صفحه استارتاپ تجارت‌نیوز بخوانید.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.