«تجارت نیوز» گزارش می دهد:
خطرات حریم خصوصی در عصر هوش مصنوعی/ هشدار درباره خطرات آپلود تصاویر پزشکی در چتباتها
کارشناسان هشدار میدهند آپلود تصاویر پزشکی در چتباتهای هوش مصنوعی ممکن است خطرات حریم خصوصی و سوءاستفاده از اطلاعات حساس را به همراه داشته باشد.
با افزایش محبوبیت چتباتهای هوش مصنوعی مانند ChatGPT شرکت OpenAI یا Gemini شرکت گوگل و Grok متعلق به پلتفرم X (توییتر سابق)، بسیاری از کاربران از این ابزارها برای پاسخ به سوالات پزشکی یا تفسیر دادههای بهداشتی نظیر عکسهای رادیولوژی، MRI و PET استفاده میکنند.
با وجود جذابیت تحلیل سریع دادههای پزشکی، متخصصان حریم خصوصی نسبت به آپلود اطلاعات حساس پزشکی در این پلتفرمها هشدار میدهند.
دادههای پزشکی و ریسکهای امنیتی
دادههای پزشکی تحت قوانین سختگیرانهای مانند HIPAA در ایالات متحده محافظت میشوند. اما این قوانین بیشتر شامل ارائهدهندگان خدمات بهداشتی و نهادهای مرتبط است و اغلب اپلیکیشنهای مصرفکننده یا چتباتهای هوش مصنوعی را در بر نمیگیرد.
با آپلود اطلاعات شخصی پزشکی، کاربران خطر افشای اطلاعات خود را به جان میخرند که میتواند عواقب جدی فراتر از هدف اولیه داشته باشد.
مدلهای هوش مصنوعی و استفاده از دادهها
مدلهای هوش مصنوعی مولد معمولاً برای بهبود الگوریتمها و افزایش دقت، به دادههای کاربران متکی هستند. این شرکتها ادعا میکنند که دادههای کاربران برای ارتقای کیفیت سیستمها استفاده میشود، اما شفافیت محدودی در مورد نحوه ذخیره، استفاده یا به اشتراکگذاری دادهها وجود دارد.
حتی سیاستهای مربوط به استفاده از دادهها ممکن است در آینده تغییر کنند و کاربران را در برابر خطرات پیشبینینشده آسیبپذیر کنند.
نمونههایی از حضور دادههای پزشکی خصوصی در مجموعه دادههای آموزش هوش مصنوعی، زنگ خطر را برای کارشناسان به صدا درآورده است.
اگر چنین اطلاعات حساسی در مجموعه دادههای عمومی وارد شود، ممکن است توسط افراد غیرمجاز، از جمله ارائهدهندگان خدمات بهداشتی، سازمانهای دولتی یا حتی کارفرمایان آینده، مورد سوءاستفاده قرار گیرد.
Grok و تفسیر تصاویر پزشکی
چتبات Grok متعلق به X کاربران را تشویق کرده که تصاویر پزشکی خود را برای بهبود توانایی این ابزار در تفسیر دادههای پزشکی آپلود کنند. اما حتی ایلان ماسک، مالک X، اذعان کرده که قابلیتهای Grok هنوز در مراحل اولیه است و نتایج آن قابلاعتماد نیست.
در حالی که X ادعا میکند این فناوری در آینده به ابزاری تشخیصی بسیار دقیق تبدیل خواهد شد، نگرانیهایی درباره سیاستهای حریم خصوصی این شرکت وجود دارد.
سیاستهای Grok اشاره دارند که دادههای کاربران ممکن است با شرکتهای وابسته به اشتراک گذاشته شود، اما مشخص نمیکنند این شرکتها چه کسانی هستند یا دادهها برای چه اهدافی استفاده خواهند شد.
اینترنت و حافظه دائمی اطلاعات
یکی از اصول کلیدی دنیای دیجیتال این است که دادههای آپلودشده معمولاً بهطور دائم در دسترس باقی میمانند. این واقعیت، آپلود تصاویر پزشکی حساس را به تصمیمی جدی تبدیل میکند. سوءاستفاده از این دادهها میتواند پیامدهای طولانیمدتی مانند سرقت هویت یا تبعیض بر اساس تاریخچه پزشکی داشته باشد.
علاوه بر این، کاربران باید بدانند که اپلیکیشنهای مصرفی، برخلاف مؤسسات پزشکی، تحت قوانین سختگیرانه حفظ حریم خصوصی عمل نمیکنند.
دعوت به احتیاط
هرچند استفاده از هوش مصنوعی در حوزه سلامت فرصتهای هیجانانگیزی را ارائه میدهد، خطرات مرتبط با اشتراکگذاری اطلاعات شخصی پزشکی نباید نادیده گرفته شود.
نبود نظارتهای قانونی کافی و سیاستهای مبهم بسیاری از شرکتهای هوش مصنوعی، کاربران را مجبور میکند قبل از آپلود هرگونه اطلاعات حساس، محتاط باشند. حفظ حریم خصوصی و یکپارچگی دادههای پزشکی شخصی باید اولویت اصلی باشد.
نظرات