شنبه، ۱ آذر، ۱۴۰۴ | Saturday, 22 November , 2025
در تحقیقات پژوهشگر ایرانی دانشگاه یورک بررسی شد

جلوگیری از تغییر داده‌ها در مدل‌های هوش مصنوعی بیمارستانی

نسخه قابل پرینت
کد خبر:53622
شنبه، ۱ آذر، ۱۴۰۴ | 14:22

جلوگیری از تغییر داده‌ها در مدل‌های هوش مصنوعی بیمارستانی

مطالعه جدید محققان دانشگاه یورک که در نشریه معتبر JAMA Network Open منتشر شده، نشان می‌دهد که استفاده از استراتژی‌های یادگیری پیشگیرانه، مداوم و انتقالی، نقش مهمی در کاهش اثرات منفی ناشی از تغییر داده‌ها (Data Shifts) در مدل‌های هوش مصنوعی بیمارستانی دارد.

به گزارش دیده‌بان علم ایران، این مطالعه با هدف بهبود دقت و قابلیت اطمینان مدل‌های هوش مصنوعی بالینی – به‌ویژه مدل‌هایی که برای پیش‌بینی خطر مرگ بیماران بستری در بیمارستان و کمک به اولویت‌بندی مراقبت از آن‌ها استفاده می‌شوند – اجرا شده است.

برای تعیین تأثیر تغییر داده‌ها، این تیم یک سیستم هشدار اولیه برای پیش‌بینی خطر مرگ و میر بیماران در بیمارستان و افزایش تریاژ بیماران در هفت بیمارستان بزرگ در منطقه تورنتوی بزرگ ساخت و ارزیابی کرد.

این مطالعه از GEMINI، بزرگترین شبکه اشتراک‌گذاری داده‌های بیمارستانی کانادا، برای ارزیابی تأثیر تغییر داده‌ها و سوگیری‌ها بر تشخیص‌های بالینی، جمعیت‌شناسی، جنسیت، سن، نوع بیمارستان، محل انتقال بیماران، مانند یک موسسه مراقبت‌های حاد یا خانه سالمندان، و زمان پذیرش استفاده کرده و طی آن این بالغ بر ۱۴۳ هزار و ۴۹ مورد مواجهه با بیمار، مانند نتایج آزمایشگاه، تزریق خون، گزارش‌های تصویربرداری و ویژگی‌های اداری بررسی شده است.

نتایج این مطالعه حاکی از تفاوت چشمگیر بین داده‌های آموزش و کاربرد واقعی مدل‌هاست. در این بررسی، زمانی که مدل‌ها از بیمارستان‌های محلی (عمومی) به بیمارستان‌های دانشگاهی منتقل شدند، نتایج پیش‌بینی دچار اختلال و خطا شد اما عکس این حالت (از دانشگاهی به عمومی) کمتر دچار مشکل بود.

به عقیده محققان، عواملی مانند تفاوت در جمعیت بیماران، آزمایشگاه‌ها، سیاست‌های بیمارستانی و رویدادهای غیرقابل پیش‌بینی (مانند پاندمی)  می‌توانند باعث این تغییرات شوند.

الهام دولت‌آبادی، استادیار دانشکده سیاست‌گذاری و مدیریت سلامت دانشگاه یورک و نویسنده ارشد این مقاله می‌گوید: با افزایش استفاده از هوش مصنوعی در بیمارستان‌ها برای پیش‌بینی هر چیزی از مرگ و میر و مدت بستری گرفته تا سپسیس، نیاز بیشتری به اطمینان از عملکرد پیش‌بینی‌شده و عدم آسیب‌رسانی آنها وجود دارد. با این حال، ساخت مدل‌های یادگیری ماشینی قابل اعتماد و قوی دشوار  است زیرا داده‌ها با گذشت زمان تغییر می‌کنند و باعث عدم اطمینان سیستم می‌شوند.

این پژوهشگر ایرانی که بر توسعه مدل‌های یادگیری ماشین قابل اعتماد و کاربردی در حوزه سلامت متمرکز است افزود: داده‌های مورد نیاز برای آموزش مدل‌های هوش مصنوعی بالینی برای بیمارستان‌ها و سایر مراکز مراقبت‌های بهداشتی باید به طور دقیق منعکس‌کننده تنوع بیماران، بیماری‌ها و اقدامات پزشکی باشند. بدون این، مدل می‌تواند پیش‌بینی‌های نامربوط، مضر و حتی تشخیص‌های نادرست ارائه دهد. تفاوت در زیرگروه‌های جمعیتی بیماران، کارکنان، منابع و همچنین تغییرات پیش‌بینی نشده در سیاست یا رفتار، شیوه‌های متفاوت مراقبت‌های بهداشتی بین بیمارستان‌ها یا یک بیماری همه‌گیر غیرمنتظره، نیز می‌تواند باعث این تغییرات بالقوه در داده‌ها شود.

والیا سوباسری، دانشمند هوش مصنوعی در University Health Network – یکی از بزرگ‌ترین شبکه‌های درمانی در کانادا – و نویسنده اول مقاله نیز می‌گوید: ما تغییرات قابل توجهی در داده‌ها بین آموزش مدل و کاربردهای واقعی از جمله تغییرات در جمعیت‌شناسی، انواع بیمارستان‌ها، منابع پذیرش و سنجش‌های آزمایشگاهی حیاتی، مشاهده کردیم. همچنین زمانی که مدل‌های آموزش دیده در ویزیت‌های بیماران بیمارستان‌های عمومی به بیمارستان‌های دانشگاهی منتقل شدند تغییرات نامطلوبی در داده‌ها مشاهده شد، اما عکس این مساله، اتفاق نیفتاد.

برای کاهش این تغییرات داده‌های بالقوه مضر، محققان از استراتژی‌های یادگیری انتقالی استفاده کردند که به مدل اجازه می‌داد دانش به دست آمده از یادگیری یک حوزه را ذخیره کرده و آن را در حوزه‌ای متفاوت اما مرتبط و استراتژی‌های یادگیری مداوم به کار گیرد که در آن مدل هوش مصنوعی با استفاده از جریان مداوم داده‌ها به صورت متوالی در پاسخ به هشدارهای ناشی از انحراف به‌روزرسانی می‌شود.

یک مسیر عملی از وعده تا عمل وجود دارد که شکاف بین پتانسیل هوش مصنوعی در سلامت و واقعیت‌های استقرار و حفظ آن در محیط‌های بالینی دنیای واقعی را پر می‌کند.

اگرچه مدل‌های یادگیری ماشین معمولاً پس از تأیید برای استفاده قفل می‌شوند، محققان دریافتند که مدل‌های خاص نوع بیمارستان که از یادگیری انتقالی استفاده می‌کنند، عملکرد بهتری نسبت به مدل‌هایی دارند که از همه بیمارستان‌های موجود استفاده می‌کنند. استفاده از یادگیری مداوم ناشی از انحراف به جلوگیری از تغییرات مضر داده‌ها به دلیل همه‌گیری کووید-۱۹ کمک کرد و عملکرد مدل را در طول زمان بهبود بخشید.

بسته به داده‌هایی که بر روی آن آموزش داده شده است، مدل هوش مصنوعی همچنین می‌تواند تمایل به سوگیری‌های خاصی داشته باشد که منجر به نتایج ناعادلانه یا تبعیض‌آمیز برای برخی از گروه‌های بیمار می‌شود.

دولت‌آبادی می‌گوید: «ما نشان می‌دهیم که چگونه می‌توان این تغییرات داده‌ها را تشخیص داد، ارزیابی می‌کنیم که آیا آنها بر عملکرد مدل هوش مصنوعی تأثیر منفی می‌گذارند یا خیر و استراتژی‌هایی را برای کاهش اثرات آنها پیشنهاد می‌کنیم. ما نشان می‌دهیم که یک مسیر عملی از وعده تا عمل وجود دارد که شکاف بین پتانسیل هوش مصنوعی در سلامت و واقعیت‌های استقرار و حفظ آن در محیط‌های بالینی دنیای واقعی را پر می‌کند.»

این مطالعه گامی حیاتی در جهت استقرار مدل‌های هوش مصنوعی بالینی است زیرا استراتژی‌ها و گردش‌های کاری را برای اطمینان از ایمنی و اثربخشی این مدل‌ها در محیط‌های واقعی ارائه می‌دهد.

انتهای پیام

مطالب مرتبط

افق دوردست تحقق اهداف علمی، فناوری و اقتصاد دانش بنیان برنامه هفتم توسعه

افشین: ستاد هوش مصنوعی با ایجاد سازمان، منحل نمی‌شود/هوش مصنوعی، نیازمند سرمایه‌گذاری ۱۰ میلیارد دلاری است

«شورای ملی راهبری هوش مصنوعی» تشکیل می‌شود

اخلال در روند بررسی و تصویب طرح ملی هوش مصنوعی به دلیل دعواهای بین دستگاهی!

نظر دهید

* نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند

سرخط خبرها