مطالعه جدید محققان دانشگاه یورک که در نشریه معتبر JAMA Network Open منتشر شده، نشان میدهد که استفاده از استراتژیهای یادگیری پیشگیرانه، مداوم و انتقالی، نقش مهمی در کاهش اثرات منفی ناشی از تغییر دادهها (Data Shifts) در مدلهای هوش مصنوعی بیمارستانی دارد.
به گزارش دیدهبان علم ایران، این مطالعه با هدف بهبود دقت و قابلیت اطمینان مدلهای هوش مصنوعی بالینی – بهویژه مدلهایی که برای پیشبینی خطر مرگ بیماران بستری در بیمارستان و کمک به اولویتبندی مراقبت از آنها استفاده میشوند – اجرا شده است.
برای تعیین تأثیر تغییر دادهها، این تیم یک سیستم هشدار اولیه برای پیشبینی خطر مرگ و میر بیماران در بیمارستان و افزایش تریاژ بیماران در هفت بیمارستان بزرگ در منطقه تورنتوی بزرگ ساخت و ارزیابی کرد.
این مطالعه از GEMINI، بزرگترین شبکه اشتراکگذاری دادههای بیمارستانی کانادا، برای ارزیابی تأثیر تغییر دادهها و سوگیریها بر تشخیصهای بالینی، جمعیتشناسی، جنسیت، سن، نوع بیمارستان، محل انتقال بیماران، مانند یک موسسه مراقبتهای حاد یا خانه سالمندان، و زمان پذیرش استفاده کرده و طی آن این بالغ بر ۱۴۳ هزار و ۴۹ مورد مواجهه با بیمار، مانند نتایج آزمایشگاه، تزریق خون، گزارشهای تصویربرداری و ویژگیهای اداری بررسی شده است.
نتایج این مطالعه حاکی از تفاوت چشمگیر بین دادههای آموزش و کاربرد واقعی مدلهاست. در این بررسی، زمانی که مدلها از بیمارستانهای محلی (عمومی) به بیمارستانهای دانشگاهی منتقل شدند، نتایج پیشبینی دچار اختلال و خطا شد اما عکس این حالت (از دانشگاهی به عمومی) کمتر دچار مشکل بود.
به عقیده محققان، عواملی مانند تفاوت در جمعیت بیماران، آزمایشگاهها، سیاستهای بیمارستانی و رویدادهای غیرقابل پیشبینی (مانند پاندمی) میتوانند باعث این تغییرات شوند.
الهام دولتآبادی، استادیار دانشکده سیاستگذاری و مدیریت سلامت دانشگاه یورک و نویسنده ارشد این مقاله میگوید: با افزایش استفاده از هوش مصنوعی در بیمارستانها برای پیشبینی هر چیزی از مرگ و میر و مدت بستری گرفته تا سپسیس، نیاز بیشتری به اطمینان از عملکرد پیشبینیشده و عدم آسیبرسانی آنها وجود دارد. با این حال، ساخت مدلهای یادگیری ماشینی قابل اعتماد و قوی دشوار است زیرا دادهها با گذشت زمان تغییر میکنند و باعث عدم اطمینان سیستم میشوند.
این پژوهشگر ایرانی که بر توسعه مدلهای یادگیری ماشین قابل اعتماد و کاربردی در حوزه سلامت متمرکز است افزود: دادههای مورد نیاز برای آموزش مدلهای هوش مصنوعی بالینی برای بیمارستانها و سایر مراکز مراقبتهای بهداشتی باید به طور دقیق منعکسکننده تنوع بیماران، بیماریها و اقدامات پزشکی باشند. بدون این، مدل میتواند پیشبینیهای نامربوط، مضر و حتی تشخیصهای نادرست ارائه دهد. تفاوت در زیرگروههای جمعیتی بیماران، کارکنان، منابع و همچنین تغییرات پیشبینی نشده در سیاست یا رفتار، شیوههای متفاوت مراقبتهای بهداشتی بین بیمارستانها یا یک بیماری همهگیر غیرمنتظره، نیز میتواند باعث این تغییرات بالقوه در دادهها شود.
والیا سوباسری، دانشمند هوش مصنوعی در University Health Network – یکی از بزرگترین شبکههای درمانی در کانادا – و نویسنده اول مقاله نیز میگوید: ما تغییرات قابل توجهی در دادهها بین آموزش مدل و کاربردهای واقعی از جمله تغییرات در جمعیتشناسی، انواع بیمارستانها، منابع پذیرش و سنجشهای آزمایشگاهی حیاتی، مشاهده کردیم. همچنین زمانی که مدلهای آموزش دیده در ویزیتهای بیماران بیمارستانهای عمومی به بیمارستانهای دانشگاهی منتقل شدند تغییرات نامطلوبی در دادهها مشاهده شد، اما عکس این مساله، اتفاق نیفتاد.
برای کاهش این تغییرات دادههای بالقوه مضر، محققان از استراتژیهای یادگیری انتقالی استفاده کردند که به مدل اجازه میداد دانش به دست آمده از یادگیری یک حوزه را ذخیره کرده و آن را در حوزهای متفاوت اما مرتبط و استراتژیهای یادگیری مداوم به کار گیرد که در آن مدل هوش مصنوعی با استفاده از جریان مداوم دادهها به صورت متوالی در پاسخ به هشدارهای ناشی از انحراف بهروزرسانی میشود.
یک مسیر عملی از وعده تا عمل وجود دارد که شکاف بین پتانسیل هوش مصنوعی در سلامت و واقعیتهای استقرار و حفظ آن در محیطهای بالینی دنیای واقعی را پر میکند.
اگرچه مدلهای یادگیری ماشین معمولاً پس از تأیید برای استفاده قفل میشوند، محققان دریافتند که مدلهای خاص نوع بیمارستان که از یادگیری انتقالی استفاده میکنند، عملکرد بهتری نسبت به مدلهایی دارند که از همه بیمارستانهای موجود استفاده میکنند. استفاده از یادگیری مداوم ناشی از انحراف به جلوگیری از تغییرات مضر دادهها به دلیل همهگیری کووید-۱۹ کمک کرد و عملکرد مدل را در طول زمان بهبود بخشید.
بسته به دادههایی که بر روی آن آموزش داده شده است، مدل هوش مصنوعی همچنین میتواند تمایل به سوگیریهای خاصی داشته باشد که منجر به نتایج ناعادلانه یا تبعیضآمیز برای برخی از گروههای بیمار میشود.
دولتآبادی میگوید: «ما نشان میدهیم که چگونه میتوان این تغییرات دادهها را تشخیص داد، ارزیابی میکنیم که آیا آنها بر عملکرد مدل هوش مصنوعی تأثیر منفی میگذارند یا خیر و استراتژیهایی را برای کاهش اثرات آنها پیشنهاد میکنیم. ما نشان میدهیم که یک مسیر عملی از وعده تا عمل وجود دارد که شکاف بین پتانسیل هوش مصنوعی در سلامت و واقعیتهای استقرار و حفظ آن در محیطهای بالینی دنیای واقعی را پر میکند.»
این مطالعه گامی حیاتی در جهت استقرار مدلهای هوش مصنوعی بالینی است زیرا استراتژیها و گردشهای کاری را برای اطمینان از ایمنی و اثربخشی این مدلها در محیطهای واقعی ارائه میدهد.
انتهای پیام