این کار اولین تحلیل مقایسه ای بین نقشه های برجسته و عملکرد متخصص انسانی در ارزیابی آسیب شناسی های پرتو ایکس متعدد را نشان می دهد. این مطالعه همچنین درک دقیقی از اینکه آیا و چگونه برخی از ویژگیهای پاتولوژیک روی یک تصویر ممکن است بر عملکرد ابزار هوش مصنوعی تأثیر بگذارد ارائه میدهد.
تجزیه و تحلیل ما نشان می دهد که نقشه های برجسته هنوز به اندازه کافی قابل اعتماد نیستند تا تصمیمات بالینی فردی اتخاذ شده توسط یک مدل هوش مصنوعی را تأیید کنند. ما محدودیتهای مهمی را شناسایی کردیم که نگرانیهای ایمنی جدی را برای استفاده در عملکرد فعلی ایجاد میکند.”
اما مدلهای هوش مصنوعی که فاقد شفافیت در مورد چگونگی و چرایی تشخیص هستند، میتوانند مشکل ساز باشند. این استدلال مبهم -; همچنین شناخته شده “جعبه سیاه” AI -؛ می تواند اعتماد پزشک را به قابلیت اطمینان ابزار هوش مصنوعی کاهش دهد و در نتیجه استفاده از آن را منع کند. این فقدان شفافیت همچنین میتواند پزشکان را در اعتماد بیش از حد به تفسیر ابزار گمراه کند.
منبع:
ویژگی نقشه برجسته در حال حاضر به عنوان یک ابزار تضمین کیفیت توسط اقدامات بالینی استفاده می شود که از هوش مصنوعی برای تفسیر روش های تشخیص به کمک رایانه، مانند خواندن اشعه ایکس قفسه سینه استفاده می کنند. به گفته محققان، اما با توجه به یافتههای جدید، این ویژگی باید با احتیاط و دوز سالمی از شک و تردید اعمال شود.
مدلهای هوش مصنوعی که تصاویر پزشکی را تفسیر میکنند، این نوید را دارند که توانایی پزشکان را برای تشخیص دقیق و بهموقع افزایش میدهند، در حالی که با اجازه دادن به پزشکان پرمشغله برای تمرکز بر موارد حیاتی و محول کردن وظایف به هوش مصنوعی، بار کاری را کاهش میدهند.
مرجع مجله:
اما یک مطالعه جدید، منتشر شده در هوش ماشین طبیعت در 10 اکتبر، نشان میدهد که با همه وعدههایشان، نقشههای گرمایی برجسته ممکن است هنوز برای زمان پربیننده آماده نباشند.
پراناو راجپورکار، استادیار انفورماتیک زیست پزشکی، HMS
پایگاه کد، داده ها و تجزیه و تحلیل کامل تیم برای همه علاقه مندان به مطالعه این جنبه مهم یادگیری ماشین بالینی در برنامه های تصویربرداری پزشکی باز و در دسترس است.
در تحلیل نهایی، ابزارهایی که از نقشههای حرارتی مبتنی بر برجستهسازی استفاده میکنند، در مقایسه با رادیولوژیستهای انسانی، به طور مداوم در ارزیابی تصویر و توانایی خود در تشخیص ضایعات پاتولوژیک ضعیف عمل میکنند.
ساپورتا، آ.، و همکاران (2022) مقایسه روش های برجسته برای تفسیر اشعه ایکس قفسه سینه. هوش ماشین طبیعت doi.org/10.1038/s42256-022-00536-x.
در حوزه تصویربرداری پزشکی، یکی از راههای ایجاد مدلهای هوش مصنوعی قابل درکتر و ابهامزدایی از تصمیمگیری هوش مصنوعی، ارزیابیهای برجسته بوده است. رویکردی که از نقشههای حرارتی استفاده میکند تا مشخص کند که آیا ابزار به درستی تنها بر روی تکههای مربوطه از یک تصویر معین فوکوس میکند یا در بخشهای نامربوط آن قرار میگیرد.
محققان هشدار میدهند که به دلیل محدودیتهای مهم شناساییشده در این مطالعه، نقشههای حرارتی مبتنی بر برجستگی باید قبل از اینکه به طور گسترده در مدلهای هوش مصنوعی بالینی مورد استفاده قرار گیرند، بیشتر اصلاح شوند.
این تجزیه و تحلیل که توسط محقق دانشکده پزشکی هاروارد، پراناو راجپورکار، متیو لونگرن از استنفورد و آدریل ساپورتا از دانشگاه نیویورک انجام شد، اعتبار هفت روش برجسته پرکاربرد را برای تعیین میزان اطمینان و دقت آنها در شناسایی آسیب شناسی های مرتبط با 10 بیماری که معمولاً تشخیص داده می شوند، کمی سازی کرد. در اشعه ایکس، مانند ضایعات ریه، پلورال افیوژن، ادم یا ساختارهای بزرگ قلب. برای اطمینان از عملکرد، محققان عملکرد ابزارها را با قضاوت متخصص انسان مقایسه کردند.
نقشه های حرارتی با برجسته کردن مناطقی روی یک تصویر کار می کنند که بر تفسیر مدل هوش مصنوعی تأثیر گذاشته است. این میتواند به پزشکان انسان کمک کند تا ببینند که آیا مدل هوش مصنوعی روی همان مناطقی تمرکز میکند که آنها انجام میدهند یا به اشتباه روی نقاط نامربوط روی یک تصویر تمرکز میکنند.