مطالعه نشان می‌دهد که نقشه‌های حرارتی برجسته ممکن است هنوز برای زمان اصلی آماده نباشند

این کار اولین تحلیل مقایسه ای بین نقشه های برجسته و عملکرد متخصص انسانی در ارزیابی آسیب شناسی های پرتو ایکس متعدد را نشان می دهد. این مطالعه همچنین درک دقیقی از اینکه آیا و چگونه برخی از ویژگی‌های پاتولوژیک روی یک تصویر ممکن است بر عملکرد ابزار هوش مصنوعی تأثیر بگذارد ارائه می‌دهد.

تجزیه و تحلیل ما نشان می دهد که نقشه های برجسته هنوز به اندازه کافی قابل اعتماد نیستند تا تصمیمات بالینی فردی اتخاذ شده توسط یک مدل هوش مصنوعی را تأیید کنند. ما محدودیت‌های مهمی را شناسایی کردیم که نگرانی‌های ایمنی جدی را برای استفاده در عملکرد فعلی ایجاد می‌کند.”


اما مدل‌های هوش مصنوعی که فاقد شفافیت در مورد چگونگی و چرایی تشخیص هستند، می‌توانند مشکل ساز باشند. این استدلال مبهم -; همچنین شناخته شده “جعبه سیاه” AI -؛ می تواند اعتماد پزشک را به قابلیت اطمینان ابزار هوش مصنوعی کاهش دهد و در نتیجه استفاده از آن را منع کند. این فقدان شفافیت همچنین می‌تواند پزشکان را در اعتماد بیش از حد به تفسیر ابزار گمراه کند.

منبع:

ویژگی نقشه برجسته در حال حاضر به عنوان یک ابزار تضمین کیفیت توسط اقدامات بالینی استفاده می شود که از هوش مصنوعی برای تفسیر روش های تشخیص به کمک رایانه، مانند خواندن اشعه ایکس قفسه سینه استفاده می کنند. به گفته محققان، اما با توجه به یافته‌های جدید، این ویژگی باید با احتیاط و دوز سالمی از شک و تردید اعمال شود.

مدل‌های هوش مصنوعی که تصاویر پزشکی را تفسیر می‌کنند، این نوید را دارند که توانایی پزشکان را برای تشخیص دقیق و به‌موقع افزایش می‌دهند، در حالی که با اجازه دادن به پزشکان پرمشغله برای تمرکز بر موارد حیاتی و محول کردن وظایف به هوش مصنوعی، بار کاری را کاهش می‌دهند.

مرجع مجله:

اما یک مطالعه جدید، منتشر شده در هوش ماشین طبیعت در 10 اکتبر، نشان می‌دهد که با همه وعده‌هایشان، نقشه‌های گرمایی برجسته ممکن است هنوز برای زمان پربیننده آماده نباشند.

پراناو راجپورکار، استادیار انفورماتیک زیست پزشکی، HMS

پایگاه کد، داده ها و تجزیه و تحلیل کامل تیم برای همه علاقه مندان به مطالعه این جنبه مهم یادگیری ماشین بالینی در برنامه های تصویربرداری پزشکی باز و در دسترس است.

در تحلیل نهایی، ابزارهایی که از نقشه‌های حرارتی مبتنی بر برجسته‌سازی استفاده می‌کنند، در مقایسه با رادیولوژیست‌های انسانی، به طور مداوم در ارزیابی تصویر و توانایی خود در تشخیص ضایعات پاتولوژیک ضعیف عمل می‌کنند.

ساپورتا، آ.، و همکاران (2022) مقایسه روش های برجسته برای تفسیر اشعه ایکس قفسه سینه. هوش ماشین طبیعت doi.org/10.1038/s42256-022-00536-x.



منبع

در حوزه تصویربرداری پزشکی، یکی از راه‌های ایجاد مدل‌های هوش مصنوعی قابل درک‌تر و ابهام‌زدایی از تصمیم‌گیری هوش مصنوعی، ارزیابی‌های برجسته بوده است. رویکردی که از نقشه‌های حرارتی استفاده می‌کند تا مشخص کند که آیا ابزار به درستی تنها بر روی تکه‌های مربوطه از یک تصویر معین فوکوس می‌کند یا در بخش‌های نامربوط آن قرار می‌گیرد.

محققان هشدار می‌دهند که به دلیل محدودیت‌های مهم شناسایی‌شده در این مطالعه، نقشه‌های حرارتی مبتنی بر برجستگی باید قبل از اینکه به طور گسترده در مدل‌های هوش مصنوعی بالینی مورد استفاده قرار گیرند، بیشتر اصلاح شوند.

این تجزیه و تحلیل که توسط محقق دانشکده پزشکی هاروارد، پراناو راجپورکار، متیو لونگرن از استنفورد و آدریل ساپورتا از دانشگاه نیویورک انجام شد، اعتبار هفت روش برجسته پرکاربرد را برای تعیین میزان اطمینان و دقت آنها در شناسایی آسیب شناسی های مرتبط با 10 بیماری که معمولاً تشخیص داده می شوند، کمی سازی کرد. در اشعه ایکس، مانند ضایعات ریه، پلورال افیوژن، ادم یا ساختارهای بزرگ قلب. برای اطمینان از عملکرد، محققان عملکرد ابزارها را با قضاوت متخصص انسان مقایسه کردند.

نقشه های حرارتی با برجسته کردن مناطقی روی یک تصویر کار می کنند که بر تفسیر مدل هوش مصنوعی تأثیر گذاشته است. این می‌تواند به پزشکان انسان کمک کند تا ببینند که آیا مدل هوش مصنوعی روی همان مناطقی تمرکز می‌کند که آنها انجام می‌دهند یا به اشتباه روی نقاط نامربوط روی یک تصویر تمرکز می‌کنند.