آیا هوش مصنوعی نابرابری های سلامتی را تداوم می بخشد یا از بین می برد؟

یی گفت: «برای پزشکی، تشخیص اشتباه به معنای واقعی کلمه زندگی یا مرگ بسته به موقعیت است.

سوالی که در دست است این است که آیا برنامه های کاربردی هوش مصنوعی به کاهش نابرابری های سلامتی کمک می کند یا خیر، به خصوص زمانی که صحبت از توسعه الگوریتم های بالینی می شود که پزشکان برای تشخیص و تشخیص بیماری، پیش بینی نتایج و راهنمایی استراتژی های درمانی استفاده می کنند.

در مورد بررسی و تعادل، آیا بیماران باید نگران باشند که دستگاهی جایگزین قضاوت پزشک می شود یا تصمیمات احتمالاً خطرناکی را به دلیل گم شدن یک قطعه مهم از داده ها هدایت می کند؟

15 مه 2023 – مهم نیست به کجا نگاه می کنید، برنامه های کاربردی یادگیری ماشین در هوش مصنوعی برای تغییر وضعیت موجود مورد استفاده قرار می گیرند. این امر به ویژه در مراقبت های بهداشتی صادق است، جایی که پیشرفت های فن آوری باعث تسریع کشف دارو و شناسایی درمان های جدید بالقوه می شود.

یکی از رویکردها، که مسکو از آن به عنوان «بهداشت الگوریتمی» یاد می‌کند، مشابه رویکردی است که گروهی از محققان دانشگاه اموری در آتلانتا هنگام ایجاد یک مجموعه داده‌های دانه‌دار و متنوع نژادی اتخاذ کردند. مجموعه داده تصویربرداری EMory BrEast (EMBED) — که شامل 3.4 میلیون تصویر ماموگرافی غربالگری و تشخیصی سرطان پستان است. چهل و دو درصد از 11910 بیمار منحصر به فرد ارائه شده، زنان آفریقایی-آمریکایی خود گزارش شده بودند.

هاری تریودی، MD، استادیار بخش رادیولوژی و علوم تصویربرداری و انفورماتیک زیست پزشکی در دانشکده پزشکی دانشگاه اموری و یکی از مدیران، گفت: «این واقعیت که پایگاه داده ما متنوع است به نوعی محصول جانبی مستقیم جمعیت بیماران ما است. آزمایشگاه نوآوری سلامت و انفورماتیک ترجمه (HITI).

بهداشت الگوریتمی، چک ها، و تعادل

مسکو گفت: «توسعه‌دهندگان می‌توانند از آزمایش‌های آماری استفاده کنند که به آنها امکان می‌دهد تشخیص دهند که آیا داده‌های مورد استفاده برای آموزش الگوریتم به طور قابل‌توجهی با داده‌های واقعی که در تنظیمات واقعی با آن مواجه می‌شوند متفاوت است یا خیر. “این می تواند نشان دهنده سوگیری های ناشی از داده های آموزشی باشد.”

یی گفت که از 23 مجموعه داده موجود در این مطالعه، “اکثریت – 61٪ – به هیچ وجه هیچ اطلاعات جمعیت شناختی را گزارش نکردند.” نه مسابقه اطلاعات جمعیت شناختی (بیشتر سن و جنس) و یک مسابقه نژاد و قومیت را گزارش کردند.

تریودی گفت: «حتی در حال حاضر، اکثریت قریب به اتفاق مجموعه داده‌هایی که در توسعه مدل یادگیری عمیق استفاده می‌شوند، آن اطلاعات جمعیت شناختی را ندارند. اما در EMBED و همه مجموعه داده‌های آینده که ما توسعه می‌دهیم، واقعاً مهم بود که این اطلاعات را در دسترس قرار دهیم، زیرا بدون آن، غیرممکن است که بدانیم مدل شما چگونه و چه زمانی ممکن است مغرضانه باشد یا اینکه مدلی که آزمایش می‌کنید ممکن است مغرضانه باشد.»

رویکرد دیگر «سوگیری زدایی» است که به حذف تفاوت‌ها بین گروه‌ها یا افراد بر اساس ویژگی‌های فردی کمک می‌کند. مسکو به منبع باز IBM اشاره کرد جعبه ابزار AI Fairness 360، که مجموعه ای جامع از معیارها و الگوریتم هایی است که محققان و توسعه دهندگان می توانند برای کاهش سوگیری در مجموعه داده ها و هوش مصنوعی خود به آنها دسترسی داشته باشند.

او گفت: “شما نمی توانید فقط چشم خود را روی آن ببندید.”

محققان از یک سایت محبوب رقابت علم داده به نام استفاده کردند کاگل برای مسابقات تصویربرداری پزشکی که بین سال‌های 2010 و 2022 برگزار شد. سپس مجموعه‌های داده را ارزیابی کردند تا بفهمند آیا متغیرهای جمعیت شناختی گزارش شده است یا خیر. در نهایت، آنها بررسی کردند که آیا رقابت شامل عملکرد مبتنی بر جمعیت شناختی به عنوان بخشی از معیارهای ارزیابی برای الگوریتم ها می شود یا خیر.

مانند خود پزشکی، هوش مصنوعی راه‌حلی برای همه نیست و شاید بررسی‌ها و تعادل‌ها، ارزیابی منسجم و تلاش‌های هماهنگ برای ایجاد مجموعه‌های داده متنوع و فراگیر می‌توانند نابرابری‌های بهداشتی فراگیر را برطرف کرده و در نهایت به غلبه بر آن کمک کنند.

کلی مایکلسون، MD، MPH، مدیر مرکز اخلاق زیستی و علوم انسانی پزشکی در دانشگاه نورث وسترن گفت: در عین حال، “من فکر می کنم که ما تا حذف کامل عنصر انسانی و نداشتن پزشکان درگیر در این فرآیند فاصله زیادی داریم.” دانشکده پزشکی فاینبرگ و پزشک معالج در بیمارستان کودکان Ann & Robert H. Lurie در شیکاگو.

پل یی، MD، استادیار رادیولوژی تشخیصی و هسته ای گفت: «یکی از مشکلاتی که در هوش مصنوعی به طور کلی و به طور خاص برای پزشکی نشان داده شده است این است که این الگوریتم ها می توانند سوگیری داشته باشند، به این معنی که عملکرد آنها در گروه های مختلف افراد متفاوت است. پزشکی در دانشکده پزشکی دانشگاه مریلند و مدیر مرکز تصویربرداری هوشمند پزشکی دانشگاه مریلند (UM2ii).

یی یکی از نویسندگان مطالعه ای است که ماه گذشته در این مجله منتشر شد طب طبیعت که در آن او و همکارانش سعی کردند کشف کنند که آیا مجموعه داده های تصویربرداری پزشکی مورد استفاده در مسابقات علم داده به توانایی تشخیص سوگیری ها در مدل های هوش مصنوعی کمک می کند یا مانع از آن می شود. این مسابقات شامل دانشمندان کامپیوتر و پزشکانی می شود که داده ها را از سراسر جهان جمع آوری می کنند و تیم هایی برای ایجاد بهترین الگوریتم های بالینی با هم رقابت می کنند که بسیاری از آنها در عمل به کار گرفته می شوند.

یی گفت: «هیچ یک از این مسابقات علم داده، صرف نظر از اینکه آیا اطلاعات جمعیتی را گزارش کرده‌اند یا نه، این سوگیری‌ها را ارزیابی نکردند، یعنی دقت پاسخ را در مردان در مقابل زنان، یا سفیدپوستان در مقابل سیاه‌پوستان در مقابل بیماران آسیایی. مفهوم؟ او توضیح داد: «اگر ما آمار جمعیتی نداشته باشیم، نمی‌توانیم تعصبات را اندازه‌گیری کنیم».

نکته مهم این است که سوگیری را می توان در هر نقطه از چرخه توسعه هوش مصنوعی معرفی کرد، نه فقط در شروع.

مایکلسون می‌گوید: «هوش مصنوعی در مکان‌های مختلف به معنای چیزهای مختلف است. “و نحوه استفاده از آن متفاوت است. مهم است که اذعان کنیم که مسائل مربوط به سوگیری و تأثیر آن بر نابرابری‌های سلامت بسته به نوع هوش مصنوعی که شما در مورد آن صحبت می‌کنید، متفاوت خواهد بود.»



منبع

اما این پیشرفت ها بدون پرچم قرمز به دست نمی آیند. آنها همچنین یک ذره بین در مورد تفاوت های قابل پیشگیری در بار بیماری، آسیب، خشونت و فرصت های دستیابی به سلامت مطلوب قرار داده اند که همه اینها نامتناسب تاثیر می گذارد رنگین پوستان و سایر جوامع محروم.

چک و تعادل نیز به همین ترتیب مهم هستند. به عنوان مثال، این می تواند شامل «بررسی متقابل تصمیمات الگوریتم ها توسط انسان ها و بالعکس باشد. به این ترتیب، آنها می توانند یکدیگر را مسئول بدانند و به کاهش تعصب کمک کنند.

نگه داشتن انسان در حلقه

او گفت: «در واقع فرصت‌های خوبی برای هوش مصنوعی وجود دارد تا تفاوت‌ها را کاهش دهد.

ترودی اشاره کرد که دستورالعمل‌های تحقیقاتی هوش مصنوعی در حال توسعه هستند که به طور خاص بر روی قوانینی تمرکز می‌کنند که هنگام آزمایش و ارزیابی مدل‌ها، به‌ویژه مدل‌هایی که منبع باز هستند، در نظر گرفته شوند. همچنین FDA و وزارت بهداشت و خدمات انسانی در تلاش برای تنظیم مقررات هستند توسعه الگوریتم و اعتبار سنجی با هدف بهبود دقت، شفافیت و انصاف.

Bertalan Meskó، MD، PhD، مدیر این بخش گفت: برای کاهش تعصب در هوش مصنوعی، توسعه دهندگان، مخترعان و محققان فناوری های پزشکی مبتنی بر هوش مصنوعی باید آگاهانه برای اجتناب از آن با بهبود فعال بازنمایی جمعیت های خاص در مجموعه داده خود آماده شوند. موسسه آینده پژوهی پزشکی در بوداپست، مجارستان.