الگوریتم های مراقبت های بهداشتی با هدف بهبود کیفیت مراقبت از طریق به حداقل رساندن تنوع در تصمیم گیری بالینی، ترویج پایبندی بیشتر به بهترین شیوه ها و به حداکثر رساندن استفاده کارآمد از منابع کمیاب توسعه یافته اند.
کابرروس، آی.، و همکاران (2022) پیش بینی نژاد و قومیت برای اطمینان از الگوریتم های عادلانه برای تصمیم گیری مراقبت های بهداشتی. امور بهداشتی. doi.org/10.1377/hlthaff.2022.00095.
منبع
به عنوان مثال، نشان داده شده است که یک الگوریتم به طور گسترده مورد استفاده برای کمک به مراقبت از نارسایی قلبی ایجاد شده است که نمرات خطر بیماران سیاه پوست را نسبت به بیماران مشابه سایر نژادها کاهش می دهد.
محققان RAND استدلال میکنند که یک استراتژی بهتر استفاده از ابزارهای نابرابری سلامت (از جمله ابزارهای پرکاربرد توسعهیافته توسط تیم RAND) برای اندازهگیری نابرابریهای الگوریتمی بر اساس نژاد و قومیت است، که ممکن است حتی زمانی که نژاد و قومیت بیمار خود گزارش نشده باشد. .
اگرچه تعداد کمی خواستار حذف الگوریتمهایی برای کمک به تصمیمگیری مراقبتهای بهداشتی هستند، یک توصیه رایج برای کاهش پتانسیل سوگیری الگوریتمی حذف نژاد و قومیت به عنوان ورودی است – عملی که معمولاً به عنوان انصاف از طریق ناآگاهی شناخته میشود.
الگوریتم ها — رویه های ریاضی کاملاً تعریف شده برای استخراج پیش بینی ها یا امتیازات از اطلاعات — به طور گسترده برای کمک به تصمیم گیری در مراقبت های بهداشتی استفاده می شود. چنین ابزارهایی بر تصمیم گیری در مورد اینکه چه کسی مراقبت می شود، نوع مراقبتی که دریافت می کند، نحوه ارائه مراقبت و به چه قیمتی تاثیر می گذارد.
در مورد دیگری، یک الگوریتم رایج برای پیشبینی موفقیت زایمان طبیعی پس از زایمان سزارین قبلی، موفقیت کمتری را برای مادران سیاهپوست و اسپانیایی تبار نسبت به مادران سفیدپوست مشابه پیشبینی میکند.
مرجع مجله:
آگاهی از نژاد و قومیت – نه نادانی – برای مبارزه با سوگیری الگوریتمی ضروری است. درج اطلاعات نژادی و قومیتی میتواند فرصتها را برای شناسایی سوگیری الگوریتمی، بلکه همچنین برای مبارزه با سوگیری در محیطهای بالینی و غیر بالینی گسترش دهد.”
الگوریتمهایی که برای راهنمایی مراقبتهای پزشکی طراحی شدهاند میتوانند به نتایج نابرابر نژادی کمک کنند، اما طبق تحلیل جدید شرکت RAND، حذف اطلاعات در مورد نژاد و قومیت بیمار به عنوان ورودی به الگوریتمها، راه درستی برای رسیدگی به این موضوع نیست.
همانطور که استفاده از الگوریتمها در مراقبتهای بهداشتی افزایش یافته است، به رسمیت شناخته شده است که ابزارها میتوانند پیامدهای ناخواسته کدگذاری تعصبهای نژادی و قومی را داشته باشند و به طور بالقوه نتایج بدتری را برای بیماران تداوم بخشند.
به عنوان مثال، مطالعات متعدد نشان داده اند که نمرات به دست آمده از الگوریتم ها عفونت گلودرد استرپتوکوکی را پیش بینی می کند و ضایعات پوستی سرطانی را با دقت بیشتری نسبت به ارزیابی های بالینی شناسایی می کند.
مارک الیوت، نویسنده ارشد مقاله و آمارشناس ارشد ارشد در RAND
درعوض، استفاده از ابزارهایی برای تخمین اطلاعات نژادی و قومی در مورد بیمارانی که در آن اطلاعات خودشناسانه در دسترس نیست، میتواند تلاشها را برای بهبود الگوریتمهای مراقبتهای بهداشتی و توانمندسازی پزشکان برای کاهش سوگیری در شیوههای عملی خود تسریع کند.
محققان RAND میگویند که اگرچه سوگیریهایی که توسط الگوریتمها وجود دارد میتواند منجر به نتایج ناعادلانه شود، در بسیاری از موارد تصمیمگیری مغرضانه انسانی جایگزین وضعیت موجود برای سوگیری الگوریتمی است. در واقع، سوگیریهای الگوریتمی اغلب زمانی رخ میدهند که الگوریتم یاد میگیرد تفاوتهایی را که قبلاً در دادههایی که در آن آموزش دیدهاند وجود دارد را تشخیص دهد.
درج دادههای نژاد و قومیت گمشده یا نامعتبر، شناسایی سوگیری الگوریتمی را تسهیل میکند و مشخص میکند که چه اقدامات اصلاحی برای کاهش یا حذف سوگیری الگوریتمی از تصمیمهای درمانی لازم است.
منبع:
الیوت میگوید: «انتصاب نژاد و قومیت در تحقیقات مراقبتهای بهداشتی بهطور سنتی برای شناسایی نابرابریهای بهداشتی استفاده میشود. “رشد مداوم و استفاده از الگوریتمها در تصمیمگیریهای مراقبتهای بهداشتی، نیاز به اعمال نفوذ نژاد و قومیت را برای پرداختن به نابرابریهای بهداشتی به روشهای جدید برجسته میکند.”
این تحلیل در نسخه آگوست این مجله منتشر شده است امور بهداشتی.
مثال دیگری از اینکه چگونه اطلاعات نژادی و قومیتی میتواند عدالت مراقبتهای بهداشتی را بهبود بخشد، استفاده از اطلاعات برای اطمینان از برابری در طرحهای پرداخت به ازای عملکرد است که از سیستمهای پرداخت برای پاداش دادن به پزشکانی که مراقبتهای با کیفیت بالاتر را ارائه میکنند، استفاده میکند.