اخبار فارس من افکار سنجی دانشکده انتشارات توانا فارس نوجوان

فرهنگ  /  غرب از نگاه غرب

تبعیض در الگوریتم های هوش مصنوعی حوزه بهداشت و درمان

هوش مصنوعی با کمک به پزشکان برای تشخیص ها و تصمیمات درمانی دقیق تر، پیشرفت های بزرگی را در سلامت انسان وعده داده است. اما همین هوش مصنوعی ممکن است به تبعیضی منجر شود که می تواند به اقلیت ها، زنان و بیماران از نظر اقتصادی کم برخوردار لطمه بزند.

تبعیض در الگوریتم های هوش مصنوعی حوزه بهداشت و درمان

خبرگزاری فارس ـ گروه غرب از نگاه غرب: هوش مصنوعی با کمک به پزشکان برای تشخیص ها و تصمیمات درمانی دقیق تر، پیشرفت های بزرگی را در سلامت انسان وعده داده است. اما همین هوش مصنوعی ممکن است به تبعیضی منجر شود که می تواند به اقلیت ها، زنان و بیماران از نظر اقتصادی کم برخوردار لطمه بزند.
پرسش این است که وقتی در الگوریتم های مراقبت های درمانی تبعیض وجود داشته باشد، مردم به چه چیزی می توانند توسل بجویند؟
یک مثال بارز از این نوع تبعیض، الگوریتمی است که برای شناسایی بیماران دارای بیماری های مزمن در برنامه هایی مورد استفاده قرار می گیرد که از بیماران پر خطر مراقبت به عمل می آورند. مطالعه ای که در سال 2019 انجام شده نشان داده که این الگوریم در انتخاب بیماران برای بهره مند شدن آنها از امتیازهای درمانی، بیشتر به نفع سفیدپوستان عمل می کند تا آفریقایی ـ آمریکاییان بیمارتر. این اتفاق به این دلیل رخ می دهد که این الگوریتم برای تعیین نیازهای پزشکی این عده، از هزینه های پزشکی گذشته آنها به عنوان یک شاخص استفاده کرده است.
فقر و دسترسی دشوار به مراقبت های درمانی اغلب مانع از آن می شود که آفریقایی ـ آمریکاییان به اندازه دیگران پول صرف مراقبت های درمانی خود کنند. این الگوریتم هزینه های پایین تر آنها را به غلط به عنوان شاخصی از سالم بودن آنها تفسیر کرده و در نتیجه این عده از حمایت هایی که به شدت نیازمند آن بوده اند محروم شده اند.
من به عنوان استاد حقوق و اخلاق پزشکی، این مشکل را مورد تجزیه و تحلیل قرار داده ام و راه هایی را برای حل آن شناسایی کرده ام.

چگونه الگوریتم ها تبعیض قائل می شوند
سوگیری الگوریتمی به چه معناست؟ گاه پیش می آید که تبعیض تاریخی در دل داده هایی پنهان شده باشد و الگوریتم ها نیز که بر اساس این داده ها آموزش می بینند، یاد می گیرند که تبعیض موجود را استمرار ببخشند.
برای مثال پزشکان اغلب آنژین صدری و حملات قلبی را بر اساس نشانه هایی تشخیص می دهند که تجربه آنها در مردان شایع تر از زنان است. در نتیجه امراض قلبی در زنان  بدون تشخیص باقی می ماند. الگوریتمی که ساخته شده تا به پزشکان کمک کند وضعیت های پزشکی قلب عروقی را ردگیری کنند، چون بر اساس داده های تشخیصی موجود آموزش داده می شود، می تواند یاد بگیرد که بیشتر بر نشانه های مردان تمرکز کند تا زنان و در نتیجه مشکل عدم تشخیص این علائم در زنان وخیم تر شود.
همانطور که در مورد الگوریتم برنامه مراقبت از بیماران پرخطر مشاهده می شود، تبعیض هوش مصنوعی می تواند در نشانه های اشتباه نیز ریشه داشته باشد. در مثالی دیگر شرکت نرم افزاری«اپیک» که سوابق  پزشکی الکترونیکی را تهیه می کند، یک ابزار مبتنی بر هوش مصنوعی ساخته تا به کمک آن بتوان بیمارانی که احتمال دارد در وقت ملاقات قبلی خود به مراکز درمانی مراجعه نکنند شناسایی کند. این نرم افزار به کارکنان این مراکز کمک می کند تا برای کسانی که به طور بالقوه در وقت ملاقات تعیین شده خود به مراکز درمانی رجوع نمی کنند، از نو وقت ملاقات تعیین شود تا از دست رفتن درآمد این مراکز جلوگیری شود. این هوش مصنوعی به دلیل وجود یک متغیر اولیه که همان احتمال عدم حضور در وقت ملاقات های قبلی باشد، به شکل بی تناسبی افراد از نظر اقتصادی کم برخوردارتر را به عنوان کسانی شناسایی کرده بود که احتمالا در وقت ملاقات خود حاضر نمی شوند.
این عده کسانی هستند که اغلب مشکلاتی در رفت و آمد، مراقبت از کودکان و گرفتن مرخصی ساعتی از محل کارشان دارند. زمانی هم که این افراد سر قرار ملاقاتشان حاضر می شدند، به این دلیل که وقت ملاقات مضاعفی برای یک نفر دیگر در نظر گرفته شده بود، پزشکان وقت کمتری داشتند که صرف معاینه آنها کنند.
بعضی الگوریتم ها آشکارا بر اساس نژاد تنظیم شده اند. سازندگان این الگوریتم ها با بازنگری داده های کلینیکی به طور کلی به چنین نتیجه ای رسیده اند. آفریقایی ـ آمریکاییان خطرات و پیامدهای سلامتی متفاوتی از دیگران دارند، در نتیجه آنها تنظیمات داخل الگوریتم ها را با هدف دقیق تر کردن آنها انجام داده اند.
اما داده هایی که این تنظیمات بر اساس آنها انجام شده، اغلب قدیمی، مشکوک یا جهت دار هستند. این الگوریتم ها می توانند باعث شوند که پزشکان مشکلات بیماران سیاهپوست را به درستی تشخیص ندهند و منابع را از آنها به سمت دیگری هدایت کنند.
برای مثال انجمن قلب آمریکا برای خطرات نارسایی قلبی از 0 تا 100 امتیاز در نظر گرفته و به غیرسیاهپوستان 3 امتیاز اضافه می کند. از این رو بیماران غیر سیاهپوست را به عنوان بیمارانی که خطر مرگ و میر در اثر بیماری های قلبی در آنها بیشتر است شناسایی می کند. به همین ترتیب الگوریتم سنگ کلیه 3 امتیاز از 13 امتیاز را به غیر سیاهپوستان اضافه می کند، در نتیجه چنین ارزیابی می کند که احتمال ابتلا به سنگ کلیه در آنها بیشتر است. اما در هر دو مورد فرض های اولیه نادرست هستند. هرچند این ها الگوریتم های ساده ای هستند و ضرورتا در سیستم های هوش مصنوعی به کار نمی روند، اما سازندگان هوش مصنوعی هنگام تهیه الگوریتم های خود، گاه فرض های مشابهی را در نظر می گیرند.
الگوریتم هایی که بر اساس نژاد تنظیم شده اند ممکن است بر اساس تعمیم های نادرستی تهیه شده باشند که می تواند پزشکان را گمراه کند. رنگ پوست به تنهایی توضیح دهنده خطرات و پیامدهای سلامتی نیست. بلکه تفاوت ها اغلب  می توان به ژنتیک یا فاکتورهای اجتماعی ـ اقتصادی نسبت داد و الگوریتم ها را نیز باید بر اساس آنها تنظیم کرد.
بعلاوه در حدود هفت درصد از جمعیت اختلاط نژادی وجود دارد. اگر الگوریتم ها درمان های متفاوتی را برای آفریقایی ـ آمریکاییان و غیرسیاه پوستان پیشنهاد کنند، دکترها چگونه باید بیماران چند نژادی را درمان کنند؟

ارتقای عدالت الگوریتمی
چند راه برای حل مشکل سوگیری الگوریتمی وجود دارد: اقامه دعوا، تدوین مقررات، قانونگزاری و رویه های بهتر.
1. اقامه دعوای یکسان نبودن تاثیرات: سوگیری های الگوریتمی مشمول تبعیض بین المللی نمی شوند. سازندگان هوش مصنوعی و پزشکان احتمالا قصدی برای لطمه زدن به بیماران ندارند. اما هوش مصنوعی با تاثیرگذاری غیریکسان بر اقلیت ها یا زنان، می تواند آنها را به تبعیضی ناخواسته سوق دهد. در حوزه های استخدام و مسکن، کسانی که احساس می کنند مورد تبعیض قرار گرفته اند می توانند به خاطر تاثیر پذیری نابرابر از تبعیض شکایت کنند. اما دادگاه ها به این نتیجه رسیده اند که بابت تاثیر نابرابر در موارد مراقبت های درمانی، نمی توان طرف های خصوصی را تحت پیگرد قرار داد. در عصر هوش مصنوعی این رویکرد  چندان منطقی نیست. باید برای شکایت از رویه های پزشکی که به تبعیض ناخواسته منجر شده اند اجازه ارائه دادخواست داده شود.
2. مقررات سازمان غذا و دارو: این سازمان در حال کار برای فهمیدن این است که چگونه باید هوش مصنوعی مرتبط با مراقبت های درمانی را قانونمند کرد. این سازمان اخیرا اشکالی از هوش مصنوعی را قانونگزاری کرده و برخی دیگر را نه. تا جایی که سازمان غذا و دارو بر هوش مصنوعی نظارت دارد، باید مطمئن شود که مشکلات سوگیری و تبعیض پیش از دریافت تاییدیه سیستم های هوش مصنوعی ردگیری و حل می شوند.
3.قانون پاسخگویی الگوریتمی: در سال 2019 سناتورها کوری بوکر و ران ویدن و نماینده مجلس یوت دی. کلارک «قانون پاسخگویی الگوریتمی» را پیشنهاد کردند. این قانون به نوبه خود شرکت ها را ملزم به مطالعه الگوریتم های مورد استفاده خود، شناسایی سوگیری ها و حل مشکلات احتمالی می کند. این لایجه هنوز به صورت قانون در نیامده، اما راه را برای مسیر قانونگزاری آینده هموار کرده که می تواند موفقیت آمیزتر باشد.
4.ساخت هوش های مصنوعی عادلانه تر: سازندگان و کاربران هوش مصنوعی پزشکی می توانند عدالت الگوریتمی را در زمره اولویت های خود قرار دهند. این مسئله باید به عنصری کلیدی در طراحی، تایید و به کارگیری سیستم های هوش مصنوعی پزشکی  تبدیل شود و تامین کنندگان مراقبت های درمانی باید هنگام انتخاب و استفاده از این سیستم ها، این موضوع را در نظر داشته باشند.
هوش مصنوعی در حال سیطره یافتن بر حوزه مراقبت های درمانی است. تبعیض هوش مصنوعی مشکلی جدی است که به بیماران زیادی آسیب می زند و افراد و شرکت های فعال در عرصه های فناوری و مراقبت های درمانی مسئولیت دارند این مشکل را تشخیص دهند و حل کنند.
نویسنده: شارونا هافمن (Sharona Hoffman) استاد حقوق سلامت و اخلاق پزشکی
منبع: https://b2n.ir/x12104

انتهای پیام/ 

 

این مطلب را برای صفحه اول پیشنهاد کنید
نظرات
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری فارس در وب سایت منتشر خواهد شد پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد
Captcha
لطفا پیام خود را وارد نمایید.
پیام شما با موفقیت ثبت گردید.
لطفا کد اعتبارسنجی را صحیح وارد نمایید.
مشکلی پیش آمده است. لطفا دوباره تلاش نمایید.

پر بازدید ها

    پر بحث ترین ها

      بیشترین اشتراک

        اخبار گردشگری globe
        اخبار کسب و کار تریبون
        همراه اول