9 марта 2021 года.
Искусственный интеллект открывает большие перспективы для улучшения здоровья людей, помогая врачам ставить точные диагнозы и принимать решения о лечении. Он также может привести к дискриминации, которая может навредить меньшинствам, женщинам и экономически неблагополучным людям.
Вопрос в том, что делать, если алгоритмы здравоохранения дискриминируют людей, и какие у них есть средства защиты?
Ярким примером такого рода дискриминации является алгоритм, используемый для направления хронически больных пациентов в программы по уходу за пациентами с высоким риском. Исследование, проведенное в 2019 году, показало, что при отборе пациентов для получения этих полезных услуг алгоритм отдавал предпочтение белым, а не больным афроамериканцам. Это связано с тем, что в качестве косвенного показателя медицинских потребностей используются прошлые медицинские расходы.
Бедность и трудности с доступом к медицинскому обслуживанию часто не позволяют афроамериканцам тратить на здравоохранение столько же денег, сколько и другим. Алгоритм неверно истолковал их низкие расходы как свидетельство здоровья и лишил их крайне необходимой поддержки.
Как профессор права и биоэтики, я проанализировал эту проблему и наметил пути ее решения.
Как алгоритмы дискриминируют
Чем объясняется предвзятость алгоритмов? Историческая дискриминация иногда заложена в обучающих данных, и алгоритмы учатся увековечивать существующую дискриминацию.
Например, врачи часто диагностируют стенокардию и сердечные приступы, основываясь на симптомах, которые у мужчин встречаются чаще, чем у женщин. В результате женщинам недостаточно диагностируют сердечные заболевания. Алгоритм, призванный помочь врачам выявлять сердечные заболевания, обученный на исторических диагностических данных, может научиться ориентироваться на симптомы мужчин, а не женщин, что усугубит проблему недодиагностики женщин.
Кроме того, в основе дискриминации ИИ могут лежать ошибочные предположения, как в случае с алгоритмом программы ухода за больными с высоким риском.
В другом случае компания Epic, занимающаяся разработкой программного обеспечения для электронных медицинских карт, создала инструмент на основе искусственного интеллекта, который помогает медицинским учреждениям выявлять пациентов, которые могут пропустить прием. Это позволило врачам дважды бронировать потенциальные неявки на прием, чтобы избежать потери дохода. Поскольку основной переменной для оценки вероятности неявки был предыдущий пропущенный прием, ИИ выявлял непропорционально большое количество экономически неблагополучных людей.
Это люди, у которых часто возникают проблемы с транспортом, уходом за детьми и отрывом от работы. Когда они все же приходили на прием, у врачей оставалось меньше времени на общение с ними из-за двойной записи.
Некоторые алгоритмы явно учитывают расовую принадлежность. Их разработчики изучили клинические данные и пришли к выводу, что в целом афроамериканцы имеют другие риски для здоровья и другие исходы, поэтому они внесли коррективы в алгоритмы, чтобы сделать их более точными.
Но данные, на которых основаны эти поправки, часто устарели, подозрительны или необъективны. Такие алгоритмы могут заставить врачей неправильно диагностировать чернокожих пациентов и отвлекать от них ресурсы.
Например, оценка риска сердечной недостаточности по шкале Американской ассоциации сердца, которая варьируется от 0 до 100, добавляет 3 балла для нечернокожих. Таким образом, нечернокожие пациенты с большей вероятностью умрут от сердечных заболеваний. Аналогичным образом алгоритм оценки камней в почках добавляет 3 из 13 баллов нечернокожим пациентам, тем самым оценивая их как более склонных к образованию камней в почках. Но в обоих случаях предположения оказались неверными. Хотя это простые алгоритмы, которые не обязательно включать в системы ИИ, разработчики ИИ иногда делают подобные предположения при создании своих алгоритмов.
Алгоритмы, учитывающие расовую принадлежность, могут быть основаны на неточных обобщениях и вводить врачей в заблуждение. Цвет кожи сам по себе не объясняет различные риски для здоровья или результаты. Вместо этого различия часто объясняются генетикой или социально-экономическими факторами, на которые и должны делать поправку алгоритмы.
Кроме того, почти 7 % населения имеют смешанное происхождение. Если алгоритмы предлагают разное лечение для афроамериканцев и нечернокожих, как врачи должны относиться к пациентам смешанного происхождения?
Содействие справедливости алгоритмов
Существует несколько путей решения проблемы предвзятости алгоритмов: судебные разбирательства, регулирование, законодательство и передовой опыт.
ИИ становится все более распространенным в здравоохранении. Дискриминация ИИ — серьезная проблема, которая может навредить многим пациентам, и ответственность за ее признание и решение лежит на тех, кто работает в сфере технологий и здравоохранения.
Автор: Шарона Хоффман, профессор медицинского права и биоэтики, Западный резервный университет Кейза.