Дискриминация искусственного интеллекта в медицине
- Авторы: Хомяков М.Ю.1
-
Учреждения:
- Российский национальный исследовательский медицинский университет имени Н.И. Пирогова
- Выпуск: Том 4, № 1S (2023)
- Страницы: 143-144
- Раздел: Материалы конференции
- Статья получена: 18.05.2023
- Статья одобрена: 18.05.2023
- Статья опубликована: 26.06.2023
- URL: https://jdigitaldiagnostics.com/DD/article/view/430374
- DOI: https://doi.org/10.17816/DD430374
- ID: 430374
Цитировать
Полный текст
Аннотация
В настоящее время искусственный интеллект (ИИ) играет важную роль в различных областях в качестве основного работника или помощника, особенно в здравоохранении. Искусственный интеллект обладает множеством функций, которые он может выполнять даже лучше, чем человек, благодаря высокой скорости компиляции большого количества данных из различных источников [Интернет, Electronic health record (EHR) и т.д.], что повышает производительность труда врачей.
Менее обсуждаемой, но не менее важной проблемой является дискриминации искусственного интеллекта в здравоохранении: врачи, на которых лежит большая ответственность, не могут полагаться на ИИ, поскольку сталкиваются с рядом уязвимостей.
Во-первых, ИИ собирает огромные массивы данных и, несмотря на то что он не автономен и контролируется оператором, не гарантирует безошибочный результат, так как может сыграть роль человеческий фактор, который будет источником неточностей в работе. Следовательно, существует высокий риск использования некачественных данных в процессе дальнейшего принятия решений. Ошибки, предрассудки (этнические, гендерные, возрастные, социальные и др.) и пробелы в данных ухудшают результаты работы ИИ, что приводит, например, к дискриминации меньшинств, назначению им неточного лечения. Кроме того, ИИ может действовать неэтично или даже нарушать законы (например, часть VI, раздел 1557 закона США о доступном медицинском обслуживании, запрещающего дискриминацию по признаку расы, цвета кожи, национального происхождения, пола, возраста или инвалидности в некоторых программах и мероприятиях в области здравоохранения).
Во-вторых, ИИ можно назвать скрытным из-за неопределённости алгоритмов. Это означает, что никто не может объяснить, как и почему ИИ принял такое решение (по словам Джудии Перл в произведении «Книга почему»), поэтому врачи не могут проверить факты и убедиться, что анализ выполнен правильно и сделан верный вывод.
Необходимо признать существование трудностей в решении посредством ИИ проблем реального мира, которые не могут быть решены с помощью формальных, математических правил логики, в то время как люди делают это хорошо (например, естественный язык, распознавание лиц и т.д.).
Можно утверждать, что ИИ облегчает работу медицинских работников, однако он имеет множество нерешённых проблем, которые вводят врачей в заблуждение и способствуют принятию неверных решений.
Ключевые слова
Полный текст
В настоящее время искусственный интеллект (ИИ) играет важную роль в различных областях в качестве основного работника или помощника, особенно в здравоохранении. Искусственный интеллект обладает множеством функций, которые он может выполнять даже лучше, чем человек, благодаря высокой скорости компиляции большого количества данных из различных источников [Интернет, Electronic health record (EHR) и т.д.], что повышает производительность труда врачей.
Менее обсуждаемой, но не менее важной проблемой является дискриминации искусственного интеллекта в здравоохранении: врачи, на которых лежит большая ответственность, не могут полагаться на ИИ, поскольку сталкиваются с рядом уязвимостей.
Во-первых, ИИ собирает огромные массивы данных и, несмотря на то что он не автономен и контролируется оператором, не гарантирует безошибочный результат, так как может сыграть роль человеческий фактор, который будет источником неточностей в работе. Следовательно, существует высокий риск использования некачественных данных в процессе дальнейшего принятия решений. Ошибки, предрассудки (этнические, гендерные, возрастные, социальные и др.) и пробелы в данных ухудшают результаты работы ИИ, что приводит, например, к дискриминации меньшинств, назначению им неточного лечения. Кроме того, ИИ может действовать неэтично или даже нарушать законы (например, часть VI, раздел 1557 закона США о доступном медицинском обслуживании, запрещающего дискриминацию по признаку расы, цвета кожи, национального происхождения, пола, возраста или инвалидности в некоторых программах и мероприятиях в области здравоохранения).
Во-вторых, ИИ можно назвать скрытным из-за неопределённости алгоритмов. Это означает, что никто не может объяснить, как и почему ИИ принял такое решение (по словам Джудии Перл в произведении «Книга почему»), поэтому врачи не могут проверить факты и убедиться, что анализ выполнен правильно и сделан верный вывод.
Необходимо признать существование трудностей в решении посредством ИИ проблем реального мира, которые не могут быть решены с помощью формальных, математических правил логики, в то время как люди делают это хорошо (например, естественный язык, распознавание лиц и т.д.).
Можно утверждать, что ИИ облегчает работу медицинских работников, однако он имеет множество нерешённых проблем, которые вводят врачей в заблуждение и способствуют принятию неверных решений.
Об авторах
Михаил Юрьевич Хомяков
Российский национальный исследовательский медицинский университет имени Н.И. Пирогова
Автор, ответственный за переписку.
Email: mehilaineen@gmail.com
ORCID iD: 0009-0005-4818-8270
Россия, Москва
Список литературы
- Holzinger A, Langs G., Denk H., et al. Causability and explainability of artificial intelligence in medicine // Wiley Interdiscip Rev Data Min Knowl Discov. 2019. Vol. 9, N 4. P. e1312. doi: 10.1002/widm.1312
- Hoffman S., Podgurski A. Artificial Intelligence and Discrimination in Health Care. Case Western Reserve University. School of Law, 2020.
- Kim J.S., Kim B.G., Hwang S.H. Efficacy of Artificial Intelligence-Assisted Discrimination of Oral Cancerous Lesions from Normal Mucosa Based on the Oral Mucosal Image: A Systematic Review and Meta-Analysis // Cancers (Basel). 2022. Vol. 14, N 14. P. 3499. doi: 10.3390/cancers14143499
- Laguarta J., Hueto F., Subirana B. COVID-19 Artificial Intelligence Diagnosis Using Only Cough Recordings // IEEE Open J Eng Med Biol. 2020. Vol. 1. P. 275–281. doi: 10.1109/OJEMB.2020.3026928
- Vellido A. Societal Issues Concerning the Application of Artificial Intelligence in Medicine // Kidney Dis (Basel). 2019. Vol. 5, N 1. P. 11–17. doi: 10.1159/000492428
- Park S.H., Han K. Methodologic Guide for Evaluating Clinical Performance and Effect of Artificial Intelligence Technology for Medical Diagnosis and Prediction // Radiology. 2018. Vol. 286, N 3. P. 800–809. doi: 10.1148/radiol.2017171920