Дискриминация искусственного интеллекта в медицине

Обложка


Цитировать

Полный текст

Аннотация

В настоящее время искусственный интеллект (ИИ) играет важную роль в различных областях в качестве основного работника или помощника, особенно в здравоохранении. Искусственный интеллект обладает множеством функций, которые он может выполнять даже лучше, чем человек, благодаря высокой скорости компиляции большого количества данных из различных источников [Интернет, Electronic health record (EHR) и т.д.], что повышает производительность труда врачей.

Менее обсуждаемой, но не менее важной проблемой является дискриминации искусственного интеллекта в здравоохранении: врачи, на которых лежит большая ответственность, не могут полагаться на ИИ, поскольку сталкиваются с рядом уязвимостей.

Во-первых, ИИ собирает огромные массивы данных и, несмотря на то что он не автономен и контролируется оператором, не гарантирует безошибочный результат, так как может сыграть роль человеческий фактор, который будет источником неточностей в работе. Следовательно, существует высокий риск использования некачественных данных в процессе дальнейшего принятия решений. Ошибки, предрассудки (этнические, гендерные, возрастные, социальные и др.) и пробелы в данных ухудшают результаты работы ИИ, что приводит, например, к дискриминации меньшинств, назначению им неточного лечения. Кроме того, ИИ может действовать неэтично или даже нарушать законы (например, часть VI, раздел 1557 закона США о доступном медицинском обслуживании, запрещающего дискриминацию по признаку расы, цвета кожи, национального происхождения, пола, возраста или инвалидности в некоторых программах и мероприятиях в области здравоохранения).

Во-вторых, ИИ можно назвать скрытным из-за неопределённости алгоритмов. Это означает, что никто не может объяснить, как и почему ИИ принял такое решение (по словам Джудии Перл в произведении «Книга почему»), поэтому врачи не могут проверить факты и убедиться, что анализ выполнен правильно и сделан верный вывод.

Необходимо признать существование трудностей в решении посредством ИИ проблем реального мира, которые не могут быть решены с помощью формальных, математических правил логики, в то время как люди делают это хорошо (например, естественный язык, распознавание лиц и т.д.).

Можно утверждать, что ИИ облегчает работу медицинских работников, однако он имеет множество нерешённых проблем, которые вводят врачей в заблуждение и способствуют принятию неверных решений.

Полный текст

В настоящее время искусственный интеллект (ИИ) играет важную роль в различных областях в качестве основного работника или помощника, особенно в здравоохранении. Искусственный интеллект обладает множеством функций, которые он может выполнять даже лучше, чем человек, благодаря высокой скорости компиляции большого количества данных из различных источников [Интернет, Electronic health record (EHR) и т.д.], что повышает производительность труда врачей.

Менее обсуждаемой, но не менее важной проблемой является дискриминации искусственного интеллекта в здравоохранении: врачи, на которых лежит большая ответственность, не могут полагаться на ИИ, поскольку сталкиваются с рядом уязвимостей.

Во-первых, ИИ собирает огромные массивы данных и, несмотря на то что он не автономен и контролируется оператором, не гарантирует безошибочный результат, так как может сыграть роль человеческий фактор, который будет источником неточностей в работе. Следовательно, существует высокий риск использования некачественных данных в процессе дальнейшего принятия решений. Ошибки, предрассудки (этнические, гендерные, возрастные, социальные и др.) и пробелы в данных ухудшают результаты работы ИИ, что приводит, например, к дискриминации меньшинств, назначению им неточного лечения. Кроме того, ИИ может действовать неэтично или даже нарушать законы (например, часть VI, раздел 1557 закона США о доступном медицинском обслуживании, запрещающего дискриминацию по признаку расы, цвета кожи, национального происхождения, пола, возраста или инвалидности в некоторых программах и мероприятиях в области здравоохранения).

Во-вторых, ИИ можно назвать скрытным из-за неопределённости алгоритмов. Это означает, что никто не может объяснить, как и почему ИИ принял такое решение (по словам Джудии Перл в произведении «Книга почему»), поэтому врачи не могут проверить факты и убедиться, что анализ выполнен правильно и сделан верный вывод.

Необходимо признать существование трудностей в решении посредством ИИ проблем реального мира, которые не могут быть решены с помощью формальных, математических правил логики, в то время как люди делают это хорошо (например, естественный язык, распознавание лиц и т.д.).

Можно утверждать, что ИИ облегчает работу медицинских работников, однако он имеет множество нерешённых проблем, которые вводят врачей в заблуждение и способствуют принятию неверных решений.

×

Об авторах

Михаил Юрьевич Хомяков

Российский национальный исследовательский медицинский университет имени Н.И. Пирогова

Автор, ответственный за переписку.
Email: mehilaineen@gmail.com
ORCID iD: 0009-0005-4818-8270
Россия, Москва

Список литературы

  1. Holzinger A, Langs G., Denk H., et al. Causability and explainability of artificial intelligence in medicine // Wiley Interdiscip Rev Data Min Knowl Discov. 2019. Vol. 9, N 4. P. e1312. doi: 10.1002/widm.1312
  2. Hoffman S., Podgurski A. Artificial Intelligence and Discrimination in Health Care. Case Western Reserve University. School of Law, 2020.
  3. Kim J.S., Kim B.G., Hwang S.H. Efficacy of Artificial Intelligence-Assisted Discrimination of Oral Cancerous Lesions from Normal Mucosa Based on the Oral Mucosal Image: A Systematic Review and Meta-Analysis // Cancers (Basel). 2022. Vol. 14, N 14. P. 3499. doi: 10.3390/cancers14143499
  4. Laguarta J., Hueto F., Subirana B. COVID-19 Artificial Intelligence Diagnosis Using Only Cough Recordings // IEEE Open J Eng Med Biol. 2020. Vol. 1. P. 275–281. doi: 10.1109/OJEMB.2020.3026928
  5. Vellido A. Societal Issues Concerning the Application of Artificial Intelligence in Medicine // Kidney Dis (Basel). 2019. Vol. 5, N 1. P. 11–17. doi: 10.1159/000492428
  6. Park S.H., Han K. Methodologic Guide for Evaluating Clinical Performance and Effect of Artificial Intelligence Technology for Medical Diagnosis and Prediction // Radiology. 2018. Vol. 286, N 3. P. 800–809. doi: 10.1148/radiol.2017171920

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Эко-вектор, 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ПИ № ФС 77 - 79539 от 09 ноября 2020 г.


Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах