Этические проблемы внедрения искусственного интеллекта в медицине

Обложка


Цитировать

Полный текст

Аннотация

Системы искусственного интеллекта (ИИ) высокоэффективны, что делает невозможным игнорирование их имплементации в медицинскую практику, но создаёт ряд этических проблем. Проблема «чёрного ящика» является базовой для философии искусственного интеллекта, но имеет свою специфику применительно к медицине. С целью изучения проблем внедрения ИИ в медицину проведён отбор релевантных статей за последние три года через Pubmed и Google Scholar по цитированиям и их анализ. Одной из центральных проблем внедрения ИИ в медицину является проблема «чёрного ящика» — отсутствие ясных и обоснованных принципов работы ИИ. Как врачи могут опираться на заключения ИИ, не имея достаточного количества данных, объясняющих принятие того или иного решения? А в случае неблагоприятного исхода (летального случая, тяжёлой травмы) на ком будет лежать ответственность за окончательно принятое решение? В рутинной практике медицинские решения основываются на комплексном подходе: понимании патофизиологии и биохимии, интерпретации полученных в прошлом результатов, клинических исследованиях и когортных наблюдениях. Искусственный интеллект может быть использован для построения плана диагностики заболеваний и лечения, но не предоставляет убедительных обоснований для принятия конкретных решений. Это и создаёт «чёрный ящик»: не всегда понятно, какую информацию ИИ считает важной для вынесения заключения, каким образом и почему ИИ приходит именно к такому выводу. Хуан Мануэль Дуран пишет: «Даже если мы заявляем, что понимаем принципы, лежащие в основе маркировки и обучения ИИ, всё равно сложно, а часто даже невозможно претендовать на понимание внутренней работы таких систем. Врач может интерпретировать или проверять результаты этих алгоритмов, но врач не может объяснить, как алгоритм пришёл к своим рекомендациям или диагнозу». Сегодня модели ИИ обучены распознавать микроскопические аденомы и полипы в толстой кишке. Но, несмотря на высокую точность, врачи всё ещё имеют недостаточно представлений о том, как ИИ дифференцирует различные виды полипов, а признаки, являющиеся ключевыми для постановки диагноза ИИ, остаются неясными для опытных врачей-эндоскопистов. Другой пример — биомаркеры колоректального рака, распознаваемые ИИ. При этом врач не знает, как алгоритмы определяют количественные и качественные критерии выявляемых биомаркеров для формулировки окончательного диагноза в каждом индивидуальном случае, т.е. возникает «чёрный ящик» в патологии процесса. Для того чтобы завоевать доверие врачей и пациентов, необходимо обеспечить расшифровку и пояснение процессов, лежащих в основе работы ИИ, описать, как последовательно, шаг за шагом происходит работа и формулируется конкретный результат. Хотя алгоритмы «чёрного ящика» нельзя назвать прозрачными, стоит рассмотреть возможность применения данных технологий в практической медицине. Несмотря на перечисленные проблемы, точность и эффективность решений не позволяет пренебрегать использованием ИИ, даже, наоборот, делает это использование необходимым. Возникающие проблемы должны служить основой для подготовки и обучения врачей умению работать с ИИ, расширения сфер применения и разработки новых методик диагностики.

Полный текст

Системы искусственного интеллекта (ИИ) высокоэффективны, что делает невозможным игнорирование их имплементации в медицинскую практику, но создаёт ряд этических проблем. Проблема «чёрного ящика» является базовой для философии искусственного интеллекта, но имеет свою специфику применительно к медицине. С целью изучения проблем внедрения ИИ в медицину проведён отбор релевантных статей за последние три года через Pubmed и Google Scholar по цитированиям и их анализ. Одной из центральных проблем внедрения ИИ в медицину является проблема «чёрного ящика» — отсутствие ясных и обоснованных принципов работы ИИ. Как врачи могут опираться на заключения ИИ, не имея достаточного количества данных, объясняющих принятие того или иного решения? А в случае неблагоприятного исхода (летального случая, тяжёлой травмы) на ком будет лежать ответственность за окончательно принятое решение? В рутинной практике медицинские решения основываются на комплексном подходе: понимании патофизиологии и биохимии, интерпретации полученных в прошлом результатов, клинических исследованиях и когортных наблюдениях. Искусственный интеллект может быть использован для построения плана диагностики заболеваний и лечения, но не предоставляет убедительных обоснований для принятия конкретных решений. Это и создаёт «чёрный ящик»: не всегда понятно, какую информацию ИИ считает важной для вынесения заключения, каким образом и почему ИИ приходит именно к такому выводу. Хуан Мануэль Дуран пишет: «Даже если мы заявляем, что понимаем принципы, лежащие в основе маркировки и обучения ИИ, всё равно сложно, а часто даже невозможно претендовать на понимание внутренней работы таких систем. Врач может интерпретировать или проверять результаты этих алгоритмов, но врач не может объяснить, как алгоритм пришёл к своим рекомендациям или диагнозу». Сегодня модели ИИ обучены распознавать микроскопические аденомы и полипы в толстой кишке. Но, несмотря на высокую точность, врачи всё ещё имеют недостаточно представлений о том, как ИИ дифференцирует различные виды полипов, а признаки, являющиеся ключевыми для постановки диагноза ИИ, остаются неясными для опытных врачей-эндоскопистов. Другой пример — биомаркеры колоректального рака, распознаваемые ИИ. При этом врач не знает, как алгоритмы определяют количественные и качественные критерии выявляемых биомаркеров для формулировки окончательного диагноза в каждом индивидуальном случае, т.е. возникает «чёрный ящик» в патологии процесса. Для того чтобы завоевать доверие врачей и пациентов, необходимо обеспечить расшифровку и пояснение процессов, лежащих в основе работы ИИ, описать, как последовательно, шаг за шагом происходит работа и формулируется конкретный результат. Хотя алгоритмы «чёрного ящика» нельзя назвать прозрачными, стоит рассмотреть возможность применения данных технологий в практической медицине. Несмотря на перечисленные проблемы, точность и эффективность решений не позволяет пренебрегать использованием ИИ, даже, наоборот, делает это использование необходимым. Возникающие проблемы должны служить основой для подготовки и обучения врачей умению работать с ИИ, расширения сфер применения и разработки новых методик диагностики.

×

Об авторах

Максим Игоревич Коньков

Российский национальный исследовательский медицинский университет имени Н.И. Пирогова

Автор, ответственный за переписку.
Email: konkovmaksim18@gmail.com
ORCID iD: 0009-0002-2803-1020
Россия, Москва

Список литературы

  1. Holm E.A. In defense of the black box // Science. 2019. Vol. 364, N 6435. P. 26–27. doi: 10.1126/science.aax0162
  2. Durán J.M., Jongsma K.R. Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI // J Med Ethics. 2021 Mar 18:medethics-2020-106820. doi: 10.1136/medethics-2020-106820
  3. Poon A.I.F., Sung J.J.Y. Opening the black box of AI-Medicine // J Gastroenterol Hepatol. 2021. Vol. 36, N 3. P. 581–584. doi: 10.1111/jgh.15384
  4. Wang F., Kaushal R., Khullar D. Should Health Care Demand Interpretable Artificial Intelligence or Accept “Black Box” Medicine? // Ann Intern Med. 2020. Vol. 172, N 1. P. 59–60. doi: 10.7326/M19-2548
  5. London A.J. Artificial Intelligence and Black-Box Medical Decisions: Accuracy versus Explainability // Hastings Cent Rep. 2019. Vol. 49, N 1. P. 15–21. doi: 10.1002/hast.973
  6. Yang G., Ye Q., Xia J. Unbox the black-box for the medical explainable AI via multi-modal and multi-centre data fusion: A mini-review, two showcases and beyond // Inf Fusion. 2022. Vol. 77. P. 29–52. doi: 10.1016/j.inffus.2021.07.016
  7. Quinn T.P., Jacobs S., Senadeera M., Le V., Coghlan S. The three ghosts of medical AI: Can the black-box present deliver? // Artif Intell Med. 2022. Vol. 124. P. 102158. doi: 10.1016/j.artmed.2021.102158
  8. Handelman G.S., Kok H.K., Chandra R.V., et al. Peering Into the Black Box of Artificial Intelligence: Evaluation Metrics of Machine Learning Methods // AJR Am J Roentgenol. 2019/ Vol. 212, N 1. P. 38–43. doi: 10.2214/AJR.18.20224
  9. Мелдо А.А., Уткин Л.В., Трофимова Т.Н. Искусственный интеллект в медицине: современное состояние и основные направления развития интеллектуальной диагностики // Лучевая диагностика и терапия. 2020. Т. 11, № 1. С. 9–17. doi: 10.22328/2079-5343-2020-11-1-9-17
  10. Малых В.Л. Системы поддержки принятия решений в медицине // Программные системы: теория и приложения. 2019. Т. 10, № 2 (41). С. 155–184. doi: 10.25209/2079-3316-2019-10-2-155-184

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Эко-вектор, 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ПИ № ФС 77 - 79539 от 09 ноября 2020 г.


Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах