Концепция ответственного искусственного интеллекта — будущее искусственного интеллекта в медицине

Обложка


Цитировать

Полный текст

Аннотация

Активное развертывание систем искусственного интеллекта (ИИ) в медицине создаёт множество трудностей. В последние годы широко обсуждается концепция ответственного искусственного интеллекта (ОИИ), направленная на решение неизбежно возникающих этических, юридических и социальных проблем. Проведён анализ научной литературы по теме, рассмотрена возможность применения концепции ОИИ для преодоления существующих проблем ИИ в медицине. Исследования возможных применений ИИ в медицине показали, что современные алгоритмы не способны удовлетворить базовые непреходящие потребности общества — справедливость, прозрачность и надёжность. С целью решения данных этических проблем была предложена концепция ОИИ, основывающаяся на трёх принципах (ART) — объясняемость и прозрачность выводов, а также ответственность за деятельность ИИ. Дальнейшее развитие, без разработки и применения ART-концепции, делает опасным и невозможным применение ИИ в таких областях, как медицина, государственное управление и т.д. Требования к объясняемости и прозрачности выводов основываются на выявленных эпистемологических (ошибочные, непрозрачные, неполные выводы) и нормативных (конфиденциальность данных, дискриминация определённых групп) проблемах применения ИИ в цифровой медицине [2]. Эпистемологические ошибки, совершаемые ИИ, не ограничиваются упущениями, связанными с объёмами и репрезентативностью исходных анализируемых баз данных. К ним также относят известную проблему «чёрного ящика» — невозможность «заглянуть» в процесс формирования выводов ИИ при обработке входных данных. Наряду с эпистемологическими ошибками также неизбежно возникают нормативные проблемы — конфиденциальность пациентов и дискриминация некоторых социальных групп вследствие отказа части пациентов на предоставление их медицинских данных для тренировки алгоритмов и в составе анализируемых баз данных, что приведёт к недостаточно точным выводам ИИ в случаях определённых гендеров, рас, возрастов и т.д.

Важно отметить, что методология анализа данных ИИ зависит от кода программы, заданного программистом, эпистемологические и логические ошибки которого неизбежно проецируются на ИИ. Отсюда следует проблема определения ответственности в случае ошибочных выводов — её распределение между самой программой, разработчиком и исполнителем. Многочисленные профессиональные ассоциации проектируют этические стандарты для разработчиков и законодательную базу для регулирования ответственности между описанными звеньями. Однако очевидно, что в разработке и утверждении такого законодательства наибольшую роль должно играть государство.

Применение ИИ в медицине, несмотря на преимущества, сопровождается множеством этических, юридических и социальных проблем. Разработка ОИИ способна не только разрешить данные трудности, но и обеспечить дальнейшее активное и безопасное развертывание систем ИИ в цифровой медицине и здравоохранении.

Полный текст

Активное развертывание систем искусственного интеллекта (ИИ) в медицине создаёт множество трудностей. В последние годы широко обсуждается концепция ответственного искусственного интеллекта (ОИИ), направленная на решение неизбежно возникающих этических, юридических и социальных проблем. Проведён анализ научной литературы по теме, рассмотрена возможность применения концепции ОИИ для преодоления существующих проблем ИИ в медицине. Исследования возможных применений ИИ в медицине показали, что современные алгоритмы не способны удовлетворить базовые непреходящие потребности общества — справедливость, прозрачность и надёжность. С целью решения данных этических проблем была предложена концепция ОИИ, основывающаяся на трёх принципах (ART) — объясняемость и прозрачность выводов, а также ответственность за деятельность ИИ. Дальнейшее развитие, без разработки и применения ART-концепции, делает опасным и невозможным применение ИИ в таких областях, как медицина, государственное управление и т.д. Требования к объясняемости и прозрачности выводов основываются на выявленных эпистемологических (ошибочные, непрозрачные, неполные выводы) и нормативных (конфиденциальность данных, дискриминация определённых групп) проблемах применения ИИ в цифровой медицине [2]. Эпистемологические ошибки, совершаемые ИИ, не ограничиваются упущениями, связанными с объёмами и репрезентативностью исходных анализируемых баз данных. К ним также относят известную проблему «чёрного ящика» — невозможность «заглянуть» в процесс формирования выводов ИИ при обработке входных данных. Наряду с эпистемологическими ошибками также неизбежно возникают нормативные проблемы — конфиденциальность пациентов и дискриминация некоторых социальных групп вследствие отказа части пациентов на предоставление их медицинских данных для тренировки алгоритмов и в составе анализируемых баз данных, что приведёт к недостаточно точным выводам ИИ в случаях определённых гендеров, рас, возрастов и т.д.

Важно отметить, что методология анализа данных ИИ зависит от кода программы, заданного программистом, эпистемологические и логические ошибки которого неизбежно проецируются на ИИ. Отсюда следует проблема определения ответственности в случае ошибочных выводов — её распределение между самой программой, разработчиком и исполнителем. Многочисленные профессиональные ассоциации проектируют этические стандарты для разработчиков и законодательную базу для регулирования ответственности между описанными звеньями. Однако очевидно, что в разработке и утверждении такого законодательства наибольшую роль должно играть государство.

Применение ИИ в медицине, несмотря на преимущества, сопровождается множеством этических, юридических и социальных проблем. Разработка ОИИ способна не только разрешить данные трудности, но и обеспечить дальнейшее активное и безопасное развертывание систем ИИ в цифровой медицине и здравоохранении.

×

Об авторах

Николай Станиславович Германов

Российский национальный исследовательский медицинский университет имени Н.И. Пирогова

Автор, ответственный за переписку.
Email: n.s.germanov@gmail.com
ORCID iD: 0000-0003-1953-8794
Россия, Москва

Список литературы

  1. Dignum V. Responsibility and Artificial Intelligence. In: Dubber MD, Pasquale F, Das S, editors. The Oxford Handbook of Ethics of AI. Oxford: Oxford University Press; 2020. doi: 10.1093/oxfordhb/9780190067397.013.12
  2. Trocin C, Mikalef P, Papamitsiou Z, et al. Responsible AI for Digital Health: a Synthesis and a Research Agenda. Inf Syst Front. 2021. Available from: https://www.researchgate.net/publication/352769689_Responsible_AI_for_Digital_Health_a_Synthesis_and_a_Research_Agenda/link/60d807df92851ca9448cf7c4/download. doi: 10.1007/s10796-021-10146-4
  3. Racine E, Boehlen W, Sample M. Healthcare uses of artificial intelligence: Challenges and opportunities for growth. Healthcare Management Forum. 2019;32(5):272–275. doi: 10.1177/0840470419843831
  4. Zednik C. Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelligence. Philos. Technol. 2021;34:265–288. doi: 10.1007/s13347-019-00382-7
  5. Astromskė K, Peičius E, Astromskis P. Ethical and legal challenges of informed consent applying artificial intelligence in medical diagnostic consultations. AI & Soc. 2021;36:509–520. doi: 10.1007/s00146-020-01008-9
  6. Burr C, Taddeo M, Floridi L. The Ethics of Digital Well-Being: A Thematic Review. Sci Eng Ethics. 2020;26:2313–2343. doi: 10.1007/s11948-020-00175-8
  7. Gotterbarn D., Bruckman M., Flick C, Miller K, Wolf MJ. ACM Code of Ethics: A Guide for Positive Action. Communications of the ACM. 2018;61(1):121–128. doi: 10.1145/3173016

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Эко-вектор, 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ПИ № ФС 77 - 79539 от 09 ноября 2020 г.


Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах