Концепция ответственного искусственного интеллекта — будущее искусственного интеллекта в медицине
- Авторы: Германов Н.С.1
-
Учреждения:
- Российский национальный исследовательский медицинский университет имени Н.И. Пирогова
- Выпуск: Том 4, № 1S (2023)
- Страницы: 27-29
- Раздел: Материалы конференции
- URL: https://jdigitaldiagnostics.com/DD/article/view/430334
- DOI: https://doi.org/10.17816/DD430334
- ID: 430334
Цитировать
Полный текст
Аннотация
Активное развертывание систем искусственного интеллекта (ИИ) в медицине создаёт множество трудностей. В последние годы широко обсуждается концепция ответственного искусственного интеллекта (ОИИ), направленная на решение неизбежно возникающих этических, юридических и социальных проблем. Проведён анализ научной литературы по теме, рассмотрена возможность применения концепции ОИИ для преодоления существующих проблем ИИ в медицине. Исследования возможных применений ИИ в медицине показали, что современные алгоритмы не способны удовлетворить базовые непреходящие потребности общества — справедливость, прозрачность и надёжность. С целью решения данных этических проблем была предложена концепция ОИИ, основывающаяся на трёх принципах (ART) — объясняемость и прозрачность выводов, а также ответственность за деятельность ИИ. Дальнейшее развитие, без разработки и применения ART-концепции, делает опасным и невозможным применение ИИ в таких областях, как медицина, государственное управление и т.д. Требования к объясняемости и прозрачности выводов основываются на выявленных эпистемологических (ошибочные, непрозрачные, неполные выводы) и нормативных (конфиденциальность данных, дискриминация определённых групп) проблемах применения ИИ в цифровой медицине [2]. Эпистемологические ошибки, совершаемые ИИ, не ограничиваются упущениями, связанными с объёмами и репрезентативностью исходных анализируемых баз данных. К ним также относят известную проблему «чёрного ящика» — невозможность «заглянуть» в процесс формирования выводов ИИ при обработке входных данных. Наряду с эпистемологическими ошибками также неизбежно возникают нормативные проблемы — конфиденциальность пациентов и дискриминация некоторых социальных групп вследствие отказа части пациентов на предоставление их медицинских данных для тренировки алгоритмов и в составе анализируемых баз данных, что приведёт к недостаточно точным выводам ИИ в случаях определённых гендеров, рас, возрастов и т.д.
Важно отметить, что методология анализа данных ИИ зависит от кода программы, заданного программистом, эпистемологические и логические ошибки которого неизбежно проецируются на ИИ. Отсюда следует проблема определения ответственности в случае ошибочных выводов — её распределение между самой программой, разработчиком и исполнителем. Многочисленные профессиональные ассоциации проектируют этические стандарты для разработчиков и законодательную базу для регулирования ответственности между описанными звеньями. Однако очевидно, что в разработке и утверждении такого законодательства наибольшую роль должно играть государство.
Применение ИИ в медицине, несмотря на преимущества, сопровождается множеством этических, юридических и социальных проблем. Разработка ОИИ способна не только разрешить данные трудности, но и обеспечить дальнейшее активное и безопасное развертывание систем ИИ в цифровой медицине и здравоохранении.
Полный текст
Активное развертывание систем искусственного интеллекта (ИИ) в медицине создаёт множество трудностей. В последние годы широко обсуждается концепция ответственного искусственного интеллекта (ОИИ), направленная на решение неизбежно возникающих этических, юридических и социальных проблем. Проведён анализ научной литературы по теме, рассмотрена возможность применения концепции ОИИ для преодоления существующих проблем ИИ в медицине. Исследования возможных применений ИИ в медицине показали, что современные алгоритмы не способны удовлетворить базовые непреходящие потребности общества — справедливость, прозрачность и надёжность. С целью решения данных этических проблем была предложена концепция ОИИ, основывающаяся на трёх принципах (ART) — объясняемость и прозрачность выводов, а также ответственность за деятельность ИИ. Дальнейшее развитие, без разработки и применения ART-концепции, делает опасным и невозможным применение ИИ в таких областях, как медицина, государственное управление и т.д. Требования к объясняемости и прозрачности выводов основываются на выявленных эпистемологических (ошибочные, непрозрачные, неполные выводы) и нормативных (конфиденциальность данных, дискриминация определённых групп) проблемах применения ИИ в цифровой медицине [2]. Эпистемологические ошибки, совершаемые ИИ, не ограничиваются упущениями, связанными с объёмами и репрезентативностью исходных анализируемых баз данных. К ним также относят известную проблему «чёрного ящика» — невозможность «заглянуть» в процесс формирования выводов ИИ при обработке входных данных. Наряду с эпистемологическими ошибками также неизбежно возникают нормативные проблемы — конфиденциальность пациентов и дискриминация некоторых социальных групп вследствие отказа части пациентов на предоставление их медицинских данных для тренировки алгоритмов и в составе анализируемых баз данных, что приведёт к недостаточно точным выводам ИИ в случаях определённых гендеров, рас, возрастов и т.д.
Важно отметить, что методология анализа данных ИИ зависит от кода программы, заданного программистом, эпистемологические и логические ошибки которого неизбежно проецируются на ИИ. Отсюда следует проблема определения ответственности в случае ошибочных выводов — её распределение между самой программой, разработчиком и исполнителем. Многочисленные профессиональные ассоциации проектируют этические стандарты для разработчиков и законодательную базу для регулирования ответственности между описанными звеньями. Однако очевидно, что в разработке и утверждении такого законодательства наибольшую роль должно играть государство.
Применение ИИ в медицине, несмотря на преимущества, сопровождается множеством этических, юридических и социальных проблем. Разработка ОИИ способна не только разрешить данные трудности, но и обеспечить дальнейшее активное и безопасное развертывание систем ИИ в цифровой медицине и здравоохранении.
Об авторах
Николай Станиславович Германов
Российский национальный исследовательский медицинский университет имени Н.И. Пирогова
Автор, ответственный за переписку.
Email: n.s.germanov@gmail.com
ORCID iD: 0000-0003-1953-8794
Россия, Москва
Список литературы
- Dignum V. Responsibility and Artificial Intelligence. In: Dubber MD, Pasquale F, Das S, editors. The Oxford Handbook of Ethics of AI. Oxford: Oxford University Press; 2020. doi: 10.1093/oxfordhb/9780190067397.013.12
- Trocin C, Mikalef P, Papamitsiou Z, et al. Responsible AI for Digital Health: a Synthesis and a Research Agenda. Inf Syst Front. 2021. Available from: https://www.researchgate.net/publication/352769689_Responsible_AI_for_Digital_Health_a_Synthesis_and_a_Research_Agenda/link/60d807df92851ca9448cf7c4/download. doi: 10.1007/s10796-021-10146-4
- Racine E, Boehlen W, Sample M. Healthcare uses of artificial intelligence: Challenges and opportunities for growth. Healthcare Management Forum. 2019;32(5):272–275. doi: 10.1177/0840470419843831
- Zednik C. Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelligence. Philos. Technol. 2021;34:265–288. doi: 10.1007/s13347-019-00382-7
- Astromskė K, Peičius E, Astromskis P. Ethical and legal challenges of informed consent applying artificial intelligence in medical diagnostic consultations. AI & Soc. 2021;36:509–520. doi: 10.1007/s00146-020-01008-9
- Burr C, Taddeo M, Floridi L. The Ethics of Digital Well-Being: A Thematic Review. Sci Eng Ethics. 2020;26:2313–2343. doi: 10.1007/s11948-020-00175-8
- Gotterbarn D., Bruckman M., Flick C, Miller K, Wolf MJ. ACM Code of Ethics: A Guide for Positive Action. Communications of the ACM. 2018;61(1):121–128. doi: 10.1145/3173016