Machine learning methods for recognizing surgical site infection in trauma and orthopedic patients



Cite item

Full Text

Abstract

BACKGROUND: Surgical site infections (SSIs) are common postoperative complications that often develop after hospital discharge. Timely diagnosis and optimal treatment choice are crucial for clinical success and cost-effectiveness in SSI treatment. Computer vision and artificial intelligence (AI) methods have demonstrated their effectiveness in analyzing chronic wounds, but their applicability to postoperative wound assessment remains poorly understood.

AIM: A comparative analysis of performance metrics for various machine learning methods in classifying surgical wounds images for the SSI presence or absence in trauma and orthopedic patients.

METHODS: The sample included 512 surgical wound images (292 with SSI and 220 without infection) obtained from 298 patients aged 18 years and older admitted to the N.N. Priorov National Medical Research Center of Traumatology and Orthopedics or the Purulent Surgery Department of the A.K. Eramishantsev City Clinical Hospital. After applying augmentation methods, approximately 2,500 images were obtained. The following machine learning algorithms were used for infection recognition: support vector machines (SVM), linear regression (LR), random forests (RF), convolutional neural networks (VGG16+CNN), and a model with an attention mechanism (YOLO 11s-cls).

RESULTS: The YOLO 11s-cls model demonstrated the best metrics on the test set: sensitivity 91.2%, accuracy 91%; F1-score 89%; balanced accuracy 90.6%. For the other models, sensitivity ranged from 69.6% (RF) to 87% (VGG16+CNN), accuracy 68% (RF) to 85% (VGG16+CNN), and F1-score from 66% (RF) to 83% (VGG16+CNN).

CONCLUSION: The study results confirmed the potential of AI appropriateness for remote monitoring of surgical wounds in trauma and orthopedic patients. The developed models can be used to create a multimodal system for assessing and monitoring wound infection after surgical interventions.

Full Text

Обоснование

Инфекции области хирургического вмешательства (ИОХВ) являются одними из самых распространённых послеоперационных осложнений; их развитие влечёт за собой увеличение длительности госпитализации и пребывания в отделениях реанимации и интенсивной терапии, повторные хирургические вмешательства и госпитализации, дополнительные диагностические процедуры и расходы на антибиотикотерапию [1]. В травматологии и ортопедии проблема ИОХВ особенно актуальна, так как значительная доля таких случаев связана с установкой имплантов, при этом до 60% инфекций развиваются после выписки пациента из стационара [2].

По данным глобальных эпидемиологических исследований распространённость заболеваний костно-мышечной системы (КМС) во всем мире растёт примерно на 20% за десятилетие [3], а для отдельных заболеваний, таких как остеоартрит, динамика ещё выше: в 2020 г. в мире остеоартритом страдало 7,6% населения, а общее число случаев увеличилось с 1990 г. на 132% до 595 млн. человек [4]. Рост заболеваемости приводит к увеличению потребности в хирургическом лечении заболеваний и травм КМС, что сопряжено с неизбежным увеличением числа инфекционных осложнений.

В настоящее время хирурги диагностируют ИОХВ в первую очередь на основании клинических признаков и симптомов при визуальном осмотре (покраснение кожи, отек, боль, повышение кожной температуры). Внешний вид раны — это ценный источник информации для постановки диагноза ИОХВ, однако её правильная интерпретация требует значительного врачебного опыта. Кроме того, увеличение доли амбулаторных операций и тенденция к раннему переводу пациента на амбулаторное лечение приводит к тому, что пациент своевременно не обращается за медицинской помощью; в результате повышается риск осложнений и неблагоприятных исходов лечения.  

Появление технологий компьютерного зрения для анализа медицинских изображений и мобильные медицинские технологии являются перспективным научным направлением для мониторинга состояния как хронических поражений кожи, так и хирургических ран.

Автоматизированный анализ изображений с помощью методов искусственного интеллекта (ИИ) продемонстрировал свою эффективность для медицинской визуализации, включая анализ хронических кожных повреждений — пролежней, ожогов, диабетической стопы, трофических язв различной локализации. В этом направлении, согласно систематическим обзорам последних лет, технологии ИИ применяются для сегментации (выделения зоны интереса) и определения размеров раны, классификации тканей раневой поверхности, определения стадии /типа раневой инфекции, оценки и прогноза процесса заживления [5, 6]. При этом для решения различных задач применяются разные методы. Так, для классификации тканей описано применение свёрточных нейросетей (CNN) различной архитектуры и метода опорных векторов (SVM), порогового метода на основе нечёткой дивергенции в сочетании со статистическими методами, такими как каппа-статистика [7]. Для сегментации изображений изучено использование архитектуры U-net CNN, моделей глубокого обучения (например, Mask R-CNN) в сочетании с техниками компьютерного зрения [5]. Для решения задач классификации ран применяют архитектуру свёрточных нейросетей ResNet (Res4Net, Res7Net), метод опорных векторов (SVM), статистический метод анализа текстуры изображений GLCM в сочетании с CNN, нейросети с полностью свёрточной архитектурой (FCN), а также гибридные модели [5].

Модели трансферного обучения привлекают всё большее внимание исследователей для решения задач сегментации и классификации хронических ран, демонстрируя более высокую производительность, экономию времени и вычислительных ресурсов [8, 9]. Кроме того, для обнаружения, классификации и оценки размеров хронических ран в ряде исследований описано применение моделей на основе архитектуры компьютерного зрения YOLO различных версий, самостоятельно [10, 11] или в сочетании с CNN [12].

Хирургические раны с точки зрения внешнего вида отличаются от трофических язв, ожогов или пролежней наличием шва, а у пациентов травматолого-ортопедического профиля — частой локализацией на конечностях и суставах, имеющих неровную, округлую поверхность и неоднородное окрашивание окружающих тканей, а также нередким использованием наружных металлоконструкций (рис.1). Кроме того, начальные стадии развития ИОХВ характеризуются отсутствием расхождения краёв раны. Всё это усложняет задачу автоматической классификации и распознавания инфекции по изображениям хирургических ран.

Анализ литературы показывает, что использование технологий ИИ для оценки послеоперационных ран, в отличие от хронических кожных повреждений, остается относительно неизученным [6], что подчеркивает новизну и потенциальное влияние этого подхода на результаты лечения пациентов.

Цель исследования

Сравнительный анализ оценочных метрик различных моделей машинного обучения при решении задач классификации изображений хирургических ран на наличие и отсутствие ИОХВ у пациентов травматолого-ортопедического профиля.

Методы

Исследование проведено в соответствии с рекомендациями по прозрачной отчетности при разработке регрессионных моделей или методов машинного обучения для индивидуального прогноза или диагностики (TRIPOD+AI) [13].

Все пациенты перед включением в исследование давали письменное добровольное согласие на использование обезличенных данных и изображений ран.

Дизайн исследования

Проведено проспективное многоцентровое выборочное исследование.

Условия проведения исследования

В исследование были включали пациентов 18 лет и старше, поступивших в стационар ФГБУ «НМИЦ травматологии и ортопедии им. Н.Н. Приорова» Минздрава России или в отделение гнойной хирургии ГБУЗ «ГКБ им. А.К. Ерамишанцева» ДЗМ с апреля по август 2025 г. включительно. Отбор случаев и фотографирование ран проводили врачи-травматологи-ортопеды клинических отделений.

Критерии соответствия (отбора)

Для исследования отбирали случаи выявления клинических признаков ИОХВ и/или наличия соответствующего диагноза с учетом анамнестических, рентгенологических и иных диагностических данных.

В качестве контрольных случаев проводили съёмку изображений хирургических ран пациентов без признаков и диагноза ИОХВ.

Описание способа получения изображений

Область ИОХВ фотографировали после поступления в клинику с признаками воспаления области раны, после оперативного лечения в динамике до выписки, а также в случаях повторного поступления для выполнения следующего этапа хирургического лечения. Для некоторых пациентов выполнено 2-3 фотографии за один осмотр в связи с обширной локализацией раны или патологией нескольких анатомических областей.

Изображения ран получали с помощью смартфона при естественном и/или искусственном освещении палаты коечного отделения или перевязочного кабинета. В целях получения обучающей выборки изображений, максимально сопоставимых с фотографиями, которые в перспективе будут получать конечные пользователи с разным уровнем опыта для анализа ИИ-продуктом, стандартное позиционирование ограничивалось расположением камеры смартфона на расстоянии 20-30 см от раны под прямым или максимально близким к прямому углом, позволяющим получить достаточный обзор. Для определения и коррекции баланса цвета использовались одноразовые метки, распечатываемые на белой бумаге с известными цветовыми характеристиками и размещаемые в кадре вблизи раны (хирургического разреза) с учетом требований асептики и антисептики (рис.1).

Все изображения перед разметкой и включением в общую выборку были обезличены.

Описание способа разметки изображений

Для разметки изображений использовали CVAT (Computer Vision Annotation Tool) – бесплатный инструмент с открытым кодом, который поддерживает основные задачи машинного обучения с учителем: обнаружение объектов, классификацию и сегментацию изображений. Для разметки были установлены следующие зоны:

1) зона шва;

2) зона гиперемии вокруг раны;

3) зона некроза;

4) зона грануляций;

5) зона фибрина;

6) зона металлоконструкций;

7) зона подкожной жировой клетчатки без грануляций (и иных видимых признаков заживления);

8) зона дна раны без грануляций (и иных видимых признаков заживления);

9) метка для расчета размеров раны.

Для повышения точности распознавания в отдельных случаях (по потребности) использовали дополнительные зоны разметки, предназначенные для выделения и отграничения на изображении элементов и анатомических структур, не относящихся к перечисленным выше, но сходных с ними по цветовой гамме:

10) зона вторичной пигментации кожи вокруг раны;

11) зона сухожилия (соответствует участку сухожилия, наблюдаемому в дне или стенке раны);

12) зона гнойного отделяемого (при его истечении; на фотографиях, полученных при поступлении до проведения санации раны);

13) зона «глубин раны» использовалась для глубоко лежащих и слабо освещенных отделов ран, на которых нельзя было сфокусировать фотокамеру без потери качества остальных участков изображения.

Разметку проводили врачи – травматологи-ортопеды, имеющие не менее чем 3-летний опыт работы со случаями раневой инфекции (пример разметки случая ИОХВ приведён на рис.2).

Описание способа формирования выборки

Выборка включала 512 изображения хирургических ран, в том числе, 292 случая ИОХВ и 220 изображений без инфекции. Изображения были разделены случайным образом на обучающую и тестовую выборки в соотношении 80:20, соответственно.

Для увеличения количества изображений в обучающей и тестовой выборках к изображениям были применены следующие методы аугментации: отражение по горизонтали (RandomHorizontalFlip) с вероятностью 0,5, поворот на 10⁰ (RandomRotation), а также изменение некоторых параметров изображения (ColorJitter). В частности, были установлены следующие параметры: brightness = 0,2 (яркость изображения), contrast = 0,2 (контрастность изображения), saturation = 0,2 (насыщенность изображения), hue = 0,05 (оттенок изображения). В результате суммарно было получено около 2,5 тысяч изображений. Соотношение тестовой и обучающей выборок было сохранено 80:20.

Использованные методы машинного обучения

Для извлечения гиперпараметров и векторизации изображений была использована сеть VGG16 [15, 16], модель сверточной нейросети, достигающая точности в 92,7% при решении задачи распознавания объектов на изображении на датасете ImageNet [17].

При проведении экспериментальных исследований сравнивались следующие методы машинного обучения:

  • линейные и нелинейные алгоритмы классификации: метод опорных векторов (SVM) [18], линейная регрессия (LR) [19] и случайный лес (RF) [20];
  • свёрточная нейронная сеть (CNN): была обучена собственная нейронная сеть с использованием механизма трансферного обучения (transfer learning) [21];
  • нейронная сеть с механизмом внимания YOLO 11s-cls [22].

Механизм transfer learning заключается в том, что в качестве базовой модели использована нейросеть VGG 16, далее к ней были добавлены полносвязный и выходной слои для бинарной классификации изображений.

Собственная свёрточная нейронная сеть имела следующую архитектуру: за несколькими блоками свёрточных слоёв следовали слои выравнивания и полносвязные слои для классификации. Входной слой определяет входной тензор для сети, принимает изображения размером 224×224 пикселей с 3 цветовыми каналами RGB. Сеть состоит из четырёх идентичных свёрточных блоков, каждый из которых отличается размером блоков, на которые делится изображение. Блоки выполняют следующие операции:

  • два свёрточных слоя обеспечивают извлечение признаков из входного изображения, сохраняя размерность входных данных;
  • пакетная нормализация применяется после каждого свёрточного слоя, улучшает стабильность обучения, ускоряет сходимость и позволяет использовать более высокие темпы обучения, нормализует выходы предыдущего слоя по каждой партии;
  • активация ReLU (Rectified Linear Unit) применяется после пакетной нормализации, является функцией активации, которая вносит нелинейность в модель, позволяя ей изучать более сложные зависимости;
  • слой MaxPooling2D сокращает пространственную размерность входных данных (высота и ширина) вдвое, уменьшая количество параметров и вычислительную нагрузку, а также увеличивая инвариантность к небольшим смещениям и искажениям;
  • Dropout (0,25) случайным образом отключает 25% нейронов во время обучения. Помогает предотвратить переобучение, заставляя сеть изучать более надежные признаки.

За свёрточными блоками следует слой, преобразующий выходные данные последних свёрточных слоев в одномерный вектор для подачи данных в полносвязные слои.

Далее сеть содержит два полносвязных слоя, после каждого из которых выполняется нормализация, активация ReLU и Dropout с вероятностью 0,5 (отключение 50% нейронов).

Выходной полносвязный слой с одним нейроном и активацией sigmoid используется для двоичной классификации. Функция сигмоида выдает значение между 0 и 1, представляющее вероятность принадлежности к определенному классу.

Для расширения спектра тестируемых моделей машинного обучения в качестве предобученной модели была использована нейросеть Yolo 11s-cls, содержащая механизм внимания [23] для улучшения качества обработки изображений, которая была обучена на наборе данных ImageNet.

Для классификации изображений с помощью метода опорных векторов (SVM), линейной регрессии (LR) и случайного леса (RF) все изображения сначала были векторизованы с помощью VGG 16. Подбор гиперпараметров осуществлялся с помощью перебора по сетке с максимизацией значения F1-score.

Обучение нейронных сетей проходило в 100 эпох.

Исходы исследования

Основной исход исследования

Характеристики точности различных моделей машинного обучения при решении задачи бинарной классификации изображений хирургических ран на наличие и отсутствие ИОХВ.

Методы регистрации исходов

Для оценки результативности моделей машинного обучения использовали следующие метрики:

  • чувствительность: SE = TP /IW,
  • специфичность: SP = TN /UW,
  • F1-score = TP / (TP + ½ (FP+FN)),
  • точность: Aсc = (TP+TN) / (IW + UW), где
  • TP (true positive) – истинно положительные результаты (модель распознала инфекцию при наличии диагноза ИОХВ);
  • TN (true negative) – истинно отрицательные результаты (модель определила «отсутствие инфекции» при отсутствии диагноза ИОХВ);
  • FP (false positive) – ложноположительные результаты (модель распознала инфекцию при отсутствии диагноза ИОХВ);
  • FN (false negative) – ложноотрицательные результаты (модель определила «отсутствие инфекции» при наличии диагноза ИОХВ);
  • IW (infected wounds) – количество случаев ИОХВ = TP+FN, сумма истинно положительных и ложноотрицательных результатов классификации;
  • UW (uninfected wounds) – количество случаев без ИОХВ = TN+FP, сумма истинно отрицательных и ложноположительных результатов классификации.

Статистические процедуры

Статистические методы

Сттистическую обработку данных проводили в библиотеке SciPy для языка программирования Python. Для описательной статистики использовали средние значения с 95%-ным доверительным интервалом (95%-ДИ).

Результаты

Характеристики выборки

В выборку были включены изображения хирургических ран от 298 пациентов в области верхних и нижних конечностей, а также в области спины (позвоночника), образовавшиеся после операций эндопротезирования, металлоостеосинтеза, декомпрессивно-стабилизирующих и иных вмешательств, без инфекции или в период развития и лечения ИОХВ.

Основные результаты исследования

Из шести использованных моделей машинного обучения лучший показатель точности при распознавании ИОХВ на изображениях хирургических ран у пациентов травматолого-ортопедического профиля был достигнут нейросетью Yolo 11s-cls. В таблице 1 представлены результаты оценки всех методов классификации изображений на тестовой выборке.

Примеры результатов работы модели Yolo 11s-cls показан на рисунке 3.

Обсуждение

Резюме результатов исследования

В настоящем исследовании была проведена сравнительная оценка эффективности различных моделей машинного обучения при решении задачи бинарной классификации изображений хирургических ран на наличие и отсутствие ИОХВ у пациентов травматолого-ортопедического профиля. Эксперименты показали, что модель с механизмом внимания (YOLO 11s-cls) имеет точностные характеристики, превосходящие другие модели, включая чувствительность (91,2%), специфичность (90%), F1-score (89%) и точность (91%). Метрики моделей свёрточных нейронных сетей были несколько хуже (точность 83%-85%). Линейные и нелинейные алгоритмы классификации, чаще применяемые для задач прогнозирования заживления хронических ран и оценки факторов риска осложнений [5], демонстрировали меньшую точность при распознавании инфекции хирургических ран.

Интерпретация результатов исследования

Результаты настоящего исследования согласуются с литературными данными. При сравнении точности распознавания типа острых повреждений кожных покровов (ожоги, травмы, ссадины) среди нейросетей (Google Net, ResNet18, ShuffleNet2, Squeeze Net, YOLO 8) лучшие показатели точности и F1-score имела YOLO 8 — по 97,6% [24]. При решении задачи сегментации хронических ран у пациентов с различным цветом кожи модель YOLO 8 продемонстрировала точность в 84% и среднюю точность около 70% [25]. Наконец, при классификации на наличие и отсутствие инфекции на группе пациентов с хроническими ранами медианы средней точности (mAP), F1-score и точности (Ac) для YOLO 8 составили 92,7%, 92,9% и 92,7%, соответственно. В отношении хирургических ран у смешанной категории пациентов в исследовании M. Rochon et al. [26] модель YOLO (без уточнения версии) имела чувствительность в 89% при решении задач сегментации и оценки необходимости первостепенного врачебного внимания.

Для распознавания ИОХВ в исследовании H. Muaddi et al. [27] проведено сравнение свёрточных нейросетей MobileNet, ResNet50 и U-Net, а также модели глубокого обучения Vision Transformer (ViT). Наибольшую точность и F1-score продемонстрировала модель U-Net — 75% ± 1% и 70% ± 3%, соответственно. Модель ViT была лучшей в комбинированной задаче распознавания зоны хирургического шва и ИОХВ с точностью в 87%±5% и F1-score 46%±6%.

Применение линейных и нелинейных алгоритмов классификации — методов опорных векторов (SVM), линейной регрессии (LR) и случайного леса (RF) — описано для распознавания и классификации хронических ран. В работе Veredas F.J. et al. [7] модели SVM и RF имели точность в 87,4% и 88,1%, соответственно, при распознавании и классификации тканей пролежней. В аналогичной работе [28] при сравнении LR, SVM, RF, а также методов К-ближайших соседей и наивного байесовского классификатора для распознавания изображений пролежней лучшие метрики имел алгоритм RF (точность 96%; F1-score 93%). При распознавании ИОХВ проведено сравнение моделей ResNet50, SVM и RF с градиентным усилением (GBDT) на наборе данных из 480 изображений ран после абдоминальной хирургии, при этом лучшую точность имела модель ResNet50 (79,5% ± 4,2%), а SVM и RF продемонстрировали точность в 41,1% ± 2,1% и 58,6%± 5,9%, соответственно, F1-score — 38,3% ± 3,5% и 43,1% ± 11,4%, соответственно [29]. В исследовании J.T. Hsu [30] для распознавания ИОХВ по данным 293 изображений был использован алгоритм на основе SVM, который продемонстрировал точность в 87,6%.

Таким образом, в нашем исследовании, как и в большинстве литературных источников, при решении задачи распознавания по изображениям ран лучшие точностные показатели имели модель YOLO 11s-cls и свёрточные нейронные сети. Преимущества модели с механизмом внимания, вероятно, связаны с тем, что область раны занимает незначительную часть пространства на общей площади изображений. Если линейные и нелинейные модели, а также нейронные сети (включая VGG 16) оценивают изображение в целом и все признаки, то модель Yolo делит изображение на несколько небольших фрагментов, работает с каждым из них и потом объединяет результаты.

Ограничения исследования

Ограничением настоящей работы является сравнительно небольшой размер выборки – 512 изображений, полученных от 298 пациентов, проходивших стационарное лечение в двух медицинских учреждениях г. Москвы. Это потребовало применения методов аугментации, что может сказаться на метриках моделей при их использовании на других выборках.

Кроме того, в исследовании была поставлена задача только бинарной классификации изображений на наличие и отсутствие ИОХВ. Расширение спектра задач – например, оценка тяжести инфекции, динамики и прогноза течения раневого процесса или рекомендации по экстренному обращению к хирургу, может потребовать использования дополнительных алгоритмов и моделей машинного обучения.

Заключение

Наше исследование подтвердило осуществимость и перспективность использования ИИ для дистанционного мониторинга состояния хирургических ран у пациентов травматолого-ортопедического профиля. Сравнительный анализ различных моделей машинного обучения показал преимущества свёрточных нейросетей и модели с механизмом внимания (YOLO 11s-cls) при решении задачи распознавания ИОХВ с точностью 85% и 91%, соответственно.

Дальнейшие работы будут включать, во-первых, расширение выборки изображений хирургических ран и создание более адаптивных фреймворков трансферного обучения, позволяющих повысить точность и производительность моделей. Кроме того, для обеспечения интерпретируемости результатов и повышения доверия врачей к системам ИИ необходимо дополнять их клиническими данными путём создания мультимодальной системы поддержки принятия врачебных решений, интегрирующей экспертные знания предметной области с данными, извлечёнными моделью ИИ в результате глубокого обучения, с последующей визуализацией общего решения.

Таблица 1. Результаты классификации изображений хирургических ран на наличие и отсутствие ИОХВ различными методами машинного обучения

Метод

SE
(95%-ДИ)

SP
(95%-ДИ)

F1-score (95%-ДИ)

Acc
(95%-ДИ)

SVM

0,776
(0,756 - 0,794)

0,672
(0,641 - 0,703)

0,72
(0,7-0,74)

0,74
(0,72-0,76)

LR

0,758
(0,738 - 0,777)

0,672
 (0,641 - 0,703)

0,7
 (0,68-0,61)

0,72
(0,7-0,73)

RF

0,696
(0,675 - 0,717)

0,718
(0,688 - 0,747)

0,66
(0,64-0,68)

0,68

(0,66-0,7)

CNN

0,825
(0,811 - 0,838)

0,822
(0,805 - 0,838)

0,82
(0,78-0,83)

0,83
(0,8-0,84)

VGG16+CNN

0,87
(0,857 - 0,881)

0,855
(0,839 - 0,87)

0,83
(0,81-0,84)

0,85
(0,83-0,86)

Yolo 11s-cls

0,912
(0,874 - 0,938)

0,9
(0,86 - 0,915)

0,89 (0,86 – 0,91)

0,91
(0,86-0,92
)

Сокращения: ИОХВ – инфекция области хирургического вмешательства; SVM – метод опорных векторов; LR – линейная регрессия; RF – метод случайного леса; CNN –свёрточная нейросеть; SE – чувствительность; SP – специфичность; Acc – точность.

Рис. 1. Изображения хирургических ран у травматолого-ортопедических пациентов.
А: Раны с наличием ИОХВ, B: Хирургические раны без признаков инфекции.

Рис. 2. Разметка изображения в приложении CVAT хирургической раны с наружной металлоконструкцией у пациента после ортопедической операции.

Рис.3. Пример распознавания ИОХВ по изображениям хирургической раны нейросетью YOLO 11s-cls: в левом верхнем углу снимков – наличие (i+) или отсутствие (i-) инфекции по оценкам экспертов, справа – результат классификации модели (зеленым отмечены истинно положительные или истинно отрицательные, а красным – ложноположительные или ложноотрицательные результаты классификации).

×

About the authors

Anton G. Nazarenko

N.N. Priorov National Medical Research Center of Traumatology and Orthopaedics

Email: nazarenkoag@cito-priorov.ru
ORCID iD: 0000-0003-1314-2887
SPIN-code: 1402-5186

Corresponding Member of the Russian Academy of Sciences, MD, Dr. Sci. (Medicine), professor of RAS

Russian Federation, 10 Priorova st, Moscow, 127299

Elena B. Kleimenova

Priorov National Medical Research Center for Traumatology and Orthopedics

Email: KleymenovaEB@cito-priorov.ru
ORCID iD: 0000-0002-8745-6195
SPIN-code: 2037-7164

MD, Dr. Sci. (Medicine), рrofessor

Russian Federation, Moscow

Alexey I. Molodchenkov

Federal Research Center «Computer Science and Control» of the Russian Academy of Sciences; Peoples’ Friendship University of Russia

Email: aim@isa.ru
ORCID iD: 0000-0003-0039-943X
SPIN-code: 3378-7234

Cand. Sci. (Engineering)

Russian Federation, Moscow; Moscow

Dmitry S. Gorbatyuk

Priorov Central Research Institute of Traumatology and Orthopedics

Email: gorbatyukds@cito-priorov.ru
ORCID iD: 0000-0001-8938-2321
SPIN-code: 7686-2123

MD, Cand. Sci. (Medicine)

Russian Federation, 10 Priorova str., 127299 Moscow

Azat D. Enikeev

N.N. Priorov National Medical Research Center for Traumatology and Orthopedics

Email: azatmag@mail.ru
ORCID iD: 0009-0003-2778-0561

Valery A. Kislyakov

A.K. Yeramishantsev City Clinical Hospital, Peoples’ Friendship University of Russia named after Patrice Lumumba

Email: vakislakov@mail.ru
ORCID iD: 0000-0002-0189-3539
SPIN-code: 2985-2951

MD, Dr. Sci. (Medicine), Рrofessor

Liubov P. Yashina

Priorov National Medical Research Center for Traumatology and Orthopedics

Author for correspondence.
Email: YashinaLP@cito-priorov.ru
ORCID iD: 0000-0003-1357-0056
SPIN-code: 1910-0484

Cand. Sci. (Biol.)

Russian Federation, Moscow

References

  1. Monahan M, Jowett S, Pinkney T, et al. Surgical site infection and costs in low- and middle-income countries: A systematic review of the economic burden. PLoS One. 2020; 15 (6): e0232960. doi: 10.1371/journal.pone.0232960
  2. Woelber E, Schrick EJ, Gessner BD, Evans HL. Proportion of surgical site infections occurring after hospital discharge: a systematic review. Surg. Infect. 2016; 17: 510–519. doi: 10.1089/sur.2015.241
  3. Cieza A, Causey K, Kamenov K, et al. Global estimates of the need for rehabilitation based on the Global Burden of Disease study 2019: a systematic analysis for the Global Burden of Disease Study 2019. The Lancet. 2020; 396 (10267): 2006-2017. doi: 10.1016/S0140-6736(20)32340-0
  4. GBD 2021 Osteoarthritis Collaborators. Global, regional, and national burden of osteoarthritis, 1990-2020 and projections to 2050: a systematic analysis for the Global Burden of Disease Study 2021. Lancet Rheumatol. 2023; 5(9): e508-e522. doi: 10.1016/S2665-9913(23)00163-7.
  5. Reifs Jiménez D, Casanova-Lozano L, Grau-Carrión S, et al. Artificial intelligence methods for diagnostic and decision-making assistance in chronic wounds: a systematic review. J Med Syst. 2025; 49, 29. doi: 10.1007/s10916-025-02153-8
  6. Ganesan O, Morris MX, Guo L, Orgilln D. A review of artificial intelligence in wound care. Art Int. Surg. 2024; 4: 364-75 doi: 10.20517/ais.2024.68
  7. Veredas FJ, Luque-Baena RM, Martín-Santos FJ, et al. Wound image evaluation with machine learning. Neurocomputing 2015; 164: 112–122 doi: 10.1016/j.neucom.2014.12.091
  8. Curti N, Merli Y, Zengarini C, et al. Effectiveness of semi-supervised active learning in automated wound image segmentation. Int J Mo. Sci. 2023; 24, 1–11. doi: 10.3390/ijms24010706
  9. Alzubaidi L, Fadhel MA, Al-Shamma O, et al. Towards a better understanding of transfer learning for medical imaging: A case study. Applied Sci. 2020; 10, 1–21 doi: 10.3390/app10134523
  10. Aldughayfiq B, Ashfaq F, Jhanjhi NZ, et al. YOLO-based deep learning model for pressure ulcer detection and classification. Healthcare. 2023; 11, 1–19. doi: 10.3390/healthcare11091222
  11. Bazargani M, Heidari MJ, Anvari-Fard M, Soltanian-Zadeh H. Unified wound detection and segmentation using YOLO: an efficient approach for accurate wound measurement. IFMBE Proc. 2025; 131: 506–515. doi: 10.1007/978-3-031-96538-8_43
  12. Amin J, Sharif M, Anjum MA, et al. An integrated design for classification and localization of diabetic foot ulcer based on CNN and YOLOv2-DFU models. IEEE Access. 2020; 8, 228586–228597 doi: 10.1109/ACCESS.2020.3045732
  13. TRIPOD+AI statement: updated guidance for reporting clinical prediction models that use regression or machine learning methods. BMJ. 2024; 385: q902. doi: 10.1136/bmj.q902.
  14. Prevention of surgical site infections. Moscow: National Association of Specialists in the Control of Infectious and Non-Infectious Diseases (NASCI); 2023. 71 p. (In Russ.) EDN: IVBGFB.
  15. Mascarenhas S, Agarwal M. A comparison between VGG16, VGG19 and ResNet50 architecture frameworks for image classification. 2021 Int. Conf. on Disruptive Technologies for Multi-Disciplinary Research and Applications (CENTCON). IEEE, 2021; 1: 96-99. doi: 10.1109/CENTCON52345.2021.9687944
  16. Yang H, Ni J, Gao J, et al. A novel method for peanut variety identification and classification by improved VGG16. Sci Rep. 2021; 11: 15756. doi: 10.1038/s41598-021-95240-y
  17. ImageNet [Internet; cited 05.09.2025] Available from: URL:https://www.image-net.org/
  18. Chaganti SY, Nanda I, Pandi KR, et al. Image classification using SVM and CNN. 2020 Int. Conf. Computer Sci., Engineering and Applications (ICCSEA). IEEE, 2020: 1-5. doi: 10.1109/ICCSEA49143.2020.9132851
  19. Yang W, Ricanek K, Shen F. Image classification using local linear regression. Neur Comp Appl. 2014; 25 (7): 1913-1920. doi: 10.1007/s00521-014-1681-2
  20. Sheykhmousa M, Mahdianpari M, Ghanbari, H. et al. Support vector machine versus random forest for remote sensing image classification: a meta-analysis and systematic review. IEEE J. 2020; 13: 6308-6325. doi: 10.1109/JSTARS.2020.3026724
  21. Torrey L, Shavlik J. Transfer learning. Handbook of research on machine learning applications and trends: algorithms, methods, and techniques. IGI Global Sci. Publ., 2010: 242-264. doi: 10.4018/978-1-60566-766-9.ch011
  22. Yolo [Internet; cited 05.09.2025] Available from: URL:https://docs.ultralytics.com/ru/tasks/classify/
  23. Han K, Wang Y, Chen H, et al. A survey on vision transformer. IEEE Trans. Pattern Anal. Mach. Intell. 2022; 45 (1): 87-110. doi: 10.1109/TPAMI.2022.3152247
  24. Rajalekshmi J, Sharma A, Patil GK, et al. Beyond bandages: customized first aid for different wound types. Medicon Med. Sci. 2024; 6 (3): 28-34. doi: 10.55162/MCMS.06.199
  25. Jacob NV, Sowmya V, Gopalakrishnan EA, et al. Automatic wound detection system for multi-ethnic populations using YOLO. Health Inform. Med. Syst. Biomed. Engin. 2025; 270–281. doi: 10.1007/978-3-031-85908-3_23
  26. Rochon M, Tanner J, Jurkiewicz J, et al. Wound imaging software and digital platform to assist review of surgical wounds using patient smartphones: The development and evaluation of artificial intelligence (WISDOM AI study). PLoS ONE. 2024; 19 (12): e0315384. doi: 10.1371/journal.pone.0315384
  27. Muaddi H, Choudhary A, Lee F, et al. Imaging-based surgical site infection detection using artificial intelligence. Ann Surg. 2025; 282: 419–428. doi: 10.1097/SLA.0000000000006826
  28. Šín P, Hokynková A, Marie N, et al. Machine learning-based pressure ulcer prediction in modular critical care data. Diagnostics. 2022; 12 (4): 850. doi: 10.3390/diagnostics12040850
  29. Wu JM, Tsai CJ, Ho TW, et al. A unified framework for automatic detection of wound infection with artificial intelligence. Applied Sci. 2020; 10: 5353. doi: 10.3390/APP10155353
  30. Hsu JT, Chen YW, Ho TW, et al. Chronic wound assessment and infection detection method. BMC Med Inform Decis Mak. 2019; 19 (1): 99. doi: 10.1186/s12911-019-0813-0

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) Eco-Vector

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ПИ № ФС 77 - 79539 от 09 ноября 2020 г.