将机器学习技术应用于眼内镜片光学倍率的预 测:诊断数据的归纳
- 作者: Arzamastsev A.А.1,2, Fabrikantov O.L.2, Zenkova N.А.3, Belikov S.V.2
-
隶属关系:
- Voronezh State University
- The S. Fyodorov Eye Microsurgery Federal State Institution
- Derzhavin Tambov State University
- 期: 卷 5, 编号 1 (2024)
- 页面: 53-63
- 栏目: 原创性科研成果
- ##submission.dateSubmitted##: 28.11.2023
- ##submission.dateAccepted##: 24.01.2024
- ##submission.datePublished##: 19.04.2024
- URL: https://jdigitaldiagnostics.com/DD/article/view/623995
- DOI: https://doi.org/10.17816/DD623995
- ID: 623995
如何引用文章
详细
论证。现代眼内镜片的植入使眼科医生能够有效解决白内障患者的手术康复难题。患者视觉功能的改善程度与术前计算眼内镜片光学倍率的准确性直接相关。SRK II、SRK/T、Hoffer-Q、Holladay II、 Haigis、Barrett等公式都被用来计算这一指数。所有这些公式对于“中等症患者”来说都很有效。但是,在输入变量范围的极端情况下,它们就不够充分。
目的。本研究的目的是探索使用人工神经网络深度学习衍生的数学模型来归纳数据并预测现代眼内镜片光学倍率的可能性。
材料与方法。基于人工神经网络的模型训练是在大规模样本上进行的,包括来自眼科诊所患者的匿名数据。这些数据由眼科医生K.K.谢雷赫于2021年提供。这些数据反映了患者术前和术后的观察结果。用于建立基于人工神经网络模型的源文件包括455条记录(26列输入因子和1列输出因子),被用于计算眼内镜片(屈光度)。为了方便地建立模型,使用了先前开发的一个模拟程序。
结果。与传统的公式相比,所获得的模型更能反映患者的区域特性。它们还可以根据新获得的数据重新训练和优化模型结构。这样就有可能考虑到对象的非稳定性。与白内障手术中广泛使用的已知公式相比,这种基于人工神经网络模型的一个显著特点是可以考虑大量记录的输入值。这使得计算眼内镜片光学倍率的平均相对误差可以从10-12%降低到3.5%。
结论。本项研究表明,使用人工神经网络模型的深度学习来归纳大量经验数据来计算人工晶状体的光学强度是基本可行的。与使用传统公式和方法相比,这种网络的输入变量数量要大得多。所得结果使得构建新数据动态输入、模型逐步再训练的智能专家系统成为可能。
全文:
论证
现代眼内镜片的植入使眼科医生能够有效解决白内障患者的手术康复问题。然而,患者视觉功能的改善程度与术前眼内镜片光学倍率计算的准确度直接相关。因此,眼科使用各种公式来计算这一指标。最著名的公式包括SRK II、SRK/T、Hoffer-Q、Holladay II、Haigis和Barrett[1-7]。所有这些公式对“中等症患者”都很有效,但在输入变量范围的极端情况下则不够充分。它们还有其他缺点:首先,它们没有考虑到对象的非平稳性,当引入新的经验数据时,例如在对模型进行本地化时,不允许更改设置;其次,考虑的输入因素数量明显不足。这些情况导致对上述公式的许多局部修正和不断调整[2,8]。
俄罗斯杰出的眼科专家S.N.Fedorov(1967年)[1,2]提 出了第一个基于光学定律和示意眼数据的计算眼内镜片光学倍率的公式。在随后的几年中,直到现在,眼科实践中最常用的计算眼内镜片光学倍率的公式是SRK/T、SRK II、Hoffer-Q、Holladay II、Haigis和Barrett[3-7]。国外最早的眼内镜片光学倍率计算公式出现在20世纪70年代末和80年代初。它们要么是理论公式,要么是回归公式。回归公式受到外科医生的青睐,其中最成功的是SRK,由D.R.Sanders、J.A.Retzlaff和M.C.Kraff开发出的[3-5]。
目前,基于人工神经网络的人工智能系统得到了前所未有的发展,通过利用大量经验数据进行深度学习,几乎可以在包括生物学和医学在内的任何学科领域建立适当的模型[9-12]。此外,现代眼科中心在过去几十年中建立了病人数据存储库,其中包括数万乃至数十万条数字化参数记录。
在这种情况下,可以认为解决术前眼内镜片计算问题的根本方法是建立一个智能专家系统,其核心是使用人工神经网络(人工神经网络模型)建立的数学模型。这种模型可以根据数据存储库中的数据进行训练,与已知公式相比,可以考虑更多的重要输入因素和患者的地区特异性。根据数据存储库中的新数据对人工神经网络模型进行逐步的再训练,必要时对其结构进行修改,这将提高其适应性,并消除考虑对象非平稳性和模型本地化的问题。
建立这种智能专家系统的第一阶段是利用人工神经网络模型解决大量患者经验数据的概括化(概括化的可能性)这一根本问题,确定重要的观察输入因素,并比较这种模型与已知公式的适当性[1-7]。
目的
研究俄罗斯一家眼科中心在使用人工神经网络模型深度学习对患者进行治疗的过程中获得的大量眼内镜片计算经验数据的概括化可能性;确定对术前眼内镜片计算误差有重大影响的最重要的观察输入因素;比较使用人工神经网络模型和已知公式计算的误差。
计算眼内镜片光学倍率的误差
此前,我们根据S.N.Fedorov Eye Microsurgery医学中心(坦波夫,俄罗斯)以匿名形式提供的大量经验数据[13],比较了一些公式的使用误差。原始数据于2014年底获得。初始记录数为28940条。每条记录包含以下参数:
- 匿名患者编号;
- 手术日期;
- 植入的眼内镜片的品牌名称和光学倍率;
- 患者年龄;
- 眼睛长度;
- 用于矫正屈光和散光异常(球面和柱面)的眼内镜片所需的光学倍率;
- 与眼内镜片在眼球中的位置有关的其他信息。
已处理的记录总数为11701条。同时,由于缺少镜片参数或字段数据不正确,有17239条记录未被处理。Haigis、Holladay、SRK II和SRK/T公式被认为最接近经验数据。
表1给出眼内镜片计算的平均相对误差值。根据这些公式计算出的所需眼内镜片光学倍率与计算出的眼内镜片光学倍率之间的相关性可见图1。在计算眼内镜片的平均光学倍率时,所有公式得出的结果都接近所需值,但在极值处,相对于所需值有明显的偏差。
表1。使用不同公式得出的眼内镜片光学倍率计算误差比较
计算公式 | 计算眼内镜片的平均相对误差,% |
Haigis | 15.6 |
Holladay | 13.4 |
SRK II | 11.7 |
SRK/T | 12.5 |
因此,相对于精确计算所对应的对角线,在依赖关系的斜率上可以观察到明显的数值差异(图1, a、b、d)。在所有研究的公式中,都使用了三个参数作为输入值:眼睛长度(mm)(L)、眼球子午线算术平均值(mm)(K)以及作为镜片参数的前房深度。这一事实不可避免地意味着存在其他因素(可能是未观察到的)。它们对眼内镜片光学倍率的影响导致了上述计算特征。
图1。11701名患者的所需眼内镜片光学倍率(横轴)与计算出的光学倍率(纵轴,根据公式)之间的相关性:a——Haigis;b——Holladay;c——SRK II;d——SRK/T。相关系数见图。
在同一项研究[13]中,我们介绍了通过使用非线性编程方法11701名患者的均方误差最小化而得到的优化回归公式。通过引入第四个变量,我们将平均相对误差降低到了10.6%。这意味着必须考虑更多的输入变量,最好还能考虑所有相关的患者信息。在这种情况下,预测眼内镜片光学倍率的最佳工具就是使用人工神经网络模型。
与我们文章最接近的是一项研究[14],该研究旨在描述在白内障摘除术中使用机器学习预测术后屈光,并比较模型与传统计算眼内镜片光学倍率公式的准确度。训练样本包括来自2010名患者(3331只眼睛)的数据。通过对数据的训练,对模型系数进行了优化。然后,作者使用常用公式(SRK/T、Haigis、Holladay II、Hoffer-Q 和 Barrett Universal II 公式 (BU-II))预测术后屈光的发生。一些机器学习方法的绝对误差低于使用公式计算的误差。不过,在统计学上并未发现明显差异。
在我们看来,获得的结果在意料之中,因为作者没有使用额外的输入参数,而机器学习和通常用于公式参数识别的最小二乘法,通常会得出相似的结果。在本研究中,我们分析了在使用更多输入参数的情况下使用人工神经网络模型预测眼内镜片光学倍率的可能性。
由于以下原因,有关眼内镜片计算的工作仍在进行中:
- 需要减少误差;
- 出现以前计算中没有考虑的新因素数据(以前只考虑4个输入因素,而现在考虑了26个);
- 希望开发一种适应的眼内镜片计算模型,以便在收到新数据时考虑到可能出现的非平稳性;
- 希望创建一个具有动态数据输入功能的专家系统,并利用人工神经网络模型对其进行逐步训练。
材料和方法
2021年,眼科医生K.K.Syrykh以匿名患者术前和术后检查结果的形式提供了原始数据。用于建立人工神经网络模型的初始数据文件包括455条记录:26列输入因素和一列输出因素,即眼内镜片计 算(dptr)。为方便起见,输入参数用x1-x26表示,输出参数用Y表示。输入变量见表2。
表2。基于人工神经网络建立模型的输入参数
参数 | 意义 | 参数 | 意义 |
x1 | 性别 | x14 | 眼睛长度(光学生物测量,mm) |
x2 | 术前未矫正视力 | x15 | 术后未矫正视力 |
x3 | 根据术前视力检查数据得出的球面屈光成分 | x16 | 根据术后视力检查数据得出的球面屈光成分 |
x4 | 根据术前视力检查数据得出的柱面屈光成分 | x17 | 根据术后视力检查数据得出的柱面屈光成分 |
x5 | 根据术前视力检查数据得出的柱面轴线 | x18 | 根据术后视力检查数据得出的柱面轴线 |
x6 | 术前矫正视力 | x19 | 术后矫正视力 |
x7 | 术前角膜强子午线轴线 | x20 | 术后角膜强子午线轴线 |
x8 | 术前角膜强子午线屈光 | x21 | 术后角膜强子午线屈光 |
x9 | 术前角膜弱子午线轴线 | x22 | 术后角膜弱子午线屈光 |
x10 | 术前角膜弱子午线屈光 | x23 | 术后角膜低位经线屈光度数 |
x11 | 根据术前屈光检查数据得出的球面屈光成分 | x24 | 根据术后屈光检查数据得出的球面屈光成分 |
x12 | 根据术前屈光检查数据得出的柱面屈光成分 | x25 | 根据术后屈光检查数据得出的屈光柱面成分 |
x13 | 根据术前屈光检查数据得出的柱面轴线 | x26 | 根据术后屈光检查数据得出的柱面轴线 |
作者先前开发的模拟器程序[15]被用于方便地建立人工神经网络模型。
结果
在开发人工神经网络模型的过程中,接受有关网络结构(架构)的假设是最具挑战性的问题之一。
众所周知,使用A.N.Kolmogorov定理[16,17]往往会导致人工神经网络模型结构冗余。通常,这样的模型能很好地表示节点处的输出变量,但预测能力较弱。
在研究[18]中,我们提出了一种建设性算法,允许增加隐藏层中神经元的数量和隐藏层的数量,直到达到某些条件。我们使用了神经元的线性、二次、三次和其他传递函数,而不是常用的S型函数。我们的方法基于将多个变量的函数分解为泰勒级 数(1)-(2)。在分解一个包含大量变量的函数时,有必要首先引入一个微分算子:
(1)
函数在泰勒级数中的展开式如下:
(2)
这种方法可以获得结构相对简单、具有良好近 似(概括)和预测能力的神经网络。
根据公式(1)和(2)建立的人工神经网络模型有4层:
1)输入神经元层;
2)与泰勒级数的几个项相对应的功能隐藏层;
3)概括隐藏层;
4)输出层。
功能隐藏层包含具有与泰勒级数项相对应的传递函数的神经元:线性(一阶)、二次(二阶)和三次(三阶)。概括隐藏层包含一个线性神经元,其主要功能是计算数列的几个项之和,并在其中添加一个常数。这种结构使我们的人工神经网络模型达到了可接受的准确度。
模型值与经验值偏差的平方和被用作损失函数。
在根据经验数据训练模型时,选择了以下优化方法:随机梯度法、简单的梯度法、无梯度的高斯-赛德尔坐标下降法和蒙特卡洛坐标下降法,这些方法都是交互式使用的。
从代表26个输入神经元和一个隐藏层中线性神经元的网络开始对基于眼内镜片数据的人工神经网络模型进行训练。这样的机构与公式(1)和(2)中的自由项和第一项相对应。考虑到以往研究的建议[8-11],模型训练过程在整个样本的70%上进行,人工神经网络模型的预测能力在剩余的30%样本上进行评估。用于训练和测试模型适当性的数据是从一个通用表格中随机选取的,随机变量分布均匀。
这一简单模型的训练结果见图2。在每个病例中,特定类型的眼内镜片产生屈光正常的真实光学倍率是由植入眼内镜片的光学倍率和由此产生的屈光不正之和决定的。屈光不正是通过术后1至6个月的回顾性分析计算得出的。
图2。基于一阶模型的计算数据(Ymod)和经验数 据(Ytab)之间的相关性。对相关系数为0.84;平均相对误差为11.9%。
就平均相对误差而言,所获得的结果与经典公式相当,但在本例中,我们使用了包含26个变量的线性函数来预测眼内镜片光学倍率。计算数据与经验数据之间的对相关系数为0.71,平均相对误差为11.9%。
线性模型通道的突触连接系数代表通道的灵敏度,其值可用来估计通道对输出变量的影响程度。数值实验表明了,至少有12-15个输入因素(眼科医生可获得的)会对眼内镜片光学倍率的术前计算产生重大影响。因此,我们关于必须考虑更多输入量以减少计算误差的假设得到了充分证实。同样明显的是,经典公式[3-7]的重大误差也与大量输入因素的存在有关,而这些因素在这些公式中是不观察的。
有些因素(如x16、x21、x23和x24)的值只有在术后才能知道。不过,它们与术前的类似因素有很好的相关性,因此其值是可以很好预测的。
按照我们的算法[18],我们改变了人工神经网络模型的结构,在隐藏层中加入了一个二次神经元和一个线性神经元。使用类似的非线性编程数值方法训练这样一个人工神经网络模型,使我们能够将平均相对误差降低到5%。因此,之前的结果提高了2倍。同时,对相关系数为0.97,平均相对误差 为4.8%(图3)。
图3。基于二阶模型的计算数据(Ymod)与经验数 据(Ytab)之间的相关性。对相关系数为0.99;平均相对误差为4.8%。
按照这一逻辑,我们还建立了一个三阶人工神经网络模型,该模型的隐藏层包含具有线性、二次方和三次传递函数的神经元。使用类似的非线性编程数值方法训练这样一个人工神经网络模型,使我们能够将平均相对误差降低到3.5%的水平,对相关系数为0.98(图4)。
图4。基于三阶模型的计算数据(Ymod)与经验数 据(Ytab)之间的相关性。对相关系数为0.99;平均相对误差为3.5%。
值得注意的是,该人工神经网络模型的自由度数等于突触连接数(26×3+3=81),明显小于训练样本中的记录数。这一事实表明,使用人工神经网络模型计算眼内镜片光学倍率的经验数据具有良好的概括化。
不同眼内镜片光学倍率计算方法的比较结果见表3。因此,与传统方法相比,当使用人工神经网络模型和更多输入变量时,计算的平均相对误差可减少2倍以上。
表3。使用不同方法计算眼内镜片光学倍率的平均相对误差以及计算数据与经验数据之间的相关系数的比较结果
公式或人工神经网络模型 | 平均相对误差,% | 计算数据与经验数据之间的相关系数 |
Haigis | 15.6 | 0.85 |
Holladay | 13.4 | 0.86 |
SRK II | 11.7 | 0.86 |
SRK T | 12.5 | 0.86 |
线性人工神经网络模型 | 11.9 | 0.84 |
二阶非线性人工神经网络模型 | 4.8 | 0.98 |
三阶非线性人工神经网络模型 | 3.5 | 0.99 |
讨论
该方向下一阶段的研究应该是收集更多的匿名术前和术后患者检查数据,因为深度机器学习方法需要大量的训练样本,之后应该对模型在测试样本上进行验证[11-14]。如果系统还包含超参数(必须“从上面”设置的参数,问题的解决取决于能否成功引入这些参数),则应使用第三个额外的验证数据样本。有了这些数据,就有可能建立一个用于术前计算眼内镜片的智能专家系统。我们已经介绍了建立这种系统的一些原则[19]。
结论
与使用传统公式和方法相比,使用深度学习人工神经网络模型计算眼内镜片光学倍率时,输入变量的数量要多得多。确定对目标指标有重大影响的最重要的观察因素,并将其纳入人工神经网络模型,可将计算误差减少2倍以上。基于人工神经网络的模型能够很好地概括数据,这为创建智能专家系统提供可能性,该系统可动态输入新数据,并逐步对智能核心进行深度机器学习。与使用传统计算公式相比,这种系统的主要特点是适应性强,可以解决对象非平稳性的问题,以及由于其中存在反馈而导致的本地化问题。目前,已开发的人工神经网络模型被用于眼科医生助理模式,并与其他工具相结合,以计算术前眼内镜片光学倍率。
ADDITIONAL INFO
Funding source. This study was not supported by any external sources of funding.
Competing interests. The authors declare that they have no competing interests.
Authors’ contribution. All authors made a substantial contribution to the conception of the work, acquisition, analysis, interpretation of data for the work, drafting and revising the work, final approval of the version to be published and agree to be accountable for all aspects of the work.
A.A. Arzamastsev — research concept, data processing, writing the manuscript, editing the manuscript; O.L. Fabrikantov — research concept, literature analysis, editing the manuscript; N.A. Zenkova — data processing, literature analysis, editing the manuscript; S.V. Belikov — preparing the dataset, searching for publications.
作者简介
Alexander А. Arzamastsev
Voronezh State University; The S. Fyodorov Eye Microsurgery Federal State Institution
Email: arz_sci@mail.ru
ORCID iD: 0000-0001-6795-2370
SPIN 代码: 4410-6340
Dr. Sci. (Engineering), Professor
俄罗斯联邦, Voronezh; TambovOleg L. Fabrikantov
The S. Fyodorov Eye Microsurgery Federal State Institution
Email: fabr-mntk@yandex.ru
ORCID iD: 0000-0003-0097-991X
SPIN 代码: 9675-9696
MD, Dr. Sci. (Medicine), Professor
俄罗斯联邦, TambovNatalia А. Zenkova
Derzhavin Tambov State University
Email: natulin@mail.ru
ORCID iD: 0000-0002-2325-1924
SPIN 代码: 2266-4168
Cand. Sci. (Psychology), Assistant Professor
俄罗斯联邦, TambovSergey V. Belikov
The S. Fyodorov Eye Microsurgery Federal State Institution
编辑信件的主要联系方式.
Email: pvt.leopold@gmail.com
ORCID iD: 0000-0002-4254-3906
SPIN 代码: 5553-8398
MD
俄罗斯联邦, Tambov参考
- Fyodorov SN, Kolinko AI. Method of calculating the optical power of an intraocular lens. The Russian Annals of Ophthalmology. 1967;(4):27–31. (In Russ).
- Balashevich LI, Danilenko EV. Results in application of the fyodorov’s iol power formula for posterior chamber lenses calculation. Fyodorov Journal of Ophthalmic Surgery. 2011;(1):34–38. EDN: PXRASV
- Sanders DR, Kraff MC. Improvement of intraocular lens power calculation using empirical data. American Intra-Ocular Implant Society Journal. 1980;6:263–267. doi: 10.1016/s0146-2776(80)80075-9
- Sanders DR, Retzlaff JA, Kraff MC. Comparison of the SRK II formula and other second-generation formulas. Journal of Cataract & Refractive Surgery. 1988;14(2):136–141. doi: 10.1016/s0886-3350(88)80087-7
- Sanders DR, Retzlaff JA, Kraff MC. Development of the SRK/T IOL power calculation formula. Journal of Cataract & Refractive Surgery. 1990;16(3):333–340. doi: 10.1016/s0886-3350(13)80705-5
- Hoffer KJ. The Hoffer Q formula: a comparison of theoretic and regression formulas. Journal of Cataract & Refractive Surgery. 1993;19(6):700–712. doi: 10.1016/s0886-3350(13)80338-0
- Holladay JT, Prager TC, Ruiz RS, et al. A three-part system for refining intraocular lens power calculation. Journal of Cataract & Refractive Surgery. 1988;14(1):17–24. doi: 10.1016/S0886-3350(88)80059-2
- Pershin KB, Pashinova NF, Tsygankov AYu, Legkhih SL. Choice of IOL Optic Power Calculation Formula in Extremely High Myopia Patients “Excimer” Ophthalmology Centre, Moscow. Point of view. East - West. 2016;(1):64–67. EDN: WHCNPF
- Buduma N, Lokasho N. Foundations of deep learning. Creating Algorithms for Next Generation Artificial Intelligence. Moscow: Mann, Ivanov i Ferber; 2020. (In Russ).
- Foster D. Generative deep learning. Creative potential of neural networks. Saint Petersburg: Piter; 2020. (In Russ).
- Ramsundar B, Istman P, Uolters P, Pande V. Deep learning in biology and medicine. Moscow: DMK Press; 2020. (In Russ).
- Kharrison M. Machine learning: a pocket guide. A quick guide to structured machine learning methods in Python. Saint Petersburg: Dialektika LLC; 2020. (In Russ).
- Arzamastsev AA, Fabrikantov OL, Zenkova NA, Belousov NK. Optimization of Formulae for Intraocular Lenses Calculating. Tambov University Reports. Series: Natural and Technical Sciences. 2016;21(1):208–213. EDN: VNWHVZ doi: 10.20310/1810-0198-2016-21-1-208-213
- Yamauchi T, Tabuchi T, Takase K, Masumoto H. Use of a machine learning method in predicting refraction after cataract surgery. Journal of Clinical Medicine. 2021;10(5):1103. doi: 10.3390/jcm10051103
- Certificate of state registration of the computer program № 2012618141/ 07.09.2012. Arzamastsev AA, Rykov VP, Kryuchin OV. Artificial neural network simulator with implementation of modular learning principle. (In Russ).
- Kolmogorov AN. On the representation of continuous functions of several variables by superpositions of continuous functions of fewer variables. Doklady Akademii nauk SSSR. 1956;108(2):179–182. (In Russ).
- Kolmogorov AN. On the representation of continuous functions of several variables as a superposition of continuous functions of one variable. Doklady Akademii nauk SSSR. 1957;114(5):953–956. (In Russ).
- Arzamaszev AA, Kryuchin OV, Azarova PA, Zenkova NA. The universal program complex for computer simulation on the basis of the artificial neuron network with self-organizing structure. Tambov University Reports. Series: Natural and Technical Sciences. 2006;11(4):564–570. EDN: IRMPYX
- Arzamastsev AA, Zenkova NA, Kazakov NA. Algorithms and methods for extracting knowledge about objects defined by arrays of empirical data using ANN models. Journal of Physics: Conference Series. 2021. doi: 10.1088/1742-6596/1902/1/012097
补充文件
