人工智能在医疗实践中的认识论地位:伦理挑战

Fig. 1. Screenshot of the project page for a telemedicine platform for doctors with a description of the research process.


如何引用文章

详细

最近,在现代科学研究中越来越多地讨论认为,随着人工智能技术的发展,知识的客观性、可信度和可靠性出现了问题,以及这些技术是否会取代专家的问题。科迄今为止,专家一直是客观性的保证和决策中心。现代科学史学家L.Daston和P.Galison在他们关于科学客观性历史的著作中谈到了“认识论美德”的更迭。客观性从某个时刻就确立为其中之一。美德是科学家选择理解方式和科学实践的规范性原则。管理科学信念的特定美德的弘扬过程取决于科学家在需要意志和信念限制的困难情况下做出的决策。从这个意义上说,认识论与伦理学是相通的。科学家在某些道德原则的指导下,倾向于这样或那样的行为方式。例如,科学家选择一张未经修饰的照片,而不是更精确的手绘图像。照片可能模糊不清,但它是通过机械方式获得的,这意味着这样的照片更加客观,未受到任何主观因素的影响。在这方面,以人工智能为基础的现代技术的认识论地位很有意思。这些人工智能技术越来越多地承担科学信念的功能,包括在影响最终决策和获取客观知识方面。例如,在医学领域,机器人设备已经开始提供重要的支持。一些功能被转移到这些机器上,例如一线医生收集和分析病人标准数据的功能和诊断功能。有一种假设认为,在不久的将来,越来越多的职责将移交给人工智能:数据处理、新药物和新疗法的开发、与病人建立远程互动等等。这是否意味着科学可能会被基于人工智能的算法所取代,客观性将被另一种最终打破伦理学与认识论之间联系的认识论美德所取代。这是一个需要探讨的问题。

全文:

绪论

基于人工智能的技术在现代科学(尤其是医学)实践中的应用1给科学研究人员提出了一系列问题:人工智能的认识论地位是什么?在确定此类地位时会遇到哪些伦理挑战?人工智能的认识论地位问题需要澄清,因为将人工智能积极融入科学实践不可避免地会引起这样的担忧:技术的主动性既威胁到作为寻求客观观点决策者的医生本身主动性,也威胁到作为与科学相关的认识论美德2

L.Daston和P.Galison的“客观性历史概念”项 目[1],作者以研究具体的物质科学实践(即为自然科学地图集绘制视觉图像的实践)为例,证明了客观性作为一种认识论美德的历史性,该项目主要基于两个方面:认识论美德(尤其是客观性)和视觉性。

“对科学认识形式的关注带来了两个问题。需要怎样的实践才能产生这种图像?需要哪些实践来培养使这种认识成为可能的科学信念?科学认识的历史总是需要这样的双重运动:一方面是图像认识论的展开,另一方面是科学信念伦理的培养。忠实于自然一直是一种三重承诺:视觉的、认识论的和伦理的。当忠实于自然的承诺被打破,自然与人工制品融为一体时,会发生什么呢?是时候看看当代的科学地图集了:在这些图像中,制作的过程同时也是观看的过程”[1,P.541]。科学工作对象视觉化的具体实践将这两个方面紧密联系在一起3

图像和实践性质的变化显示了一种或另一种认识论美德的作用。在这方面,通过使用数字技术和基于人工智能的技术来改变可视化,可以让我们质疑客观性认识论美德和科学信念的转变。各种可视化方法(使用图表、地图、照片、地图集)正在成为现代科学研究论证的基本组成部分之一。得益于新数字技术的性能,可视化不仅仅是一种插图,它本身也是一种研究形式。从表象到呈现的转变标志着一种新的观察方式和科学实践:操纵视觉图像开始与操纵所描绘或观察的对象本身具有相同的含义。计算机建模和新的可视化方法是继观察和实验之后科学实践的又一次革命性突破。在科学数字化和创新的时代,在技术和科技开始在科学知识的生产中发挥重要作用的背景下,客观性作为一种认识论美德的现状和可能的未来是什么?新的科学实践是什么,新的美德可能是什么?如果实践是历史性的,那么美德是如何变化的?美德的变化是否与实践所依据的目标/目的的变化有关?除了美德之外,科学信念还能用其他东西来定义吗?当基于人工智能的技术得到增强时,科学信念会发生怎样的变化?

现代科学实践:人工制品的物质性和认识论地位

在现代科学实践中,客观与主观、抽象与具体、开放与制造之间的界限变得模糊。人工制品开始在科学知识的形成过程中发挥重要作用,并影响其主要特征,包括客观性,而客观性不再被理解为独立于主体的抽象科学特征。随着技术的发展,技术人工制品4变得越来越重要,例如,它们是在科学实验室中制造的,具有创造新知识的基本新特性。除了其功能性目的之外,物质性是人工制品最重要的特性之一:人工制品不是理想的物品,尽管它们可以成为形成理想的工具。此外,人工制品与人类的生活世界、文化环境、历史时代和社会实践有着内在的联系,这实际上使人工制品在很大程度上依赖于(从本体论上,而不是从因果论上)与之互动的实践过程。在创造人工制品时,人类改造和调整自然,形成新的物品。改造和认知世界的实践是通过生产和使用人工制品形成的。考虑到科学实践中使用的技术工工制品的特殊属性和功能,我们可以说,它们本身就是维护科学知识稳定性的一个重要构成要素。因此,“人工制品应被理解为事物系统中的“物质”元素,它们能够代表文化的特定含义、事物的生产机制、学习和掌握含义和隐喻的过程,并允许文化发生变化。正是这些人工制品具有本体论意义,因为它们体现文化的特定含义,没有它们,文化就不可能存在,也不可能得到体现”[4]。

一个物体的人工性不能仅从其基本特征来解释,也不能脱离其他物体、关系、程序的综合体,即揭示该物体作为人工制品的普通条件。M.Polanyi将工具的存在或工具本身在一定意义上表述为有别于其作为客观“机制”的适宜性的东西。它成为人类身体的一种延伸:我们把工具包装进自己的身体,或者以这样一种方式延伸我们的身体,使我们与这个东西相处融洽。正如M.Lynch)所指出的,Polanyi将工具的这种身体延伸称为内部化[6]。“客观”与“制造”之间的对立问题源于人工制品与自然客观性之间的区别,这种区别在实验室科学实践中受到质疑5

Lynch在分析科学实践中的人工制品(伪影)时,将其分为积极人工制品和消极人工制品。第一类人工制品的特征是外部物质表现(如显微镜玻璃上的污渍):在这种情况下,它们属于主观观察条件,即它们被认为取决于感知的工具条件。Lynch指出此类人工制品的几个特征。首先,它们是物质性的,即可见和可读的。其次,它们是无处不在的、可复制的,它们的出现就像日常的困扰,栖息在图像技术准备工作中。此外,一旦将其检测为伪影,就可以毫无问题地将其与适当构建的图像特征(如电子显微照片)区分开来。最后,一旦检测到这些伪影,就需要对其进行读取,这通常会提出一个问题,即在最终分析中是否要考虑到检测到的伪影,以及在进一步的工作中是否要使用这些伪影。

然而,正如Lynch所指出的,实验室人工制品的“人种学”关注存在一些问题。首先,不难看出,作为实例报告的人工制品数量并不能详尽无遗地说明研究中可能被认为是人为的一切。此外,什么被认为是人为人工制品往往取决于报告记录中的表述方式。例如,神经超微结构可表示为一种分析记录,在通过阅读该记录访问的神经实体领域中,该记录被赋予人工制品的地位。人工制品表示格式的特征可能包括照片的二维性质;黑白纹理变化,勾勒出被拍摄现象的形状;以及照片系列的顺序排列,描绘出事件的连续序列[6]。记录可以说是一种不可见现象的可视化形式,而人工制品在许多情况下是在实验室报告中发现的,是以前未曾预料到的现象。人工制品之所以成为发现,是因为它们往往是以前未曾探索过的领域中出现的新现象。按照Lynch的定义,这些就是所谓的情境人工制品,或者说是消极人工制品。Lynch写道,无论如何,这些成为发现的人工制品的例子表明,观察或实验的结果在很大程度上取决于进行观察或实验的条件。

根据上述积极和消极人工制品的具体特征及其在科学实践中的作用,Lynch举例说明了作为人工制品的小胶质细胞现象的发现[6]。它的“不可信”并不是经验上的不可能,而是更可信的替代版本中的一个孤立案例。导致毛细血管中的小胶质细胞受到特别关 注(几张特写镜头照片被整理成一个系列)的理论背景有助于对这一现象进行更详细的研究。小胶质细胞照片之所以存在问题,不仅是因为它与关于小胶质细胞应如何在大脑中产生的实验室假设相矛盾,而且还是因为照片所记录的另一个与之相竞争的假设的存在而加剧了问题的严重性。小胶质细胞不仅通过实验室版本的大脑生理学无法解释的途径以某种方式出现,而且还可以作为另一种可能解释的证据。小胶质细胞在毛细血管中的位置成了一种不知不觉的建构,而不是对真实情况的把握[6]。

这样一个人工制品的例子并不是积极意义上的物质,因为可见性本身是不存在的。问题在于对物质性的不同理解。轴突萌发所展示的物质延伸方向与实验室研究人员认为不容置疑的方向不同,因此它受到了另一种物质论点的质疑[6]。在这种情况下,从有关萌发轴突的特定论战角度来看,人工制品是可以识别的,因此也受到了质疑。在这一案例和类似案例中,人工制品与其说是“东西”,不如说是对立观点冲突中的“反东西”。除了“东西”之外,人工制品还可能是与公认的计算结果相反的可能性。这些可能性常常被认为是观察中不存在的,而不是存在的(照片中的斑点、污点、模糊,可被视为“侵入”6)。在这种情况下,人工制品出现在不确定的情况下。

消极人工制品不是指观察领域中的侵入、扭曲或具体缺陷,而是指没有预期的结果或效果。就“消极人工制品”而言,实验或观察程序没有产生积极的结果,意味着实验室工作是可以接受的,考虑到可能出现的意外情况,而这些意外情况反过来又要对所获得的结果负责。由于不确定性造成的失败会引发对为什么没有取得预期结果的调查。Lynch认为,这种负面结果的不确定性是对实现客观性所必需的技术视野的一种补充[6]。未能履行职责会带来不同的伦理附加意义,这些附加意义取决于当地的具体情况:在某些情况下,这些附加意义可能会在或多或少的客观环境中得到体现。

积极人工制品是对自然现象可见空间的侵入,出现在力求避免主观错误可能性的研究工作中。消极人工制品则表明研究工作是在寻找难以捉摸的对象。然而,这还不足以避免错误,因为要取得成功,就必须控制环境,使其产生预期结果。消极人工制品作为“隐藏”事物的可能性而存在。隐藏事物作为一种可能性而存在,就像人工制品本身一样,它隐藏着其可用性,直到技术改造在测试中记录它的存在。因此,消极人工制品为突发事件中事物的现实化创造条件。当出现错误时,这些错误被视为主观因素,阻碍客体本身的展示。工具和仪器也有其不完善之处、缺陷和相关错误。因此,科学实践的物质性(稍后将说明)直接影响到科学客观性的产生,并赋予产生这种客观性的技术以认识论地位。

现代医学实践:分布式代理与人工智能的认识论地位

与科学研究中的“物质转向”有关的对经典认识主客体关系模式的否定,导致研究过程及其结果(科学知识)的所有要素都被归结为社会特征。“遗忘人工制品(在事物的意义上)意味着创造另一种人工制 品(在幻觉的意义上):社会,而社会只应由社会来支撑”[7]。所获知识的内容由其构建的社会过程决定。获得的知识是科学家活动的最终结果。然而,如果说在古典科学中,知识因其与研究对象的对应关系而获得了一种逻辑形式,那么现在,知识则因其作为人工制品在社会中成功发挥作用的能力而成为一种科学成果,并排除社会活动对其产生的一切痕迹。科学家的活动(与其说是脱离研究对象,不如说是一种特定形式的主体化,即自身从属于研究对象,同时研究对象抵制从属关系)造成一种科学的无主体性:科学家是始终存在的研究对象的评判者,但不是对研究对象进行评判的终结者。尽管B.Latour说“在科学中不存在“终审判决体”(res judicata)”[8],但用他自己的话说,仍然存在决策的第三方:独立的混合体(他代表科学家发言,而科学家则代表“事物”发言)。科学家的任务与其说是让这一对象从属于自己,不如说是让它“说话”。事实本身并不会说话,但在实验室里,事实扮演着双重角色:一方面,事实代表着关于事实的说法,另一方面,事实决定着关于事实的说法的真伪[8,P.82]7

对Latour来说,科学不仅是一种话语:它首先是一个产生事实的实践网络。在把科学理解为技术科学的背景下(当技术和科技不是科学的附属品,而是科学发展的必要元素时),人工智能被赋予一种特殊的认识论地位,它是一种代理人(或行动者),不能脱离应用它的科学实践。在这方面,数字化时代的科学创新问题与科学信念如何变化的问题密切相关:为了从事科学工作,科学家必须对自己做什么,今天作为一种认识论美德的客观性发生了什么变化?20世纪末,新技术和新的混合科学方式的出现,使早先表现自然的看似不言自明的方式黯然失色。在科学实践中,将自然与人工制品并置,以原子的维度为工具制作图像,这导致了从表象策略到呈现策略的转变8。20世纪至21世纪纳米技术的发展,使Daston和Galison提出“图像即工具”的科学可视化新模式。因此,现代科学图像与其说是对所表现对象的再现,不如说是对其进行操作的工具9。从这个意义上说,最能体现表征策略和呈现策略之间差异的深刻变化恰恰发生在科学信念的层面上:“科学家和工程师,至少在这个混合领域中是截然不同的角色,却开始以各种方式失去这种差异。<......>当工程科学信念开始稳定下来时,它与对图像的新态度也同时发展起来。它们成为工具,成为硬件的一部分,更像是电脑屏幕,显示远程手术中遥控机器人的操作、太空中卫星的轨迹改变、有毒化学品的混合或炸弹安全处理”[1]。 在创建和观察客观图像的过程中,人们倾向于尽量减少信念的作用,甚至拒绝信念10,因为信念会以任何方式干预或误视和误解所观察到的现象,这种倾向在使用基于人工智能技术的当代科学实践中日益明显。在这种情况下,我们似乎有理由提出这样的问题:新技术是否有可能抹杀作为一种认识论美德的客观性所支配的科学信念?我们是否正在目睹切断伦理学与认识论之间联系的新认识论制度的出现,或者说取代科学信念的算法正在成为认识论美德承载者?

因此,举例来说,被定义为“客观”科学家的科学信念类型是一个严谨认真的观察者形象,他不干预研究过程,只是公正地记录所观察到的现象并对其做出正确的解释。客观(即坚持客观性的认识论美德)不仅意味着从事科学研究,而且首先意味着克制自己的意志和信念,例如不对照片进行修饰。从这个意义上说,认识论美德的改变与其说是科学实践的改变,不如说是规范科学家行为的伦理态度的改变。然而,正如Daston和Galison所指出的,“所有这三种美德都以各自的方式服务于一个共同的目的,即我们称之为忠实再现自然”[1,P.540]。到20世纪末,随着新技术的出现,那些看似不言自明的表现自然的方式已黯然失色11,科学信念也在发生转变并得到彻底扩展,考虑到作为决策过程中不可或缺代理人的神经网络和基于人工智能的技术。

由于科学中的视觉表征与计算机和计算格式的交织日益紧密,其数字物质性需要一种特殊的方法12。如果说不久前,在20至21世纪之交,科学家-观察者的存在被认为是一种现象,未来应通过改进算法和图像处理能力来消除这种现象,而无需人工干预的话,那么现在,新的(与以前的脑图绘制方法相比)数字地图集的创建则对实现所谓数字客观性的信念控制和限制提出了新要求13[12]。数字扫描被放置在一个复杂的基础设施中,它提供的视觉知识与观察者对机械得出的客观表象进行简单评估的方式大相径庭。除了客观视图之外,还需要某种关系视图,通过这种视图,图像被视为与研究对象相关的一组数据。科学实践中积累的大数据虽然努力提供详尽无遗的数据表示,但只能有选择地反映有意义的信息,这在很大程度上取决于所使用的技术和数据收集平台,同样重要的是,取决于对所使用数据的本体论态度。换句话说,数据意味着一种选择性的视角,以某种方式配置,并受限于某些工具的使用[13]。

新的分析方法(基于机器学习、计算机视觉和新可视化方式的数据管理新方法的开发)标志着改变现代科学研究的创新。例如,命题在纳米科学中几乎不存在,因为其重点是创造和研究新现象,因此其重点也是一种特殊的捕捉这些现象的可视化方式来。然而,在这种情况下是否会产生一种新的表征模式,这个问题并没有简单的答案:人们可能会怀疑这种模式有多新。尽管如此,毫无疑问,在纳米技术和其他一些新兴科学领域,与真实研究对象的相似性不再是对研究对象的主要要求。除了扫描和成像技术实现的机械客观性之外,数字地图集“还通过计算机化统计和定量仪器的参与而形成,这些仪器提供进一步的验证和确保客观性的机制”[12]。这两种情况的假设都是,数字图像处理可以通过部署自动化流程来促进客观性的认识论理想,从而减少数据处理中的干预需求。

最后,客观性的认识论美德在历史上作为科学性的理想而形成,但作为一种科学价值,它可以被另一种认识论美德所取代,而另一种认识论美德的形成则是使人工制品越来越接近图像的趋势,图像变得工具化而非视觉化。科学视觉变得与视觉图像的生产密不可分。当代从再现到呈现的转变成为视觉实践和客观性历史上的一个转折点,强调再现实践与其构建过程的并列关系:摄影图像的精确性并不代表技术的客观性,它被理解为将主观性降至最低的愿望14

引入基于人工智能和计算机视觉的技术,是为了使图像流标准化,以便对缺陷、病理、筛查方案的规模等进行初级和自动检测。例如,已开发的生物医学图像分析服务旨在科学研究在莫斯科医疗保健系统中使用基于人工智能数据分析结果的决策支持方法的可能性15。除其他外,该服务旨在最大限度地降低诊断错误的风险,但这并不排除假阳性结果。同时,医生作为“专家”的角色并没有从诊断过程中消失,而是以“人工智能”角色和“人工智能+专家”的混合角色作为补充。医生在做出决定时的客观性很大程度上取决于对服务所提供数据的分析。不过,最初的诊断结果并不需要医生的专家意见:只有在下一阶段,如果人工智能的结果不令人满意,才可能需要:计算机视觉算法将对病人图像进行分析,只有在必要时,这些结果才会由经验丰富的专家进行验 证(图1、图2)。

 

图1。医生远程医疗平台项目页面截图及研究过程描述。

 

图2。医生远程医疗平台项目页面截图及所提供服务的说明。

 

伦理挑战:人工智能主观性和主体性的优缺点

基于人工智能的机器人设备已经在诊断、治疗和手术方面为医生和患者提供了重要支持。俄罗斯已经有了机器人医疗综合体,例如,AST(Assisted Surgical Technologies)16。在治疗方面,传统上由作为初级医生的内科医生进行初步诊断。然而,机器人已经开始取代他的工作:安装在病人身体上的特殊传感器可以收集所有信息,并在发现病变时将信息传送给医生。该系统还能代替医生自己进行诊断。俄罗斯的综合诊断系统RoboScan可以自动进行超声扫描。

在医疗实践中熟练使用神经网络(例如,用于COVID-19肺部病变的检测)可以减少断层扫描的X射线剂量,因为这种预先训练好的神经网络模型在某些方面已经起到了专家的作用17。因此,数据收集和初步诊断的工作,以及在某些情况下初步决定的提出,都是标准化和正规化的,这应有助于提高客观性。这一方面减轻了医生作为专家的负担,使他们能够专注于检查和解释数据、描述数据和形成结论。医生将越来越多的职责移交给人工智能,同时也将处理数据、诊断、制定治疗方案、与病人建立互动,包括决策等职责移交给人工智能。另一方面,这自然也提出了一个问题,即人工智能多快能够完全取代医生,在这条道路上我们已经面临着哪些伦理挑战?

如果出现错误诊断或未能检测出病理,从而导致相应的后果,谁将是决策的责任主体?俄罗斯是世界上最早提出风险和威胁的国家之一(在《人工智能道德守则》[17]中被列为对人权和自由的威胁),这些风险和威胁会是因医学领域基于人工智能技术的数字化和应用而导致的:歧视、隐私权的丧失、对人工智能失去控制、人工智能算法的错误对人造成伤害、将人工智能用于不可接受的目的。例如,俄罗斯联邦卫生监督局最近暂停使用基于Botkin.AI的CT图像分析系统,“原因是该系统可能对公民的生命和健康造成危害”18

目前,决策不再是人类专家的特权:这一职能正在转移给智能系统。如果不把决策权转移给技术系统,就不可能创造出一个类似自然的技术圈,因此,在未来10-20年内,这一趋势只会继续19。现代医学的数字化转型也发生在交流层面,“医生和病人之间可能因技术障碍而彼此疏远。另一方面,数字技术带来了网络空间扩大的现象,医患之间的融合和跨越现有界 限(尤其是地理界限)的可能性正在急剧增加。这也为专家医生从其传统的专业领域中取而代之创造了可能,但同时也为形成网络集体专家主体(数字实验室和医生联合会)提供了机会”[19]。

“在数字技术的帮助下,医生的专家职能被准专家职能所替代和部分取代的趋势也证明了一种新的交流形式,即从专家(医学专业人员)和非专业人员(非专业病人)之间的关系转变为“医生+软件——病人”的混合模式,并在遥远的未来转变为“软件——病人”的交流模式,专家(医生)失去了作为绝对(或接近绝对)知识载体的地位,而将这一权利赋予了数字软件。后一种模式是以技术为中心的,但在某种意义上,它也是以病人为中心的,使医生的角色更加平等”[19, P.166-116]。将专家职能下放给技术表明了将医生从诊断错误中解放出来的普遍趋势。人工智能对病理或疾病发展风险的判断越准确,用算法取代专家功能的愿望就越强烈,决策支持系统不仅自以为人类设定目标工具的角色,而且自以为执行复杂操作的正式演员的角色的过程就越强烈。这“导致人类视线的无关性和冗余性,以及错误、扭曲的评估和不可救药的偏袒。技术被赋予对其所面对的现实图景做出判断的功能”[19,P.167-168]。那么可以想象,如果限制信念而倾向于将信念最终转移到人工智能上的趋势继续下去,那么在不久的将来,我们将不可避免地不得不停止将基于人工智能的技术视为工具,而考虑到其全面的主体性和主观性,以及其所有的利弊。

ADDITIONAL INFORMATION

Funding source. This article was not supported by any external sources of funding.

Competing interests. The author declares that she has no competing interests.

1 说到现代科学实践,我们指的是一个从根本上说是复杂的、经验多样的科学空间,其中除了命题式的知识生产方式外,还包括图表、图解、视觉图像等各种非命题形式。A.Mol的研究项目就是一个生动的例子,它展示了科学实践如何与其说是认知其对象,不如说是在实践中创造其对象。该项目以动脉粥样硬化这种疾病在分支实践中的实现为例,专门研究了医学实践本体的多重性[2]。

2 客观性作为一种认识论美德,是在观察者与观察实践复杂协调的某一历史阶段出现的,并在某些视觉实践和可视化技术中得到体现,因为认识论美德作为稳定的性格特征是在具体的研究实践中培养出来的,并通过这些实践反过来形成某种类型的科学信念。科学信念的每一次实践都是为了实现某种目标。因此,持续的实践使认识论美德的变化成为可能。

3 《为自然本身代言》成为19世纪下半叶出现的一种新的科学客观性的口号。法国生理学家Étienne-Jules Marey研究了科学中的多种视觉方法,他和他的同时代人担心自然和科学之间受到人为干扰,转而采用机械复制图像的方法来消除可疑的中介。他们利用测谎仪、照片和其他设备,试图绘制地图,即所谓的“可观察科学的圣经”。地图集为有关科学客观性的讨论设定了新的方向[3]。地图集为视觉科学提供了工作对象,训练眼睛将某些类型的对象识别为典范(可称为“典型”),并以特定的方式观察它们。如果地图集展示的是利用新工具获得的图像(如20世纪初的X射线地图集),那么地图集所属的整个领域也必须以新的方式来解读。由于地图集训练的是眼睛,因此它们必然是视觉性的,即使在其他感官发挥重要作用的学科中也是如此[3]。

4 “技术人工制品是专门为某一特定目的而创造的物品;而自然物品则是在没有具有任何意图的因素的干预下产生的。人工制品在本质上具有意图属性,而自然物则没有”[5]。一方面,人们普遍认为,人工制品是为特定目的而制造的物品(与自然物品相反)。 然而,在专门研究现代认识论的著作中,人们正确地指出,技术人工制品不仅会是人工制造的东西,也会是用来完成某些任务的相当自然的、有生命的有机体。在这种情况下,应该承认,人工制品的构成属性不是其人工性质,而是其在人类认知活动中的用途。人工制品的功能性是其基本属性之一。“疫苗、强子对撞机和掘土棒也是人工制品。所有这些物品都与人类生活世界息息相关,这也是它们能够成为技术人工制品的原因”[4]。

5 正如K.Popper所指出的,“客观性与科学方法的社会性密切相关,科学和科学的客观性不可能是科学家个人努力做到客观的结果。它只能是科学家群体的结果。科学客观性可以用主体间科学方法来描述。但是,自称为知识社会学家的人几乎完全否定科学的社会性”[6]。

6 例如,G.Galilei的实验方法(不同于F.Bacon的经验方法)使得通过技术活动将推测性的构造和经验性的模型交织在一起成为可能。同时,使用望远镜观测太阳黑子必须作为观测的结果而不是望远镜产生的人工制品来辩护。

7 法律世界和科学世界如此紧密地联系在一起绝非偶然:它们有一个共同的优点,那就是通过距离和精确度实现公正。每个领域都使用自己的语言和思维方式。例如,Latour提议将国务委员会视为一个实验室,以寻求科学家所追求的客观性。政府参事与科学家的相似之处在于“他以自己的名义发言和发表文章;同样,每一位自诩为启蒙者的科学家身上都有政府参事的影子。因此,政府参事的形象是一个怪异而复杂的混合体:它具有lex animate的主权,即体现在个人身上的法律;但在我们面前的情况中,受这一法律约束的只是个人本身。<......>政府参事是一个最具体的例子,它旨在产生反对意见,从而产生客观性”[8]。法律活动和科学活动的共同根源是对文本和记录进行一般操作的艺术。

8 这种转变的特点是:“一方面,早期的地图集试图通过表现形式来达到忠实于自然的目的。将自然正确地搬上版面,既可以理解为坚持自然真实的理念(18世纪),也可以理解为坚持机械的客观性(19世纪)或训练有素的判断力(20世纪)。另一方面,还有最新形式的图片库,即演示文稿。演示策略既可能与新型事物(重新组装的纳米管、DNA链或二极管)有关,也可能与演示文稿固有的傲慢倾向有关,即刻意改善图像以解释、说服、取悦,有时甚至推销”[1]。正如O.E.Stolyarova所说,通过区分这两种策略(即表征和呈现),Daston和Galison隐含地创造了一种“集体成为”的本体论[9]。用J.Hacking的术语来说,“集体成为”[9]的认识论含义不是作为对已有事物的再现的表征,而是作为新事物的生产的干预。在这里,我们涉及的是以实用主义方式诠释的建构主义:“第二性自然”为我们的理论和实践强加一个本体论框架。在现代认识论中,对主体的理解正在发生变化:无肉体的主体正在被有肉体的主体所取代。根据Latour的观点,有肉体的主体与世界互动的产物不再是客观现实的主观图像,而是人工制品,它们扩大我们的可能性以及与其他人和社会群体的联系,从而改变我们的需求。

9 现代科学家操纵纳米物体及其纳米图像的能力本身就很了不起。然而,同样令人惊叹的是,“使用原子力显微镜(测量微小探针与扫描表面之间的力)来制作这些图像,并不是为了表现“自然”现象。相反,这些图像和类似的触觉图像是制造过程本身不可分割的一部分”[1,P.545]。

10 然而,值得注意的是,将信念最小化的愿望,除了与将主观性最小化的愿望联系在一起,并因此减少与人为因素相关的错误之外,“还可以使医生免于执行部分常规操作。将人工智能应用于医疗领域的另一个重要优势是可以减少时间和材料成本”[10]。

11 例如,使用数字脑图谱进行的观察和可视化主要是在计算机显示器进行的[11]。这意味着观察者、观察对象、用于此目的的技术以及促成观察实践的制度安排之间的关系发生了变化。与Daston和Galison所考虑的地图集不同,数字地图集具有表征工具而非表征工具的特征,因为它既可以表征,也可以用来增强表征。

12 例如,脑部扫描的结果并非快照,Daston和Galison关于机械客观性的一些现实主义假设并不适合扫描后的脑部图像[11]。计算机技术的进步使得脑部扫描被嵌入到数字化和网络化的环境中,使扫描过程成为呈现而非表征的过程。

13 20世纪90年代是“大脑十年”,当时创建了许多数字和电子资源,以理顺和整合不同的神经生物学领域。这种方法被称为“神经信息学”。在改进脑图谱的过程中,根据新技术固有的可能性和涉及多个维度的项目固有的标准化限制,对客观神经生物学知识的构成进行了重新诠释。有人提出了“数字客观性”的概念,作为现代网络科学中理想、方法和认知对象的特定组合的名 称[12]。

14 例如,R.Buiani描述了一些案例,在这些案例中,该技术无法识别有意义的差异,因此研究人员不得不从字面上绘制图像元素,突出它们并将它们结构化[14]。

15 这项研究正在三个项目中实施:《使用创新计算机视觉技术进行医学图像分析并进一步应用于莫斯科市医疗系统的实验》;HUB是医生的人工智能顾问(为医生提供放射检查自动分析服务);“医疗保健中的语音识别技术”是一种基于人工智能算法的自动语音转文字技术,医生可通过语音命令控制工作站,并口述检查描述,而无需手动打字[15]。

16 https://new.fips.ru/registers-doc-view/fips_servlet?DB=RUPAT&DocNumber=2715400&TypeFile=html[访问日期:2024年2月9日]。

17 “所提出的方法允许减少检测COVID-19所需的X射线投影总数,从而在不显著降低预测准确率的情况下减少辐射剂量。对COVID-CTset数据集中的16 名患者进行了评估,结果表明了,所提出的方案平均减少了15.1%的剂量,而预测准确率平均仅降低了1.9%,与固定方案相比,帕累托最优得到了改善”[16]。

18 https://www.kommersant.ru/doc/6350252[访问日期:2024年2月9日]。

19 目前还没有关于医生和病人对在医疗实践中实施人工智能的态度进行调查的大型研究。不过,最近首次在医生中开展了一项民意调查,以评估他们对在医疗和保健中使用人工智能的兴趣,并确定实施人工智能的问题和前景,调查得出了相当乐观的结论:“俄罗斯医生赞成在医疗中使用人工智能。大多数受访者认为,人工智能将来不会取代他们,而会成为一种有用的工具。首先,它将优化组织流程、研究和疾病诊断”。同时,也注意到,“在使用人工智能可能出现的问题中,有64%和60%的受访者指出,人工智能缺乏灵活性,在有争议的问题上应用有限。56%的受访者认为,如果用于分析的信息不充分,使用人工智能做出决策就会受到阻碍。三分之一的医生担心经验不足的专家参与人工智能的开发,89%的受访者认为医生应参与医学和医疗保健领域人工智能的开发。只有20位参与者(6.6%)回答说,他们同意人工智能可以取代他们的工作。同时,76%的受访者认为,在未来,使用人工智能的医生将取代不使用人工智能的医生”[18]。

×

作者简介

Angelina V. Baeva

Lomonosov Moscow State University

编辑信件的主要联系方式.
Email: a-baeva93@mail.ru
ORCID iD: 0009-0005-5871-6217
SPIN 代码: 2951-1427

Cand. Sci. (Philosophy)

俄罗斯联邦, Moscow

参考

  1. Daston L, Galison P. Objectivity. Ivanov KV, editor. Moscow: Novoe literaturnoe obozrenie; 2018. (In Russ). EDN: PIXKTY
  2. Mol A. The body multiple ontology in medical practice. Gavrilenko SM, Pisarev AA, editors. Perm: Gile Press; 2017. EDN: LJXRPN
  3. Daston L, Galison P. The Image of Objectivity. Representations. 1992;(40):81–128. doi: 10.2307/2928741
  4. Maslanov EV. Artifact: culture and nature. In: Epistemology today. ideas, problems, discussions. Kasavin IT, Alekseeva DA, Antonovskii AYu, et al, editors. N. Novgorod: Lobachevsky State University of Nizhni Novgorod; 2018. P:295–299. EDN: ELYPTC
  5. Baker LR. Ontological significance of artifacts. In: Ontologies of artifacts: the interaction of “natural” and “artificial” components of the lifeworld. Stolyarova OE, editor. Moscow: Izdatel’skii Dom «Delo» RANKhiGS; 2012. P:18−33. (In Russ).
  6. Lynch M. Art and Artifact in Laboratory Science: A Study of Shop Work and Shop Talk in a Research Laboratory. London/Boston/Melbourne: Routledge & Kegan Paul; 1985.
  7. Latour B, Vakhshtain V, Smirnov A. On interobjectivity. Russian sociological review. 2007;6(2):79–96. (In Russ). EDN: JWURYH
  8. Latour B. Scientific objects and legal objectivity. Kul’tivator. 2011;(2):74–95. (In Russ).
  9. Stolyarova OE. The historical context of science: material culture and ontologies. Epistemology and philosophy of science. 2011;30(4):32–50. (In Russ). EDN: OPDQIX
  10. Alekseeva MG, Zubov AI, Novikov MYu. Artificial intelligence in medicine. International Research Journal. 2022;(7(121)):10–13. EDN: JMMMDF doi: 10.23670/IRJ.2022.121.7.038
  11. Beaulieu A, de Rijcke S. Networked Neuroscience: Brain Scans and Visual Knowing at the Intersection of Atlases and Databases. Coopmans C, Woolgar S, editors. In: Representation in Scientific Practice Revisited. Coopmans C, Vertesi J, Lynch M, Woolgar S, editors. Cambridge: MIT Press; 2014. P:131–152. doi: 10.7551/mitpress/9780262525381.003.0007
  12. Beaulieu A. Voxels in the Brain: Neuroscience, Informatics and Changing Notions of Objectivity. Social Studies of Science. 2001;31(5):635–680. doi: 10.1177/030631201031005001
  13. Kitchin R. Big data, new epistemologies and paradigm shifts. Sociology: methodology, methods, mathematical modeling (4M). 2017;(44):111–152. EDN: YMAFTQ
  14. Buiani R. Innovation and Compliance in Making and Perceiving the Scientific Visualization of Viruses. Canadian Journal of Communication. 2014;39(4):539–556. doi: 10.22230/cjc.2014v39n4a2738
  15. Center for diagnostics and telemedicine [Internet]. Moscow; c2013-2023 [cited 2023 Nov 29]. Available from: https://mosmed.ai/
  16. Bulatov KB, Ingacheva AS, Gilmanov MI, et al. Reducing radiation dose for NN-based COVID-19 detection in helical chest CT using real-time monitored reconstruction. Expert Systems with Applications. 2023;229 Part A. doi: 10.1016/j.eswa.2023.120425
  17. AI ethics code [Internet]. AI Alliance Russia, c2020-2024 [cited 2024 Feb 9]. Available from: https://ethics.a-ai.ru/
  18. Orlova IA, Akopyan ZhA, Plisyuk AG, et al. Opinion research among Russian Physicians on the application of technologies using artificial intelligence in the field of medicine and health care. BMC Health Services Research. 2023;23(1):749. doi: 10.1186/s12913-023-09493-6
  19. Popova OV. Digitalization and transformation of medicine: problems and prospects for development. In: Modern problems of socio-technical-anthroposphere: a collective monograph. Budanov VG, editor. Kursk: Universitetskaya kniga; 2022. P:153–171. (In Russ).

补充文件

附件文件
动作
1. JATS XML
2. 图1。医生远程医疗平台项目页面截图及研究过程描述。

下载 (247KB)
3. 图2。医生远程医疗平台项目页面截图及所提供服务的说明。

下载 (247KB)

版权所有 © Eco-Vector, 2024

Creative Commons License
此作品已接受知识共享署名-非商业性使用-禁止演绎 4.0国际许可协议的许可。

СМИ зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор).
Регистрационный номер и дата принятия решения о регистрации СМИ: серия ПИ № ФС 77 - 79539 от 09 ноября 2020 г.