生命科学   2025, Vol. 37 Issue (11): 1445-1452.  DOI: 10.13376/j.cbls/2025142.

专刊:生命伦理学

引用本文 [复制中英文]

杜严勇, 朱梦皎. 医疗人工智能公正性风险及其伦理治理研究综述. 生命科学, 2025, 37(11): 1445-1452. DOI: 10.13376/j.cbls/2025142.
[复制中文]
DU Yan-Yong, ZHU Meng-Jiao. Review of the risks of justice in medical artificial intelligence and its ethical governance. Chinese Bulletin of Life Sciences, 2025, 37(11): 1445-1452. DOI: 10.13376/j.cbls/2025142.
[复制英文]

基金项目

国家社科基金重大项目“人工智能伦理风险防范研究”(20&ZD041)

作者简介

杜严勇,同济大学人文学院特聘教授、博士生导师,同济大学马克思主义研究院研究员。2010年,获得上海交通大学理学博士学位。美国圣母大学、印第安纳大学(布鲁明顿校区)访问学者。2020年,国家社科基金重大项目“人工智能伦理风险防范研究”首席专家。主持并完成国家社科基金年度项目2项,教育部项目2项。在国内外刊物发表学术论文70余篇,出版著作《人工智能伦理引论》《爱因斯坦社会哲学思想研究》等4部,主编《人工智能伦理译丛》《人工智能伦理案例集》等。2018年,入选上海市浦江人才计划。2023年,获上海市第十六届哲学社会科学优秀成果奖(著作类)二等奖。2024年,入选中国知网高被引学者TOP1% 。

通信作者

朱梦皎, E-mail: yanyongdu@tongji.edu.cn

文章历史

收稿日期:2025-05-11
收修改稿:2025-06-18
医疗人工智能公正性风险及其伦理治理研究综述
杜严勇 , 朱梦皎     
(同济大学人文学院,上海 200092)
摘要:人工智能技术在医疗领域的应用日益广泛,在产生大量积极效应的同时,也引发了包括公正性在内的各种伦理风险,引起了社会各界的关注。医疗人工智能引发的公正性问题主要包括人工智能作为医疗资源的分配公正、作为健康公平工具的潜在风险、在医学影像等领域产生的偏见问题,以及人工智能辅助手术的可及性等。国内外专家从提升人工智能医疗资源的公正分配、关注全过程伦理审查与监管以及积极推进并发布伦理框架与专家共识等多个方面出发,提出了一系列解决公正性风险的建议与策略。通过政府部门、科研人员、医护人员与用户在内的所有利益相关者共同努力,可以在很大程度上规避医疗人工智能的公正性风险,使其更好地为人类健康服务。
关键词医疗人工智能    公正    伦理治理    
Review of the risks of justice in medical artificial intelligence and its ethical governance
DU Yan-Yong , ZHU Meng-Jiao     
(School of Humanities, Tongji University, Shanghai 200092, China)
Abstract: Artificial intelligence (AI) has been increasingly permeating the medical domain, yielding substantial benefits while simultaneously giving rise to a spectrum of ethical risks, particularly concerning justice and fairness. This has garnered attention from diverse sectors of society. The justice problems caused by medical AI mainly include the distributional justice of AI as a medical resource, the potential risk of AI as a tool for health equity, bias emerging in medical imaging and other diagnostic fields, and the gap of accessibility of AI-assisted surgery. Researches have proposed a range of strategies to avoid justice risks from multiple aspects, such as improving the equitable distribution of medical AI resources, enhancing the whole-process ethical review and oversight, and actively promoting and issuing ethical frameworks and expert consensus. Through the concerted efforts of all stakeholders, including government departments, researchers, medical staff and patients, large part of the justice risks of medical AI can be effectively mitigated. This collaborative approach will enable AI to better serve the overarching goal of promoting human health.
Key words: medical artificial intelligence    justice    ethical governance    

医疗人工智能是指利用计算机模拟人类智能的一种技术,用于处理和分析大规模医学数据,提供辅助诊断、个性化治疗等服务[1]。人工智能在医疗领域应用产生的积极效应是有目共睹的,它不但可以加速新药研发过程,降低药物研发成本,还可以快速处理大量复杂的医学数据,显著提高疾病诊断的准确性,实现个性化治疗的目标。但是,技术的双刃剑效应也使得人工智能的应用引发了包括安全性、公正性等在内的一系列深刻的伦理风险,引起了社会各界的关注。众所周知,公正性风险是人工智能伦理治理的重点对象之一。2022年,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》明确了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明的科技伦理原则。2024年,加拿大麦吉尔大学联合米拉人工智能研究所(Mila-Quebec AI Institute)等多家机构提出EDAI框架[2],明确了医疗人工智能公正性包含平等、多元、包容三大原则。通过对全球37个国家的200份涉及人工智能伦理原则与伦理指南的文献进行统计研究发现,有151份文献提及与公正性原则相关的内容,总数位于17类伦理原则中的第3位[3]

截至2025年5月31日,中国知网收录的中文文献不限于人工智能领域,篇名涉及医疗公正公平问题的文献超过430篇; 篇名包含医疗和人工智能相关词汇,主题与伦理相关的中文文献超过286篇,这些文献涉及人工智能伦理风险、算法歧视、法治治理、医疗器械监管等方面,直接聚焦于医疗人工智能公正公平问题的文献不超过10篇。在Web of Science核心合集中,以“TI=(*justic* OR fair* OR unfair* OR *equal* OR inequit* OR equity OR bias OR gap* OR prejudic* OR *discrimina* OR diversit* OR disparit* OR parity OR parities) AND TS=(("Artificial intelligen*" OR Robot* OR "deep learning" OR "machine learning" OR "neural network*"OR AI or "natural language processing" or robot* OR algorithm*) NEAR/3 (medical OR healthcare OR clinical OR medicine OR hospital OR patient* OR surger* OR surgical*))”进行检索,收录于SCI、SSCI、A & HCI、CPCI-S和CPCI-SSH中,类型为article、review、proceeding article的文献数量为764篇。其中包含大量医学研究和临床实践内容,在此基础上筛选了200余篇与本综述内容相关的文献,主要涉及医学影像、人工智能手术、医疗人工智能监管、公共卫生、健康公平等。

本文在分析医疗人工智能的公正性内涵与关键要素的基础上,通过对相关文献的概括分析,系统梳理了目前国内外学术界关注的公正性风险典型议题及其代表性治理进路,并尝试提出未来的努力方向。

1 医疗人工智能公正性内涵及关键要素 1.1 医疗人工智能公正性的基本内涵

“公正”含有“公平”和“正义”两重涵义,但在大多数情况下人们将“公正”与“公平”两个概念交叉使用。2023年,全国信息安全标准化技术委员会发布《人工智能安全标准化白皮书(2023版)》[4],对人工智能安全属性提出了可靠性、透明性、可解释性、公平性和隐私性的要求。其中,公平性要求人工智能模型在进行决策时,不偏向某个特定的个体或群体,也不歧视某个特定的个体或群体,平等对待不同性别、不同种族、不同文化背景的人群,保证处理结果的公正、中立,不引入偏见和歧视因素。

不同的哲学家在解释公正时使用不同的概念,比如用公平、应得(理所当然)和权利资格等术语作为阐释公正的基础。分配公正是关注较多的公正概念之一,通常指公平、平等和适当的由构成社会合作条件的规范所决定的利益和负担的分配; 该概念指出,人们对结果的反应并不依赖于分配结果的绝对水平,而是依赖于他们选择的比较对象。公正作为一种伦理原则,可以分为形式公正与实质公正两大类。亚里士多德在《尼各马可伦理学》中提出的公正性最低要求“平等者必须被平等对待,而不平等者必须被不平等对待”只是一条形式公正原则,并非界定谁是平等者,谁又是不平等者,只是断言获得平等对待的公正性。平均分配、按需分配、按付出(努力)分配、按贡献分配、按优势分配,以及按自由市场交换分配等原则,都是有效的实质性的分配公正原则[5]

除分配公正外,也有学者将程序公正、回报公正和补救公正纳入公正原则中。程序公正涉及我们应该如何做的问题,旨在保证我们所采取的行动有正当的程序。回报公正就是公平的奖惩,其方式可以是经济上的或精神上的。补救公正是对受害者应付补偿的伦理要求[6]。从目前国内外研究现状来看,学者们关注的重点是医疗人工智能的分配公正与程序公正两个主题,特别是对前者探讨更多。人工智能时代的医疗分配正义面临巨大挑战,因医疗资源的公正分配比一般的财富资源分配要复杂得多,其需要考虑安全、疗效和效率等多重因素,要寻求“有益、无害”的临床诊治原则和“公正、最优”的社会经济效益之间可持续性的动态平衡[7]

1.2 医疗人工智能公正性的关键要素

技术层面:主要涉及数据(如数据偏见)与算法(如算法黑箱、算法研发者的偏见)导致的公正性风险。世界卫生组织(WHO) 2021年公布的《卫生领域人工智能的伦理和治理》第六章指出,人类社会中普遍存在的诸如司法、银行、人力资源和公共服务等方面的偏见和歧视会复制迁移到医疗人工智能中去; 并列出了三类技术层面上医疗人工智能中存在的偏见:数据偏见、开发者和训练数据偏见、部署偏见[8]。在西方国家中,人工智能研发者通常是白人、富有且受过良好教育的男性,他们在设计人工智能时可能会无意识地引入偏见[9]。算法日益复杂的技术“黑箱”状态使得患者和其他相关主体难以完全掌握医疗人工智能的运算规则,导致算法偏见难以被发现,而且算法分类后进行的优先化排序、关联性选择和过滤排除也会涉及差别对待和不公正[10]

社会层面:主要关注不同地区、城乡、国别、文化差异等因素对公正性的影响。在快速发展的人工智能医疗领域,发达国家与发展中国家之间的技术差距愈发显著,如果不采取措施确保人工智能技术能够普及到全球各个角落,现有的医疗不平等将进一步加剧[11]。数字健康干预(Digital Health Interventions)可以为用户收集大量数据并进行快速分析,促进医患沟通并提供及时有效的干预措施; 但是,数字鸿沟的存在(比如美国的部分农村和城市社区缺乏高速宽带接入,部分患者没有智能手机)可能加剧现有健康不平等的风险[12]

群体与个人层面:主要涉及弱势群体、种族、性别、年龄、受教育程度和社会地位等因素与公正性的关联和具体表现。传统意义上的“弱势群体”往往侧重老弱病残孕等,但是医疗人工智能语境中偏见和歧视的对象不等同于上述人群。如数字鸿沟导致的数字弱势群体同样可能是医疗人工智能语境中的弱势群体,哪怕他们从生理状态上并不符合传统的“弱”。也就是说,任何由于社会认知偏差而没有被抽取足够样本到人工智能训练数据集的人群,都可能成为弱势群体。同时,在某些疾病上,不同类型的病患也有可能成为弱势群体,如在皮肤病方面黑人的病情更难诊断。吴红[13]指出,传统医疗领域对性别差异认知不足,基础医学研究、临床试验、药物研发与应用等很多方面缺乏女性参与的状况同样会移植到人工智能语境中,造成女性数据样本缺乏。

2 医疗人工智能典型公正性议题

由上文可见,涉及医疗人工智能公正性的要素是多个层面的,相互之间亦存在交叉影响,因此其主要议题之间的区分是相对的。总的来看,目前国内外学术界关注的重点至少包括以下四个方面。

2.1 人工智能作为医疗资源的分配公正问题

医疗资源分配问题由来已久,并呈现出普遍性、长期性、全球性等特征,短时乃至持续的“医疗挤兑”仍是客观现实[14]。学者们普遍担心,医疗资源分配的固有问题会影响人工智能应用的落地,同时医疗人工智能被不公平地分配到社会中,医疗资源分配不公正的现状可能进一步加剧。王姗姗等[15]认为,医疗卫生资源分配不公正会导致人工智能医学应用的可及性和可负担性问题。夏永红等[16]认为,不同年龄、阶层、地区之间的数字设备使用水平,以及医疗资源分配的不均,可能会让医学人工智能无法公正地惠及所有人。郭旭芳等[17]和汪琛等[18]认为,人工智能医疗的成本较为昂贵,因而主要受益群众也仅限于少数,医疗资源分配不公平现象将会更为突出,可能会与医疗人工智能的初衷和公正目标相悖。

在我国,大型公立医院是医疗人工智能研发与应用的主战场[19],如果不能到大型公立医院就医,极有可能无法享有人工智能所带来的医疗改善。在我国公共卫生领域,人工智能对公共卫生治理领域的技术嵌入比较集中与单一,主要侧重于公共卫生事件突发时利用人工智能辅助突发公共卫生事件的后续治疗[20]。如果仅将医疗人工智能作为稀缺资源,那么分配的公正性将会受到挑战。国外学者亦普遍认为,人工智能在提升医疗保健服务方面具有巨大潜力,可以扩大全球医疗保健的范围和可及性,但在具体实施过程中还存在许多挑战与障碍[21]

2.2 人工智能作为健康公平工具的益处与风险

健康公平指个体在改善健康状态时,应拥有公正的机会以获取和利用医疗卫生资源[22]。何谓“健康”并不只有唯一不变的标准,“公平”则是公共健康的核心价值追求[23],因而作为社会公正具体表现的“健康公平”是一个动态变化发展的概念。健康不公平不仅表现为健康状况的差异,从实质公正的角度出发,其本质直指社会资源分配不均等和个体机会不平等,也体现为医疗资源的分配不公正[24]

人工智能可通过提高诊断和治疗的可及性来推进健康公平事业。例如,约翰·霍普金斯医学集团从2020年开始部署用于糖尿病视网膜病变(DED)的人工智能筛查[25],人工智能筛查站点的整体检查率比非人工智能站点增加了7.6个百分点,黑人或非裔美国人的依从率增加了12.2个百分点。人工智能站点对DED筛查尤其是劣势群体的可及性确有改善。另一方面,受制于人工智能的设计路径,其内部属性可能会加剧健康不公平现象。设计路径的主要问题在于:(1)训练数据的偏差或缺失导致模型算法偏见[26],进而对不同种族、性别、经济水平的群体形成不公平的运算结果[27]; (2)算法设计和开发者偏见,即开发者有意无意地将主观偏见作为表征、指标、权重、参数等置入算法设计之中[28]; (3)人工智能的输出应用缺乏透明度,其“仅判相关”的特性可能使症状相似实则缓急程度不同的病患过度利用重症医疗资源,反而导致了健康不公平[29]

2.3 减少还是加剧了医学影像偏倚

视觉幻觉(Visual Illusions)在对医学影像的解读中普遍存在,它是由于物理现实与人类感知之间的不匹配导致的,这种不匹配可能会干扰放射科医生对医学图像的准确解读,导致误诊或漏诊[30],人工智能的应用可以很好地规避视觉幻觉的影响。基于人工智能的医学影像分析技术被应用于疾病病灶的自动分割、辅助诊断以及治疗规划等方面,在深化医学影像临床研究与应用,减轻放射科医生临床读片负担,以及挖掘新的影像学生物标志物等方面起到了重要作用[31]。传统医学影像数据的分析多依赖于医生肉眼观察阅片,医生本身的经验和主观因素差异会影响诊断的准确性,人工智能技术的应用使得疾病的识别速度、准确度、特异度和灵敏度均得到提升[32],有助于减少医学影像诊断中的偏见。

但是,目前大部分针对机器学习的医学研究都存在样本数据过少、数据分布不平衡且缺乏多中心临床试验等问题[33]。例如,对人工智能CT成像鉴别非小细胞肺癌(EGFR)突变的研究多为回顾性研究,该研究方法获取的资料通常纯度较低且完整性受限,需对部分患者进行排除,可能进而导致疾病谱产生偏倚[34]。上述情况并非个例,造成偏倚的原因也不是单一的。医学影像人工智能模型的训练需要配套合理的数据处理机制,否则即便数据充足,但没有按患者进行分割,就可能导致模型在训练和测试阶段接触到同一患者的多个样本。这会让模型“记住”特定患者的特征,而不是学习到疾病的一般特征。由此模型在测试集上的表现可能会被高估,而事实上其运行结果的质量却没有达到临床实践的标准[35]

2.4 人工智能辅助手术的可及性问题

不同种族、性别的病患在器官解剖结构、特定手术术后并发症等方面的情况差异较大,经验丰富的医生也有可能因面对接触较少类型的病患而出现术前方案规划有失公正的情况。通过自然语言处理(NLP)方法修复电子病历、分析大量病例历史数据,可向医生提供不同类型病患的医疗决策建议、术后并发症预测等方面的信息,从而提升术前规划的准确性和公正性。有学者对欧洲脊柱外科手术中协作机器人发挥的作用进行了研究,通过对13个欧洲国家的样本和24个月的术后随访分析,发现由于机器人能准确引导螺钉植入轨迹,提高了手术精准度,从而降低了后续因螺钉错位导致的翻修率[36]。人工智能对临床手术有着较好的辅助作用,然而不同的经济条件或其他各种实际情况确实限制了病患对该类手术的可及性。

有学者发现,随着人工智能辅助手术的出现及推广,医疗保险和医疗保障享有程度不同的患者群体之间出现了新的不平等。奇尔德斯(Christopher Childers)等[37]基于美国国家癌症数据库(NCDB)中2010—2019年接受结直肠癌手术的病患信息进行了五次敏感度分析,结果均显示2019年拥有私人医疗保险的患者较之医疗救助患者和无保险者接受机器人辅助手术(Robot-Assisted Surgery, RAS)的可能性更高。奥尔赛(Michael Horsey)等[38]基于NCDB中对2010—2016年接受结肠癌手术的病患信息进行了分析,发现接受RAS的患者中,白人、居住在更高教育水平地区、收入更高的患者比例更高。还有学者通过收集PubMed、EMBASE、CINHAL等多个数据库中的案例并统计患者情况,发现白人男性且位于教学医院或大学附属医院较近的患者更多地接受了RAS,这主要是由于RAS的高成本可能导致只有少数医疗机构能够负担得起,由此加剧了医疗资源的不平等分布[39]

3 医疗人工智能公正性治理进路 3.1 多方努力促进医疗人工智能资源分配公正

不少国际组织与国家制定了促进医疗资源分配公正的原则与政策,这些举措有利于推进并实现医疗人工智能的分配公正。世界卫生组织公布的《卫生领域人工智能的伦理和治理》强调,应当使用人工智能技术提供远程诊断、优化资源分配等,帮助资源匮乏的国家弥合医疗服务的差距。2016年,我国发布《“健康中国2030”规划纲要》,明确提出了“公平公正原则”,强调以农村和基层为重点,推动健康领域基本公共服务均等化,逐步缩小城乡、地区、人群间基本健康服务和健康水平的差异,促进社会公平。

针对我国的具体国情,周罗晶等[40]建议,政府应将“AI+医疗”纳入社会保障体系,降低民众的医疗负担,保证全民共享智能医疗发展的红利。有学者针对如何在资源匮乏的条件下更好地实现医疗人工智能的分配公正提出了具体建议。莫鲁拉(Daniel Mollura)等[41]建议,通过科学合理的举措,在资源相对匮乏的医疗机构中应用人工智能技术,提升人工智能技术的分配公正。首先,加强对医生和技术人员的教育培训,提升其评估人工智能输出和效用的技能; 其次,增加基础设施投入,包括电子病历、服务器及相关软硬件和信息技术系统; 再次,逐步引入人工智能,以确保资源合理分配,同时不忽视其他更紧迫的医疗需求。也有学者从更为宏观的全球治理角度提出了相应的举措。为了使低收入和中等收入国家更好地应用人工智能提升本国医疗水平,促进全球医疗领域公正、可持续发展,有学者呼吁全球医疗界针对这些国家的具体情况,尽快制定研发、测试和使用指南,确保实现人工智能以人为本,促进医疗人工智能的公正、合伦理的应用[42]

3.2 重视全过程伦理审查与监管

由于医疗人工智能伦理风险的产生与影响贯穿于人工智能从研发、生产到应用的全过程,因此政府管理部门必须注重对其进行全过程的伦理审查与监管。2019年9月25日,中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引,该文件对于医疗人工智能的全过程伦理治理有很强的指导意义。2025年1月,美国食品药品监督管理局(Food and Drug Administration, FDA)发布《关于使用人工智能支持药品和生物制品监管决策的考虑因素(指南草案)》,为制药行业和其他利益相关者提供在药物生命周期中使用人工智能模型的风险评估框架,其适用范围包括药物生命周期中除药物发现阶段之外的临床、非临床、生产与使用的全过程[43]

国内外学术界普遍重视人工智能伦理审查在防范伦理风险中的关键性作用。虽然伦理审查的内容是多方面的,但其基本原则与重点内容显然是包含公正性在内的。我们应该针对人工智能伦理审查的核心问题,通过强化自我审查、完善同行审查与推动机构审查等多种途径,建构较为完善的人工智能伦理审查体系。此外,伦理审查并非仅针对某一独立环节,而是贯穿科研项目从选题、申报、研究到推广应用等的全过程[44]。涉及医学人工智能研究的伦理审查要点除需满足传统伦理审查的基本要求外,还应重点研究风险收益比、知情同意程序、数据安全和隐私保护措施、社会公平公正等,从而进一步规范医学人工智能研究[45]。考虑到医学研究的特殊性,有学者建议成立专门的数据访问委员会(Data Access Committees)进行医学人工智能伦理审查,以弥补传统伦理委员会在审查医学人工智能研究时的不足,更好地防范健康不平等、算法与数据偏见等伦理风险[46]

3.3 积极推进并发布医疗人工智能伦理框架与专家共识

国内外医学、生命科学及相关领域的专家学者基于医疗人工智能发展的现状及趋势,针对公正性等伦理风险展开学术研讨,积极推进并公开发布了一些专家共识和伦理框架,内容涉及伦理设计、数据处理、问题检查清单等多个方面。2023年,在美国计算机协会公平性、问责制和透明性会议(ACM Conference on Fairness, Accountability, and Transparency)上,来自加拿大、英国、美国等国家的15名学者联合提出了名为“JustEFAB”的伦理框架,将正义理论与医学伦理、科研伦理、女性主义科学哲学等整合起来,旨在促进医疗人工智能在算法公平方面的设计、测试、验证和临床评估等工作的开展,确保其在医疗保健领域中的公平性[47]。李骢等[1] 42位专家在2024年第6期《生理学报》联合发表了《人工智能处理医学数据伦理要求的专家共识》,提出规范利用人工智能技术进行医学数据处理的各个环节,包括数据的采集、加工、存储、传输、使用和共享,确保医学数据处理符合伦理原则和法律法规,保障患者隐私和数据安全,保证数据得到公平合理的利用。

鉴于人工智能在医学影像中的广泛应用及其深刻影响,学者们从不同的角度提出了防范公正性等风险的伦理治理举措。美国耶鲁大学和斯坦福大学等机构的学者针对人工智能在放射学中的应用,特别是其对健康公平的影响,提出了帮助放射科医生考量健康公平问题的伦理框架[48]。郭秀花等[49]12名学者提出了专家共识,认为可在开展医学影像人工智能器械临床试验时,结合器械实际情况选择合理的试验设计类型和对照类型,包括随机平行对照、自身交叉对照、多阅片者多病例设计、自身配对设计、单组设计和适应性设计等方法。他们强调了在此类临床试验设计中应事先考虑缺失值处理及敏感性分析,以期获得客观公正的研究结果。美国加州大学旧金山分校的蒙根(John Mongan)与来自纽约大学和宾夕法尼亚大学的学者于2020年提出了医学影像人工智能检查清单(Checklist for Artificial Intelligence in Medical Imaging, CLAIM)[50]; 2024年,来自得克萨斯大学西南医学中心的特贾尼(Ali Tejani)与希腊、韩国等国高校的学者,同蒙根等一道对CLAIM清单进行了修订更新[51]。2020年和2024年的检查清单强调数据预处理的重要性、数据来源的多样性和代表性,同时强调在不同数据集上进行模型评估的重要性,这些举措显然有助于保证人工智能模型在不同人群中的公平性,避免由于数据偏差导致部分群体受益而其他群体受损。

3.4 提升机器人辅助手术的可及性

很多研究机器人辅助手术的学者都注意到了该技术在全球范围的可及性问题。全球可及性(Global Accessibility)主要指将机器人辅助手术技术推广到全球范围,特别是那些尚未能够受益于这些先进医疗技术的国家和地区,进而减少全球医疗不平等,确保更多的人能够获得高质量的医疗服务。有学者认为,机器人辅助手术的全球可及性是未来需要关注的一个重点方向[52]。有学者注意到了发展中国家患者的认知度与接受度对可及性的影响。菲亚尼(Brian Fiani)等[53]认为,机器人辅助手术的成本问题确实使不少发展中国家较难负担,但随着技术的进步与市场竞争的加剧,相关设备的价格会有所下降,使其更加接近发展中国家的接受能力。他们也指出,发展中国家的患者可能对机器人辅助手术技术缺乏了解,对其安全性和有效性存在疑虑,这可能影响他们对该技术的接受度。因此,提高患者对人工智能技术的认知度和接受度也是促进其在发展中国家普及的重要因素之一。

不少学者认为,一些特定的机器人辅助手术需要通过增加培训与认证的机会来提升其可及性。温达勒(Michel Wyndaele)等[54]认为,除了技术设备和资源的限制之外,机器人辅助泌尿系统和盆底重建手术(UTPFR)的培训和认证机会非常有限,也影响了其可及性问题。由于UTPFR的高度复杂性,以及患者群体的异质性,导致培训和认证过程较为复杂,相关的指导人员亦颇为缺乏。因此,需要加强相应的培训与认证,以提升机器人辅助手术的可及性。也有一些国家的学者针对本国的具体情况探讨机器人辅助手术的可及性问题。森田修平(Shuhei Morita)等[55]基于日本神经外科手术及护理的开展情况,提出了由建设本地医疗中心、开发远程手术系统、加强机器人辅助手术培训、促进产学研合作等五个方面构成的“人工智能和机器人辅助手术登月计划”,以推进机器人辅助手术的惠及面和可持续性。

4 结语

综上所述,医疗人工智能的公正性问题已经受到国内外学术界的广泛关注。虽然当前公正性问题仍然较为突出,但已有的理论研究与实践成果均表明人工智能的未来应用前景值得期待。在已有研究成果的基础上,当前我们需要以“提高公正性风险伦理治理的可行性与针对性”为核心目标,从微观、中观与宏观等维度,重点推进以下三个方面的具体工作。第一,构建开放共享的高质量医疗数据库,夯实医疗人工智能基础设施建设。建设基于整个国家以及特殊地区、群体病患特征的医疗数据库,确保数据的完整性、一致性、准确性、安全性,提升数据的可用性、规范性。构建个人、医院、科研机构等跨主体互联互通的医疗数据库,是医疗人工智能切实发挥公正性效应的微观必要条件之一。第二,在行业组织与研发机构中推进伦理原则与框架落地,加强对人工智能技术的伦理设计与伦理治理。目前医疗人工智能已有较为完善与成熟的伦理原则与框架,需要进一步将其与技术研发及应用紧密结合,通过价值敏感设计、建构性技术评估、人工智能社会实验等多种途径,进一步提高伦理原则与专家共识的可操作性,发挥中观治理的衔接作用。第三,宏观层面上完善政策支持,促进国际合作。政府需要发挥主导作用,制定和完善相关政策,加强对基层医护人员的培训教育,提高其专业技能和服务水平,同时鼓励社会力量参与医疗服务,支持非营利性医疗机构和慈善组织的发展。对发展中国家而言,需要通过国际合作与交流,争取国际援助和支持,积极引进先进的医疗技术和管理经验,提高本国医疗水平。

[参考文献]

[1]
李骢, 张晓燕, 吴云红, 等. 人工智能处理医学数据伦理要求的专家共识. 生理学报, 2024, 76: 937-42.
[2]
Rahimi S, Shrivastava R, Brown-Johnson A, et al. EDAI framework for integrating equity, diversity, and inclusion throughout the lifecycle of AI to improve health and oral health care: qualitative study. J Med Int Res, 2024, 26: e63356.
[3]
Correa N, Galvao C, Santos J, et al. Worldwide AI ethics: a review of 200 guidelines and recommendations for AI governance. Patterns (N Y), 2023, 4: 100857. DOI:10.1016/j.patter.2023.100857
[4]
全国信息安全标准化技术委员会大数据安全标准特别工作组. 人工智能安全标准化白皮书(2023版)[EB/OL]. (2023-05-31). http://www.chinaeic.net/xxgk/zcfg/202308/W020230817519933177810.pdf
[5]
汤姆·比彻姆, 詹姆士·邱卓思. 刘星, 等, 译. 生命医学伦理原则[M]. 北京: 科学出版社, 2022
[6]
翟晓梅, 邱仁宗. 公共卫生伦理学: 北京: 中国社会科学出版社, 2016.
[7]
李锟鹏, 杨海秀. 医疗人工智能临床应用的伦理审视. 医学与哲学, 2023, 44: 27-31.
[8]
World Health Organization. Ethics and governance of artificial intelligence for health[EB/OL]. (2021-06-28). https://www.who.int/publications/i/item/9789240029200
[9]
Abbey O. Artificial intelligence, bias, and the sustainable development goals [EB/OL]. (2023-05). https://sdgs.un.org/sites/default/files/2023-05/A14%20-%20Abbey%20-%20Artificial%20Intelligence%20Bias.pdf
[10]
钟晓雯, 高洁. "人工智能+医疗"的风险研判及治理路径. 广西师范大学学报(社科版), 2024(4): 29-41.
[11]
Dangleben D. Bridging the technological divide in medicine: a global responsibility. Surg J (N Y), 2024, 10: e60-1. DOI:10.1055/s-0044-1795168
[12]
Hampton J, Mugambi P, Caggiano E, et al. Closing the digital divide in interventions for substance use disorder. Psychiatr Brain Sci, 2024, 9: e240002.
[13]
吴红. 人工智能时代医疗领域性别公正问题及其治理. 科学技术哲学研究, 2024, 41: 115-21.
[14]
吴迪. 优先性、伦理原则与稀缺医疗资源分配. 自然辩证法研究, 2021, 37: 62-8.
[15]
王姗姗, 翟晓梅. 人工智能医学应用的伦理问题. 中国医学伦理学, 2019, 32: 972-6.
[16]
夏永红, 李建会. 人工智能医学诊断系统的道德责任研究——以责任空场问题为中心. 中国医学伦理学, 2020, 33: 796-802.
[17]
郭旭芳, 刘辉. 生物医学领域人工智能应用的伦理问题. 基础医学与临床, 2020, 40: 285-8.
[18]
汪琛, 孙启贵, 徐飞. 基于价值嵌入的医疗人工智能伦理规制研究. 中国科技论坛, 2022(8): 172-80.
[19]
李鸿浩, 段伟文, 陈蕾, 等. 医疗人工智能技术研发与应用的伦理挑战和对策——以我国大型公立医院为例的思考. 人工智能, 2019(4): 70-8.
[20]
张晋铭, 徐艳玲. 人工智能变革公共卫生治理体系的机遇、挑战与策略分析. 理论月刊, 2020(3): 56-63.
[21]
Ciecierski-Holmes T, Singh R, Axt M., et al. Artificial intelligence for strengthening healthcare systems in low- and middle-income countries: a systematic scoping review. NPJ Digit Med, 2022, 5: 162. DOI:10.1038/s41746-022-00700-y
[22]
Braveman P. Health disparities and health equity: concepts and measurement. Annu Rev Public Health, 2006, 27: 167-94. DOI:10.1146/annurev.publhealth.27.021405.102103
[23]
Gostin L, Powers M. What does social justice require for the public's health? Public health ethics and policy imperatives. Health Aff (Millwood), 2006, 25: 1053-60. DOI:10.1377/hlthaff.25.4.1053
[24]
张开然. 落户门槛筛选与异地医疗制约——流动人口健康不公平的解释. 人口与发展, 2023, 29: 95-109.
[25]
Huang J, Channa R, Wolf R, et al. Autonomous artificial intelligence for diabetic eye disease increases access and health equity in underserved populations. NPJ Digit Med, 2024, 7: 196-201. DOI:10.1038/s41746-024-01197-3
[26]
Ellen J, Matos J, Viola M, et al. Participant flow diagrams for health equity in AI. J Biomed Inform, 2024, 152: 104631. DOI:10.1016/j.jbi.2024.104631
[27]
Cary M, Zink A, Wei S, et al. Mitigating racial and ethnic bias and advancing health equity in the development, evaluation and deployment of clinical algorithms in healthcare. Health Aff (Millwood), 2023, 42: 1359-68. DOI:10.1377/hlthaff.2023.00553
[28]
仝媛媛, 郑婉婷, 黄珊蓉, 等. 健康公平: 医疗人工智能中的偏见与治理. 医学与哲学, 2024, 45: 36-41.
[29]
陈龙, 曾凯, 李莎, 等. 人工智能算法偏见与健康不公平的成因与对策分析. 中国全科医学, 2023, 26: 2423-7.
[30]
Alexander R, Yazdanie F, Waite S, et al. Visual illusions in radiology: untrue perceptions in medical images and their implications for diagnostic accuracy. Front Neurosci, 2021, 15: 629469. DOI:10.3389/fnins.2021.629469
[31]
陈冲, 陈俊, 夏黎明. 人工智能促进医学影像临床应用与研究. 放射学实践, 2024, 39: 12-6.
[32]
蒋西然, 蒋韬, 孙嘉瑶, 等. 深度学习人工智能技术在医学影像辅助分析中的应用. 中国医疗设备, 2021, 36: 164-71.
[33]
何梓君, 孔健. 人工智能在介入放射学中的运用前景及挑战. 介入放射学杂志, 2023, 32: 1251-5.
[34]
朱燕倩, 吴婷, 陈羽凡, 等. 基于CT影像的人工智能在预测非小细胞肺癌EGFR突变中的研究进展. 中国医学计算机成像杂志, 2024, 30: 516-20.
[35]
Seah J, Boeken T, Sapoval M, et al. Prime time for artificial intelligence in interventional radiology. Cardiovasc Intervent Radiol, 2022, 45: 283-9. DOI:10.1007/s00270-021-03044-4
[36]
Staartjes V, Molliqaj G, Kampen P, et al. The European Robotic Spinal Instrumentation (EUROSPIN) study: protocol for a multicentre prospective observational study of pedicle screw revision surgery after robot-guided, navigated and freehand thoracolumbar spinal fusion. BMJ Open, 2019, 9: e030389. DOI:10.1136/bmjopen-2019-030389
[37]
Childers C, Uppal A, Tillman M, et al. Insurance disparities in access to robotic surgery for colorectal cancer. Ann Surg Oncol, 2023, 30: 3560-8. DOI:10.1245/s10434-023-13354-1
[38]
Horsey M, Lai D, Sparks A, et al. Disparities in utilization of robotic surgery for colon cancer: an evaluation of the U.S. National Cancer Database. J Robot Surg, 2022, 16: 1299-306. DOI:10.1007/s11701-022-01371-3
[39]
Haltaufderheide J, Pfisterer-Heise S, Pieper D, et al. The ethical landscape of robot-assisted surgery: a systematic review. J Robot Surg, 2025, 19: 102.
[40]
周罗晶, 邵旸, 张瑞, 等. 智慧医疗场景下人工智能应用伦理问题与治理路径探讨. 中国医院, 2024, 28: 38-41.
[41]
Mollura D, Culp M, Pollack E, et al. Artificial intelligence in low- and middle-income countries: innovating global health radiology. Radiology, 2020, 297: 513-20. DOI:10.1148/radiol.2020201434
[42]
Schwalbe N, Wahl B. Artificial intelligence and the future of global health. Lancet, 2020, 395: 1579-86. DOI:10.1016/S0140-6736(20)30226-9
[43]
U.S. Food and Drug Administration. Considerations for the use of artificial intelligence to support regulatory decision-making for drug and biological products draft guidance for industry and other interested parties [EB/OL]. (2025-01-06). https://www.fda.gov/regulatory-information/search-fda-guidance-documents/considerations-use-artificial-intelligence-support-regulatory-decision-making-drug-and-biological
[44]
杜严勇. 人工智能伦理审查: 现状、挑战与出路. 东华大学学报(社科版), 2024, 24: 32-9.
[45]
谢小萍, 何晓波, 张玲希, 等. 涉及医学人工智能研究的伦理审查要点分析. 中国医学伦理学, 2021, 34: 844-50.
[46]
McKay F, Williams B, Prestwich G., et al. Artificial intelligence and medical research databases: ethical review by data access committees. BMC Med Ethics, 2023, 24: 49. DOI:10.1186/s12910-023-00927-8
[47]
Mccradden M, Odusi O, Joshi S, et al. What's fair is. . . fair? Presenting JustEFAB, an ethical framework for operationalizing medical ethics and social justice in the integration of clinical machine learning [C]. 2023 ACM Conference on Fairness, Accountability, and Transparency (FAccT '23), New York, US, 2023: 1505-19
[48]
Davis M, Lim N, Jordan J, et al. Imaging artificial intelligence: a framework for radiologists to address health equity, from the AJR special series on DEI. AJR Am J Roentgenol, 2023, 221: 302-8. DOI:10.2214/AJR.22.28802
[49]
郭秀花, 李卫, 夏结来, 等. 医学影像人工智能医疗器械临床试验统计学设计要点专家共识. 中国卫生统计, 2024, 41: 474-80.
[50]
Mongan J, Moy L, Kahn C. Checklist for artificial intelligence in medical imaging (CLAIM): a guide for authors and reviewers. Radiol Artif Intell, 2020, 2: e200029.
[51]
Tejani A, Klontzas M, Gatti A, et al. Checklist for artificial intelligence in medical imaging (CLAIM): 2024 update. Radiol Artif Intell, 2024, 6: e240300. DOI:10.1148/ryai.240300
[52]
Shahi A, Bajaj G, GolharSathawane R, et al. Integrating robot-assisted surgery and AI for improved healthcare outcomes. 2024 Ninth International Conference on Science Technology Engineering and Mathematics (ICONSTEM), Chennai, India, 2024, 1-5.
[53]
Fiani B, Quadri S, Farooqui M, et al. Impact of robot-assisted spine surgery on health care quality and neurosurgical economics: a systemic review. Neurosurg Rev, 2020, 43: 17-25. DOI:10.1007/s10143-018-0971-z
[54]
Wyndaele M, Sahai A, Kheir G, et al. What is needed to determine and potentially improve the clinical effectiveness and cost‐effectiveness of robot-assisted reconstructive urinary tract and pelvic floor surgery. Neurourol Urodyn, 2025, 44: 683-90. DOI:10.1002/nau.25625
[55]
Morita S, Asamoto S, Sawada H, et al. The future of sustainable neurosurgery: is a moonshot plan for artificial intelligence and robot-assisted surgery possible in Japan?. World Neurosurg, 2024, 192: 15-20. DOI:10.1016/j.wneu.2024.08.126