热搜推荐

清除历史记录
登录 / 注册
  • 首页
  • 资讯
  • 人文
  • 学术
  • 科普
  • 会议
  • 指南共识
  • 病例分享
  • 专栏
  • 直播

医疗人工智能建议与临床指南或证据冲突时的对策思考

来源:
中华医学信息导报
2025-11-21 17:46:50

随着人工智能(AI)技术的飞速发展,医疗领域正经历着前所未有的变革。与传统AI技术循序渐进地从科研工具逐步过渡到临床应用不同,基于大模型的智能诊疗工具以其强大的自然语言处理能力和知识整合能力,直接进入了临床实践的核心环节,为医生和患者提供实时的诊疗建议和决策支持。

这一技术跃迁的背后,反映了医学信息领域长期存在的深层次挑战。医学知识的复杂性和专业性使得信息理解门槛极高,获取难度巨大,跨语种应用困难重重,跨专科知识掌握更是难以企及。在这样的背景下,无论是非专业人士还是专业医务工作者,都可能在面临复杂临床问题时向大模型寻求解决方案。然而,当这些智能系统给出的建议与现有临床指南或循证证据产生冲突时,医疗决策者应当如何抉择,这一问题已成为当前医学界亟需深入探讨的重要议题。

在中华医学会临床流行病学和循证医学分会年会举办的青年沙龙中,围绕“当AI建议与指南或证据冲突时,是否更应优先遵循指南与证据”这一核心问题,展开了激烈而深入的辩论。这场讨论不仅体现了医学界对新技术的审慎态度,更反映了在快速发展技术与临床安全之间寻求平衡的迫切需要。

 正方观点: 坚持循证医学传统——优先遵循指南与证据的观点

在当前技术发展阶段,现有的临床指南和循证证据仍应作为医疗决策的主要依据。从技术可靠性角度来看,目前基于大语言模型的AI诊疗工具仍存在相当严重的“幻觉”问题。这种技术缺陷在医疗领域的后果可能是灾难性的,因为错误的医疗建议直接关系到患者的生命安全。相比之下,临床实践指南虽然制定过程较为缓慢,但其基于严格的循证医学方法学,经过了广泛的专家共识和反复验证,具有更高的可靠性和安全性。

从法律风险角度分析,目前关于AI辅助临床诊疗的法律法规尚不完善。当医生采用AI建议进行诊疗而出现不良结局时,由于AI在临床中的责任界定仍不清晰,医生无法获得相应的法律保护,这种法律真空状态使得临床应用AI建议存在巨大的职业风险。

从医学人文和伦理的角度考虑,医疗过程中的人文关怀、情感支持和个性化沟通,这些都是AI技术无法完全替代的重要组成部分。过度依赖AI建议可能会削弱医患关系的人文属性,影响医疗服务的整体质量。

更为重要的是,现有AI工具在本质上仍然是基于已有的临床证据来生成诊疗建议,这与指南制定时所采用的循证医学流程在原理上是一致的。AI的优势主要体现在信息处理效率的提升上,但其结果的准确性仍需要人工验证。即使在最理想的情况下,AI也只能达到与目前已有循证证据一致的水平,而无法超越现有循证证据的局限性。

然而,不能否定AI技术的巨大潜力。未来AI辅助临床决策的发展方向,不应仅仅局限于对现有循证证据的整合与总结,这远远不能发挥AI的真正潜能。现有循证医学的主要局限在于:大部分所谓高质量临床证据是在严格限定入组标准的理想条件下获得的,未必适用于真实世界的复杂情况;其结论基于大样本人群的概率性结论,无法提供真正个体化的精准医疗建议。

随着电子病历系统的逐渐普及,未来有望获得包含文本、检验数据、医学影像甚至基因数据在内的多模态患者资料。传统临床研究受限于算力,无法处理多变量、大样本的复杂数据,只能通过还原论的方法每次研究少数几个变量。而AI技术天然具有处理这类复杂数据的优势,未来可能通过电子病历系统匹配到与当前患者在临床诊断、病情严重程度、合并症、基因特征等方面极为相似的患者群体,基于这些患者既往的治疗反应和结局,提供真正个体化的诊疗建议。

 反方观点: 拥抱技术创新——优先采纳AI建议的观点

站在技术进步和医疗效率的视角,在特定条件下,经过严格验证的AI系统可能比传统指南更能提供更优质的医疗决策支持。

从信息时效性上看,AI建议相比当前指南具有更全面、更及时的优势。临床实践指南的制定需要经过人工的广泛文献检索和严格的制定流程,依赖专家共识,推进过程相对缓慢,从证据产生到形成指南通常需要很长时间。部分研究显示,新方法从试验发表到写入指南仍需1.7至3.0年。在影像AI、监护AI等“快速演化”的领域,这种滞后意味着指南可能已经脱离了当前的最佳证据。相比之下,AI系统可以实时整合最新、最广泛的文献资源,快速检索出最佳证据,在信息更新速度上具有明显优势。

从个体化医疗角度分析,AI能够突破指南基于“平均效应”的局限性。传统指南多基于平均人群的研究结果,虽然具有普适性,但在面对异质性强的患者时,个体化AI建议往往比基于人群平均水平的指南更贴合患者的真实获益情况。AI系统可以针对特定问题反复细化输出解决方案,实现动态学习,而指南相对而言是静态的。这种个体化决策能力使得AI在处理复杂、非典型病例时可能表现出更好的适应性。

需要特别强调的是,支持AI建议的观点并非“盲信AI”,而是“优先相信经过临床验证的AI”。这一立场明确区分了未经验证的通用AI和经过严格验证的专用AI系统。未经临床验证的通用AI建议在复杂决策上确实不及医生,不应直接替代人工判断。但在特定条件下,经过严格验证的AI输出,如计算机辅助检测系统、成熟的预警模型等,已经在临床实践中证明了其价值,可以作为指导医学问题解决的有效方法。

这一观点强调的“更相信AI建议”是指在相应场景中有前瞻性或对照研究支撑、已经过验证的AI系统,而非随意的聊天机器人输出。医学的本质是追求患者获益最大化,当指南因滞后性无法承载最新科学发现时,经过严格验证的AI系统可以成为突破认知边界的“指南针”,它能够动态整合更全面、更及时的医学证据,量化个体获益,并在关键场景中反复验证效能。

 深层思考: 技术发展与医疗安全的平衡

这场关于AI建议与指南证据优先级的辩论,实质上反映了医学界在面对技术快速发展时的深层思考。双方观点虽然立场不同,但都体现了对患者安全和医疗质量的共同关注。

从技术发展的历史规律来看,任何新技术的临床应用都需要经历一个从质疑到接受、从局部应用到广泛推广的过程。AI技术在医疗领域的应用也不例外。关键在于如何在保证医疗安全的前提下,合理利用新技术的优势,提升医疗服务的质量和效率。

从监管和标准化角度考虑,无论是坚持传统指南还是拥抱AI创新,都需要建立相应的质量控制和风险管理机制。对于AI系统而言,需要建立严格的临床验证标准、持续的性能监测机制和明确的责任界定体系。只有在这些基础设施完善的前提下,AI技术才能真正成为医疗实践的有力助手。

从医学教育和人才培养角度来看,无论采用哪种观点,都需要加强医务人员对AI技术的理解和应用能力。医生需要具备评估AI建议质量的能力,理解其局限性,并能够在临床实践中合理运用这些工具。这要求医学教育体系及时更新课程内容,培养适应新技术环境的医疗人才。

 结语: 走向理性的技术应用

医疗AI建议与临床指南或证据发生冲突时,其处理原则不应是非黑即白的选择题,而应该是需要综合考虑多种因素的复杂决策过程。技术的进步为医疗实践带来了新的可能性,但也带来了新的挑战和风险。

在这个技术快速发展的时代,医学界需要保持开放而审慎的态度,既要积极拥抱有益的技术创新,又要坚持严格的科学标准和安全底线。只有在充分验证、合理监管、持续改进的基础上,AI技术才能真正成为提升医疗质量、改善患者结局的有力工具。

思考和辩论的价值不在于得出一个标准答案,而在于促进医学界对这一重要问题的深入思考和广泛讨论。随着技术的不断发展和临床经验的积累,相信医学界将逐步形成更加成熟和完善的AI应用指导原则,为患者提供更加安全、有效、个性化的医疗服务。


COMMENTARY

评论

共0条
RECOMMENDATIONS

推荐内容

暂无数据

友情链接

联系我们
电话:

旗下微信公众号

Copyright © 2022 康迅传媒 ikangxun.com All Rights Reserved

北京康迅传媒股份有限公司