人工智能(AI)已成为全球竞争的战略制高点,也是驱动经济增长的核心动力。今年以来,各行各业掀起一股DeepSeek接入应用的风潮,AI再度成为爆款话题,医疗医药领域AI应用也迎来爆发,多个三甲医院进一步推进AI医疗落地。AI医生身影也开始出现,如日前,全国首个“AI儿科医生”在国家儿童医学中心北京儿童医院正式上线应用;由复旦大学附属中山医联合上海科学智能研究院共同研发的“AI心医生”——观心大模型CardioMind beta版也正式发布。其实,在医疗领域应用AI并不是新闻,AI辅助诊断系统能够以高效、精准的方式识别疾病,为医生提供科学依据,助力其制定更优化的治疗方案,从而提升医疗服务的可及性与质量,惠及更广泛的患者群体。如在浙江大学医学院附属第一医院病理科,人机交互AI病理助手OmniPT,已广泛应用于胃癌、结直肠癌等十多种高发癌症的诊断中。AI在医疗领域的应用日益广泛,不仅能提高诊疗效率,还能缓解医疗资源不足的问题。然而,AI医疗及AI医生快速发展的背后也潜藏着许多不可忽视的问题,需要行业引起关注。本期邀请行业专家共同探讨。
应用模式与入院标准
医药经济报:AI医生在医疗机构内上线应用不仅能提高诊疗效率,还能缓解医疗资源不足的问题。当前医疗机构存在哪些AI医生应用模式,AI医疗系统走进医院需要跨过哪些门槛?
邹晓徽:AI医生是基于AI技术开发的医疗辅助工具。它可以利用大数据、深度学习和知识图谱等技术,完成分诊、辅助诊断、健康教育等任务。在一些场景中,AI医生甚至可以模拟医生与患者互动,提供个性化的医疗建议。综合国内的AI医生发展现状,目前,AI医生的应用主要集中在三个方面,包括:辅助诊断,即通过分析患者的病史、影像资料等,给出初步诊断建议;健康管理,即帮助患者制定健康计划,提醒用药或复查;还有医学科普,即通过语音或文字形式,为患者提供医学知识普及服务。AI医生实际上并非传统意义上的医生,而是基于AI技术开发的医疗辅助诊断系统。AI医生通常被归类为医疗器械。根据《医疗器械监督管理条例》,医疗器械需要根据风险等级进行备案或注册。如果AI医生涉及辅助诊断或治疗,其功能可能被归为第二类或第三类医疗器械,需要经过严格的注册和审批流程。如果一些未经过审批的AI系统在医疗场景中被使用,可能会因为缺乏手续而被认定为违法。周吉芳:表面上看,AI技术在医疗领域正以迅雷不及掩耳之势铺开,但深入探讨,我们不得不面对这样一个现实:目前的模式仅类似于CDSS(临床决策支持系统),还未实现在没有医务人员干预情况下的AI自主判断。换言之,所谓的“AI医生”更多充当的是一种底层替代,辅助医生进行高效筛查与诊断,而在复杂、罕见的疾病中,临床医生的经验和判断仍然不可或缺。胡晓翔:在临床服务领域运用于患者诊疗的智能工具属于医疗器械。目前国内共有近百款AI医疗应用获批“三类证”。拿到“三类证”,才意味着该产品具备临床应用的资格。当下的诊疗智能工具,大多以科研合作的形式进入医疗机构,供临床使用。
完全依赖时代未到
医药经济报:目前面对AI工具,无法躲开的一个问题是AI幻觉(AI Hallucination),即AI系统在处理或生成信息时,产生看似合理但实际错误或不存在的内容。很多时候,这种虚假信息会被包装得很真实,不易被察觉。AI医疗应用会不会面对这个问题?如何应对?未来的诊疗活动能否依赖AI医生?
胡晓翔:所谓的AI医生,其实本质上还是AI医生助手,是基于AI技术的医疗辅助系统,其核心是通过大数据、机器学习、深度学习等先进技术,模拟或辅助人类医生提供疾病诊断、治疗建议和健康管理。无论AI幻觉在医疗领域是否属于无解之题,诊疗的方向盘,医护技人员都不能丢手。邹晓徽:AI医生应被明确定位为医疗辅助工具,而非独立的诊疗主体。在系统界面中,应以显著的文字表述方式提示患者和医生,AI的结论仅供参考,最终诊断和治疗决策需由执业医师完成。周吉芳:虽然AI可以作为底层过滤器,迅速对常见病进行初步筛查,但对于复杂、罕见病及传统中医治疗,数据样本不足、评价手段欠缺等问题使其难以独立承担诊疗责任。此时,AI虽然可以在短时间内进行数据匹配和模式识别,但对病情微妙变化的捕捉仍远不及经验丰富的医生敏锐。医学不仅仅是冰冷的数据与算法,更需要医生的人文关怀和临床智慧。因此,AI医疗技术只能辅助医生进行初步判断,最终诊断和治疗决策仍必须依靠经验丰富的临床专家。未来的医疗模式必须是“协同作战”,即利用AI在数据处理和初步筛查上的优势,同时保留医生在复杂决策中的主导作用。可以想象,未来的临床诊疗流程中,AI可以作为第一道防线,迅速筛查出疑难病例,再由专家团队进行二次评估和人工判断。这种模式不仅能够充分发挥两者各自的优势,还能在实际操作中不断完善和校正AI算法,形成一个不断自我进化的智能医疗生态系统。
明晰责任归属问题
医药经济报:医学是一门复杂的学科,医生是诊断的责任主体,数据和算法固然重要,但最终还是需要回归到医生的经验和判断。归根结底,如果出现误诊漏诊的情况,责任还是归于应用AI的医生,这样的观点是否妥当?目前具备医学背景又精通AI的复合型人才少之又少,AI医生参与临床决策可能由参与开发的科技公司的工作人员进行操作,这种临床会诊,一旦出现医疗事故或信息泄露,责任如何划分?
邹晓徽:首先,根据我国《医师法》和《医疗机构管理条例》的规定,医疗机构必须取得《医疗机构执业许可证》,医师必须取得执业医师资格证书并完成注册。而AI医生本质上是一种软件或系统,既不具备医师资格,也无法注册为执业医师。特别提醒,AI医生需要处理大量的患者数据,包括病史、基因信息等。这些数据属于敏感信息,一旦泄露,将对患者造成严重影响。根据《个人信息保护法》和《数据安全法》,医疗机构和AI技术公司在收集、存储和使用患者数据时,必须获得患者的明确授权,并采取严格的安全措施。未妥善保护数据,可能面临罚款或其他法律责任。医疗机构和AI技术开发公司应建立健全的数据安全管理制度,包括数据加密、访问权限等。同时,必须严格遵守患者隐私保护的相关法律法规,确保数据的收集和使用合规,并获得患者的知情同意。AI医生的误诊或延误治疗,可能导致患者受到损害。在这种情况下,责任的归属是一个复杂的问题。如果问题源于AI系统的设计缺陷或算法错误,开发者可能需要承担责任。如果医生过度依赖AI的建议而忽视自身的专业判断,医生或医疗机构也可能被追究责任。此外,如果医疗机构未尽到对AI系统的审查义务,也可能要承担一定责任。为此,需明确责任划分,在技术开发合同中明确AI系统的责任归属。例如,开发者应对系统的设计缺陷和算法错误承担责任,医疗机构则应对系统的使用和管理负责。此外,还建议医疗机构为AI相关的医疗活动购买责任保险,以分散潜在的赔偿风险。胡晓翔:AI只是临床医护技工作的辅助工具,医患关系的“医”指的是接诊医疗机构及其工作人员。无论是合规应用有证智能工具,还是操作者是编程方人员,依据《民法典》第一千二百二十三条规定,因药品、消毒产品、医疗器械的缺陷,或者输入不合格的血液造成患者损害的,患者可以向药品上市许可持有人、生产者、血液提供机构请求赔偿,也可以向医疗机构请求赔偿。患者向医疗机构请求赔偿的,医疗机构赔偿后,有权向负有责任的药品上市许可持有人、生产者、血液提供机构追偿。也就是说,均首先归责于医方,至于合作开发者该当何责,那是医方与合作者之间的争议,并不影响医方对患者的先行担责。另,如果不具备医师资格的编程人员经由智能工具的操控过度介入诊疗行为,可能构成非法行医,在一定情形下甚至涉非法行医罪。周吉芳:数据驱动与算法赋能固然是AI医疗的基石,但当前却面临着数据来源不稳定和基础设施薄弱的双重困境。因而,构建数据安全与共享的双向平衡机制是基础。需加强医疗数据基础设施建设,推动跨机构、跨平台的数据标准制定,确保数据权威、精准。必须在保护患者隐私的前提下,鼓励数据共享,并建立完善的治疗效果评价体系,持续优化模型在复杂疾病和边缘案例中的表现。
完善监管刻不容缓
医药经济报:综上,AI医疗产品在临床应用时,除了必须遵循现行严格的医疗标准外,还要应对数据安全、隐私保护及算法透明度等多重考验。监管如何跟上?
周吉芳:目前,监管部门亟需建立专门的AI医疗标准体系,并引入第三方检测机制。同时,治疗效果的评价体系和手段也尚不健全,客观评估工具的缺失使得技术落地和效果验证面临挑战。因此,完善监管体系和标准建设至关重要。需要建立专门针对AI医疗产品的监管标准,涵盖产品审批、临床验证、数据安全和隐私保护等多个环节。同时,通过设立定期的第三方评估机制,对包括大语言模型在内的各类AI医疗产品进行独立检测和真实世界风险评估,确保其在临床应用中的安全性和有效性。监管措施还应具备灵活性,能根据技术发展和临床实践的反馈及时修订相关规范。邹晓徽:行业有关监管部门应推动专项立法,明确AI医生的法律地位和责任划分。同时,应加强对AI医疗产品的审批和监管,确保其安全性和有效性。美国FDA将AI医疗系统归类为医疗器械,并根据其风险等级进行分级管理,低风险的健康管理类AI应用可以通过简化的审批程序进入市场,而高风险的辅助诊断类AI产品则需要严格的审批和临床试验数据支持。此外,FDA还提出了“持续学习型医疗器械”(SaMD,Software as a Medical Device)的概念,允许AI系统在上市后继续优化算法,但必须向监管机构提交更新计划并获得批准。这种模式为AI技术的动态发展提供了灵活性,同时确保了患者安全。欧盟在《医疗器械法规》(MDR)中对AI医疗产品也提出了类似的要求。欧盟还鼓励企业在AI医疗产品的开发过程中引入伦理审查机制,确保技术开发符合伦理原则。
医保覆盖未来可期?
医药经济报:近年来,国家在医疗改革与医保支付方面不断探索,试图通过制度创新降低患者负担,提高医疗资源配置效率。然而,现阶段的AI医疗技术尚未纳入医保支付范畴,这给技术推广带来了不小的挑战。科技成果如何落地惠民?
周吉芳:在医保覆盖角度,我们不难发现:一方面,AI技术的发展需要大量资金支持,从研发、数据采集到临床验证,每一步都需要深厚的技术和资金积累;另一方面,医院在引入这类技术时,不仅要负担设备和人员成本,更需要在如何将这部分费用平摊到医保体系中找到合理的模式。当前,患者在接受AI辅助诊疗时不得额外支付相关费用,而这在一定程度上限制了技术在医院的普及和临床应用的广度。如果未来能将部分AI辅助诊疗服务纳入医保,不仅可降低患者经济负担,更能激励医院广泛引入先进技术,实现多方共赢。在中国当前医保支付方式改革的背景下,借鉴DRG和DIP等元素,医疗费用有望实现更加稳定、科学的管理。通过将AI医疗服务纳入这一体系,不仅能够适配医院实际情况,提供更符合医保支付标准的治疗方案,还能促进医疗资源的合理分配与风险控制。然而,关键在于如何科学、合理地为AI医疗服务定价,并在严格监管框架下确保技术安全有效。而医保覆盖不仅是经济问题,更涉及公平分配和风险管理。理论上说,全面推动新技术在全国落地,有助于医疗服务均等化,对于本来基础薄弱的偏远地区更有意义。只有在充分评估风险、明确责任分工的基础上,才能逐步将AI医疗服务推向更广泛的市场。
【结语】
AI医疗作为医疗领域的创新技术,正在以不可阻挡的趋势改变传统医疗模式。它不仅提高了诊疗效率,也为解决医疗资源分配不均、缓解患者“看病难”问题提供了新的思路。通过借鉴国际经验、加强法律监管、推动技术进步和提升社会认知,我们有理由相信,AI医疗将在合规的框架内实现更广泛的应用。展望未来,AI医生的发展需要在技术创新、法律完善和社会接受度之间找到平衡点。而只有当医生能够熟练地将AI工具融入日常诊疗流程,明确AI医生辅诊角色,AI医生的价值才能得到充分发挥。