促进“AI+医疗卫生”规模化推广-新华网
新华网 > > 正文
2025 12/02 07:29:06
来源:科技日报

促进“AI+医疗卫生”规模化推广

字体:

  国家卫生健康委等五部门联合发文——

  促进“AI+医疗卫生”规模化推广

  人工智能将如何改变健康卫生服务场景?国家卫生健康委等五部门日前发布的《关于促进和规范“人工智能+医疗卫生”应用发展的实施意见》(以下简称《实施意见》)绘制了发展“路线图”:到2027年,基层诊疗智能辅助、临床专科专病诊疗智能辅助决策和患者就诊智能服务在医疗卫生机构广泛应用;到2030年,基层诊疗智能辅助应用基本实现全覆盖。

  按照这份“路线图”,人工智能在医疗卫生领域将不断丰富应用场景,提升服务能力,保障服务安全,优化资源配置,创新预防、诊疗、康复、健康管理等全链条连续智能服务,更好地满足人民群众日益增长的健康服务需求。

  “《实施意见》标志着人工智能医疗已经从试点探索走向规模化推广的新阶段。”河北省邯郸市人民医院院长李楠说,“我们希望最终能构建‘AI提效、医生聚力、患者受益’的智能医疗体系。”

  聚焦基层应用

  今年8月,国务院印发的《关于深入实施“人工智能+”行动的意见》提出,探索推广人人可享的高水平居民健康助手,有序推动人工智能在辅助诊疗、健康管理、医保服务等场景的应用,大幅提高基层医疗健康服务能力和效率。

  在此基础上出台的《实施意见》明确了人工智能在基层应用、临床诊疗、患者服务、中医药、公共卫生、科研教学、行业治理、健康产业8个方向的24项重点应用。

  其中,“人工智能+基层应用”是首要方向。《实施意见》提出,建立基层医生智能辅助诊疗应用。针对基层常见病、多发病,建立基层智能辅助诊疗应用,向基层医生提供辅助诊疗、处方审核、随访管理、中医诊疗等智能应用,提升基层全科辅助诊断、疾病鉴别诊断、医学影像辅助诊断等服务能力。

  当前,AI“下基层”已具备技术基础。“AI早已不是只停留在概念阶段,而是实实在在走进了医院的各个场景。”李楠举例说,在诊断环节,AI能自动分析患者症状、生成初步诊断建议,还能辅助医生书写规范化病历,显著提升病历规范率;在治疗环节,AI可提供治疗方案参考,部分地区通过搭建“心电网”“影像网”,让乡镇居民在本地就能享受到三甲医院专家级的诊疗方案;而在住院等复杂场景中,一些先进的医疗大模型,甚至能将医生的病历书写时间减少一半。人工智能参与“链条式”医疗卫生服务的模式已初见雏形。

  “以前每天要花大量时间回复基础咨询,现在我有了智能体‘分身’,患者的很多常规问题‘分身’就能随时解答。”南方医科大学皮肤性病研究所副所长林志淼分享了专家医生智能体带来的改变。他介绍,依托京东健康的“京医千询”医疗大模型,智能体不仅能精准回应银屑病及皮肤罕见病的常见问题,还能主动为需要进一步诊疗的患者预约他的门诊时间。这让医生从重复咨询中解放出来,每天能多接诊3—5个疑难病例,诊疗效率至少提升了一半。

  李楠补充说,人工智能还有助于医生提升专业能力。人工智能可以实时提供参考意见,比如在医生阅片时提示可疑病灶、在医生开药时提醒用药禁忌,这相当于持续的“线上培训”,能够为基层医生持续“充电”。

  突出场景驱动

  《实施意见》坚持以场景为驱动,面向卫生健康行业真实业务、依托真实场景、解决真实需求。

  值得关注的是,《实施意见》提出,到2027年,建立一批卫生健康行业高质量数据集和可信数据空间。在李楠看来,要实现这一目标,医院信息科、病案室、临床科室需协同合作,按照统一标准对历史病历、影像资料、病理报告、基因组学数据进行清洗、脱敏和结构化处理,形成高质量的专病数据集,并在医院内部及医联体之间,建立安全、可控的数据交换与共享平台。

  京东健康探索研究院相关负责人说,高质量数据集需要兼顾医学专科与数据集纳的专业性。为此,京东健康与国内多家顶级医疗机构合作,基于病史、检验、影像、病理等多个维度的大量高质量临床真实数据,构建专科、专病模型的训练数据,并匹配真实医疗场景测评。

  基于专业数据库,AI大模型开发厂商也在持续开展涵盖常见肿瘤和重大慢性病的专科专病大模型的研发,助力医疗资源匮乏的地区也能享受到高水平医学专家服务。

  “各级医院的工作模式将实现从‘经验驱动、人力密集型’向‘数据驱动、人机协同型’的深刻转型。”李楠表示,《实施意见》为医院在多个层面推进智能化转型提供了指引,未来顶级医院将更专注于解决疑难杂症、进行前沿科研和制定临床指南,而常规诊疗、慢病管理和术后随访将主要由人工智能辅助下的基层医院和家庭医生完成。

 规范安全监管

  安全始终是医疗卫生行业的“生命线”。《实施意见》将“规范安全监管”单列一节,要求通过优化行业管理和审核体系、创新监管方式和预警机制、强化数据安全和个人隐私保护等举措,确保人工智能在医疗领域安全、可靠、可控。

  “人工智能在医疗领域的安全风险呈现多元交织特征,既包含算法黑箱、数据欺骗等技术层面的固有挑战,也随着多模态协同、智能体互联等发展趋势衍生出新的安全隐患。”广东医科大学多模态数据融合应用实验室(GMCLab)主任弓孟春告诉记者,风险控制机制的完善需要技术革新、伦理审查与人工智能素养提升“三驾马车”牵引。

  《实施意见》要求,完善政府监管、机构自治、行业自律、社会监督的综合治理机制。这在一些医疗机构中已经有所进展。弓孟春介绍,来自中国医学科学院、广东医科大学、四川大学华西医院、中国科学院自动化研究所、神州医疗科技股份有限公司等单位的专家共同编写的《生成式医学AI(GMAI)临床伦理治理专家共识(2025)》,明确提出对人工智能系统实施强制置信度评分和动态幻觉阈值控制。这呼应了《实施意见》中“开展应用监测评估”“建立大模型应用评测验证”等要求。

  针对公众关注的数据安全和隐私保护问题,《实施意见》也明确要求,建立健全智能应用数据安全防护体系,促进数据规范流通共享。弓孟春说,联邦学习是一种“合作共赢”但又“保护隐私”的技术。通过这种技术,数据被锁在不同医院各自的“保险柜”里纹丝不动,只有AI模型这个“学生”在各家医院之间流动学习。基于这种“数据不动模型动”的模式,多家医院能够共同训练出一个强大的AI模型,整个过程不需要共享任何原始数据,从而确保数据安全和隐私保护。(记者 张佳星)

【纠错】 【责任编辑:王雪】