早上8点,四川省绵阳市村医宋文卓来到卫生室,第一件事就是打开电脑登录AI(人工智能)辅助诊疗系统。看诊时,他一边询问症状,一边将病情输入系统,然后点击AI辅诊按钮,系统迅速与拥有海量多发病、常见病等病例的国家核心知识库对接,通过提取和分析患者的历史病历信息,给出诊断建议。宋文卓结合自己的临床经验进行综合评估、确诊。
近年来,我国不断加强顶层设计,推进“AI+医疗”的发展,未来AI辅助诊疗将会成为一种趋势,但也需要警惕背后隐藏的法律风险。
多地上线AI辅诊
今年5月,华中科技大学同济医学院附属协和医院推出了“AI智慧门诊”,涵盖智能分导诊、智能加号等功能。如果选择的专家号“满诊”,可点击下方的“申请加号”,AI会自动询问病情等相关情况,然后生成“病情卡片”,再判断加号资格,最后发送给专家确定是否通过。此外,该院还推出“智能候诊室”功能。患者挂号后,由“医生数字人”与患者先进行沟通,提前了解患者症状、病程等,为医生面诊做准备。
在浙江省人民医院,数字健康人“安诊儿”可以陪伴患者就诊。诊前,“安诊儿”根据症状为患者匹配科室和医生,帮助患者预约挂号;诊中,“安诊儿”可合理安排就诊流程,全程提供AR智能导航,提供叫号提醒,甚至能在支付宝上完成医保缴费;诊后,它继续提供电子病历、处方和报告查询等服务。
今年5月,云知声门诊病历生成系统在北京友谊医院应用。该系统能在复杂的医院环境中识别医患对话,并从中剔除与病情无关的内容,生成符合病历书写规范要求的门诊电子病历。数据显示,医生问诊时间大幅缩短。
法律风险不容忽视
在山西大学法学院讲师陈川看来,传统医疗诊断过程强调医生对患者人格尊严和自主权的尊重与保护。然而,医疗人工智能存在“自动化偏见”风险,即医生在诊断过程中可能会过度依赖人工智能技术,从而忽略自身专业判断和对患者个体需求的考虑。
此外,算法透明度不足和算法歧视问题也不容忽视。“由于算法透明度不足,患者无法了解医疗人工智能是如何得出诊断结论的,导致其知情权和选择权无法得到充分保障,可能会侵犯患者的知情同意权和自主决定权。”陈川说。
她提出,算法歧视问题还会导致不同地区在医疗资源上的不平等现象。不同开发者在训练算法时可能无意间引入偏见,导致生成式人工智能在面对不同群体患者时作出歧视性决策。
陈川认为,目前,人工智能在医疗领域的应用仍处于探索阶段,易因误诊、数据泄露等行为引发问责和归责问题。在现行法律框架下,传统的责任形式难以简单套用到医疗人工智能上。
线上审核形同虚设
一些线上医疗问诊、线上购药平台在引入AI辅助后,暴露出不少问题。
记者前不久在某购药平台下单某处方药后,在“疾病栏”随机勾选了几项,很快便通过了验证。紧接着,有“医师”接诊,连续发来数条信息,在记者没有回复的情况下,对方就发来处方单和购买链接。北京市民杨木(化名)有一次故意描述一些不是欲购药品适应病症的情况,对方也仍然很快开了处方。
“不排除有些小型互联网医疗平台存在用人工智能、机器人等工具自动生成处方,一些大平台会用AI等来辅助医生问诊,但是处方必须要求医生来开。”北京某三甲医院一刘姓医生说。他注意到,不少平台为谋取利益,采用“AI开处方,客户直接取药”的模式,处方开具、审核环节形同虚设,给患者用药安全埋下风险隐患。
在线上健康平台咨询问诊会不会泄露个人信息,也是多名受访患者提出的疑问。有一次,杨木的后背上起了不少红疹子,便在某健康平台进行问诊,结果没过几天,他就陆续接到多个广告电话和短信。
完善相关法律框架
受访专家指出,只有建立健全法律框架和监管机制,明确医疗大模型的责任归属和数据使用规范,才能在推动医疗人工智能发展的同时,切实保障患者的合法权益。
陈川还提到,强化医疗人工智能算法监管刻不容缓。一方面,应成立算法审查专门机构,对医疗人工智能进行严格的安全性、透明性、伦理性审查;另一方面,基于数据的动态性和人工智能技术的不断迭代升级,应要求研发者在算法生命周期内定期开展算法风险监测工作。此外,可开启公众监督举报、监管部门巡查等多种措施。
针对线上医疗问诊暴露出的问题,陈川认为,亟须建立科学合理的责任分配机制,强化医务人员的主体责任,不能将医疗诊断彻底交给AI。 (摘自8月5日《法治日报》 文丽娟 张广龙文)