代码07:信任的算法
凌晨三点十七分,急诊室的蓝光透过百叶窗,在林舟的白大褂上投下细碎的条纹。他盯着屏幕上跳动的心电图,指尖无意识地摩挲着桌角——那里有一道新的划痕,是上周张阿姨的儿子砸过来的保温杯留下的。
“林医生,3床的心率又掉了。”护士小陈的声音带着熬夜的沙哑,“虚拟医生给的建议是加大多巴胺剂量,但……”
林舟抬头,屏幕右上角的虚拟医生头像正闪烁着柔和的绿光,一个平稳无波的电子音重复道:“基于患者近24小时生命体征数据,推荐多巴胺静脉滴注速率调整为15μg/kg/min,置信度92.3%。”
“但患者有房颤病史。”林舟打断它,指尖在键盘上敲下指令,调出患者的既往病历,“把数据同步给心外科李主任,申请远程会诊。”
虚拟医生的头像顿了半秒,绿光微微闪烁:“已同步数据。根据《虚拟医疗伦理信任体系》第3.2条,本次调整建议仅作为辅助诊断参考,最终决策由人类医师负责。是否记录当前操作?”
“记录。”林舟深吸一口气。这是系统上线的第三个月,也是他第17次在急诊室否定虚拟医生的建议。
三个月前,那场被称为“代码07”的医疗事故像一块冰,至今还冻在市一院每个人的心里。
那天也是深夜,儿科接收了一个持续高热的患儿。值班医生王磊正处理另一起惊厥病例,让实习医生用虚拟医生做初步诊断。系统根据症状库匹配出“急性上呼吸道感染”,给出了退烧药处方。直到第二天早上,患儿出现皮疹和呕吐,才被确诊为川崎病——一种因误诊可能导致冠状动脉扩张的罕见病。
家长抱着孩子冲进医生办公室时,王磊正在打印虚拟医生的诊断报告。“你们的AI说就是感冒!”孩子父亲把报告摔在桌上,纸页边缘被眼泪浸得发皱,“现在告诉我要住院?要是我儿子有事,我饶不了你们!”
那场风波最终以医院赔偿五十万收场,但留下的裂痕远比账单更难填补。家长们开始在门诊大厅举着“拒绝机器看病”的牌子,医生群体则陷入了更复杂的困境:用虚拟医生,出了问题算谁的?不用,基层医院的人力根本扛不住日均三千的门诊量。
也就是那时,由医管局、伦理委员会和技术公司组成的专项团队进驻医院,带着一份厚厚的《虚拟医疗伦理信任体系》草案。
“简单说,就是给AI上枷锁。”团队负责人周明把草案推到院长办公桌上时,眼镜片反射着窗外的阳光,“第一,所有虚拟诊断必须标注‘辅助’属性,像商品标签一样醒目。第二,人类医生握最终决策权,系统只给建议。第三,我们要建一个失误赔偿基金,技术公司出大头,医院按使用量缴费,出了问题先从基金赔付,再追溯责任。”
林舟当时作为医生代表参加了讨论,他指着草案第4.7条问:“系统误诊率要公开?包括具体病例分析?”
“不仅要公开,还要每月更新改进措施。”周明调出一组数据,“比如代码07事件,我们发现系统对川崎病的症状权重设置有问题,把‘草莓舌’的优先级放得太低。现在算法已经调整,并且在病例库中新增了120例川崎病临床数据。”
他顿了顿,看向在场的医生们:“你们怕担责,患者怕被机器糊弄,我们要做的就是在中间搭座桥。这座桥的桥墩,就是‘可追溯’和‘可解释’。”
系统上线那天,林舟在自己负责的内科门诊试了第一单。患者是个患高血压的老太太,虚拟医生根据她的血压值和用药史,推荐了一种利尿剂。林舟注意到老太太的病历里写着“痛风史”,而这种利尿剂可能诱发痛风,于是换了另一种药物。
“小林医生,你怎么不用电脑说的那个药啊?”老太太扶了扶老花镜,“我儿子在网上查了,说AI比人靠谱。”
“电脑是根据一般情况推荐的,”林舟指着屏幕上“辅助诊断”的红色标识,“但您有痛风,得特殊对待。您看,这里写着呢,最终还是得医生定。”
老太太凑近屏幕看了看,忽然笑了:“这样好,这样好,机器再灵,也不如你们摸脉准。”
但信任的重建从来不是线性的。
系统运行到第二个月,神经科出了一桩事。一位帕金森患者在家用远程诊疗系统问诊,虚拟医生根据他上传的震颤视频和用药记录,建议增加左旋多巴剂量。患者家属觉得方便,没联系主治医生就按建议调整了药量,结果引发了异动症——一种药物过量导致的异常运动。
家属闹到医院时,手里攥着打印出来的诊疗记录,指着“最终决策由人类医生负责”的条款质问:“你们说医生负责,但我们根本没见到医生!这不是骗人吗?”
那天的伦理委员会紧急会议开到后半夜。林舟作为列席代表,听着各方争执。技术公司的人认为责任在患者没遵守流程,家属代表拍着桌子说系统设计有漏洞,而医生们则在讨论:远程诊疗中,“人类医生负责”到底意味着什么?是必须实时在线,还是可以事后审核?
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!