随着越来越多的人开始把聊天机器人当作“随身顾问”,科技公司顺势将触角延伸到了健康领域。对不少人来说,向AI咨询饮食、体检报告甚至慢性病管理建议,已经成了一种新习惯。也正因如此,专门面向健康问题打造的聊天机器人产品,几乎可以说是水到渠成。
今年1月,OpenAI推出了名为“ChatGPT Health”的新版本聊天机器人。据公司介绍,这一版本能够在用户授权的前提下,分析其医疗记录、健康类应用数据以及可穿戴设备所收集的信息,从而回答与健康和医疗相关的问题。目前该项目仍需排队等候体验。另一家人工智能公司Anthropic也为部分用户开放了类似功能,让其Claude聊天机器人在健康咨询方面提供更深入的支持。
两家公司都反复强调,这类产品本质上仍是大型语言模型,不能替代专业医生的诊疗,也不应被用于直接做出医学诊断。它们更适合的角色,是帮助用户梳理复杂的检查报告,用通俗语言解释专业术语,协助整理病史、准备就诊提纲,或从长期记录的数据中找出潜在的健康趋势。在决定是否与AI讨论健康问题之前,有一些现实因素值得认真权衡。
不少医生和研究人员认为,相比单纯使用搜索引擎,这类聊天机器人确实带来了一定进步。传统的网络搜索往往返回大量零散信息,真假难辨,还缺乏针对性。而AI系统可以结合用户的年龄、既往病史、正在服用的药物等背景进行回应,因此在个性化程度上更进一步。
来自University of California, San Francisco的医疗技术专家罗伯特·瓦赫特(Robert Wachter)指出,现实中很多患者在出现问题时,往往要么拖延不管,要么自己在网上拼凑信息草草应对。“在这种情况下,如果能负责任地使用这些工具,确实有可能获得一些有价值的参考。”他认为,最新版本聊天机器人的优势之一,在于它们能够结合用户的完整背景来回答问题。即便没有直接开放医疗数据访问权限,向AI提供尽可能详细、准确的描述,也有助于提升答复质量。
当然,人工智能并不适合所有情境。瓦赫特和其他专家都提醒,一旦出现呼吸急促、持续胸痛、剧烈头痛等可能涉及急症的症状,应当立即寻求专业医疗帮助,而不是先向聊天机器人咨询。来自Stanford University医学院的劳埃德·迈纳(Lloyd Minor)也表示,即便在相对不紧急的情况下,人们和医生都应对AI保持“健康的怀疑态度”。如果涉及重大医疗决策,或者哪怕是对健康影响不小的选择,都不应只凭大型语言模型的建议做决定。
隐私问题同样不容忽视。聊天机器人之所以能提供更具体的建议,很大程度上依赖于用户主动分享个人健康信息。但需要明确的是,一旦将病历或体检报告上传至AI平台,这些信息并不自动受到美国联邦医疗隐私法的保护。通常所说的HIPAA法律,主要约束医生、医院、保险公司等医疗机构,而并不直接适用于开发聊天机器人的科技公司。
迈纳提醒,将病历上传至大型语言模型,与把资料交给新医生,法律层面的隐私保障并不相同。消费者必须意识到,两者在监管标准和责任机制上存在差异。对此,OpenAI和Anthropic均表示,健康数据会与其他数据分开存储,并采取额外的保护措施,而且不会用于训练模型。用户需要主动选择授权,也可以随时取消连接。
尽管人工智能在医学领域引发广泛关注,但独立测试和长期评估仍处在起步阶段。早期研究显示,类似ChatGPT的程序在高级医学考试中往往能取得不错成绩,但在真实互动场景中却容易出现偏差。来自University of Oxford的一项研究招募了约1300名参与者,结果发现,借助AI聊天机器人分析假设的健康问题,并未显著优于通过普通网络搜索或依赖个人判断所作出的决策。
在书面案例分析中,AI系统对潜在疾病的识别准确率可达到较高水平,但一旦进入与真实用户的互动环节,问题便显现出来。研究团队指出,许多参与者未能提供足够关键信息,导致系统难以准确判断;而聊天机器人在回应时,常常将正确与错误信息混杂在一起,使用户难以区分。需要说明的是,这项研究完成于2024年,尚未涵盖更新版本的健康类产品。
瓦赫特认为,未来改进的关键在于提升AI提问和追问的能力,使其更像医生那样与患者反复沟通、逐步 уточ清问题。目前,如果希望提高判断的可靠性,一个相对稳妥的方法是参考多个系统的意见,类似于向不同医生咨询“第二意见”。他提到,自己有时会将同样的问题分别输入ChatGPT和谷歌的Gemini,当多个系统给出相近结论时,信心会相对更足。
总体来看,人工智能在健康咨询领域确实展现出潜力,尤其是在信息整理和知识解释方面具有优势。但它依然无法取代专业医疗判断。在便利与风险并存的情况下,理性使用、保留怀疑、重视隐私,或许才是与健康类AI相处的更稳妥方式。
本文译自:sciencealert,由olaola编辑发布
封面图片:unsplash