人工智能聊天机器人想要你的健康记录?请谨慎行事

人工智能聊天机器人想要你的健康记录?请谨慎行事


在亚马逊和 OpenAI 等竞争对手之后,微软正在升级其人工智能助手,使其能够追踪你的健康状况。这其中既有潜在好处,也存在需要考虑的风险。

作者:布赖恩·X·陈(Brian X. Chen)、泰迪·罗森布鲁斯(Teddy Rosenbluth)

布赖恩·X·陈报道消费科技,泰迪·罗森布鲁斯是一名健康记者,主要关注医疗领域中的人工智能和医疗错误信息问题。
2026年3月12日

过去几年,科技行业一直在说服人们:你向人工智能聊天机器人提供的数据越多,它们就会变得越聪明。下一步,就是让用户分享他们最敏感的信息——健康记录。

这可能会出什么问题呢?

本周,微软发布了一款工具,允许用户将来自多个医疗服务提供者的记录分享给其聊天机器人 Copilot。这些记录随后可以与用户健身设备收集的数据结合,例如 Apple Watch。在分析所有信息之后,聊天机器人会为用户生成一个关于健康问题的总体概览。

微软的这一宣布,与 亚马逊(Amazon)、OpenAI 和 Anthropic 的行动相呼应。这些公司今年开始测试类似工具——Health AI、ChatGPT Health 和 Claude for Healthcare。通过收集健康数据并提供直接反馈,这些公司正在进入一个风险颇高的领域。此前,它们的聊天机器人曾因导致部分用户出现精神病症状、孤立感以及不健康习惯而登上新闻头条。

(《纽约时报》已经起诉 OpenAI 和微软,称其人工智能系统侵犯了新闻内容的版权。两家公司否认了这些指控。)



医生怎么看

在采访中,一些医生表示,聊天机器人辅助医疗可能有好处,比如在医疗费用越来越难以承受的情况下,帮助人们更好地了解自己的健康状况。

但将健康记录分享给科技公司也带来了大量隐私风险。此外,就像过去一些技术曾让人们对健康问题过度焦虑一样,聊天机器人也可能导致人们不必要地频繁就医。

以下是你需要了解的内容。



这项技术如何运作?

在 Copilot 的网站和手机应用中,用户可以点击一个“Health(健康)”标签,通过回答关于年龄和性别的问题创建个人档案。

随后,用户可以选择共享:
• 医疗健康记录
• 可穿戴设备数据,例如
• Apple Watch
• Fitbit
• Oura 睡眠追踪器(Oura Ring)

接下来,用户可以向聊天机器人提出问题或描述症状,例如:

“我最近睡得不太好。”

聊天机器人随后会分析健康记录和可穿戴设备数据,并做出观察,例如:
• 最近一次住院后的睡眠趋势
• 体力活动变化
• 其他健康指标

系统还可能生成一个“重点摘要(bottom line)”,列出需要关注的健康问题,例如:
• 睡眠不足
• 糖尿病
• 缺乏运动

当 Copilot Health 今年推出时,用户最初可以免费试用。微软表示未来将收取订阅费,但尚未公布价格。



潜在的好处

对于患者来说,医疗记录往往非常混乱且难以管理,因为信息可能分散在不同医疗机构的数据库中。

例如:
• 一名全科医生可能很难对脚部伤病给出完整建议
• 因为患者的足科医生使用的是不同的记录系统

微软的人工智能可以把来自不同医疗提供者的数据连接起来,并与用户的健身设备数据整合。

微软表示:
• 医生手动查看一个人的全部医疗记录和健身设备数据,可能需要几个小时
• Copilot Health 只需几秒钟就能生成健康概览

微软人工智能部门健康业务副总裁 多米尼克·金医生(Dr. Dominic King) 表示:

“这项技术是为了让消费者和患者对自己的健康记录拥有前所未有的洞察和理解,并帮助他们在我们为他们创造的复杂医疗系统中进行导航。”

随着医疗费用不断上涨,许多美国人已经放弃医疗保险。人工智能聊天机器人可能成为一种低成本方式,帮助人们更密切地关注自己的健康状况,并研究症状信息——类似于在 WebMD 等网站上搜索。



风险是什么?

近年来,网络攻击已经多次入侵医院和医疗系统。

**约翰斯·霍普金斯大学(Johns Hopkins University)**计算机科学副教授 **马修·格林(Matthew Green)**表示,把健康记录集中在一个地方,会让这些数据成为犯罪分子的诱人目标。

他说:

“那里有一堆高价值数据集中在一个地方,别人可以去获取。”

此外,**电子前沿基金会(Electronic Frontier Foundation)**的数据隐私律师 **马里奥·特鲁希略(Mario Trujillo)**指出,如果执法机构想获取某人的健康记录,它们可能只需要向微软请求,而不必联系多个医疗机构。

他补充说:
• 在禁止堕胎的州寻求生殖健康服务的女性,可能面临更高风险。



法律保护可能不足

美国的 **《健康保险可携带性与责任法案》(HIPAA)**严格要求传统医疗机构保护患者隐私。

但这个法律并不适用于科技公司提供的聊天机器人。

这意味着:

科技公司即使提供类似医疗服务,也可以:
• 使用健康记录来训练人工智能
• 根据健康状况展示广告

微软表示:
• 用户健康数据会被加密
• 不会用于训练人工智能
• 不会用于定向广告

公司还表示,只有在合法法律请求下才会向执法机构提供客户数据。



聊天机器人的健康建议可靠吗?

微软表示,Copilot Health 的目标是帮助人们理解健康状况、为就诊做准备,而不是替代医生。

其新闻稿明确声明:

“该聊天机器人不用于诊断、治疗或预防疾病。”

但 西奈山医疗系统(Mount Sinai Health System) 的首席人工智能官 **吉里什·纳德卡尼医生(Dr. Girish Nadkarni)**认为,这种想法过于天真。

他说:

“当然,你可以写免责声明说不要这样用。但人们还是会这样用。这就是人性。”



研究结果并不乐观

目前研究显示,聊天机器人还没有准备好承担这种责任。

上个月发表的一项研究分析了多个聊天机器人,包括 OpenAI 和 Meta 的产品,发现它们:
• 在指导正确诊断方面
• 在帮助用户决定下一步行动方面

并不比普通网络搜索更好。

而且它们还存在独特风险,例如:
• 提供错误信息
• 问题措辞稍有变化,建议就会大幅改变

这些弱点已经导致一些严重案例。

例如:

一名 60岁男子因为听从 ChatGPT 的建议减少盐摄入,改吃溴化钠(sodium bromide),结果出现:
• 偏执
• 幻觉

最终被送进精神病病房,住了数周。

OpenAI 表示,目前版本的 ChatGPT 在回答健康问题方面,已经比研究中测试的旧模型显著更好。
Meta 未对此发表评论。



即使专门的健康模型也存在风险

一些新的研究表明,即使专门针对健康问题设计的模型,例如 ChatGPT Health,也存在问题。

纳德卡尼医生和同事将假设医疗病例输入模型(该模型于1月发布),发现:

在一个案例中,系统漏掉了高风险紧急情况——

一个即将发生呼吸衰竭的患者,它竟然没有建议去急诊室。



可能引发不必要的焦虑

前田纳西州卫生专员 **丽莎·皮尔西医生(Dr. Lisa Piercey)**表示,聊天机器人生成的健康摘要也可能造成焦虑。

例如:

这个季节的鼻窦头痛很可能只是过敏症状。

但聊天机器人可能提出更严重的可能性,从而导致患者不必要地去医院。

她说:

“它很可能告诉你,你得了脑瘤。那会引发巨大的焦虑。”



目前仍在测试阶段

Copilot Health 目前尚未接受独立研究人员的研究。

微软的金医生表示,该聊天机器人被设计为避免提供医疗建议,即使用户提出明确问题,也只会提供:
• “指导和支持”

例如:
• 它不会直接告诉用户患有什么疾病
• 可能只提供可能诊断的列表

或者:
• 不推荐药物
• 只提供用户可以向医生询问的问题

微软还表示,将逐步推出 Copilot Health,每一步都只向少量用户测试新功能,以确保体验保持安全和可靠。




分类