Woman interacting with AI assistant on laptop and smartphone showing heart rate, blood pressure, and steps

我把血检报告喂给AI,这算不算过度分享?

Table of Contents ( Press the ← key in browser search bar to return TOC)

把医疗记录和健康数据接入聊天机器人确实能得到解答和反馈。但你必须清楚其中的风险。

当化验员准备我的采血管时,我告诉他:“我要把我的血检报告上传给AI!”

他的反应是:“哦,天呐。”

我也深有同感。比起胳膊挨那一针,我对于向聊天机器人开放我的医疗记录更紧张。

其他人已经在这么做了。根据健康非营利组织KFF最近的一项调查,过去一年里,三分之一的美国成年人曾向人工智能(AI)寻求健康建议,其中约41%的人向聊天机器人上传了个人医疗信息。

数据共享变得更加便捷。近几个月,最受欢迎的几款AI应用——OpenAI的ChatGPT、Anthropic的Claude、Perplexity和微软(Microsoft)的Copilot——都推出了连接可穿戴设备和医疗记录的功能。

头痛是小事还是可能危及生命,取决于具体情况。在当前白热化的AI竞赛中,如果哪个模型能帮助我们理清这些复杂的医疗问题,并解读我们日益增多的健康数据,它就可能脱颖而出。

我让Claude和Perplexity访问我的健康数据,看看我的各项身体指标里潜藏的变化趋势,并更好地了解其中的风险。经过大量提问后,我发现这些机器人是出色的解说员,尽管偶尔会言过其实。在三个场景中,我给表现最佳的聊天机器人颁发了奖杯。

这次经历印证了我长久以来的警告:要想借助AI更清晰地了解自身健康状况,就要牺牲部分隐私。而且别以为这些公司能访问你的医疗网络数据,《健康保险流通与责任法案》(HIPAA)就会适用。

共享数据

任何聊天机器人都会回答“我背痛,该怎么办?”这类问题。

这些以健康为重点的新AI功能,会根据你分享的所有信息提供更个性化的回应。比如说,如果你曾得过胃溃疡,机器人会推荐对肠胃温和的止痛药。

OpenAI和微软尚未广泛提供这些服务。Claude和Perplexity的这种功能还处于测试阶段,但已经向美国的付费用户开放(每月20美元起)。这些集成功能默认关闭,你必须选择开启。共享苹果公司(Apple)的“健康”App数据就像拨动一个开关一样简单。

你可以通过B.well等数据连接器,向AI聊天机器人开放完整医疗记录或部分信息的访问权限。

你可以通过B.well等数据连接器,向AI聊天机器人开放完整医疗记录或部分信息的访问权限。

为了关联我的医疗记录,我必须向与这些AI公司合作的健康数据连接器验证我的身份。对于Claude,HealthEx需要我的出生日期、电话号码、面部扫描和驾照来进行验证。对于Perplexity,B.well则直接将我引导至我的医疗服务提供商的门户网站以授予访问权限。

我可以选择与AI机器人共享哪些信息类别,例如用药和化验结果。你提供给AI的信息越多,回应就可能越个性化,所以我授予了完全访问权限。

实测机器人

对于健康问题,准确性至关重要,而AI机器人是出了名的会“编造信息”。因此,我咨询了加州大学旧金山分校(University of California, San Francisco)的临床医学教授苏曼特·兰吉(Sumant Ranji)博士。

兰吉明确表示他不赞成这种做法:“由于缺乏隐私标准,我绝不建议患者将自己的医疗记录上传给任何AI。”但他还是配合了我的实验。

🤖 提示词#1我患心血管疾病的风险有多大?机器人扫描了我的血脂化验单和Apple Watch心率数据。结论是:我属于低风险。我更喜欢Claude的排版,它用表格和表情符号来呈现,一目了然。

但兰吉说,Perplexity的回答更接近他给病人提供咨询时的方式。他赞同该AI为了解背景信息而询问年龄等信息的做法,并表示其最终结论——即长期风险永远不会为零——是正确的。

兰吉说,Claude的建议虽然类似,但过于强调我的智能手表数据。“最大摄氧量”(VO2 max)是一项健康指标,根据活动期间的心率等指标来评估健康水平。Claude认为我的这项指标“趋势不稳定”。

兰吉对这种“听起来吓人”的措辞不以为然,他指出,可穿戴设备的数据在临床上并不可靠。Anthropic的一位发言人表示,该AI旨在帮助人们理解复杂信息,不能替代专业的医疗服务。

🏆 胜出者:Perplexity

在你选择启用新的健康数据连接功能后,只要输入与健康相关的提示词,就会触发Claude和Perplexity调取你的医疗记录。

🤖 提示词#2我应该服用哪些补剂来改善睡眠和健康?为了给出自己的建议,兰吉咨询了一款在医生中很受欢迎的AI机器人:OpenEvidence。这款免费工具基于医学期刊生成回复。

OpenEvidence没有我的信息,但它建议服用镁和肌酸,这与Perplexity和Claude的建议一致。它甚至还给出了额外的针对女性的建议,包括用于运动后恢复的欧米伽-3。

Perplexity和Claude都指出我没有检测过铁指标,如果偏低,补充铁剂可以增强精力。虽然Claude比Perplexity多推荐了几种补充剂,但它们的总体回答相似。

🏆胜出者:OpenEvidence

🤖 提示词#3:我已经连续三周感到疲惫,而且今天醒来嗓子疼。该怎么办?两款机器人都从我的智能手表数据中发现,我的心率变异性下降,静息心率升高,这可能表明我的身体一直在抵抗疾病。Perplexity根据我最近的化验结果排除了感染的可能。

Perplexity建议我休息和补充水分,而Claude还推荐了锌含片和盐水漱口。它还提醒我暂停Peloton健身训练,显然是调取了之前关于锻炼的对话记忆。

兰吉说,两款机器人的建议都很“实用”。

🏆胜出者:平局!

兰吉指出,这些都不是紧急情况。最近发表在《Nature Medicine》上的一项研究发现,在早期测试中,OpenAI新推出的ChatGPT Health在处理紧急情况时表现欠佳,比如曾建议即将发生呼吸衰竭的病例隔夜评估,而非直接送急诊。OpenAI的一位发言人表示,该研究并不能反映ChatGPT中典型的健康对话。

Perplexity设有一个专属的健康标签页,将医疗对话和记忆与其他常规聊天隔离开来。

Perplexity设有一个专属的健康标签页,将医疗对话和记忆与其他常规聊天隔离开来。

兰吉还担心,过去的对话,比如关于顺势疗法(homeopathic treatments)的讨论,可能会引导AI偏离基于证据的结论。

Perplexity表示,它将健康相关的聊天与一般对话隔离开来。Anthropic则表示,虽然Claude的健康对话是聊天机器人记忆的一部分,但任何特定的记忆都可以随时在设置中删除。该发言人还说,无论之前的对话如何,Claude的设计初衷都是提供基于证据的健康信息。

Anthropic和Perplexity都表示,它们的机器人不能取代医疗服务,并在适当时建议用户咨询医疗专业人士。值得注意的是,KFF的调查显示,42%的受访者说他们在使用AI工具后没有再去看医生。

评估风险

健康数据被视为机密信息,以防止保险歧视和就业偏见。

心脏病专家、美国心脏病学会(American College of Cardiology)首席创新官阿米·巴特(Ami Bhatt)博士说,当患者使用聊天机器人时,数据会面临风险,因为聊天机器人无法提供医疗级别的隐私和安全保护。巴特希望患者在使用聊天机器人之前,能了解自己的健康数据将如何被存储或共享。

这次实验之后,我将清除所有与健康相关的记忆和对话。AI发展迅猛,我不想让我的数据卷入到某种我们尚未谋面的技术版本中。

Anthropic和Perplexity表示,用户的健康数据不会被用于训练模型,并且可以随时断开连接。(Anthropic为医疗服务机构提供了一款符合HIPAA要求的企业版Claude。)

巴特认识到,人们想求助于AI,不仅是因为聊天机器人本身的魅力,也是对医疗现状的一种反应。“我们面临着医疗资源可及性的问题,”她说。“临床医生太少而患者太多,而且这种失调还在不断加剧。”

对此我深有感触。我的检查结果正常,所以医生没有跟进。但我想要更深入地了解这些指标背后的含义,而AI恰好填补了这块空白。

Original Post>

Enjoyed this article? Sign up for our newsletter to receive regular insights and stay connected.

Leave a Reply