最近,OpenAI在澳大利亚推出了ChatGPT Health平台,这个号称能够’安全连接医疗记录和健康应用’的人工智能工具,立即在医学界引发了轩然大波。专家们警告:这个未经监管的AI健康顾问,可能正在制造一场危险的’信任危机’。
**一、从’便捷助手’到’致命误导’:一个真实案例的警示**
故事要从一位60岁的澳大利亚男子说起。这位没有任何精神病史的老人,突然出现在医院急诊室,坚称邻居正在毒害他。接下来的24小时里,他的幻觉不断加重,甚至试图逃离医院。
医生们最终发现,这位老人正在每日服用溴化钠——一种主要用于工业和实验室清洁的无机盐。他之所以这么做,是因为ChatGPT告诉他可以用溴化钠代替食盐,以规避饮食中盐分对健康的潜在影响。
溴化钠会在体内积累,导致一种名为’溴中毒’的病症,症状包括幻觉、昏迷和协调能力受损。这个案例并非孤例,它只是AI健康咨询可能带来的灾难性后果的一个缩影。
伦敦大学学院健康错误信息博士研究员亚历克斯·鲁阿尼对此深感担忧:’让我害怕的是,目前没有任何公开发表的研究专门测试ChatGPT Health的安全性。哪些用户提示、整合路径或数据源可能导致误导或有害的错误信息?’
**二、’信任幻觉’:当AI的自信掩盖了它的无知**
ChatGPT Health被宣传为一个界面,可以帮助人们理解健康信息和检测结果,或获得饮食建议,同时’不取代临床医生’。但问题在于,对于许多用户来说,’一般信息在哪里结束,医疗建议从哪里开始’并不明显——尤其是当AI的回答听起来自信且个性化时,即使它们可能具有误导性。
鲁阿尼指出,已经有太多’令人震惊’的例子显示,ChatGPT’遗漏了关键的安全细节,如副作用、禁忌症、过敏警告,或关于补充剂、食物、饮食或某些做法的风险’。
更令人不安的是,ChatGPT Health使用的HealthBench评估工具,其完整方法论和评估结果’大部分未公开,而不是在独立的同行评审研究中概述’。这意味着,我们正在将健康决策交给一个黑箱系统。
**三、监管真空:当科技巨头跑在政府前面**
澳大利亚消费者健康论坛首席执行官伊丽莎白·德文尼博士指出,不断上涨的自付医疗费用和漫长的医生预约等待时间,正在驱使人们转向AI。
‘ChatGPT Health在帮助人们管理已知的慢性疾病和研究保持健康的方法方面可能有用,’德文尼承认,’AI能够用不同语言提供答案,这对英语不熟练的人来说提供了真正的便利。’
但她的担忧同样深刻:人们会表面化地接受ChatGPT Health给出的建议,而且’大型全球科技公司的行动速度超过了政府’,它们正在围绕隐私、透明度和数据收集制定自己的规则。
‘这不是一个小型非营利组织的善意实验。这是世界上最大的科技公司之一。当商业平台定义规范时,利益往往流向那些已经拥有资源、教育和系统知识的人。风险则落在那些没有这些条件的人身上。’
**四、从’盲目信任’到’知情信任’:我们需要的新范式**
德文尼博士的警告切中了问题的核心:’我们需要明确的护栏、透明度和消费者教育,这样人们才能就是否以及如何使用AI来管理健康做出明智的选择。这不是要阻止AI。而是要赶在错误、偏见和错误信息以几乎无法挽回的方式快速大规模复制之前采取行动。’
问题的本质不在于技术本身,而在于我们与技术的关系。AI健康咨询创造了一种危险的’信任幻觉’——它用流畅的语言、快速的响应和看似专业的语气,掩盖了其缺乏真正的医学判断、临床经验和伦理责任的事实。
这种’信任幻觉’特别危险,因为它利用了人们在医疗系统中的真实困境:高昂的费用、漫长的等待、难以理解的专业术语。AI提供了一个看似简单、便捷、廉价的替代方案,但这种便利性的代价可能是我们的健康甚至生命。
**五、寻找平衡:技术作为工具,而非替代**
OpenAI发言人告诉《卫报》澳大利亚版,该公司已与来自60个国家的200多名医生合作,’为ChatGPT Health提供建议和改进模型’。ChatGPT Health的数据默认加密并受到隐私保护,与第三方共享将在用户同意的情况下进行,或在OpenAI隐私政策规定的有限情况下进行。
这些保障措施值得肯定,但它们不能替代严格的监管、透明的评估和持续的安全监控。ChatGPT Health目前’不作为医疗设备或诊断工具受到监管。因此没有强制性的安全控制、风险报告、上市后监测,也没有发布测试数据的要求。’
真正的解决方案不是拒绝技术,而是建立一种新的信任范式——’知情信任’。这意味着:
1. **透明度优先**:AI健康平台必须公开其训练数据、算法逻辑和安全评估结果
2. **明确界限**:清晰界定’一般健康信息’和’医疗建议’之间的区别
3. **强制警告**:在所有AI健康咨询中加入明确的免责声明和风险提示
4. **监管同步**:政府监管必须跟上技术发展的步伐
5. **数字健康素养**:加强公众对AI健康工具局限性的认识和教育
**六、结语:在便捷与安全之间寻找平衡**
回到那位因AI建议而溴中毒的澳大利亚老人。他的故事提醒我们,在追求医疗便利性的道路上,我们不能牺牲安全性和准确性。AI可以成为强大的健康信息工具,但它永远不能替代人类的临床判断、同理心和伦理责任。
当我们面对AI健康咨询时,需要问自己的不是’这个建议听起来有多专业’,而是’谁为这个建议的后果负责’。在医疗领域,信任必须建立在透明度、问责制和证据的基础上,而不是算法的流畅性或科技公司的品牌声誉上。
在数字健康的新时代,我们需要的是能够增强而非取代人类专业知识的工具,是能够提供信息而非做出决策的系统,是能够辅助而非替代医患关系的技术。只有这样,我们才能真正享受技术进步带来的好处,而不至于在’信任陷阱’中迷失方向。






