在旧金山联邦法院第17号法庭,空气凝固得几乎可以切割。Anthropic的首席法律顾问约翰·史密斯深吸一口气,准备迎接即将到来的听证会。对面,五角大楼的代表团面无表情地坐着,他们的文件夹里装满了标注着’绝密’字样的文件。
‘法官大人,’史密斯的声音在安静的法庭里回荡,’我们提交的宣誓声明清楚地表明,五角大楼的指控基于对AI技术的根本性误解。他们声称我们的模型构成’不可接受的国家安全风险’,但这种说法从未在我们长达数月的谈判中被提出过。’他停顿了一下,加重语气,’事实上,就在一周前,五角大楼还告诉我们双方’几乎达成一致’。’
这句话像一颗投入平静水面的石子,在法庭上激起涟漪。旁听席上的记者们迅速记录着这个关键细节。
**一、技术理想主义与国家安全现实的碰撞**
Anthropic,这家由前OpenAI研究人员创立的AI公司,一直以’负责任AI’的旗手自居。他们的核心产品Claude系列模型,被设计为’有帮助、无害且诚实’的AI助手。公司创始人达里奥·阿莫代伊曾在多个场合强调,Anthropic的使命是’开发有益于人类的AI系统’。
然而,当这家技术理想主义色彩浓厚的初创公司试图与世界上最大的军事机构——美国国防部合作时,理想与现实之间的鸿沟开始显现。
根据法庭文件显示,双方的谈判始于去年秋天。五角大楼对Anthropic的’宪法AI’技术表现出浓厚兴趣,这种技术旨在通过人类反馈和AI自我改进的结合,创建更安全、更可控的AI系统。对于正在寻求在AI军事应用领域保持领先地位的美国军方来说,这种可控性具有不可抗拒的吸引力。
谈判初期进展顺利。Anthropic的技术团队多次前往五角大楼,向国防部的技术专家展示他们的模型架构、安全机制和透明度工具。五角大楼的工程师们对Anthropic的’红队测试’方法印象深刻——这是一种让AI模型自我攻击以发现漏洞的安全实践。
‘我们以为我们在说同一种语言,’一位不愿透露姓名的Anthropic前谈判团队成员告诉我,’但后来我们发现,我们对’安全’和’可控’的定义完全不同。’
**二、技术误解的深渊:AI如何被误读为威胁**
Anthropic在法庭文件中详细列举了五角大楼的’技术误解’。其中最核心的争议点围绕着一个看似简单的问题:AI模型的’可解释性’。
对于Anthropic的工程师来说,’可解释性’意味着能够理解模型为何做出特定决策,能够追踪其推理过程,并确保其行为符合预设的价值观。他们开发了一套复杂的可视化工具,让用户可以’窥视’模型的’思考过程’。
但对于五角大楼的安全专家来说,’可解释性’有着完全不同的含义。在军事和安全语境中,它首先意味着’可预测性’和’不可被敌方利用的脆弱性’。一位前国防部AI顾问解释说:’军方需要的是确定性。如果一个AI系统在99%的情况下行为可预测,但在1%的情况下会出现无法解释的异常行为,那么这1%就可能成为国家安全灾难的导火索。’
这种根本性的认知差异在谈判后期逐渐浮出水面。当Anthropic自豪地展示他们的模型能够承认’我不知道’或拒绝回答某些敏感问题时,五角大楼的官员们看到的不是负责任AI的典范,而是一个’不可靠’的系统。
‘在军事行动中,’一位国防部官员在内部备忘录中写道,’我们需要的是能够在压力下做出果断决策的系统,而不是一个不断自我怀疑、需要人类确认的AI。’
更深的误解发生在技术层面。Anthropic的’宪法AI’依赖于大量的文本训练数据,这些数据来自互联网的各个角落。五角大楼的安全团队担心,这些数据中可能隐藏着偏见、错误信息,甚至是敌对势力植入的’后门’。
‘他们要求我们提供每一行训练数据的来源证明,’Anthropic的数据隐私主管在宣誓声明中写道,’这在实际操作中是不可能的。互联网的本质就是开放和混杂的。’
**三、政治风云:当技术谈判遭遇选举周期**
就在技术团队还在努力弥合认知差距时,政治时钟开始滴答作响。
根据最新披露的法庭文件,在双方谈判进入最关键阶段时,五角大楼的高级官员曾私下告诉Anthropic:’我们在核心条款上几乎达成一致,只剩下一些细节需要敲定。’这个消息让Anthropic的团队备受鼓舞,他们开始准备签约仪式的新闻稿。
然而,一周后,情况急转直下。前总统唐纳德·特朗普在佛罗里达州的一场集会上,将矛头指向了’与深层政府勾结的硅谷科技公司’。虽然没有点名Anthropic,但他在演讲中明确表示:’任何与当前政府国防部合作的科技公司,在我的政府中都不会有未来。’
‘那就像一盆冷水浇在我们头上,’Anthropic的一位高管回忆道,’第二天,五角大楼的谈判态度完全改变了。之前已经解决的问题又重新被提出来,而且语气变得强硬得多。’
政治分析家指出,这起纠纷发生在总统选举年的敏感时期。现任政府希望展示在AI军事应用方面的进展,而反对党则试图将任何此类合作描绘为’危险实验’。Anthropic不幸成为了政治斗争的棋子。
‘这不是第一次科技公司被卷入政治漩涡,’斯坦福大学科技政策研究员莎拉·陈教授分析道,’但当AI这种具有战略意义的技术成为政治足球时,后果可能更加严重。它可能阻碍整个行业的发展,让美国在AI竞赛中落后。’
**四、国家安全的新定义:谁有资格评判AI风险?**
这场纠纷的核心,其实是一个更根本的问题:在AI时代,应该如何定义和评估’国家安全风险’?
五角大楼在法庭文件中声称,Anthropic的AI模型可能被恶意行为者利用,用于生成虚假信息、进行网络攻击,甚至协助规划恐怖活动。他们引用了几个假设性场景:比如,AI可能被用来生成针对关键基础设施的复杂攻击计划,或者制造足以以假乱真的深度伪造视频来破坏政治稳定。
Anthropic的回应是:这些风险并非他们独有的,而是所有大型语言模型都面临的挑战。更重要的是,他们指出,五角大楼的担忧大多基于’理论可能性’而非实际证据。在长达数月的技术评估中,Anthropic的模型从未表现出这些假设的恶意行为。
‘这就像因为菜刀可能被用来伤人,就禁止所有厨师使用菜刀,’Anthropic的首席安全官在技术简报中比喻道,’正确的做法是制定如何使用菜刀的规则,而不是禁止工具本身。’
然而,在国家安全领域,’可能’往往就足够了。一位前国家安全局官员解释说:’我们的工作就是考虑最坏情况。如果有一种技术有被滥用的可能性,即使这种可能性很小,我们也必须采取预防措施。’
这种预防性原则与科技行业的创新文化形成了鲜明对比。硅谷信奉’快速行动,打破常规’,而国家安全机构则要求’缓慢验证,确保万无一失’。
**五、超越个案:AI治理的全球困境**
Anthropic与五角大楼的纠纷虽然发生在美国,但它反映了一个全球性的困境:如何在不扼杀创新的前提下,确保AI技术的安全可控。
欧盟正在推进的《人工智能法案》试图通过风险分类来平衡这一矛盾,将AI应用分为’不可接受风险’、’高风险’、’有限风险’和’最小风险’四类。但实际操作中,这种分类面临巨大挑战——同样的AI技术,在医疗诊断中是’拯救生命的高风险应用’,在军事领域就可能成为’不可接受的风险’。
在中国,科技公司与政府的合作采取了不同的模式。’中国的AI发展强调发展与安全并重,’清华大学人工智能研究院的一位研究员指出,’通过国家层面的战略规划和企业的积极参与,形成了有别于西方的AI治理路径。’
然而,无论采取何种模式,一个核心问题始终存在:当AI技术变得越来越强大,越来越难以理解时,我们应该信任谁来控制它?是创造技术的公司,是监管技术的政府,还是某种国际治理机制?
回到旧金山的法庭。法官丽塔·林正在仔细审阅双方提交的文件。她的判决不仅将决定Anthropic与五角大楼的命运,更可能为未来AI公司与政府合作设立先例。
‘这不仅仅是法律问题,’一位法庭观察员低声说道,’这是关于在AI时代,我们如何平衡创新与安全、私营部门与公共利益的根本问题。’
听证会结束后,双方律师面无表情地收拾文件。窗外,旧金山湾区的科技公司灯火通明,无数工程师正在开发下一代AI系统。他们中的大多数人可能永远不会知道,就在几英里外的法庭里,一场关于AI未来的重要战役刚刚打响。
而这场战役的结果,将决定AI技术是成为连接创新与安全的桥梁,还是又一道难以逾越的鸿沟。




