
从「创新优先」到「安全优先」:美国AI政策转向
特朗普政府正在考虑发布新的行政令,这一次,目标是AI模型本身。
据多方消息源证实,白宫已向Anthropic、Alphabet、OpenAI三家AI巨头的高管通报了部分拟议计划:成立AI工作组,对新AI模型实施政府审查流程——即在模型正式发布之前,需要经过某种形式的政府评估。
这一消息的导火索,是Anthropic最新模型Mythos的限量发布策略:该模型仅向数十家企业和政府机构开放,而非全面公开发布。这种「限量发售」的模式,在华府看来,是对国家安全风险的暗示。
Anthropic Mythos:引发担忧的那根刺
Mythos是Anthropic迄今为止最强大的模型,但在发布策略上,选择了极为保守的路线:
- 不向公众开放,只向经过筛选的企业和政府机构开放
- 模型能力描述含糊,API调用权限严格限制
- 被指存在「潜在军事用途」
这种限量发布的策略,在商业上是合理的——控制风险、维持溢价。但在华盛顿的语境里,这恰恰是最让人不安的信号:一家AI公司,如果自己都觉得这个模型「太危险」不能全面发布,那政府有理由先行一步。
AI治理的美国路径:从放任到收紧
这并非美国AI监管的起点。早在2023年,拜登政府就签署过AI行政令,要求AI开发商在发布高风险模型前进行安全评估。但这一行政令在特朗普第一任期被废除。
现在,新一轮的政策考量正在成形:
- 算力管控:政府担忧AI算力产能不足以支撑国防安全体系,TPU审批流程拟加快
- 出口管制延伸:AI模型的云端访问限制,可能参照芯片出口管制模式
- 前置审查:对高风险AI模型实施发布前安全评估
与此同时,欧盟的《人工智能法案》正在推进修法谈判,目标是在2026年8月前完成立法。中国的「清朗·整治AI应用乱象」专项行动也已启动。中美欧三大经济体,在AI治理上正在走向不同的路径。
科技公司的担忧:创新被审批拖累?
对于白宫的这一计划,AI公司的态度并不一致。
支持审查:主要是那些在AI安全上有积累、且已经建立了内部安全评估流程的公司(如Anthropic本身)。前置审查对它们而言是一种竞争优势——大厂有资源做合规,小厂反而可能被审查流程拖死。
反对审查:主要是创新驱动的公司。审批流程意味着不确定性、延迟和额外的合规成本。在AI这个「快鱼吃慢鱼」的行业,延迟发布一个月可能意味着被竞争对手超越。
对中国AI的影响:间接但深远
美国的前置审查计划,对中国AI产业的影响是间接但深远的。
最直接的影响是:在中国AI公司看来,美国政府对中国企业的AI模型实施出口管制、同时美国本土企业也在受到审查限制——这印证了「美国就是在搞技术封锁」的判断。
其次,当美国开始对AI模型实施前置审查,中国监管机构也有了更多的对标参考。中国的「清朗」专项行动,在某种层面上,也是对AI模型内容安全的一次集中治理。
结语
从「AI规则」到「AI管控」,美国政府的措辞在变,背后的逻辑也在变。AI不再只是一个技术竞争议题,而是一个国家安全议题。
当Anthropic这样的AI安全先行者,都开始被政府认为「不够安全」的时候,这场博弈的复杂度,已经远超技术本身。
评论区