赞助商家(广告位:+1678-685-8086)

AI进入战争核心!美国军方使用Claude锁定目标,却同时将其列入黑名单……

在人工智能迅速进入军事与国家安全领域之际,美国政府与一家AI公司的冲突正引发科技界、军方和政策圈的广泛关注。围绕人工智能模型 Claude 的使用,美国政府与其开发公司 Anthropic 之间的分歧,正在成为人工智能与军事关系的重要案例。

近日,美国政府正式将 Anthropic 认定为“供应链风险”。美国国防部发表声明称,已经通知该公司领导层,其产品被视为供应链风险,相关认定立即生效。这一决定意味着,与五角大楼合作的承包商可能需要停止在军事合同中使用 Claude 系统。

这项认定是在美国总统 特朗普与国防部长 Pete Hegseth 连续批评该公司之后作出的。政府方面表示,军方需要能够在所有合法用途下使用人工智能技术,而供应商不应限制其使用范围。五角大楼声明指出,军方必须确保关键技术不会因供应商限制而影响指挥系统或作战人员安全。

Anthropic 首席执行官 Dario Amodei 则表示,公司不同意这一认定,并计划通过法律途径提出挑战。他强调,Anthropic 并不试图干预军事决策,而只是希望限制人工智能在某些领域的使用,例如完全自主武器和大规模国内监控。

争议的核心是人工智能在军事系统中的角色。过去一年,美国军方在情报分析、作战规划和目标识别方面越来越多地使用生成式人工智能。其中一个重要系统是由 Palantir Technologies 开发的 Project Maven。该系统能够从卫星图像、监控数据和情报数据库中提取信息,并对潜在目标进行分析和排序。

据知情人士透露,Maven 系统在运行过程中整合了 Claude 的大型语言模型能力,使其能够更快处理情报信息、生成目标列表,并为军事规划提供建议。在一些测试和实际部署场景中,这种人工智能组合能够将原本需要数周完成的情报整理与目标分析任务压缩到接近实时完成。

美国军方近年来不断扩大 Maven 系统的使用范围。根据公开信息,截至2024年已有超过2万名军人使用该系统进行情报摘要、后勤分析和目标识别。美国军方表示,这类系统可以从上百个数据源获取信息,并以机器速度处理大量数据。

一些军事研究人员指出,人工智能的优势在于处理海量数据和快速分析。例如,在目标识别过程中,AI可以自动从大量卫星图像和监控信息中筛选潜在目标,并按优先级排序,为指挥官提供决策参考。但与此同时,也有专家提醒,生成式人工智能仍可能出现错误,因此在关键决策中仍需要人工审查。

围绕这一问题,科技行业内部也出现不同态度。Anthropic 强调其技术原则,希望避免人工智能被用于完全自动化武器系统或大规模监控。而一些政府机构则认为,军方需要拥有更大的使用自由,以确保技术在国家安全领域的应用。

与此同时,其他人工智能公司正在进入这一领域。由 Sam Altman 领导的 OpenAI 已宣布与政府达成合作,使 ChatGPT 可以在某些机密环境中使用。另一家人工智能公司 xAI 也签署协议,参与政府人工智能系统开发。

尽管失去了部分政府合作机会,Anthropic 的用户数量却在近期快速增长。公司表示,过去一周每天新增超过一百万名用户注册使用 Claude,使其在多个国家的应用商店排名一度超过 ChatGPT 和 Gemini

这场争议不仅涉及一家公司的商业前景,也反映出人工智能技术进入国家安全领域后带来的新问题:如何在技术能力、军事需求和伦理限制之间找到平衡。随着越来越多人工智能系统被用于情报分析和军事规划,类似的政策与技术争议可能会持续出现。

本文由【大纽约生活网】独家约稿、原创。原创作品未经授权,严禁转载,否则追究法律责任。免责声明:观点仅代表作者本人立场。部分图片取自网络,版权属于原作者。

相关商家(广告位:+1678-685-8086)

您可能还喜欢...

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注