3月6日消息,据报道,美国国防部已正式通知美国人工智能企业Anthropic,将该公司及其人工智能模型Claude指定为“供应链风险”。这一标签通常用于针对外国对手企业,而Anthropic成为首家被列入该名单的美国科技公司。一名美国国防部高级官员表示,此次决定源于军方与Anthropic在人工智能使用范围上的分歧。五角大楼认为,军方必须能够在 “所有合法用途”中使用相关技术,而不会接受供应商对关键能力设置限制。如果供应商试图通过限制合法用途来影响军方的指挥体系,就可能危及作战人员安全。根据这一认定,未来为国防部提供服务的承包商将需要证明,他们在项目中没有使用Anthropic的模型。Claude是Anthropic开发的首个也是目前唯一一个被美国军方用于秘密行动的人工智能模型。但Anthropic为其模型划定了两条红线:确保Claude不会被用于全自动武器系统和在美国国内进行大规模监控。 (央视新闻)
©版权声明:如无特殊说明,本站所有内容均为Amassai.net 原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。


















评论 ( 0 )