Anthropic拒让美军无条件使用AI 涉监控及自主武器伦理红线
撰文: 韩学敏
出版:更新:
美国人工智能公司Anthropic(Claude聊天机器人开发商)2月26日公开表示拒绝国防部五角大楼要求其无条件开放AI技术用于军事用途的最后通牒,表明不会接受用于大规模国内监控或全自主致命武器的要求。
Anthropic行政总裁阿莫迪(Dario Amodei)声明指出,公司无法“违背良心”同意美军无条件使用其技术,并划出两条伦理红线:一是大规模国内监控“与民主价值观不相容”,二是现有AI系统尚不可靠,不应授权用于无人最终控制的致命武器。
知情人士透露,美军在掳获马杜罗的行动中,曾使用Anthropic的人工智慧工具“Claude”。(Reuters)
他强调,Anthropic虽已为五角大楼及情报机构提供防御性技术,但“不会明知故犯地提供危及美军与平民的产品”。
五角大楼此前要求Anthropic同意无限制地将其技术用于军事用途,否则将动用《国防生产法》强制其配合,并可能将该公司列为“供应链风险企业”。国防部官员辩称,合法性属最终用户责任,部门“仅下达合法命令”。