3月12日,微软向旧金山联邦法院提交"法庭之友"简报,支持Anthropic对美国国防部的法律挑战。Google、苹果、OpenAI也签署了支持文件。这是AI公司首次大规模联合对抗政府机构,核心争议在于五角大楼要求AI公司允许"所有合法用途"——包括军事用途。
普通人机会:AI伦理合规正在成为新职业方向,企业急需懂政策、懂技术的人才。
发生了什么?
五角大楼将Anthropic列入"供应链风险"名单,原因是该公司拒绝签署允许AI用于"所有合法用途"的合同条款。Anthropic提出两条红线:不参与致命武器开发、不进行大规模监控。谈判破裂后,Anthropic将五角大楼告上法庭。
为什么重要?
这是AI公司首次大规模联合对抗政府。微软作为五角大楼最大承包商之一,选择站在Anthropic一边,释放了明确信号:科技巨头认为AI伦理红线值得捍卫。
对普通人的影响
| 方向 | 门槛 | 具体做法 |
|---|---|---|
| AI合规顾问 | 中 | 帮企业制定AI使用政策,确保符合法规 |
| AI伦理培训 | 低 | 开发课程培训企业员工识别AI风险 |
最新基准测试显示,Claude在编程任务(SWE-bench)上表现最佳。适合程序员、开发者。API价格:输入$3/百万token,输出$15/百万token。
性价比最高,适合预算有限的个人和小团队。免费额度较大,API定价也最便宜。
今天的AI世界:大公司在为伦理打仗,普通人在为机会准备。
关注「荆生的AI观察日记」,每天带你抓住AI信息差。