美国AI安全研究员接连离职,AI无序开发风险谁来踩刹车?

张开发
2026/4/19 22:54:48 15 分钟阅读

分享文章

美国AI安全研究员接连离职,AI无序开发风险谁来踩刹车?
AI安全研究员离职潮理念与开发的冲突美国AI开发领域正经历一场震动曾处于人工智能开发最前沿、负责安全性的研究人员接连离开一线。Anthropic的安全研究员Mrinank Sharma今年2月离职他在英国牛津大学获得机器学习博士学位抱着为AI安全性做贡献的想法前往美国旧金山在Anthropic从事模型内部的透明性机制研究等。然而他离职时在公开信中表示在职期间面临将自身价值观落实为行动的困难。2026年2月曾在美国OpenAI负责安全对策的研究人员Zoë Hitzig也因ChatGPT引入广告而辞职。她在《纽约时报》上发表文章呼吁人们关注基于用户内心话投放广告的操控行为指出OpenAI抛弃了在AI引发问题上抢占先机的理念。Claude Mythos问世安全隐患引发紧急关注2026年4月7日Anthropic试验性公开了新型AI模型“Claude Mythos”其性能高到可以锁定系统上未知的缺陷若被恶意用于对银行的网络攻击等可能导致灾难性结果。Anthropic严格限制公开对象甚至引发美国财政部长与美国大型银行行长召开紧急会议讨论应对方案。Mrinank Sharma是否预言了Claude Mythos的危险性他本人并未给出明确回应但他辞职时曾写道“我们的智慧必须与我们影响世界的能力同步增长否则就要付出代价”。企业态度动摇竞争与伦理的艰难平衡研究AI安全性的开发人员相继离职反映出各企业在销售额和企业价值不断膨胀的同时对待安全和企业伦理的态度开始动摇。Anthropic的CEO达里奥·阿莫迪Dario Amodei虽认识到AI快速创新可能带来严重风险但Anthropic在与美国国防部就AI军事利用的问题上随着竞争对手OpenAI获得国防部合同也表示将继续与政府展开协商。正如谷歌一名职员所说“无论有多么崇高的理念在开发竞争面前都毫无意义”。谁来为AI开发踩刹车面对AI的无序开发竞争各方开始呼吁采取措施。OpenAI在4月6日发布的政策建议中提出包括税制改革、每周四天工作制等设想并呼吁制定国家层面的安全标准强调监管的必要性。Anthropic在4月2日更新的建议中也重点强调了开发过程的透明性以及对超智能模型潜在风险的控制。美国总统特朗普表示政府应该拥有强制停止AI技术的“终止开关”美国国会的危机感也在扩散。编辑观点AI安全研究员的离职凸显了行业在理念与开发之间的矛盾。企业在追求商业利益时对安全和伦理的重视有所动摇。各方虽已意识到风险但在竞争激烈且国际规则欠缺的情况下如何平衡开发与安全找到控制AI无序发展的有效方法是美国乃至世界亟待解决的问题。

更多文章