在北京时间8月16日,经历广泛争议后,美国加州的《前沿AI模型安全创新法案》(SB 1047)终于通过了加州众议院拨款委员会的认可。在AI公司Anthropic和其他关键反对者的压力下,该法案进行了多项修正,使其更接近于成为正式法律。加州参议员维纳表示,这些修正案在解决业内的主要担忧方面起了决定性作用,特别是满足了开源社区的特殊需求,而这是推动创新的关键因素。SB 1047旨在通过加强对开发者的责任,预防大型AI系统可能导致的重大人员伤亡或超过5亿美元的经济损失。尽管该法案减少了对AI实验室的直接追责,但它在美国AI监管领域的进展标志着一个重要的步骤。然而,包括李飞飞和杨立昆在内的AI行业部分领袖认为,该法案的最终形式可能会削弱加州乃至美国在全球AI领域的竞争力。此外,孵化器YC和风投机构a16z等也表达了强烈的反对意见。针对国内市场,该法案的新规定要求云服务提供商必须收集客户的详细信息,这一措施将方便监管机构追踪和监管,但也可能增加中国AI企业使用海外算力的监管风险。该法案引入了对可能导致严重伤害的大型AI模型的新限制,特别是那些开发成本至少为1亿美元,训练过程中使用的计算能力达到10^26 FLOPS的模型。这意味着只有全球最大的AI模型才会受到此类规则的约束,而像OpenAI、Google和微软这样的科技巨头很快可能会受到影响。此外,加州总检察长在灾难性事件发生前不再有权对AI公司提起诉讼,而是可以在事后寻求法律救济,这是Anthropic所提议的一个重要调整。新法案中取消了设置前沿模型部门的计划,转而扩大了前沿模型委员会的规模和职责,其不仅负责设定监管阈值,还要发布安全指南和法规。此外,内部员工如果向加州总检察长报告不安全的AI模型,将受到法案的保护。对于违规行为,法案规定罚款起步于1000万美元,重大违规可达3000万美元。如果AI模型开发者未能遵守规定,加州总检察长有权提起民事诉讼。此外,严重违规的情况下,可能会要求关闭或删除相关的AI模型。尽管面临强烈反对,该法案仍在立法过程中取得进展,一些科技界的声音和政策制定者希望通过这种方式提前管理技术风险,避免未来潜在的安全事件。这不仅反映了对技术发展的深刻关注,也表明了加州在制定AI监管方面的领导地位。现在,SB 1047将提交给加州议会进行最终表决,如果通过,还需州长的签字才能成为法律,其结果将深远影响AI行业的发展方向和监管环境。
© 版权声明
THE END
喜欢就支持一下吧
暂无评论内容