在硅谷,李飞飞、吴恩达等 AI 科学家与监管部门就 SB – 1047 法案展开拉锯战。该法案为高风险 AI 模型建立安全标准,于今年 2 月提出后引发争议,其覆盖市面上主流大型模型,要求模型开发者对下游使用或修改承担法律责任,将由新成立的监督机构执行,还有吹哨人保护条款。8 月 7 日将举行听证会,李飞飞撰文称该法案若通过将损害 AI 生态系统,包括过度惩罚开发者、束缚开源开发、削弱学术研究且未解决潜在危害。数十位科学家联名反对,认为法案会给开源模型发布带来“寒蝉效应”、风险评估不科学、对开源模型保护不足、影响学生就业等。吴恩达认为应监管应用而非技术。对于是否应如此监管 AI,有待探讨。