近日,又见 AI 毁灭论,而加州 AI 限制法案的“幕后主使”被指与马斯克有关,这一消息在科技界和社会各界引起了轩然大波。
近两年,AI 监管话题已经上升到了气候变化、核扩散的高度。去年 11 月首届 AI 峰会,与会各国签署《布莱切利宣言》。但抛开潜在威胁,目前 AI 还是“乖孩子”,与科幻电影“人类终结者”相去甚远。当下 AI“闯过最大的祸”当属 Deepfake——国外“AI 换脸马斯克”骗钱骗感情,国内“AI 换脸靳东”骗钱骗感情。
该法案旨在防止 AI 大模型被用于对人类造成“严重伤害”。法案指出,例如恐怖分子用 AI 大模型制造武器,造成大量人员伤亡。不禁让人想到了前不久 GPT-4o 的“时态破防”事故。
法案要求开发者(即开发 AI 模型的公司)实施法案所规定的安全协议,以防止上述种种后果。下一步,SB-1047 将进入加州参议院进行最终投票环节。如果通过,法案将放到马斯克“敌蜜”加州州长纽森的办公桌上,等待其最终的命运。硅谷基本是一边倒:支持者寥寥无几,反对者成群结队。
而习惯打“安全牌”的 AI 创企 Anthropic 早已事先呈上了详细修改意见,希望法案从“伤害前执法”转向“基于结果的威慑”。法案也采纳了其部分建议,比如不再允许加州总检察长,在灾难事件发生前起诉 AI 公司疏忽安全措施。
问题核心在于对 AI 大模型的定义。有一个很好的比喻:如果一家公司批量生产了非常危险的汽车,并跳过了所有安全测试,结果引发了严重的交通事故。这家公司应该受到处罚,甚至面临刑事指控。但如果这家公司开发了一个搜索引擎,恐怖分子搜到“如何造炸弹”,并造成了严重后果。
加州 SB-1047 法案到底是绊脚石还是安全笼?各位大佬的立场为何不同?这一系列问题都值得我们持续关注和深入思考。