摘要:法律层面上,全球各国针对AI的相关法规其实都相对滞后。当然,AI本质上是为自然人使用的工具,一切AI作恶行为,理论上都能找到背后对应的责任人。 就国内而言,新修订的《中华人民共和国网络安全法》已于今年1月1日正式施行,新增条款明确要求「完善人工智能伦理规范,加
就在最近几天,谷歌发布了新一代开源模型Gemma 4。大家都在讨论新款模型的能力和变化,雷科技(ID:leitech)也第一时间做了
上手实测
。我们发现,作为能塞进手机里的小参数模型,Gemma 4 E4B的表现可圈可点,应对不太复杂的场景还是够用的,而且生成速度不算慢。
(图源:Gemma) 法律层面上,全球各国针对AI的相关法规其实都相对滞后。当然,AI本质上是为自然人使用的工具,一切AI作恶行为,理论上都能找到背后对应的责任人。 就国内而言,新修订的《中华人民共和国网络安全法》已于今年1月1日正式施行,新增条款明确要求「完善人工智能伦理规范,加强风险监测评估和安全监管」,并将罚款上限提升至一千万元。这标志着我国的AI安全已进入法治化轨道。
当然,法律还得进一步明确越狱版模型被用于违法犯罪行为后的责任认定划分问题,这还要更多司法实践探索来逐步解决。
回到最初的问题:Gemma 4被越狱,后果真的很严重吗?
如果只是把它当作又一个AI被破解的趣闻,那确实没什么大不了的——毕竟这已经不是第一次有开源模型被越狱了。但如果仔细想想,一个拥有完整Agent能力、可以自主调用工具、支持多模态理解和复杂推理的AI,被彻底移除了所有道德约束和安全护栏,这不再是一个简单的AI安全问题。一个打开的潘多拉魔盒,会造成更多更广泛的危害。 Abliteration技术的出现,证明了今天大厂们在AI上建立的安全机制,本质上只是在大模型上贴了一层封条,撕掉它并不需要多高的技术门槛。还是那句话,真正的安全,得建立在整个底层推理结构上,而不是寄希望于模型自己拒绝回答危险问题。 可以预见的是,AI大厂们肯定会采取相应的措施,来挽回被打脸丢掉的颜面,但与此同时,越狱破解者们也会升级攻击手段。
这会是一场持久的猫鼠游戏,也是AI时代需要不断处理的课题。
来源:小林论科技