实验显示,如果用户拿带水印的模型去做 LoRA(Low-Rank Adaptation)微调,随着微调步数增加,水印的检测准确率会逐渐下降。这说明,虽然水印被“焊”进了权重,但如果有人刻意用大量新数据去“磨”,还是有被磨掉的风险。
LLM-in-Sandbox 提出了一个简洁而有效的范式:通过给大模型提供一台虚拟电脑,让其自由探索来完成任务。实验表明,这一范式能够显著提升模型在非代码领域的表现,且无需额外训练。 研究者认为, LLM-in-Sandbox 应当成为大模型的默认部署范式 , 取代纯 LLM 推理 。当沙盒可以带来显著的性能提升,并且部署成本几乎可以忽略不计时,为什么还要用纯 LLM?
一些您可能无法访问的结果已被隐去。
显示无法访问的结果