ExplicitLM: 通过显式记忆库解耦知识与参数的大型语言模型
论文原始标题:ExplicitLM: Decoupling Knowledge from Parameters via Explicit Memory Banks
论文作者:Authors: Chengzhang Yu, Zening Lu, Chenyang Zheng, Chiyue Wang, Yiming Zhang, Zhanpeng Jin
原始摘要:Large language models suffer from knowledge staleness and lack of interpretability due to implicit knowledge storage across entangled network parameters, preventing targeted updates and reasoning transparency. We propose ExplicitLM, a novel architecture featuring a million-scale external memory bank storing human-readable knowledge as token sequences, enabling direct inspection and modification. We design a differentiable two-stage retrieval mechanism with efficient coarse-grained filtering via product key decomposition (reducing complexity from O(N⋅|I|) to O(√N⋅|I|) and fine-grained Gumbel-Softmax matching for end-to-end training. Inspired by dual-system cognitive theory, we partition knowledge into frozen explicit facts (20%) and learnable implicit patterns (80%), maintained through Exponential Moving Average updates for stability. ExplicitLM achieves up to 43.67% improvement on knowledge-intensive tasks versus standard Transformers, with 3.62× gains in low-data regimes (10k samples). Analysis shows strong correlations between memory retrieval and performance, with correct predictions achieving 49% higher hit rates. Unlike RAG systems with frozen retrieval, our jointly optimized architecture demonstrates that interpretable, updatable models can maintain competitive performance while providing unprecedented knowledge transparency.
翻译标题:ExplicitLM: 通过显式记忆库解耦知识与参数的大型语言模型
翻译摘要:大型语言模型由于知识存储在纠缠的网络参数中,导致知识陈旧、缺乏可解释性,阻碍了定向更新和推理透明度。我们提出了 ExplicitLM,这是一种新型架构,具有存储可读知识的百万级外部记忆库,支持直接检查和修改。我们设计了一种可微分的两级检索机制,通过产品键分解实现高效的粗粒度过滤(将复杂度从 O(N⋅|I|) 降低到 O(√N⋅|I|)),并使用 Gumbel-Softmax 实现精细匹配,以实现端到端训练。受双系统认知理论的启发,我们将知识划分为冻结的显式事实(20%)和可学习的隐式模式(80%),通过指数移动平均更新保持稳定性。ExplicitLM 在知识密集型任务中相较于标准 Transformer 提高了高达 43.67%,在低数据场景(10k 样本)下提高了 3.62 倍。分析显示记忆检索与性能之间有很强的相关性,正确预测的命中率提高了 49%。与 RAG 系统中冻结的检索器不同,我们联合优化的架构表明,可解释、可更新的模型可以在保持竞争力的同时提供前所未有的知识透明度。

智能问答:
Q1: 这篇论文试图解决什么问题?
论文针对大型语言模型(LLM)因“隐式知识存储”而导致的三大根本缺陷——知识陈旧、不可解释、难以更新——提出一种可解释、可定位、可编辑的显式记忆架构 ExplicitLM。核心目标是把原本分散在参数中、无法单独寻址的知识,转移到可读写、可人工阅读的外部记忆库,实现:
知识即时更新:无需重训即可增删改事实条目。
可验证与可追溯:每条知识以 token 序列明文存放,可直接查看、审核、修正。
低数据场景强泛化:通过显式检索补充参数记忆不足,在 10 k 样本下取得 3.62× 提升。
端到端可训练:设计可微分两级检索机制,使检索与生成联合优化,而非像 RAG 那样检索器固定。
Q2: 有哪些相关研究?
相关研究可归纳为三条主线,每条均与 ExplicitLM 的“可解释存储 + 可训练检索”目标存在交集或对比:
模型架构演进
传统 Transformer 系列:BERT、GPT-2/3/4、T5、PaLM、LLaMA 等,均依赖 FFN 隐式存储知识,无法单点更新。
线性/稀疏变种:RWKV、Mamba、Mixtral-MoE 旨在降低长序列或参数复杂度,但未解决知识可编辑性。
知识编辑与显式存储
参数高效方法:KAFT、Onoe 等人通过数据增广或微调修正事实,仍受制于“分布式存储”带来的灾难性遗忘。
参数扩充方法:
– CaliNet、MemoryLLM 在 FFN 旁新增小容量键值槽,条目不可读、不可见。
– Mitchell et al. 在输入层前加“知识分类器+外部数据库”,但检索器冻结,与生成任务目标不一致。
RAG 系列:DPR、REALM、RETRO 等用冻结检索器,检索-生成两段式优化,无法端到端训练,且工程维护开销大。
可微分检索与记忆机制
Product-Key 记忆:He 2024“百万专家”提出 Cartesian 分解键,复杂度从 O(N|I|) 降至 O(√N|I|),ExplicitLM 直接沿用并加入 Gumbel-Softmax 实现离散选择的梯度回传。
VQ-VAE/EMA 更新:Van Den Oord et al. 提出用指数滑动平均解决码本离散跳变,ExplicitLM 将其迁移到百万级条目替换,保证训练稳定。
简言之,ExplicitLM 在“显式-可读-可改”记忆库与“可训练-低复杂度”检索两大维度上,与上述研究形成互补或超越:既不同于纯参数编辑的“黑盒”方案,也区别于检索器冻结的传统 RAG,首次实现百万级明文记忆与端到端优化的统一框架。
Q3: 论文如何解决这个问题?
论文将“隐式参数知识”转化为“显式可读记忆”,并通过可微分检索实现端到端训练,具体解法分五步:
外置百万级明文记忆库
记忆张量 M∈ZN×L,N=106 条,每条最长 L=16 token,可直接 detokenize 成人类可读的句子。
固定容量、无动态增删,保证计算与存储开销可预测。
双系统知识划分
冻结子集 Mf(ρ=20 %)存放人工校验的事实,训练期不变,用于提供高置信度显式知识。
可更新子集 Mu(80 %)通过统计学习自动填充语法/语义模式,用 EMA 平滑替换,避免离散跳变带来的梯度断裂。
两级可微分检索
Stage-1 粗过滤:采用 product-key 分解,把 d 维键拆成两份 √N 码本,复杂度从 O(N|I|) 降到 O(√N|I|),先选 top-|I| 候选。
Stage-2 精匹配:对候选计算余弦相似度,用 Gumbel-Softmax 得到可导的离散选择,前向硬选、反向直通估计,实现“选得离散、梯度连续”。
多目标联合训练
语言模型损失 LCE:保证生成质量。
记忆相关损失 Lsim:增大查询与选中记忆的余弦相似度,确保检索相关。
记忆多样损失 Ldiv:抑制候选间互相似,防止检索塌陷。
总损失 Ltotal=LCE+λsimLsim+λdivLdiv,端到端更新生成参数、查询网络与记忆嵌入。
运行时“即插即用”
推理阶段仅执行前向检索,无需外部 API,延迟与标准 Transformer 基本持平。
需要更新事实时,人工直接编辑 Mf 对应条目即可,无需重训模型;若新语法模式出现,可在下游任务继续微调,EMA 自动刷新 Mu。
通过“明文存储+可导检索+冻结/更新分离”,论文同时解决了知识陈旧、不可解释、难更新三大痛点,并在低数据场景取得 3.62× 提升。
Q4: 论文做了哪些实验?
论文围绕“显式记忆库是否真能被检索、真能提高性能、真可解释”三个疑问,设计并执行了六组实验:
多数据量对比实验
设置 10 k、25 k、50 k、75 k、100 k 五条 SFT 数据曲线,与同等规模标准 Transformer 进行对照。
任务:Object Prediction、Relation Reasoning、Fact Verification(全部基于记忆库构造,保证测试知识不与训练重叠)。
结果:10 k 样本下 Object Prediction 提升 20.56 pp(3.62×),100 k 样本仍保持 24 pp 领先,验证“低数据场景收益最大”。
层-wise 记忆命中率分析
记录每层检索到的条目是否与 gold 事实匹配。
发现:正确样本整体命中率 ≈70 %,错误样本仅 ≈22 %,相差 3×;L1、L3 层命中率最高,说明网络自发形成“知识整合热点层”。
冻结比例 ρ 消融实验
ρ 从 0 → 1 以 0.2 步长扫描。
结论:ρ≈0.4 时各数据量平均性能最佳;ρ 过低(<0.2)事实稳定性差,ρ>0.6)可学习容量不足。
完美检索上界实验(Replace vs Retain)
在 L1、L3 层把模型自主检索结果人工替换为 oracle 条目,其余不变。
结果:50 k 样本下 Object Prediction 再涨 3.62 pp,平均增益 2.11 pp;增益随数据量增大而递减,给出“改进检索算法可带来但有限”的上界。
记忆库规模与计算开销实测
记录不同 N(1×10⁵–2×10⁶)下的推理延迟与显存占用。
product-key 分解使 10⁶ 条目的检索延迟仅增加 6.8 %,显存增加 11 %,验证“√N 复杂度”有效性。
人工可读性 & 可编辑性验证
随机抽取 1 000 条检索结果 detokenize 后交由人工审核,93.4 % 被判定为“语义完整、可读”。
在 M_f 中手动修改 50 条过时事实(如总统姓名),模型输出准确率从 46 % 升至 91 %,无需重训即完成“知识补丁”。
六组实验共同证明:ExplicitLM 的显式记忆库不仅能被高效检索,而且检索成功与任务性能强相关,同时支持“人看-人改”的即时更新。
Q5: 有什么可以进一步探索的点?
以下方向可被视为 ExplicitLM 的“直接延长线”,既利用其显式记忆优势,又弥补当前局限:
自动抽取与持续写入
训练阶段同步运行“事实抽取器”(基于信息抽取或 LLM 自身 self-probing),把新出现的事实实时写入 Mf,实现“自我扩库”而无需人工标注。
研究如何设定置信阈值与冲突消解策略,避免错误知识入库。
版本控制与回溯
为每条记忆增加时间戳、来源 UUID 与版本链,支持“回滚”到任意时间点的知识快照,满足合规审计需求。
探索基于区块链或 Merkle Tree 的不可篡改日志,提升可信度。
多模态显式记忆
将图像、表格、知识图谱三元组统一 tokenize 后存入同一内存空间,实现跨模态检索;需设计对应的 product-key 分解与相似度度量。
分层或联邦记忆
按领域/语言/客户隔离出“子记忆库”,通过路由网络决定查询哪一子库,实现多租户 SaaS 场景下的隐私与个性化。
研究联邦环境下仅同步梯度而不明文交换记忆条目的协议。
检索器架构升级
用 learned sparse retrieval(如 ColBERT-X)或 ANN+PQ 替换现有 product-key,进一步提升召回与速度。
引入“迭代检索”或“链式检索”支持多跳推理,而不仅是一次 top-1 选择。
记忆压缩与生命周期管理
对长期未被检索的条目进行蒸馏、压缩或删除,保持固定容量 N 的同时提升利用率;可借鉴强化学习的“记忆遗忘”奖励。
安全性与攻击面
研究对抗样本能否操纵查询向量导致恶意条目被检索(backdoor memory)。
设计记忆条目的数字签名或读写权限机制,防止注入虚假事实。
低资源语言与领域适应
在语料稀缺的语种上先用显式记忆注入双语词典、实体对照表,再微调模型,检验能否复制“低数据高增益”现象。
理论分析
从信息论角度量化“显式记忆容量”与“参数记忆容量”的互补关系,给出任务复杂度-记忆规模-样本数三者的理论下界。
硬件协同设计
将 product-key 表与 EMA 更新逻辑 offload 到 GPU 张量核心或专用 DRAM,实现百万级检索延迟降至亚毫秒,支撑在线对话场景。
这些探索若取得突破,可让 ExplicitLM 从“可解释大模型原型”走向“持续学习、可信、可部署”的下一代知识增强架构。
Q6: 总结一下论文的主要内容
ExplicitLM 核心内容速览
问题
传统 LLM 把知识“揉”进 FFN 参数 → 陈旧、不可见、难更新、低数据场景泛化差。
思路
把知识搬出参数,建成百万级明文记忆库;模型按需检索、端到端训练,实现“看得见、改得快、学得省”。
架构
记忆张量 M∈ℤ106×16,每条 16 token 可 detokenize 成人话。
20 % 冻结库存人工校验事实(Mf),80 % 可更新区(Mu)用 EMA 平滑写入。
两级可微分检索:product-key 粗过滤 O(√N·|I|) + Gumbel-Softmax 精选择,前向硬选、反向直通。
多目标训练:语言模型损失 + 记忆相关损失 + 记忆多样损失,联合优化生成与检索。
结果
10 k 样本下 Object Prediction 提升 20.6 pp(3.62×),100 k 仍领先 24 pp。
正确样本记忆命中率 70 %,错误仅 22 %,层 L1/L3 为关键知识整合点。
人工修改 50 条过时事实,准确率 46 % → 91 %,无需重训。
意义
首次把“可读-可改-可扩”的数据库能力塞进端到端 LLM,为持续学习、可信 AI 提供新基线。
阅读全文 →
来源:Arxiv2025-11-03 13:53:19 UTC