深度元素智能
基于信念的拒绝预测:识别训练数据不足的输入区域
来源: | 作者:DE.Tech | 发布时间: 2025-11-10 | 162 次浏览 | 🔊 点击朗读正文 ❚❚ | 分享到:
这篇论文试图解决什么问题?这篇论文旨在解决高风险场景下预测模型因训练数据不足而无法可靠决策的问题。传统“拒绝预测”(reject-option)方法仅关注** aleatoric 不确定性**(数据固有噪声),默认训练数据足够大、epistemic 不确定性可忽略;然而在数据有限的实际应用中,epistemic 不确定性(因未见足够数据而产生)不可忽略,导致模型在输入空间某些区域可能给出不可靠预测却缺乏机制识别并回避。为此,作者提出基于 epistemic 不确定性的拒绝预测框架,通过最小化期望后悔(expected regret)——即学习器与拥有真实分布知识的贝叶斯最优预测器之间的性能差距——来构造拒绝规则:当某输入的后悔超过设定拒绝成本时,模型主动弃权。该框架首次系统化地让预测器能识别“训练数据不足以支撑可靠决策”的输入区域。

🌟 今日前沿论文 · 2025年11月6日

精选科技前沿资讯,洞察科技研究趋势

🔥🔥🔥🔥🔥不确定性建模

基于信念的拒绝预测:识别训练数据不足的输入区域

#拒绝预测#贝叶斯学习#不确定性量化#风险最小化#高风险应用

论文原始标题:Epistemic Reject Option Prediction

论文作者:Authors: Vojtech Franc, Jakub Paplham

原始摘要:In high-stakes applications, predictive models must not only produce accurate predictions but also quantify and communicate their uncertainty. Reject-option prediction addresses this by allowing the model to abstain when prediction uncertainty is high. Traditional reject-option approaches focus solely on aleatoric uncertainty, an assumption valid only when large training data makes the epistemic uncertainty negligible. However, in many practical scenarios, limited data makes this assumption unrealistic. This paper introduces the epistemic reject-option predictor, which abstains in regions of high epistemic uncertainty caused by insufficient data. Building on Bayesian learning, we redefine the optimal predictor as the one that minimizes expected regret -- the performance gap between the learned model and the Bayes-optimal predictor with full knowledge of the data distribution. The model abstains when the regret for a given input exceeds a specified rejection cost. To our knowledge, this is the first principled framework that enables learning predictors capable of identifying inputs for which the training data is insufficient to make reliable decisions.

翻译标题:基于信念的拒绝预测:识别训练数据不足的输入区域

翻译摘要:在高风险应用中,预测模型不仅要生成准确的预测,还必须量化并传达其不确定性。拒绝预测通过允许模型在预测不确定性较高时弃权来解决这一问题。传统拒绝预测方法仅关注 aleatoric 不确定性,这一假设只有在训练数据充足、epistemic 不确定性可忽略时才成立。然而在许多实际场景中,数据有限使得这一假设不成立。本文引入了基于 epistemic 不确定性的拒绝预测器,在数据不足导致的高 epistemic 不确定性区域主动弃权。基于贝叶斯学习,我们重新定义最优预测器为最小化期望后悔的模型——即学习模型与拥有完整数据分布知识的贝叶斯最优预测器之间的性能差距。当某个输入的后悔超过设定的拒绝成本时,模型将主动弃权。据我们所知,这是首个系统化框架,使预测器能够识别训练数据不足以支撑可靠决策的输入区域。

智能问答:


Q1: 这篇论文试图解决什么问题?

这篇论文旨在解决高风险场景下预测模型因训练数据不足而无法可靠决策的问题。传统“拒绝预测”(reject-option)方法仅关注** aleatoric 不确定性**(数据固有噪声),默认训练数据足够大、epistemic 不确定性可忽略;然而在数据有限的实际应用中,epistemic 不确定性(因未见足够数据而产生)不可忽略,导致模型在输入空间某些区域可能给出不可靠预测却缺乏机制识别并回避。为此,作者提出基于 epistemic 不确定性的拒绝预测框架,通过最小化期望后悔(expected regret)——即学习器与拥有真实分布知识的贝叶斯最优预测器之间的性能差距——来构造拒绝规则:当某输入的后悔超过设定拒绝成本时,模型主动弃权。该框架首次系统化地让预测器能识别“训练数据不足以支撑可靠决策”的输入区域。

Q2: 有哪些相关研究?

以下研究与本论文直接相关,按主题归类并给出关键脉络:

经典拒绝预测(aleatoric reject-option)

Chow C. K. (1970) 首次提出基于分类错误与拒绝成本权衡的最优拒绝规则,仅依赖真实数据分布的 aleatoric 不确定性。
后续“plug-in”方法用最大似然或 softmax 置信度(MCP 准则)近似 Chow 规则,成为深度学习基线。

经验风险最小化(ERM)与凸风险拒绝

Yuan & Wegkamp (2010) 在凸风险最小化框架下推导带拒绝选项的分类器,仍假定大样本忽略 epistemic 不确定性。

贝叶斯深度学习与不确定性分解

Bishop (2006)、Gelman et al. (2013) 提供系统贝叶斯学习理论,可同时建模 aleatoric 与 epistemic 不确定性。
Kendall & Gal (2017)、Lakshminarayanan et al. (2017) 提出 MC Dropout 与 Deep Ensembles,用于神经网络近似贝叶斯预测分布。
Depeweg et al. (2018) 首次在贝叶斯神经网络里把总不确定性显式分解为 aleatoric(期望熵/方差)与 epistemic(互信息或均值方差)两部分,为后续工作提供度量标准。

基于评分规则的不确定性量化

Hofman et al. (2024) 用严格评分规则统一 aleatoric/epistemic 定义,证明熵与方差分解是其特例,但未涉及拒绝预测。

拒绝预测综述与启发式扩展

Hendrickx et al. (2024) 全面调研带拒绝选项的机器学习,指出大多数方法仍停留在 aleatoric 或总不确定性层面,缺乏仅基于 epistemic 的决策理论。

epistemic 不确定性在其它任务的应用

Wang & Ji (2024) 在预训练网络中利用 epistemic 不确定性做校准;在主动学习、强化学习与可信区间估计中也有广泛使用,但均未将其作为拒绝决策的唯一准则。

不确定性度量的公理化批评

Wimmer et al. (2023) 提出公理框架指出熵分解不满足其 epistemic 公理;本文则从“最小化后悔”出发,证明同一度量在拒绝预测任务下是决策理论最优,因此与公理化视角互补而非冲突。

综上,已有工作要么仅利用 aleatoric 不确定性做拒绝,要么在贝叶斯框架下使用总不确定性,而首次将 epistemic 不确定性单独作为拒绝决策的核心准则并给出决策理论最优证明的是本论文。

Q3: 论文如何解决这个问题?

论文通过以下三步构建“仅基于 epistemic 不确定性的拒绝预测器”,解决训练数据不足时模型无法自知不可靠的问题:

重新定义优化目标

放弃传统“最小化期望损失”,转而最小化

R_Bδ(Q)=E(θ,D,x,y)[ℓδ(Q(x,D),h(x,θ),y],

其中 regret-based 拒绝损失

ℓδ(d,y′,y)={ℓ(d,y)−ℓ(y′,y),δ,d∈Yd=reject

量化学习器与“知道真实参数 θ 的 Bayes 最优预测器 h(x,θ)”之间的性能差距(regret)。

推导最优决策规则(Theorem 1)

对任意输入 x 与训练数据 D,最优拒绝规则为

QE(x,D)={HB(x,D),reject,EB(x,D)≤δEB(x,D)>δ

其中

HB(x,D)=argminy^Ey∼p(y|x,D)[ℓ(y^,y)] 是标准 Bayesian 预测器;

E(x,D)=Eθ,y∼p(θ,y|x,D)[ℓ(HB(x,D),y)−ℓ(h(x,θ),y)] 称为**条件后悔**,即 epistemic 不确定性的决策理论度量;

δ 为用户设定的拒绝成本。 该规则证明:当且仅当“因数据不足导致的预期性能差距”超过 δ 时,模型应弃权。

显式分解不确定性并实例化

对平方损失、0/1 损失与交叉熵损失,论文给出解析表达式(Table 1),显示

T(x,D)=A(x,D)+E(x,D)

总不确定性 = aleatoric 分量 + epistemic 分量。

由此可直接计算 E(x,D),无需额外近似;实验部分用三次多项式回归验证:仅依赖 E(x,D) 的拒绝器在 Regret–Coverage 曲线下面积(AuReC)上始终优于使用 T(x,D) 或仅使用 aleatoric 分量的基线。

通过上述三步骤,论文首次给出“识别训练数据不足以支撑可靠预测”的决策理论最优框架,并将常用熵/方差型 epistemic 不确定性度量统一解释为“条件后悔”,从而解决了小数据场景下传统拒绝方法无法自觉不可靠的问题。

Q4: 论文做了哪些实验?

论文仅设计了一组合成三次多项式回归实验,目的不是刷榜,而是在可解析计算所有不确定性的条件下,直观验证理论预测器的差异与优劣。实验设置与结果要点如下:

数据生成

真实模型:三次多项式 f(x;θ)=θ3x3+θ2x2+θ1x+θ0 系数 θ∈R4 每次试验从先验 N(0,diag(1,0.1,0.1,0.1) 采样。
异方差噪声:p(y|x,θ)=N(f(x;θ),v(x)),v(x)=0.1+0.04(x+8)2。
训练集:m∈{10,20,40,80,160},输入 x∼N(0,1) i.i.d。

对比方法

Epistemic – 本文提出的 QE,拒绝阈值 δ 遍历。
Bayesian – 传统总不确定性 T(x,D) 拒绝器 QB,阈值 ε 遍历。
Plug-in ML – 用最大似然估计 θ^ 代入经典 aleatoric 规则,阈值遍历。

评价指标

标准拒绝选项度量:Regret–Coverage 曲线

横轴:Coverage = 被接受样本比例。
纵轴:Expected Regret = 仅对接受样本计算 E[ℓ(y^,y)−ℓ(h(x,θ),y]。 曲线下方面积 AuReC 越小越好;对 3000 次独立采样求均值与 20% 中心区间。

结果

图 3 显示:在所有训练规模 m 下,Epistemic 预测器的 AuReC 显著低于 Bayesian 与 Plug-in 方法。
小数据 (m=10) 时 epistemic 不确定性主导,Epistemic 与 Bayesian 曲线几乎重合,均优于 Plug-in。
数据量增大后,Bayesian 因同时惩罚 aleatoric 噪声,开始拒绝高噪声但“可学习”区域,导致相同覆盖率下 regret 更高;Epistemic 则继续只拒绝“数据未覆盖”区域,保持更低 regret。

可视化补充

图 2b 展示 m=10 时 Epistemic 拒绝区域集中在训练数据稀疏处,而图 2a 的 Bayesian 拒绝区域同时包含高噪声远尾,验证了理论分解 T=A+E 的不同决策行为。

综上,实验仅通过易解析的三次多项式场景即表明:在“数据不足—epistemic 主导”阶段,专门监控 epistemic 不确定性的拒绝器能更精准地回避潜在高 regret 区域,从而以更低代价获得更高可靠性。

Q5: 有什么可以进一步探索的点?

以下方向可视为对该论文框架的直接延伸或深层扩展,均围绕“把 epistemic 拒绝预测真正推向实用与可扩展”这一核心目标:

深度网络可扩展推断

将 E(x,D) 的精确高斯假设替换为 BNN、Deep Ensemble、MC-Dropout 或 SVGD 等近似后验,研究在 ImageNet/COCO 等级别任务上如何以少量额外计算获得可靠 regret 估计。

探索“epistemic 后悔”与 softmax 置信度、Temperature Scaling、ODIN 等常用分数的秩相关性,验证其在大规模分类中是否仍保持更低 AuReC。

轻量级后悔代理模型

训练一个独立于主模型的辅助网络(regret-network),输入 (x,Dfeat) 直接输出 E(x,D) 的估计,避免每次重复 MC 采样;用 distillation 方式把真后悔(来自 ensemble)压缩到单网络。

研究辅助 regret-network 自身的 epistemic 校准:当代理模型自己欠训练时,如何再次触发“二级拒绝”。

任务相关拒绝成本 δ(x)

把固定 δ 扩展为输入依赖或损失依赖 δ(x,ℓ),例如医疗场景下假阴性代价远高于假阳性;推导相应的最优拒绝边界并给出可学习方法。

与强化学习中的风险敏感策略结合,用后悔阈值作为 safety constraint,实现动态 δ 调整。

主动学习与数据获取

用 E(x,D) 作为采集函数,每次挑选“后悔最高”的样本标注,形成“拒绝→主动标注→再训练”闭环;理论上可证明其标注复杂度与 regret 衰减率。

研究在预算约束下,最优标注策略是优先降低 E(x,D) 还是同时兼顾 aleatoric 区域。

开放世界与分布外(OOD)检测

当 p(x) 发生漂移或出现新类别时,E(x,D) 会同时包含“参数不确定”与“分布不确定”;设计分解方法把两类 epistemic 分离,避免在 far-OOD 区域过度拒绝。

与能量模型或似然-based OOD 分数融合,形成统一的“拒绝+OOD”阈值。

在线与持续学习

在数据流式到达、任务边界未知时,用递推或粒子滤波维护 p(θ|D_t),实时更新 E(x,D_t);研究 catastrophic forgetting 会导致后悔估计偏高,从而自动触发旧任务样本的 rehearsal。

** adversarial 攻击视角**

攻击者若知道模型使用 E(x,D) 做拒绝,可构造“微小扰动大幅提升后悔”的对抗样本;研究对 E-network 的鲁棒训练及 certified rejection 区域。

其它损失与输出结构

将框架推广到结构化预测(语义分割、目标检测、序列生成),定义对应 ℓ 的后悔,例如 seq-to-seq 用 BLEU-regret;研究高维输出空间下 Monte-Carlo 估计方差过大时的 variance-reduction 技巧。

在回归任务中考虑非对称损失(Pinball、Linex),推导相应的 E(x,D) 解析或近似形式,用于金融或气象预报领域。

公平性与可解释性

检验 E(x,D) 拒绝率在不同人群子集是否均衡;若出现“对少数群体过度拒绝”,提出公平约束下的后悔最小化目标。

可视化 E(x,D) 的梯度或归因图,向领域专家解释“为何模型在此样本上弃权”,满足医疗、司法等场景的可解释需求。

系统级部署与人体实验

在真实临床或自动驾驶仿真平台嵌入 epistemic 拒绝模块,测量“拒绝→人工接管”后的实际任务损失,验证理论 δ 与真实人力成本是否匹配。

通过用户研究比较“基于置信度”与“基于后悔”的拒绝提示对人类信任度和反应时间的影响。

以上任意一条均可直接以“本文框架 + 大规模实验 + 理论补充”形成完整后续工作。

Q6: 总结一下论文的主要内容

问题:高风险场景下训练数据有限,传统拒绝预测仅利用 aleatoric 不确定性,无法识别“因数据不足而潜在高错误”的输入。

思路:改用 Bayesian 后悔替代经验损失,定义 regret-based 拒绝损失,令模型在“预期性能与 Bayes 最优器差距”超过阈值 δ 时弃权。

理论:证明最优拒绝器为

QE(x,D)={HB(x,D),reject,EB(x,D)≤δEB(x,D)>δ

其中条件后悔 EB(x,D)=Eθ,y[ℓ(HB,y)−ℓ(hθ,y)] 即为 epistemic 不确定性的决策理论度量;总不确定性可分解为 T(x,D)=A(x,D)+E(x,D)。

实例:对平方、0/1、交叉熵损失给出 HB,T,E 的解析式,显示常用熵/方差型 epistemic 分数是后悔的特例。

实验:合成三次多项式回归表明,仅基于 E(x,D) 的拒绝器在所有训练规模下 AuReC 最低,能精准拒绝“数据未覆盖”区域而容忍高噪声区域。

结论:首次提供系统化、理论最优的 epistemic 拒绝框架,为小数据场景下的可靠预测提供可直接计算的弃权准则。

Q7: 想要进一步了解论文

以上只是了解一篇论文的几个基本FAQ。如果你还想与Kimi进一步讨论该论文,请点击 这里 为你跳转Kimi AI网页版,并启动一个与该论文相关的新会话。

阅读全文 →

来源:Arxiv2025-11-06 22:39:21 UTC


返回
友情链接