由于本小节为论文研讨课,因此本文将以论文阅读笔记的形式展开
前置知识:了解基本的共形预测 Conformal Prediction 概念与评价方法(覆盖率)
《Uncertainty Quantification over Graph with Conformalized Graph Neural Networks》
摘要:
- 本文提出了一种共形 GNN(conformalized GNN,简称 CF-GNN),将共形预测扩展到图模型以估计模型预测的不确定性。预定义覆盖率(比如 90%)后,CF-GNN 能捕捉到不确定得分与网络结构之间的关联性,给出预测模型的预测集合或区间(分别对应分类问题和回归问题)
- 实验分析表明,CF-GNN 能在保证预定义覆盖率的同时降低预测集合或区间的大小(比 Baseline 低 74%),还能在不同特征分类等情况下,根据历史经验给出合理有效的条件覆盖范围保证
1 CF-GNN 的整体架构
- 通过标准的 GNN 训练过程构建模型 $GNN_{\theta}$,其对节点 $i$ 的预测结果为 $\hat{\mu}(X_i)$
- 基于拓扑感知的 GNN 校正模型会聚合节点 i 的局部子图信息,对 $\hat{\mu(X_i)}$ 进行共形校正
- 共形校正的目标是校正预测结果的分布/区间,改善预测效率,满足预设的覆盖率(1- $\alpha$)
除了训练/验证/测试集,还需要额外的校准集合(calibrate,cal)用于共形校正
共形校正的补充说明:
- 左图:GNN 的预测结果信心不足,往往实际准确率高于预期的置信度水平
- 右图:共形校正会改善预测结果的分布,抑制分布中低置信度的预测结果
2 CF-GNN 的可微共性目标
定义预测集 $\mathcal{D}_{\mathrm{test}}$ 的效率指标(长度):$Inefficiency = \frac{1}{|\mathcal{D}_{\mathrm{test}}|}\sum_{i\in\mathcal{D}_{\mathrm{test}}}|C(X_i)|$
- 当预测集偏大时,可以确保较高的覆盖率,但实际上毫无意义
- 效率指标对预测集的平均长度进行量化,是对覆盖率的有效补充
CF-GNN 通过定义了一个可微的效率指标,指导共形校正模型 $GNN_{\upsilon}$ 的更新
- 其中 $\hat{\mu}(X_i)$ 表示节点 $i$ 的原始预测结果, $\widetilde{\mu}(X_i)$ 表示节点 $i$ 的共形校正结果
- $V(X_i,Y_i)=|Y_i-\hat{\mu}(X_i)|$ 是得分函数,通过残差值描述了预测结果的不确定性
- $\widehat{\eta}$ 表示平滑可微的得分 $1-\alpha$ 分位(普通的得分函数都是不可微的,需要特殊处理): $$
\widehat{\eta}=\text{DiffQuantile}({V(X_{i},Y_{i})|i\in\mathcal{V}_{\mathrm{cor-cal}}},(1-\alpha)(1+1/|\mathcal{V}_{\mathrm{cor-cal}}|) $$
- 目标函数 $\mathcal{L}_{\mathrm{Ineff}}$ 表示可微的效率指标;对于分类问题,$\mathcal{L}_{\mathrm{Ineff}}$ 是对预测集合的大小(prediction set size)的近似;对于回归问题,$\mathcal{L}_{\mathrm{Ineff}}$ 是对预测区间的长度(prediction interval length)的近似
- 分类问题中的温度超参 $\tau$ 可解释为类别 $k$ 到预测集合的软分配($\tau \to 0$ 即为硬分配)
- 回归问题中的共形校正过程是区间的更新,需要额外的正则项来约束/规范区间的间隔
根据实际任务的不同,得分函数还可以有更丰富的定义(比如 APS 或 CQR)
3 实验分析与补充
不同任务/数据集上的经验边际覆盖率(均值±标准差):
- ✅ 表示模型结果满足预期的覆盖率(即覆盖率≥95%),✖ 则相反
- 以上结果仅考虑以 GCN 为基础模型的情况,其他模型的测试见原始论文附录 D.4
CF-GNN 的引入显著改善了模型预测结果的效率指标
其他补充:
- 论文通过分析图信息的可交换性,从理论上确保了图共形预测的有效性
- 针对 CF-GNN 的条件覆盖率评价显示,CF-GNN 的共形预测适用性越强
- 消融实验显示,共形预测的拓扑感知和可微效率损失均起到了重要作用