CS224W 图机器学习16 PART2:量化 GNN 的不确定性

由于本小节为论文研讨课,因此本文将以论文阅读笔记的形式展开

前置知识:了解基本的共形预测 Conformal Prediction 概念与评价方法(覆盖率)

《Uncertainty Quantification over Graph with Conformalized Graph Neural Networks》

摘要:

  • 本文提出了一种共形 GNN(conformalized GNN,简称 CF-GNN),将共形预测扩展到图模型以估计模型预测的不确定性。预定义覆盖率(比如 90%)后,CF-GNN 能捕捉到不确定得分与网络结构之间的关联性,给出预测模型的预测集合或区间(分别对应分类问题和回归问题)
  • 实验分析表明,CF-GNN 能在保证预定义覆盖率的同时降低预测集合或区间的大小(比 Baseline 低 74%),还能在不同特征分类等情况下,根据历史经验给出合理有效的条件覆盖范围保证

开源代码
原始论文

1 CF-GNN 的整体架构

  1. 通过标准的 GNN 训练过程构建模型 $GNN_{\theta}$,其对节点 $i$ 的预测结果为 $\hat{\mu}(X_i)$
  2. 基于拓扑感知的 GNN 校正模型会聚合节点 i 的局部子图信息,对 $\hat{\mu(X_i)}$ 进行共形校正
  3. 共形校正的目标是校正预测结果的分布/区间,改善预测效率,满足预设的覆盖率(1- $\alpha$)

除了训练/验证/测试集,还需要额外的校准集合(calibrate,cal)用于共形校正

共形校正的补充说明:

  • 左图:GNN 的预测结果信心不足,往往实际准确率高于预期的置信度水平
  • 右图:共形校正会改善预测结果的分布,抑制分布中低置信度的预测结果

2 CF-GNN 的可微共性目标

定义预测集 $\mathcal{D}_{\mathrm{test}}$ 的效率指标(长度):$Inefficiency = \frac{1}{|\mathcal{D}_{\mathrm{test}}|}\sum_{i\in\mathcal{D}_{\mathrm{test}}}|C(X_i)|$

  • 当预测集偏大时,可以确保较高的覆盖率,但实际上毫无意义
  • 效率指标对预测集的平均长度进行量化,是对覆盖率的有效补充

CF-GNN 通过定义了一个可微的效率指标,指导共形校正模型 $GNN_{\upsilon}$ 的更新

  • 其中 $\hat{\mu}(X_i)$ 表示节点 $i$ 的原始预测结果, $\widetilde{\mu}(X_i)$ 表示节点 $i$ 的共形校正结果
  • $V(X_i,Y_i)=|Y_i-\hat{\mu}(X_i)|$ 是得分函数,通过残差值描述了预测结果的不确定性
  • $\widehat{\eta}$ 表示平滑可微的得分 $1-\alpha$ 分位(普通的得分函数都是不可微的,需要特殊处理): $$

\widehat{\eta}=\text{DiffQuantile}({V(X_{i},Y_{i})|i\in\mathcal{V}_{\mathrm{cor-cal}}},(1-\alpha)(1+1/|\mathcal{V}_{\mathrm{cor-cal}}|) $$

  • 目标函数 $\mathcal{L}_{\mathrm{Ineff}}$ 表示可微的效率指标;对于分类问题,$\mathcal{L}_{\mathrm{Ineff}}$ 是对预测集合的大小(prediction set size)的近似;对于回归问题,$\mathcal{L}_{\mathrm{Ineff}}$ 是对预测区间的长度(prediction interval length)的近似
  • 分类问题中的温度超参 $\tau$ 可解释为类别 $k$ 到预测集合的软分配($\tau \to 0$ 即为硬分配)
  • 回归问题中的共形校正过程是区间的更新,需要额外的正则项来约束/规范区间的间隔

根据实际任务的不同,得分函数还可以有更丰富的定义(比如 APS 或 CQR)

3 实验分析与补充

不同任务/数据集上的经验边际覆盖率(均值±标准差):

  • ✅ 表示模型结果满足预期的覆盖率(即覆盖率≥95%),✖ 则相反
  • 以上结果仅考虑以 GCN 为基础模型的情况,其他模型的测试见原始论文附录 D.4

CF-GNN 的引入显著改善了模型预测结果的效率指标

其他补充:

  • 论文通过分析图信息的可交换性,从理论上确保了图共形预测的有效性
  • 针对 CF-GNN 的条件覆盖率评价显示,CF-GNN 的共形预测适用性越强
  • 消融实验显示,共形预测的拓扑感知和可微效率损失均起到了重要作用

往年同期文章