查看原文
其他

NeurIPS 2023 Spotlight | 图对比学习的可证训练问题

于越 PaperWeekly
2024-08-22

©作者 | 于越
单位 | 北邮 GAMMA Lab


图对比学习的首要步骤是对图进行增广,而图的增广会带来结构的改变,因此存在着这么一个疑问:在不同的增广下,是否存在着某些节点由于结构特性使得它们在训练时总是表现地比较稳定,而有些节点由于结构特性使得在训练中总是表现地比较脆弱?

本文中,我们根据上述特性改进了图对比学习,提出了图对比学习“可证训练”的方法,即根据节点的结构特性在训练中优化它们理论上的表现情况,从而对节点的训练过程提供了可证明的保障。
论文标题:
Provable Training for Graph Contrastive Learning

论文作者:

于越,王啸,张梦玫,刘念,石川

作者单位:

北京邮电大学,北京航空航天大学

论文链接:

https://arxiv.org/pdf/2309.13944.pdf

代码链接:

https://github.com/voidharuhi/pot-gcl


背景介绍

图对比学习 (Graph Contrastive Learning, GCL) 是一种在图数据上进行对比学习的方法。其过程大致如下图所示。图 经过数据增广,生成两个增广图,之后经过图神经网络 (GNN) 编码,得到节点表示 (Embedding) 。之后,两个增广中相同的节点为正样本对,不同的节点为负样本对,进行对比学习。

图对比学习大多遵循 InfoMax 准则,即最大化两个增广图之间的互信息,其损失函数 InfoNCE 形式为:


动机
上述训练过程中,首要的步骤是对图进行增广。在增广过程中,节点的拓扑结构会发生变化。但是,图中节点的结构特性各不相同。我们自然地会想到一个问题:不同的增广下,是否有些节点表现比较稳定,而有些节点很容易受到影响、比较脆弱? 
这种节点的“结构特性”会影响到图对比的训练:那些稳定的节点可能是容易训练好并遵循 GCL 准则的,但是那些脆弱节点会是不容易训练好的,导致 GCL 准则被破坏。因此,我们不禁好奇,节点的训练情况是否真的存在上述问题? 

我们可视化了不同 GCL 模型的节点训练情况的分布。下图为三种 GCL 方法的节点平均 InfoNCE loss 值的柱状图,横轴为 InfoNCE loss 的数值,纵轴为节点个数。可以看到,有很大部分的节点训练结果较远地偏离了平均情况,尤其是 InfoNCE 较大的节点,也就是训练相对较差的节点,因此我们是不愿看到这种情况的。


总结而言,GCL 的训练不尽人意,训练结果并不均衡,尤其是难以训练的节点。也就是说,有大量节点并没有得到足够好的训练。我们所希望的是不同的节点都能够被更好、更加均衡地训练。 
我们可以利用节点的“结构特性”去达到上述目标。也就是说,我们可以更加关注较为脆弱的节点,少关注那些稳定的节点。这样,节点的训练情况就会更加均衡,而且我们关注这种“结构特性”也会对 GCL 的训练有帮助、得到更好的训练结果。 
然而,现有的 InfoNCE loss 并不能衡量这种特性:我们希望利用的“结构特性”是一种节点的普适特性,可以面向不同增广的,这些增广的可能性是非常多且复杂的(与增广策略相关),而 InfoNCE 损失函数所作的事仅仅是计算某两个已有增广下节点的训练结果。


节点的“结构特性”:节点紧致性

为了形式化定义节点的“结构特性”,我们提出了节点紧致性(node compactness)来衡量节点对于 GCL 训练的适应情况。这是一种来自于节点对 GCL 准则,也就是 InfoMax 的遵守程度的直接定义,具体形式为:



“节点紧致性”定义为节点的正样本相似度与负样本相似度之差的最小值。该最小值关注的范围是由增广策略所定义的所有可能增广(即 都看作该范围内的变量)。该值越大,说明节点的训练情况越遵守 InfoMax 准则。从“结构特性” 的角度理解,节点的紧致性越大,那么所有增广的最差情况中,该节点依然表现较好,也就是节点较为稳定;反之节点较为脆弱。
为了减少变量数量,我们可以固定其中一个增广图,就得到了 “节点紧致性” 的简化版定义 G-紧致性。-紧致性既是我们认为定义 1 中的 (或 ) 是某一采样得到的固定增广图。这样,我们就将形式进行了简化,便于实现和利用。定义 1 中所有与 相关的变量成为定值,经过简化就得到了定义 2 的形式。下文的“节点紧致性”默认为“G-紧致性”。


图对比学习的可证训练(POT)


基于“节点紧致性”的定义,我们提出了图对比学习的“可证训练”。这里“可证”指的是,我们在训练中最大化“节点紧致性”这样一个最差情况的理论下界,也就是对节点训练中的稳定性的最差可能情况进行了可证明的优化保证。实现上,可以将节点的紧致性加入交叉熵损失函数中,令目标为“1”。我们提出的可证训练目标为:

我们的可证训练可以作为一种插件,加入各种 GCL 方法中,与 InfoNCE 结合后,总体的对比学习损失函数为:

可证训练的整体框架如下。首先 GCL 的增广策略会对应某个增广的集合。左边是正常的 GCL 过程,可以看作首先从这个增广的集合中随机采样出一些增广图,之后进行对比学习得到 InfoNCE 损失;右侧是我们的“可证训练”,我们得到每个节点的紧致性之后利用二元交叉熵优化该值,保证了每个节点都能够根据其本身的“结构特性”去适应 GCL 训练并遵守 GCL 的准则。



具体实现


但是,我们仅仅给出了节点紧致性的形式,其中的 min 并不能显式地直接使用,因为增广的范围是非常多的,为 NP-hard 问题。因此,我们想要把节点紧致性的形式简化,即由我们容易知道的一些量构成(输入的图,GNN 的参数,以及增广策略的参数)。因此,一个很好的策略是通过上下界传播的方式求解。因为上下界传播做的事就是针对有界的输入,通过整个神经网络,推得输出的上下界。

我们的问题中,“输入的上下界”就是增广策略所定义的,是已知的;而节点紧致性的 min 正对应了“输出的上下界”(z 由 GNN 得到,W 可以看作一个 linear 层,因此节点紧致性是 GNN+线性层的输出下界)。应用上下界传播有两个挑战:输入的离散性(图结构),以及网络的非线性部分。这两个挑战都可能导致上下界传播的失败。但是,它们是可以通过一些近似算法解决的。

5.1 离散->连续

首先是将离散的输入上下界变换为连续输入的上下界。定义 3 是增广范围的形式化描述,其中我们限制了仅限删边、无向图、以及全局和每个节点局部的删边个数。很多增广策略都可以转化为这种形式的定义,例如 GRACE 的随机删减边,Q 就是边的个数乘以删边概率,而 q_i 就是节点 i 的度乘以删边概率。

我们可以利用消息传递矩阵,也就是度归一化的邻接矩阵,来达到我们连续化的目的。因为消息传递矩阵的值可以取 0-1 之间的值,是连续的,而邻接矩阵的值只能取 0 或 1。因此,我们将基于邻接矩阵的定义 3 转化为了定义 4,定义 5 规定了消息传递矩阵每个元素的上下界(我们限制删边是因为这是常见的做法,也可以不局限于删边,那么定义 4 会相应的改变)。

5.2 非线性激活->线性界

为了解决网络的非线性,也就是激活函数的问题,我们采用了定义 5 描述的线性上下界。因此,激活函数输出的上下界可以由激活函数输入的上下界的线性函数表示。α 和 β 是线性上下界的参数,由 p 的上下界计算得到。

之后,定理 1 给出了消息传递的上下界计算方式(也就是由上一层的 embedding 得到这一层激活函数前的上下界的方式)。

5.3 图对比学习可证训练的实现

有了上述的一些定义和定理,定理 2 给出了节点紧致性的计算的实现形式。通过上下界传播,我们成功化简了 min,得到了可以通过一系列矩阵运算得到的形式,便于实现。

整体的算法流程如下。首先是通过 GNN 得到 embedding,进而得到 InfoNCE loss;之后我们根据定理 2 可以计算出节点紧致性,进而得到 POT loss;把这两个 loss 加在一起,进行反向传播,就是 POT+GCL 的训练过程。



实验




实验结果表明,我们的 POT 作为一种插件式增强,可以提升现有 GCL 的性能,并且能够与半监督方法相比或略微超过(之前的 GCL 很难做到)。

我们还进行了一些可视化的实验来表明我们可证训练以及节点紧致性设计的合理性。首先是 POT 能够改进我们设计的节点紧致性,因为 POT 中显式地优化了这个指标。这也是比较意料之中的。

另一方面,POT 对于 InfoNCE 本身的优化也有帮助。可以看到,使用 POT 之后,节点的 InfoNCE 整体向左偏移(优化的更好了),并且其分布也更加向中心集中,也就是说原来很多难以训练的节点由于 POT 的训练而被关注到、优化好了。

POT 能够反映不同增广策略的特点。由于 GRACE 是所有边以相同概率删掉,而 GCA 的删除策略与度相关,因此节点在不同 GCL 增广策略下对增广的敏感程度是不同的。POT 的分布反映了这种差异性。

POT 如我们所想,确实反映了节点的本质的“结构特性”,也就是在 GCL 增广下的脆弱程度。我们对同一区间内紧致性的节点的 InfoNCE 的方差取了平均(方差能够反映这种“脆弱”性)。可以看到,节点紧致性越大,InfoNCE 的方差越小,也就是节点越“脆弱”。这个实验结果恰好验证了节点紧致性具有我们所期望的性质。



总结


首先,我们探究了图对比学习的训练情况,发现了其训练不平衡的问题。其次,我们定义“节点紧致性”去描述节点在图对比训练中的本质的“结构特性”。我们基于该指标提出了“可证训练”。这种训练模式对节点的最差训练情况提供了优化上的保证。大量实验验证了我们训练框架的有效性。最后,本方法的思路是将一个优化目标转化为一个优化下界的问题,将普通的训练转化为对训练情况进行保证。这种思路是对训练加以理论保证的一种实现方式。


更多阅读




#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

继续滑动看下一个
PaperWeekly
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存