查看原文
其他

AAAI 2024 | 通过敏感信息中和来实现公平的图神经网络

刘纪玺 PaperWeekly
2024-08-23

©作者 | 刘纪玺
单位 | 北京邮电大学
研究方向 | 图神经网络



尽管图神经网络(GNNs)在建模图结构数据方面取得了显著的成功,但与其他机器学习模型一样,GNNs 也容易由于敏感属性(如种族和性别)的存在做出偏倚的预测。出于公平性考虑,最近的最先进(SOTA)方法提出从输入或表示中过滤掉敏感信息,例如边缘删除或特征屏蔽。然而,我们认为基于过滤的策略可能会过滤掉一些非敏感特征信息,导致预测性能和公平性之间的次优权衡。


为解决这一问题,我们提出了一种创新的中和基于范式,其中在消息传递之前将额外的公平性促进特征(F3)纳入节点特征或表示中。F3 被期望在统计上中和节点表示中的敏感偏差,并提供额外的非敏感信息。我们还对我们的理论进行了解释,得出结论:F3 可以通过强调每个节点的异构邻居的特征(具有不同敏感属性的邻居)来实现。


我们将我们的方法命名为 FairSIN,并从数据中心和模型中心的角度提供了三种实现变体。在三种不同的 GNN 骨干上对五个基准数据集的实验结果表明,FairSIN 显著提高了公平性指标,同时保持了高的预测准确性。


论文题目:
FairSIN: Achieving Fairness in Graph Neural Networks through Sensitive Information Neutralization

论文链接:

http://www.shichuan.org/doc/166.pdf

代码链接:

https://github.com/BUPT-GAMMA/FairSIN

论文作者:

杨成,刘纪玺,严云鹤,石川



介绍

图神经网络(GNNs)展现了它们在建模结构化数据方面的强大能力,并广泛应用于各种应用场景,例如电子商务和药物发现。然而,最近的研究表明,GNNs 的预测可能会偏向于某些由敏感属性定义的人群,例如种族和性别。在决策关键的应用场景,比如信用评估,GNNs 做出的具有歧视性的预测可能会引起严重的社会关注。 
通常,GNN 预测中的偏差可以归因于节点特征和图拓扑结构的双重因素:1)节点的原始特征可能与敏感属性统计相关,从而在编码表示中导致敏感信息泄露;2)根据同质性效应,具有相同敏感属性的节点倾向于相互连接,这将导致在消息传递过程中相同敏感组中的节点表示更加相似。 
为了解决敏感偏见的问题,研究人员已将公平性考虑引入到 GNNs 中。近期的方法通常尝试通过启发式或对抗性约束来减轻敏感信息的影响,并将其从输入或表示中滤除。例如,采用反事实正则化来扰动节点特征并删除边。借助对抗性鉴别器,学习自适应表示掩码以排除敏感相关信息。然而,如图 1 所示,我们认为这种基于过滤的策略可能也会滤除一些非敏感的特征信息,导致准确性和公平性之间的子优化平衡。
▲ 图1. 对敏感信息中和的动机说明。这里我们假设由+/-表示的二进制敏感群组,并且+/-的数量表示节点表示中敏感信息泄漏的强度。(a) 消息传递将聚合非敏感特征信息(点符号)和敏感偏见(+/- 符号); (b) 当前的SOTA方法通常是基于过滤的(例如,删除边缘或特征遮蔽),这可能会丢失大量的非敏感信息; (c) 我们提出的中和基于策略引入F3来统计中和敏感偏见并提供额外的非敏感信息。

基于此,我们提出了一种基于中和的新范式,如图 (c) 所示。其核心思想是向节点特征或表示中引入额外的促公平特征(F3),以便对敏感偏见(+/- 符号)进行中和。我们期望 F3 还能提供额外的非敏感特征信息(点符号),从而实现更好的预测性能和公平性之间的权衡。

具体来说,我们展示了消息传递如何加剧了敏感偏见。因此我们得出结论,在消息传递之前可以通过强调每个节点的异质邻居(具有不同敏感属性的邻居)的特征作为 F3 来消除偏见。
但是,在真实世界的图中,一些节点的异质邻居非常少,甚至没有,这使得计算 F3 变得不可行或非常不确定。因此,我们建议训练一个估计器来预测给定其自身特征的节点的异质邻居的平均特征或表示。通过这种方式,具有丰富异质邻居的节点可以通过估计器将它们的知识传递给其他节点。
我们将我们的方法命名为 FairSIN,并从以数据为中心以模型为中心两种角度提出了三种实现变体。在具有三种不同 GNN 骨干结构的五个基准数据集上的实验结果证明了我们提出的方法的动机和有效性。 
我们的贡献如下: 
1. 我们提出了一种新颖的基于中和的范式,用于学习公平的 GNN 模型,该范式引入了促公平特征(F3)到节点特征/表示中,以消除敏感属性的偏见并提供额外的非敏感信息;
2. 我们展示了 F3 可以通过强调每个节点的异质邻居的特征来实现,并进一步提出了 FairSIN 的三种有效变体;

3. 实验结果表明,与最近的 SOTA 方法相比,所提出的 FairSIN 能够在预测性能和公平性之间达到更好的权衡。



FairSIN的实现
受上述动机的启发,我们将从数据中心和模型中心的两个角度提出三种实现变体。我们将我们的方法命名为通过敏感信息中和实现公平的图神经网络(FairSIN)。
以数据中心的变体。对于以数据为中心的实现,我们将采用预处理方式,在训练 GNN 编码器之前修改图结构或节点特征。
1. 在图修改方面,我们可以简单地更改邻接矩阵中的边权重:

其中 为超参数。我们将这个变体称为 FairSIN-G。
2. 在特征修改方面,我们首先计算每个节点 的异质邻居的平均特征作为 ,其中 的异质邻居集。这里 也可以被视为前面小节中定义的随机变量 的期望估计。
然而,现实世界中的一些图中的节点具有非常少甚至没有异质邻居,这使得计算 变得不可行或非常不确定。为了解决这个问题,我们提出训练一个多层感知器 (MLP) 来估计

通过最小化上述均方误差 (MSE) 损失,具有丰富异质邻居的节点可以通过 MLP 将它们的知识传递给其他节点。然后我们将每个节点 的特征中和为 ,并将此变体命名为 FairSIN-F。
以模型为中心的变体。以模型为中心的变体通过联合学习 MLP 和 GNN 编码器进一步扩展了 FairSIN-F。给定一个 层的 GNN, 我们将第 层中所有节点的表示矩阵表示为 。与 FairSIN-F 类似,我们可以在每一层进行中和操作:

其中 是节点特征矩阵, 和 MLP 可以为每一层定制。我们在每一层 中定义 损失为
按照最近的 SOTA 方法对公平 GNNs 的处理,我们还引入了一个鉴别器模块来对编码后的表示施加额外的公平性约束。具体来说,我们使用另一个 来实现鉴别器,并让它基于 GNN 编码器编码的最终表示来预测敏感属性。我们使用二元交叉嫡(BCE)损失 来训练鉴别器, 并要求 GNN 编码器和 最大化 作为对手。此外,我们将下游分类任务的交叉嫡损失表示为
对于参数训练,我们依次执行以下步骤:1)通过最小化 来更新每个 ;2)通过最小化 来更新 GNN 编码器;以及 (3) 通过最小化 来更新鉴别器 。该变体则是我们的全模型 FairSIN


实验

主实验和消融实验

模型中心变体 FairSIN 的有效性。在这里,我们展示 FairSIN 的结果,以证明我们的中和基于策略可以在性能和公平性之间达到更好的平衡。如主表所示,FairSIN 在不同的 GNN 编码器下具有最佳的整体分类性能和群体公平性。在公平性方面,与表现最佳的基线相比,FairSIN 分别将 DP 和 EO 减少了 63.29% 和 33.82%。
此外,由于 F3 可以为每个节点引入额外的邻域信息,在许多情况下,FairSIN 甚至可以在准确性指标上胜过原始编码器。与 Bail 相比,Pokec-n/Pokec-z 几乎没有异质邻居。因此,FairSIN 在 Pokec 数据集上的改进更为显著,与我们的动机和模型设计一致。 
数据中心变体 FairSIN-G 和 FairSIN-F 的有效性。在这里,我们将我们提出的数据中心变体与之前的预处理方法 EDITS 以及原始编码器进行比较。从主表可以看出,FairSIN-G 和 FairSIN-F 在保持准确性的同时平均提高了公平性,这证明了我们的敏感信息中和的想法。
此外,FairSIN-G 只是放大了现有的异质邻居的权重,这限制了它提供丰富信息的能力,因此,相比之下,FairSIN-G 的预测性能较差。值得注意的是,作为一种预处理方法,FairSIN-F 只比模型中心变体 FairSIN 稍逊一筹,并且优于先前的 SOTA 方法。因此,FairSIN-F 为公平节点表示学习提供了一种经济实惠、模型无关且与任务无关的解决方案。
为了充分评估我们提出的 FairSIN 中每个组件的效果,我们考虑了两个消融模型:FairSIN w/o Discri. 表示没有鉴别器的 FairSIN 版本,FairSIN w/o Neutral. 表示其中 δ=0 的 FairSIN 版本。
实验结果列在主表中。F3 在 Bail 数据集上的相对改进并不像在 Pokec 上那么显著,因为 Bail 数据集中的节点几乎具有相等数量的同质和异质邻居。总的来说,F3 和鉴别器都产生了积极的结果。
然而,当鉴别器单独使用而不是作为指导 F3 学习的约束时,通常会导致预测精度降低。值得注意的是,单独使用 F3 的中和,即 FairSIN w/o Discri.,已经可以在公平性和准确性指标之间达到良好的平衡,并且是我们模型中最重要的设计。

超参数分析

 的值对于 FairSIN 至关重要,因为它可以控制引入的异质信息量。选择合适的 值很重要,因为设置得太大可能会导致敏感信息在相反方向上的泄露。我们使用 编码器调查了超参数 范围内的影响,并将结果呈现在上图中。
对于 Pokec-n 和 Pokec-z 数据集,我们观察到一个最佳值 ,在这个值下可以实现预测性能和公平性之间的良好平衡。Pokec 数据集上的异质邻居分布太稀疏,因此当 增加到 10 时,公平性得到了改善。就 Pokec-n 的预测性能而言,当 增加时,准确率和 F1 分数都呈下降趋势。至于 Pokec-z,除了 F1 分数保持相对稳定外,观察到了类似的趋势。
总的来说,过大的 值会导致两个数据集的预测性能下降。这些观察结果与我们的中和思想一致。在 German、Credit 和 Bail 数据集上的超参数实验可以在附录中找到。

效率分析

如图所示,我们比较了我们的 FairSIN 在 Bail 和 Credit 数据集上与基线方法的训练时间成本。我们发现 FairSIN 的时间成本最低。因此,我们的方法既高效又有效,能够在各种场景中实现潜在的应用。FairVGNN 的时间成本较高是由于其参数数量较多以及对抗训练的过程。此外,EDITS 需要对所有节点对之间的节点相似性进行建模以进行边的添加,因此时间复杂度较高。


结论

在本文中,我们提出了一种基于中性化的策略 FairSIN,用于学习公平的图神经网络(GNNs),在消息传递之前向节点特征或表示中添加额外的 F3。通过强调每个节点的异质邻居的特征,F3 可以同时中和节点表示中的敏感偏差并提供额外的非敏感特征信息。我们进一步从数据中心和模型中心的角度提出了三种实现变体。大量的实验结果证明了我们提出的方法的动机和有效性。 

我们希望这项工作能为公平 GNN 领域提供一个新的范例,因此保持我们的实现尽可能简单。对于未来的工作,我们可以探索更广泛的感受野和更复杂的架构替代 F3 估计器中的 MLP。此外,当前的 F3 与下游任务无关,也有可能构建任务特定的 F3。此外,当我们需要同时处理多个敏感群体时,我们可以扩展 F3 来中和敏感属性的联合分布。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·
·

继续滑动看下一个
PaperWeekly
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存