2.1 引言
近年来, 深度学习彻底改变了许多机器学习任务。其中, 卷积神经网络 (Convolutiona. Neural Network, CNN) 可以提取多尺度的局部空间特征, 并具有较强的表达力, 开启了深度学习的新纪元。在卷积神经网络 (CNN) 的启发下, Thomas N. Kipf 等人提出了将卷积操作从网格数据推广到图数据的图卷积网络 (GCN) [101], 并引导了图领域研究的重大突破。作为图和深度学习结合的基础模型, GCN 驱动了将各种神经网络应用于不同的图数据的方法,例如循环图神经网络 (使用循环神经架构学习节点表示) [33] 以及图自动编码器 (通过自动编码器架构将节点编码到潜在向量空间中, 以重构图数据) [167]。总体而言, 所有这些方法都被称为图神经网络 (GNN)。
作为最基础的 GNN, GCN 阐明了基于谱域 (从图信号处理的角度) 的卷积图神经网络和基于空域 (从消息传递的角度) 的卷积图神经网络之间的联系, 并指出 GCN 的本质就是迭代地聚合邻居的信息, 从而启发了大量重新设计聚合过程以增强对图数据的适应性的方法。在本章中, 我们将介绍基础的 GCN 模型及其三个较具有代表性的变体: 首先,我们将介绍一个归纳式的图卷积网络框架——GraphSAGE [73] ,它学习了一个函数,可通过从节点的局部邻居中采样并聚合特征来生成节点表示; 然后, 我们将介绍图注意力网络 (GAT) [185], 它通过引入注意力机制来聚合节点邻居信息, 从而可以为不同邻居节点分配不同的权重; 最后, 我们将介绍异质图注意力网络 (HAN) [196], 它利用节点级注意力机制和语义级注意力机制来学习节点和元路径的重要性, 因此, HAN 可以捕获异质图数据背后的复杂结构和丰富的语义信息。