图神经网络中的图分类任务与图级表示学习详解
字数 1514 2025-11-20 09:03:10
图神经网络中的图分类任务与图级表示学习详解
图分类任务描述
图分类是图神经网络中的重要任务,目标是对整个图结构(如图像分子结构、社交网络)进行类别预测。与节点分类不同,图分类需要将整张图的信息聚合成一个全局表示(图嵌入),再通过分类器输出类别。核心挑战在于如何设计有效的图级表示学习机制,使其既能保留局部结构信息,又能捕捉全局拓扑特征。
图级表示学习步骤详解
1. 节点级表示学习
- 目标:通过消息传递机制生成每个节点的嵌入向量。
- 过程:
- 使用图卷积层(如GCN、GAT)迭代聚合邻居信息。
- 第k层节点嵌入公式:
\(h_v^{(k)} = \text{AGGREGATE}^{(k)} \left( h_v^{(k-1)}, \{ h_u^{(k-1)} : u \in \mathcal{N}(v) \} \right)\)
其中 \(\mathcal{N}(v)\) 是节点v的邻居集合,AGGREGATE可以是求和、均值或注意力加权等操作。 - 经过多层传播后,每个节点获得包含局部子图信息的嵌入。
2. 图级池化操作
- 目的:将节点嵌入集合压缩为单一图嵌入向量。
- 常用方法:
- 全局池化:
- 均值/求和池化:直接对所有节点嵌入取均值或求和:
\(h_G = \frac{1}{|V|} \sum_{v \in V} h_v\) 或 \(h_G = \sum_{v \in V} h_v\)。
优点:简单高效;缺点:忽略节点重要性差异。 - 注意力池化:引入可学习的注意力权重:
\(h_G = \sum_{v \in V} \alpha_v h_v\),其中 \(\alpha_v = \text{softmax}(w^T h_v)\),\(w\) 为参数向量。
优点:自适应突出关键节点。
- 均值/求和池化:直接对所有节点嵌入取均值或求和:
- 层次化池化:
- 图粗化:通过聚类将节点分组为超节点,逐步压缩图结构(如DiffPool)。
步骤:- 学习节点分配矩阵 \(S^{(k)} \in \mathbb{R}^{n_k \times n_{k+1}}\),将第k层的 \(n_k\) 个节点映射到 \(n_{k+1}\) 个簇。
- 更新簇嵌入: \(H^{(k+1)} = S^{(k)^T} H^{(k)}\)。
- 更新邻接矩阵: \(A^{(k+1)} = S^{(k)^T} A^{(k)} S^{(k)}\)。
优点:保留层次结构;缺点:分配矩阵学习复杂度高。
- 图粗化:通过聚类将节点分组为超节点,逐步压缩图结构(如DiffPool)。
- 全局池化:
3. 图分类模型架构
- 典型流程:
- 输入层:图的节点特征 \(X\) 和邻接矩阵 \(A\)。
- 图卷积层堆叠:2-3层GCN/GAT生成高阶节点嵌入。
- 池化层:全局池化或层次化池化生成图嵌入 \(h_G\)。
- 分类层:将 \(h_G\) 输入全连接层+Softmax输出类别概率。
4. 关键优化策略
- 跳连结构:类似ResNet,在池化前融合不同层的节点嵌入(如跳跃知识网络JK-Net),避免过度平滑。
- 图同构考虑:使用具有强表达能力的聚合器(如GIN模型),确保模型能区分不同结构的图。
实例:分子性质预测
- 输入:分子图(原子为节点,化学键为边)。
- 流程:GCN层学习原子嵌入 → 全局注意力池化生成分子表示 → 全连接层预测毒性/溶解度。
- 优势:图结构直接编码分子拓扑,比传统描述符更有效。
总结
图分类任务通过"节点嵌入→图池化→分类"三步实现,其中池化操作的设计直接影响模型性能。需根据图结构的复杂性(如是否需层次化信息)选择合适方法,并结合领域知识优化表示学习过程。