图神经网络中的图傅里叶变换与图信号处理原理
字数 2018 2025-11-26 06:53:05
图神经网络中的图傅里叶变换与图信号处理原理
1. 问题背景
图神经网络(GNN)需要处理非欧几里得结构的图数据(如社交网络、分子结构)。传统傅里叶变换适用于规则网格数据(如图像、音频),但无法直接用于图结构。图傅里叶变换(Graph Fourier Transform, GFT) 将傅里叶变换推广到图上,是理解图卷积、图滤波等操作的基础。
2. 关键概念:图拉普拉斯矩阵
图傅里叶变换的核心是图拉普拉斯矩阵(Laplacian Matrix),它刻画图的拓扑结构。定义如下:
- 度矩阵(D):对角矩阵,对角线元素为每个节点的度数(连接边的数量)。
- 邻接矩阵(A):表示节点间的连接关系。
- 拉普拉斯矩阵:\(L = D - A\)。
- 归一化拉普拉斯矩阵(常用):\(L_{norm} = I - D^{-1/2} A D^{-1/2}\),其特征值范围在 [0, 2] 内,便于分析。
为什么用拉普拉斯矩阵?
拉普拉斯矩阵的物理意义是图的“平滑度”:对于图信号 \(f\)(每个节点有一个标量值),\(Lf\) 表示信号在相邻节点间的差异,类似连续空间中的二阶导数(拉普拉斯算子)。
3. 图傅里叶变换的推导
步骤1:拉普拉斯矩阵的特征分解
对拉普拉斯矩阵 \(L\) 进行特征分解:
\[L = U \Lambda U^T \]
其中:
- \(\Lambda\) 是对角矩阵,元素为特征值 \(\lambda_1, \lambda_2, ..., \lambda_n\)(代表图的频率:小特征值对应低频,大特征值对应高频)。
- \(U\) 是正交矩阵,每一列是特征向量 \(u_1, u_2, ..., u_n\)(代表图的傅里叶基函数)。
步骤2:图信号在傅里叶基上的投影
传统傅里叶变换将信号分解为正弦波基函数,图傅里叶变换则将图信号 \(f\)(n维向量)投影到拉普拉斯矩阵的特征向量上:
- 图傅里叶变换:\(\hat{f} = U^T f\)
- \(\hat{f}\) 是频域信号,第 \(k\) 个分量 \(\hat{f}_k = \langle u_k, f \rangle\) 表示信号在频率 \(\lambda_k\) 上的强度。
- 逆图傅里叶变换:\(f = U \hat{f}\)
例子:
若图是一个链状结构(类似一维网格),拉普拉斯矩阵的特征向量恰好是离散余弦变换的基函数,与经典傅里叶变换一致。
4. 图滤波与图卷积
图滤波(Graph Filtering)
在频域对信号进行滤波:
- 将图信号 \(f\) 变换到频域:\(\hat{f} = U^T f\)。
- 用滤波函数 \(g(\lambda)\)(如低通、高通滤波器)对频域信号加权:\(\hat{f}_{filtered} = g(\Lambda) \hat{f}\)。
- 逆变换回空域:\(f_{filtered} = U \hat{f}_{filtered}\)。
空域等价形式:直接对拉普拉斯矩阵多项式操作:
\[f_{filtered} = g(L) f = U g(\Lambda) U^T f \]
其中 \(g(L)\) 是图滤波器的空域表示。
图卷积(Graph Convolution)
传统卷积在频域是乘积操作,图卷积同理:
- 定义:两个图信号 \(f\) 和 \(h\) 的卷积为 \(f * h = U((U^T h) \odot (U^T f))\)。
- 简化:若 \(h\) 的频域响应为 \(\hat{h}\),则卷积结果等价于 \(U \hat{h} U^T f\)。
5. 与GNN的联系
图卷积网络(GCN)可视为对图信号的局部滤波:
- GCN的一层操作:\(H^{(l+1)} = \sigma(\tilde{D}^{-1/2} \tilde{A} \tilde{D}^{-1/2} H^{(l)} W^{(l)})\),其中 \(\tilde{A} = A + I\)。
- 这里的 \(\tilde{D}^{-1/2} \tilde{A} \tilde{D}^{-1/2}\) 近似于归一化拉普拉斯矩阵 \(L_{norm}\) 的线性函数,相当于一个低通滤波器,平滑相邻节点的信号。
6. 总结
- 图傅里叶变换:通过拉普拉斯矩阵的特征分解,将图信号从空域变换到频域。
- 图滤波:在频域调整信号分量,实现去噪或特征增强。
- 应用:是谱域GNN(如ChebNet、GCN)的理论基础,帮助理解GNN如何利用图结构处理信息。
通过这种频域视角,我们能更深入地理解GNN的本质:图神经网络是通过局部滤波逐步聚合邻居信息,从而学习图的全局特征。