锐单电子商城 , 一站式电子元器件采购平台!
  • 电话:400-990-0325

论文阅读_GCN卷积图神经网络实现半监督分类器

时间:2022-09-09 04:00:00 016lf连接器

介绍

英文题目:Semi-Supervised Classification with Graph Convolutional Networks
中文标题:利用卷积图神经网络实现半监督分类器
论文地址:https://arxiv.org/abs/1609.02907
领域:自然语言处理、知识图谱、图神经网络
上传时间:2016
出处:ICLR 2017
被引量:10671
代码和数据:

  • https://github.com/tkipf/gcn
  • https://github.com/kaize0409/pygcn/

阅读时间:22-03-11

#自然语言处理 #知识图谱

泛读

  • 针对问题:图节点多分类,半监督学习
  • 结果:有效提高知识图和引文图数据集中的精度和效率
  • 核心方法:基于频谱图,卷积神经网络,编码时考虑图结构和节点的特点
  • 难点:几乎全是公式推导,先验知识太多,单看公式看不懂
  • 泛读后的理解:30%
    (阅读主题、摘要、结论、图表和标题)

精读

摘要

论文提出了基于图的,使用类似于卷积神经网络半监督学习方法。卷积结构的选择使我们在建模时更加关注相邻的节点。同时考虑了模型隐藏层的编码局部结构节点特征。与之前的模型相比,效果明显提高。

1. 介绍

论文主要解决图中节点的分类问题,只标记图中的一些节点,使用半监督学习方法,根据图的规则标记。拉普拉斯正则化项目用于损失函数:
L = L 0 λ L r e g ( 1 ) L=L_0 \lambda L_{reg}\qquad (1) L=L0 λLreg(1)
其中:
L r e g = ∑ i , j A i j ∣ ∣ f ( X i ) ? f ( X j ) ∣ ∣ 2 = f ( X ) T Δ f ( X ) L_{reg}=\sum_{i,j}A_{ij}||f(X_i)-f(X_j)||^2=f(X)^T\Delta f(X) Lreg = i,jAijf(Xi)f(Xj)2=f(X)TΔf(X)
其中L0是有
标签部分的误差(分类的类别),λ是正则化项的权重Lreg通过所有数据(含有标签和无标签)计算得出;把神经网络编码作为函数f,X是节点的原始的特征矩阵 Δ = D − A \Delta=D-A Δ=DA,其中A是领域矩阵(其值可以是0/1值,也可以是权重),D是度矩阵,∆ 是拉普拉斯矩阵,有时也用符号L表示。

预备知识

邻接矩阵

定义权重Aij为点vi和点vj之间的权重,所有点间线的权重Aij组成邻接矩阵A,第i行第j值表示为Aij。

度矩阵

定义di是与i点相连所有点的权重之和:
d i = ∑ j = 1 n A i j di = \sum_{j=1}^n A_{ij} di=j=1nAij
度矩阵D是一个对角矩阵(主对角线上有值):
D = ( d 1 . . . . . . . . . d 2 . . . . . . . . . . . . . . . . . . d n ) D=\left(\begin{matrix} d1 & ... & ...\\ ... & d2 & ...\\ ... & ... & ... \\ ... & ... & dn\end{matrix} \right) D=d1............d2...............dn

拉普拉斯矩阵

L = D − A L=D-A L=DA

拉普拉斯算子

拉普拉斯矩阵就是图结构上的拉普拉斯算子,或者说是离散的拉普拉斯算子。

拉普拉斯算子对应的运算是:二阶导数,即散度。它用于衡量一个节点变化之后,对其他相邻结点(也可以说是整个图)的干扰总收益(总变化):将所有相邻的点相加再减去该中心点x的相邻个数。
Δ f = ∑ ∂ f ∂ 2 x \Delta f= \sum \frac{\partial f}{\partial^2x} Δf=2xf
离散函数的一阶导(含义是:一个节点与它邻近节点的差异):
∂ f ∂ x = f ′ ( x ) = f ( x + 1 ) − f ( x ) \frac{\partial f}{\partial x}=f'(x)=f(x+1)-f(x) xf=f(x)=f(x+1)f(x)
离散函数的二阶导(一个节点与它前后两个点组成的关系,是平滑还是尖峰)
∂ f 2 ∂ x 2 = f ′ ′ ( x ) ≈ f ′ ( x + 1 ) − f ′ ( x ) = f ( x + 1 ) + f ( x − 1 ) − 2 f ( x ) \begin{aligned} \frac{\partial f^2}{\partial x^2}&=f''(x) \approx f'(x+1)-f'(x) \\ &=f(x+1)+f(x-1)-2f(x) \end{aligned} x2f2=f(x)f(x+1)f(x)=f(x+1)+f(x1)2f(x)
对于某一个点i,
Δ f i = ∑ j ∈ N i ( f i − f j ) \Delta f_i=\sum_{j\in N_i}(f_i-f_j) Δfi=jNi(fifj)
如果边具有权重Aij,则有:
Δ f i = ∑ j ∈ N i A i j ( f i − f j ) \Delta f_i=\sum_{j\in N_i}A_{ij}(f_i-f_j) Δfi=jNiAij(fifj)
当i,j无边相连时,Aij=0,所以Ni就可以变成N。
Δ f i = ∑ j ∈ N A i j ( f i − f j ) = ∑ j ∈ N A i j f i − ∑ j ∈ N A i j f j = d i f i − A i : f \begin{aligned} \Delta f_i & =\sum_{j\in N}A_{ij}(f_i-f_j) \\ & =\sum_{j\in N}A_{ij}f_i -\sum_{j\in N}A_{ij}f_j \\ & = d_if_i-A_{i:}f \end{aligned} Δfi=jNAij(fifj)=jNAijfijNAijfj=difiAi:f
空间的二阶导:
Δ f = ∑ ∂ f ∂ 2 x = ( A − D ) f = L f \Delta f= \sum \frac{\partial f}{\partial^2x}=(A-D)f=Lf Δf=2xf=(AD)f=Lf

正文

正则化项Lreg的目标是让有连接的点在编码后差异足够小,整个图更平滑。该公式一依赖假设:图中连通的节点共享相同标签,这限制了模型的表述能力,因为边不只用于编码节点的相似性。

使用神经网络对图结构编码,用节点特征X、邻接矩阵A和函数f编码:f(X,A),利用有标签和无标签数据共同训练模型,使模型能够学习到对所有节点均适用的规则。

本文贡献:

  • 介绍了一种简单而有效的神经网络模型分层规则,它使用图谱卷积的一阶近似。
  • 示范了用半监督学习的,基于图的神经网络方法,解决图节点分类问题,模型的精度和效率方面相较于SOTA都有显著提升。

2. 图的快速近似卷积

对于图神经网络f(X,A),文中提出了多层图卷积网络(GCN),下图展示了基于层的递推,每个隐藏层计算如下:
H ( l + 1 ) = σ ( D ~ − 1 2 A ~ D ~ − 1 2 H ( l ) W ( l ) ) ( 2 ) H^{(l+1)}=\sigma(\widetilde{D}^{-\frac{1}{2}}\widetilde{A}\widetilde{D}^{-\frac{1}{2}}H^{(l)}W^{(l)}) \qquad(2) H(l+1)=σ(D元器件数据手册
IC替代型号,打造电子元器件IC百科大全!

相关文章