Zheng Chu's Blog

让希望永驻


  • 主页

  • 所有专栏

  • 历史文章

  • 标签

  • 关于我

图卷积神经网络研讨会笔记

Posted on 2020-04-08 Edited on 2020-12-06 In Deeplearning Views:

地址:https://www.bilibili.com/video/BV1zp4y117bB/?p=1

图卷积神经网络—中科院沈华伟老师

The power of CNN lies in : 优势是平移不变性(translation- or shift-invariant):识别目标独有的特征,尽管其特征的空间位置发生变化。

卷积是什么:卷积(convolution)是在两个函数上的数学操作,$f$与$g$,生成第三个函数$h$。卷积更为本质的是对原始信号的处理,使得信号更平滑。

连续空间里卷积定义为积分:比如时间$t$上的函数,此处原始信号$f$,卷积核为$g$(局部的方波),生成新的函数$h$比原有信号更加平滑。

image-20200408231230478

离散空间里卷积定义为求和如下:

image-20200408231259959

两类卷积方法:Spectral methods谱方法(空间方法的一类)和Spatial methods空间方法。

  • 谱方法:卷积定义在谱域(spectral domain);通过图傅立叶变换和卷积理论。最大的挑战是:convolution filter defined in sepcrtal domain is not localized in vertex domain.
    • 直接定义图上的卷积不满足平移不变性,因此谱方法是将图上的信号变换到谱域,通过谱域进行卷积,然后再变换到空间域上。
  • 空间方法:卷积定义在点域(vertex domain);卷积此时作为目标节点在局部的一个带权聚合函数(weighted average function)。最大的挑战是:the size of neighborhood varies remarkably across nodes, e.g.,幂律分布。(难点:参数共享问题)

先给出预先的定义:

这里值得看的是特征矩阵$\mathbf{X}$的每一列可以看作是定义在图上的一个信号。

拉普拉斯矩阵刻画了信号在图上的平滑程度。

image-20200408233436109

  • 图的傅里叶基(Fourier basis of graph) $\mathbf{G}$:设图拉普拉斯矩阵的正交基向量为${ul}{l=1}^n$,对应的非负特征值为${\lambdal }{l=1}^n$ 。图拉普拉斯矩阵可以对角化为:

​ 这里$U = [u_1, u_2, …, u_n ]$,$\Lambda = diag([\lambda_1,\dots,\lambda_n])$

  • 图傅立叶变化(Graph Fourier transform):信号$\mathbf{x}\in R^n$的图傅立叶变化定义如下:

    图傅立叶逆变化(Graph Fourier inverse transform):

  • 卷积理论(Convolution theorem):The Fourier transform of a convolution of two signals is the point-wise product of their Fourier transforms:

根据卷积理论,给定一个信号$\mathbf{x}$作为输入,$\mathbf{y}$作为滤波(filter),图卷积$*_G$ 定义为:

此时谱域上的卷积滤波(convolution filter)为$U^Ty$。定义:

我们有:

# 推荐系统
Actual Speaking
python_plot
  • Table of Contents
  • Overview
Zheng Chu

Zheng Chu

90 posts
20 categories
25 tags
GitHub 简书 CSDN E-Mail
  1. 1. 图卷积神经网络—中科院沈华伟老师
© 2021 Zheng Chu
Powered by Hexo v4.2.1
|
Theme – NexT.Pisces v7.3.0
|