图卷积神经网络

论文资料

How powerful is the graph neural network

2017CIKM-Network Embedding专题论文分享

AAAI2019《图表示学习》Tutorial, 180 页 PPT 带你从入门到精通(下载)
Representation Learning on Network 网络表示学习笔记

Github项目推荐 | 图神经网络(GNN)相关资源大列表

github

https://github.com/nnzhan/Awesome-Graph-Neural-Networks
图卷积网络,图的注意力模型,图的自动编码器,图生成网络,图时空网络,各种应用

##Inductive Representation Learning On Large Graphs

Inductive Representation Learning On Large Graphs【阅读笔记】

GraphSAGE 代码解析(一) - unsupervised_train.py

异构网络

PTE: Predictive Text Embedding through Large-scale Heterogeneous Text Network

GitHub上一份Graph Embedding相关的论文列表,很有价值的参考

GCN

图卷积网络到底怎么做,这是一份极简的Numpy实现

CANE

CANE :
对于每条边,根据节点的出度随机采样节点,然后在选出不是自环的’一个’负样本点,组成训练集,训练集由若干个三元组组成。

GATNE:
基于所有的边进行随机游走,每个节点重复进行采样N次,每次采样L个负样本,这样相当于生成一个句子。
基于采样出的顶点数,统计每个顶点的频次,依据频次排序,在根据skip-windows针对每个句子生成训练样本顶点对。
训练样本中的index是根据频次进行转换后的。如index2word:[3,4,1]表示1索引对应的节点是3,train_input 按词频编号,TF的word2vec实现里,词频越大,词的类别编号也就越小。因此,在TF的word2vec里,负采样的过程其实就是优先采词频高的词作为负样本。

log_uniform_candidate_sampler是怎么采样的呢?他的实现在这里:

1、会在[0, range_max)中采样出一个整数k

2、P(k) = (log(k + 2) - log(k + 1)) / log(range_max + 1)

可以看到,k越大,被采样到的概率越小。

参考文献:https://blog.csdn.net/qq_36092251/article/details/79684721(采样编号)

NLP

Graph Convolution Network for NLP

行业人物:

dblp:Chengqi Zhang

坚持原创技术分享,您的支持将鼓励我继续创作!