Introduction of graphs

Introduction

为什么network/graph很重要?

Networks are a general language for describing complex systems of interacting entities

当我们谈论network的时候,经常讨论两种图:

  1. Natural graph:对于现实事物的直接描述,例如社交网络、大脑神经元的链接网络等
  2. Information graph:经过处理之后,带有信息的图,例如链接知识的图等
阅读全文 »

MAGNN: Metapath Aggregated Graph Neural Network for Heterogeneous Graph Embedding

看一下整体结构:

阅读全文 »

Collection of KGE Papers Volume 1

Collection of KGE papers, volume 1.

Now it contains models of:

  • HoLE (AAAI 2016)
  • TACT(AAAI 2021)
  • TransF(ICPR 2018)
  • TransCoRe(JCST 2018)
  • Interpreting-KGE(ICLR 2021)
  • TuckER(EMNLP 2019)
  • MLP for KGE(KDD 2014)
  • TransH(AAAI 2014)
  • TransA(arXiv 2015)
  • TransR(AAAI 2015)
  • TransD(IJNLP 2015)
  • TransG(ACL 2016)
  • CP for KGE(ICML 2018)
  • SimplE(NIPS 2018)
  • Complex(ICML 2016)
  • REInceptionE(AAAI 2020)
  • R-MeN(ACL 2020)
  • HypER(ICANN 2019)
  • RSN(ICML 2019)
  • NSCaching(ICDE 2019)
阅读全文 »

A Re-evaluation of Knowledge Graph Completion Methods

2019-11-10 ACL 2020

重新发现目前的KGC方法中存在的问题,提出了一个RANDOM的评估策略。

阅读全文 »

SEEK: Segmented Embedding of Knowledge Graphs

ACL 2020

虽然目前对于KGE的研究已经很多了,但是目前的方法都存在一个问题,简单的方法模型的表达能力不够;复杂的方法参数多,复杂性高,难以应用与实际的大规模的知识图谱。

本文就考虑如何在不增加复杂度的情况下增加模型的表达能力:

  • 增加特征之间的交互
  • 保存关系的属性——对称性与不对称性
  • 设计有效的得分函数

核心方法是将实体和关系的embedding拆分为k个segment。

阅读全文 »

Attention Is All You Need

NIPS 2017

本文提出了一个新的简单的网络结构,Transformer,只依赖于注意力机制。

可参考的博客

阅读全文 »

KGAT: Knowledge Graph Attention Network for Recommendation

在结合了知识图谱之后,就形成了一个关系更加丰富的graph neural network,使用GNN的方法来进行最后的预测。这篇论文就是在结合了知识图谱的基础上使用作者之前(2019)发表的neural graph collaborative filtering(ngcf)算法。理解了ngcf这篇论文就很好理解。

阅读全文 »