HyperNetworks
HYPERNETWORKS
ICLR 2017
核心贡献是将Hypernetwork扩展到了convolutional networks和long recurrent networks,证明其在使用更少的参数情况下,在序列模型和卷积网络的多个预测任务下都达到了不错的训练结果。
ICLR 2017
核心贡献是将Hypernetwork扩展到了convolutional networks和long recurrent networks,证明其在使用更少的参数情况下,在序列模型和卷积网络的多个预测任务下都达到了不错的训练结果。
ICML 2015
谷歌团队的经典论文,batchnorm操作。题目中的Internal Covariate Shift是论文中提出的一个名词,主要是指在网络结构中,由于各层模型参数不同,每一层接受的输入的分布都会改变。这种现象被称作internal covariate shift。这篇文章通过对把每层的激活值做归一化处理,提升模型训练速度与效果。
归一化处理会增大feature之间的相对差异,排除绝对差异,因此可能更好训练。另外,归一化操作能够让激活值处于激活函数类似sigmoid的梯度较大的区域,能够缓解梯度消失问题。
对目前接触的集中能够约束差异性/独立性的方法做个简单汇总。包括
AAAI 2021
作者声称是首个尝试为异质图神经网络寻找最优的图结构进行学习的方法,提出了HGSL(Heterogeneous Graph Structure Learning)。核心方法有两个,异质图结构学习和图神经网络。
AAAI 2021
作者提出了RelGNN方法处理带attribute的heterogeneous graph,核心部分包括一个采取了注意力机制的R-GCN方法以及能够降低负采样false negative sample的自对抗负采样方法adaptive self-adversarial (ASA) negative sampling。
个人认为最大的创新点是这种负采样的方法ASA。负采样的核心思路是如何寻找最难区分discriminative的样本。而ASA方法的核心思想是计算正样本和负样本得分score之间的绝对差距,采样使这种差距最小的负样本。作者认为如果一个构造的负样本计算的得分比正样本的得分还要大,那么这样的负样本更有可能是false negative,因此不能直接选择这样最难区分的负样本,而是考虑正样本的预测值。
AAAI 2021
作者提出了一种能够捕获KG中relation的semantic correlations的方法,叫做GRL(Generalized Relation Learning)。这个方法在一般的embedding方法之后,利用输出的embedding评估relation之间的相似程度。
这篇文章中,作者从图信号处理GSP的角度出发,有三方面的贡献: