山不过来,我就过去
这里没有什么东西,你就随便看看。
【论文笔记12】Iterative Alternating Neural Attention for Machine Reading 【论文笔记12】Iterative Alternating Neural Attention for Machine Reading
(1)论文创新点 这个模型的文章和问题在真正使用时,都是根据前一时刻的隐层状态,动态的表示成一个向量; 在更新状态时,使用了gated机制(虽然看起来有点复杂)。 (2)论文模型模型的整体结构图如下所示:接下来将对该模型上的组成部分做简单
2019-03-30
pytorch中LSTM输出问题 pytorch中LSTM输出问题
给出结论便于查询,具体分析过程见聊一聊PyTorch中LSTM的输出格式 output保存了最后一层,每个time step的输出h,如果是双向LSTM,每个time step的输出h = [h正向, h逆向](同一个time step的
2019-01-09
Must-read papers on GNN Must-read papers on GNN
为了保存资料,于是上传至博客。 Must-read papers on GNNGNN: graph neural network Contributed by Jie Zhou, Ganqu Cui and Zhengyan Zhang.
2019-01-09
【论文笔记11】TRACKING THE WORLD STATE WITH RECURRENT ENTITY NETWORKS Documents 【论文笔记11】TRACKING THE WORLD STATE WITH RECURRENT ENTITY NETWORKS Documents
这个模型也就是前面提到的动态记忆,这篇论文来自ICLR2017,论文比笔记还是参考了北邮的两位大佬的博客,后面给出了原博客地址。论文提出了一种新的动态记忆网络,使用固定长度的记忆单元来存储世界上的实体,每个记忆单元对应一个实体,主要存储该实
2018-12-12
【论文笔记10】Key-Value Memory Networks for Directly Reading Documents 【论文笔记10】Key-Value Memory Networks for Directly Reading Documents
上个月看了Facebook的记忆网络系列,前面的两篇论文的笔记看完就整理了,后面这几篇就耽误了,最近又看了一遍,于是及时整理,不然又忘了。这篇文章主要参考北邮的两位大佬(北邮张博、知乎-呜呜哈)的文章,这两个大佬是真的厉害Orz,他们的文章
2018-12-12
【论文笔记09】Teaching Machines to Read and Comprehend 【论文笔记09】Teaching Machines to Read and Comprehend
本文主要做出了两个大的贡献: 给出了阅读理解数据集的构造方法,并开源了两个阅读理解数据集; 提出了三种神经网络模型作为baseline,以方便后面的研究者进行相关的研究。 1 数据构造主要是从新闻网站中抓取新闻作为文章,新闻的摘要去掉一
2018-11-19
4 / 11