山不过来,我就过去
这里没有什么东西,你就随便看看。
【论文笔记14】Gated-Attention Readers for Text Comprehension 【论文笔记14】Gated-Attention Readers for Text Comprehension
本文主要介绍GA reader模型的基本思想,由论文《Gated-Attention Readers for Text Comprehension》提出,论文直通车 1 论文概述本篇论文的思想其实是很简单的,可以把其看成是AS reader
2019-04-03
【论文笔记13】Attention-over-Attention Neural Networks for Reading Comprehension 【论文笔记13】Attention-over-Attention Neural Networks for Reading Comprehension
本文主要介绍AoA reader 的模型结构,由论文《Attention-over-Attention Neural Networks for Reading Comprehension》提出,论文直通车 1 论文概述该论文针对机器阅读理解
2019-04-02
【论文笔记12】Iterative Alternating Neural Attention for Machine Reading 【论文笔记12】Iterative Alternating Neural Attention for Machine Reading
(1)论文创新点 这个模型的文章和问题在真正使用时,都是根据前一时刻的隐层状态,动态的表示成一个向量; 在更新状态时,使用了gated机制(虽然看起来有点复杂)。 (2)论文模型模型的整体结构图如下所示:接下来将对该模型上的组成部分做简单
2019-03-30
【论文笔记11】TRACKING THE WORLD STATE WITH RECURRENT ENTITY NETWORKS Documents 【论文笔记11】TRACKING THE WORLD STATE WITH RECURRENT ENTITY NETWORKS Documents
这个模型也就是前面提到的动态记忆,这篇论文来自ICLR2017,论文比笔记还是参考了北邮的两位大佬的博客,后面给出了原博客地址。论文提出了一种新的动态记忆网络,使用固定长度的记忆单元来存储世界上的实体,每个记忆单元对应一个实体,主要存储该实
2018-12-12
【论文笔记10】Key-Value Memory Networks for Directly Reading Documents 【论文笔记10】Key-Value Memory Networks for Directly Reading Documents
上个月看了Facebook的记忆网络系列,前面的两篇论文的笔记看完就整理了,后面这几篇就耽误了,最近又看了一遍,于是及时整理,不然又忘了。这篇文章主要参考北邮的两位大佬(北邮张博、知乎-呜呜哈)的文章,这两个大佬是真的厉害Orz,他们的文章
2018-12-12
【论文笔记09】Teaching Machines to Read and Comprehend 【论文笔记09】Teaching Machines to Read and Comprehend
本文主要做出了两个大的贡献: 给出了阅读理解数据集的构造方法,并开源了两个阅读理解数据集; 提出了三种神经网络模型作为baseline,以方便后面的研究者进行相关的研究。 1 数据构造主要是从新闻网站中抓取新闻作为文章,新闻的摘要去掉一
2018-11-19
【论文笔记08】Dynamic Entity Representation with Max-pooling Improves Machine Reading 【论文笔记08】Dynamic Entity Representation with Max-pooling Improves Machine Reading
本文模型之前的模型都是用一个静态的向量来表示一个entity,与上下文没有关系。而本文最大的贡献在于提出了一种动态表示entity的模型,根据不同的上下文对同样的entity有不同的表示。模型还是采用双向LSTM来构建,这时实体表示由四部分
2018-11-17
【论文笔记07】End-To-End Memory Networks 【论文笔记07】End-To-End Memory Networks
1 背景(1)在记忆网络中,主要由4个模块组成:I、G、O、R,前面也提到I和G模块其实并没有进行多复杂的操作,只是将原始文本进行向量表示后直接存储在记忆槽中。而主要工作集中在O和R模块,O用来选择与问题相关的记忆,R用来回答,而这两部分都
2018-11-17
【论文笔记06】Memory Network 【论文笔记06】Memory Network
1 问题和解决办法(1)问题 当遇到有若干个句子并且句子之间有联系的时候,RNN和LSTM就不能很好地解决; 对于句子间的这种长期依赖,于是需要从记忆中提取信息; (2)解决办法 本文提出了实现长期记忆的框架,实现了如何从长期记忆中
2018-11-02
【论文笔记05】WORDS OR CHARACTERS? FINE-GRAINED GATING FOR READING COMPREHENSION 【论文笔记05】WORDS OR CHARACTERS? FINE-GRAINED GATING FOR READING COMPREHENSION
1 问题和数据集1.1 问题 这是一篇以阅读理解为任务的文章,但在具体处理这个任务时,主要解决数据特征等的表示问题。在提取文本特征时,通常只对单词做词嵌入,而忽略了字符级的特征。 1.2 数据集 CBT WDW SQuAD 2 目
2018-10-25
【论文笔记04】TriviaQA_A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension 【论文笔记04】TriviaQA_A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension
1 论文主要内容 本文是一篇资源论文,主要发布了用于检索式问答或阅读理解的数据集Trivia QA; 对该数据集的质量和数量进行了分析,并创建了baseline,用于具体评估数据集的质量。 2 Trivia QA数据集的特点 问题比较
2018-10-22
【论文笔记03】ReasoNet-Learning to Stop Reading in Machine Comprehension 【论文笔记03】ReasoNet-Learning to Stop Reading in Machine Comprehension
1 问题及数据集1.1 问题本论文主要解决一种面向Cloze-style(填空式)的阅读理解(问答)问题 1.2 数据集(1)CNN&Daily Mail(2)SQuAD(3)Graph Reachability datase
2018-10-13
1 / 2