山不过来,我就过去
这里没有什么东西,你就随便看看。
【论文笔记02】Text Understanding with the Attention Sum Reader Network 【论文笔记02】Text Understanding with the Attention Sum Reader Network
1 问题及数据集1.1 问题给定较长一段话的context和一个较短的问题,以及一些candidate answers,训练出可以准确预测正确答案的模型,本模型主要针对命名实体和常用名词这两种词性的单词进行填空。 1.2数据集(1)CNN&
2018-10-13
【论文笔记01】Phrase-Based & Neural Unsupervised Machine Translation 【论文笔记01】Phrase-Based & Neural Unsupervised Machine Translation
这篇论文来源于EMNLP2018,论文地址,这次采用了思维导图的方式记录笔记,思维导图的缩略图如下: 该思维导图较大,于是上传时进行了压缩,可以直接点击思维导图地址进行交互式的访问或下载,思维导图地址,备用思维导图地址 效果图:
2018-10-13
【论文翻译01】How Much Reading Does Reading Comprehension Require? 【论文翻译01】How Much Reading Does Reading Comprehension Require?
0 Abstract最近的许多论文都涉及到阅读理解,他们一般都包括(问题,段落,答案)元组。或许,一个模型必须综合问题和段落两者的信息来预测相应的答案。然而,尽管人们对这个话题产生了浓厚的兴趣,数百篇已发表的论文争夺排行榜的主导地位,但关于
2018-10-04
一种最原始的混沌神经元构造过程 一种最原始的混沌神经元构造过程
一个混沌神经元的输出与①每一个外部输入在每一个离散时刻的状态,②其他每一个混沌神经元在每一个时刻的状态,以及③该混沌神经元在每一个离散时刻的状态(主要为不应性情况)和④预设的阈值有关。由于该博客公式显示问题,请移步CSDN博文一种最原始的混
2018-09-25
2 / 2