山不过来,我就过去
这里没有什么东西,你就随便看看。
利用bat批处理命令实现Hexo文章的自动创建和部署 利用bat批处理命令实现Hexo文章的自动创建和部署
之前每次写文章时都是手动的使用命令创建文件,写好后又通过相应的命令将其部署到github上,然后一直就在想,能不能通过bat命令来实现这些机械性的操作,本文就详细介绍这个过程。 1 背景想要利用bat批处理命令实现每次写文章时那些机械性的重
2020-04-12
python36+cuda9+cudnn7+pytorch1_1环境配置 python36+cuda9+cudnn7+pytorch1_1环境配置
之前配置过环境,然后过段时间就忘了,最近又在折腾机器,重新配置环境,跟着网上的教程来,发现走了很多坑,所以记录下。 我的账号是带sudo权限的非root用户,不带sudo权限应该也是可以的。1、准备前期准备主要是版本对应上: cuda和驱动
2019-12-04
300行python代码从零开始构建基于知识图谱的电影问答系统5-答案获取 300行python代码从零开始构建基于知识图谱的电影问答系统5-答案获取
啦啦啦,终于快写完了,虽然我也知道并没有写什么实质性的东西,至少我坚持下来啦,后面再慢慢多拧拧,少一些水分。 在上一篇中,主要介绍了如何从接收到的用户问题中抽取关键信息,以及如何识别用户的意图,那么接下来就将介绍在得到了这些信息后,如何
2019-04-16
300行python代码从零开始构建基于知识图谱的电影问答系统4-用户问题预处理 300行python代码从零开始构建基于知识图谱的电影问答系统4-用户问题预处理
今天冷得,我在五月份穿了三件衣服,你敢相信。。。 这篇主要介绍对用户问题的处理,也就是从获取用户问题到明白用户意图这个过程,主要涉及到命名实体识别(这个任务简单,我就用词性标注来代替了),问题分类,以及填充问题模板这几个部分。介绍的时候
2019-04-16
300行python代码从零开始构建基于知识图谱的电影问答系统3-实验环境和实验数据准备 300行python代码从零开始构建基于知识图谱的电影问答系统3-实验环境和实验数据准备
貌似很久没有写了,这段时间一直在忙着准备复试,就有点耽误了,好吧,今天继续写。你们的魔鬼又来啦 (什么鬼 在上一篇中,我对整个系统的业务逻辑啰里啰唆的梳理了一遍,如果你被我绕晕了,那也没关系,因为不用看上面那篇也能继续往下走,当你自
2019-04-16
300行python代码从零开始构建基于知识图谱的电影问答系统2-系统业务逻辑介绍 300行python代码从零开始构建基于知识图谱的电影问答系统2-系统业务逻辑介绍
昨天把这个教程的目录给理出来了,然后今天就想趁着这满腔热情(无心搬砖)把剩下的教程也写了。 对于整个系统,不管具体细节是怎么实现的,是逻辑一定要理清楚,于是这一节主要介绍各个模块的逻辑,为什么要这么做。 首先我简单的画了一个示意图(这叫
2019-04-16
300行python代码从零开始构建基于知识图谱的电影问答系统-目录 300行python代码从零开始构建基于知识图谱的电影问答系统-目录
平时除了看论文还是看论文,感觉有点无聊,于是嘛就想着搞点东西来玩玩,然后就搞了一个非常简单的基于知识图谱的电影问答系统。系统是用python实现的,大概只花了1天吧,代码也仅有300多行,可以说是很容易上手了。然后在这里也简单的记录下整个
2019-04-15
pytorch中LSTM输出问题 pytorch中LSTM输出问题
给出结论便于查询,具体分析过程见聊一聊PyTorch中LSTM的输出格式 output保存了最后一层,每个time step的输出h,如果是双向LSTM,每个time step的输出h = [h正向, h逆向](同一个time step的
2019-01-09
tensorflow中sequence_loss_by_example()函数的计算过程(结合TF的ptb构建语言模型例子) tensorflow中sequence_loss_by_example()函数的计算过程(结合TF的ptb构建语言模型例子)
注:由于tensorflow版本的不同,这个函数所在的模块可能不同,如:tf.nn.seq2seq.sequence_loss_by_example和tf.contrib.legacy_seq2seq.sequence_loss_by_e
2018-10-15
Keras examples-imdb_cnn[利用卷积神经网络对文本进行分类] Keras examples-imdb_cnn[利用卷积神经网络对文本进行分类]
1 任务描述本实验室利用卷积神经网络对imdb数据进行文本分类 2 实验过程(1)引入实验中所涉及到的包数据集包、数据预处理包、网络模型包、网络各层结构所对应的包 from __future__ import print_function
2018-08-28
利用nltk可视化stanford coreNLP构建的中文语法树 利用nltk可视化stanford coreNLP构建的中文语法树
在stanford coreNLP的网页中直接以树的形式可视化了解析结果。但在IDE中,利用python调用coreNLP server后返回的是字符串格式。这是可以利用nltk中的Tree类来可视化解析结果。代码如下: from nltk
2018-08-22
两种在Python中使用Stanford CoreNLP的方法 两种在Python中使用Stanford CoreNLP的方法
这两种方法都需要提前下载CoreNLP最新的压缩包,再下载对应的语言jar包。从CoreNLP下载页面下载。将压缩包解压得到目录,再将语言的jar包放到这个目录下即可。并且要求java -version>=1.8。接下来就是利用pyt
2018-08-22
1 / 2