总结 知识表示论文 Network representation Bert TensorFlow attention模型 pyltp 结巴分词 12.3 1.看自然语言处理第8章后半部分内容。 2.看高级计算机系统课程的论文(涉及CNN处理优化) 12.4 1.依存分析相关内容。 2.CRF的数学含
总结 概率图书籍 自然语言处理书籍 HMM模型 CRF gStore Speech and Language Processing CFG 分布式学习相关论文 11.12-11.1611.12 统计自然语言处理到6.6部分。 11.13 1.看自然语言处理昨天的内容复习,以及后续的6.7-6.9。
网络表示学习综述将网络信息转化为低维稠密的实数向量,并用于已有的机器学习算法的输入 G=(V,E) –> Representation Learning –>Network embeddings 在网络中拓扑结构相似的节点也应该具有相近的向量表示。 基于网络结构的网格表示学习 方法 简介
知识表示 网络形式:节点表示实体、边表示实体间的关系(example: RDF) 表示学习:语义信息表示为稠密低维实向量值 知识表示学习:面向知识库的实体和关系进行表示学习 表示学习的目的:将研究对象的语义信息表示为低维稠密向量,计算两个对象向量之间的语义相似度 表示学习的应用: 相似度计算 知识图
from:https://zhuanlan.zhihu.com/p/49271699 预训练在训练集上学会网络参数,存起来以后备用。在比较浅层的CNN结构参数初始化的时候可以用之前存的参数,高层任然初始化。 这时有两种做法 一种是浅层加载的参数在训练C任务过程中不动,这种方法被称为“Frozen”;