There are 8 posts in total till now.
总结 知识表示论文 Network representation Bert TensorFlow attention模型 pyltp 结巴分词 12.3 1.看自然语言处理第8章后半部分内容。 2.看高级计算机系统课程的论文(涉及CNN处理优化) 12.4 1.依存分析相关内容。 2.CRF的数学含
总结 概率图书籍 自然语言处理书籍 HMM模型 CRF gStore Speech and Language Processing CFG 分布式学习相关论文 11.12-11.1611.12 统计自然语言处理到6.6部分。 11.13 1.看自然语言处理昨天的内容复习,以及后续的6.7-6.9。
网络表示学习综述将网络信息转化为低维稠密的实数向量,并用于已有的机器学习算法的输入 G=(V,E) –> Representation Learning –>Network embeddings 在网络中拓扑结构相似的节点也应该具有相近的向量表示。 基于网络结构的网格表示学习 方法 简介
知识表示 网络形式:节点表示实体、边表示实体间的关系(example: RDF) 表示学习:语义信息表示为稠密低维实向量值 知识表示学习:面向知识库的实体和关系进行表示学习 表示学习的目的:将研究对象的语义信息表示为低维稠密向量,计算两个对象向量之间的语义相似度 表示学习的应用: 相似度计算 知识图
from:https://zhuanlan.zhihu.com/p/49271699 预训练在训练集上学会网络参数,存起来以后备用。在比较浅层的CNN结构参数初始化的时候可以用之前存的参数,高层任然初始化。 这时有两种做法 一种是浅层加载的参数在训练C任务过程中不动,这种方法被称为“Frozen”;