CN111008186A - 一种藏文知识库的表示方法 - Google Patents
一种藏文知识库的表示方法 Download PDFInfo
- Publication number
- CN111008186A CN111008186A CN201910502622.7A CN201910502622A CN111008186A CN 111008186 A CN111008186 A CN 111008186A CN 201910502622 A CN201910502622 A CN 201910502622A CN 111008186 A CN111008186 A CN 111008186A
- Authority
- CN
- China
- Prior art keywords
- layer
- entity
- knowledge base
- representation
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
- G06F16/211—Schema design and management
- G06F16/212—Schema design and management with details for data modelling support
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种藏文知识库的表示方法,该方法包括以下步骤:通过卷积神经网络学习知识库中实体的描述性表示,再利用TransE算法学习知识库中实体的结构性表示,最后将两种表示进行融合训练,得到知识库的最终表示。本发明能够在尽可能抽取高质量的文本信息的同时,减少模型复杂度与需要训练的参数量,最终建立更好的实体基于描述的知识表示。
Description
技术领域
本发明涉及知识库的表示技术,尤其涉及一种藏文知识库的表示方法。
背景技术
知识库是推动人工智能学科发展和支撑智能信息服务应用(如智能搜索、智能问答、个性化服推荐等)的重要基础技术。为了改进信息服务质量,国内外互联网公司(特别是搜索引擎公司)纷纷推出知识库产品,如谷歌知识图谱、微软 Bing Satori、百度知心以及搜狗知立方等。
知识库的研究目标是从无结构或半结构的互联网信息中自动抽取结构化知识。有了知识库的支撑,当我们搜索“中国的人口”、“法国的首都”时,谷歌、百度可以直接给出答案,并给出相关的知识链接。知识表示通过将实体或关系投影到低维向量空间,实现对实体和关系的语义信息表示,进而高效地计算实体、关系及其之间的复杂语义关联。
由于中英文的知识库信息较为丰富,比如Freebase包含了数亿的三元组,通过传统的网络表示学习(TransE、TransH等方法)对其进行表示学习会得到每个实体的丰富信息特征。而藏文知识库数据稀疏,单纯使用网络学习表示方法无法很好的表达出每个实体的语义特征。因此,如何进行藏文知识库的表示学习,对藏文信息处理研究具有重要意义。
发明内容
本发明的目的在于,针对藏文知识库数据稀疏,无法充分对知识库进行表示学习的问题,利用已有的藏文知识库和藏文百科文本,通过卷积神经网络学习知识库中实体的描述性表示,再利用TransE算法学习知识库中实体的结构性表示,最后将两种表示进行融合训练,得到知识库的最终表示。
为实现上述目的,本发明提供了一种藏文知识库的表示方法,该方法包括以下步骤:
描述性表示,利用卷积神经网络对实体描述信息进行建模,联合藏文百科知识和知识库知识共同训练,得到实体的共现矩阵;
结构性表示,利用TransE算法对实体内部进行学习建模;
融合表示学习,将描述性表示和结构性表示映射到同一向量空间中,使用改进的能量函数,在训练中采用平移模型的学习框架,利用最大间隔方法,定义评分函数对模型进行优化,得到藏文知识库的最终表示。
本发明能够在尽可能抽取高质量的文本信息的同时,减少模型复杂度与需要训练的参数量,最终建立更好的实体基于描述的知识表示。
附图说明
图1为一种藏文知识库的表示方法流程示意图;
图2为一种藏文知识库的表示方法整体框架;
图3为一种藏文知识库的表示方法描述性表示。
具体实施例
图1为一种藏文知识库的表示方法流程示意图。如图1所示,该方法包括步骤S101-S103:
步骤S101,描述性表示,利用卷积神经网络对实体描述信息进行建模,联合藏文百科知识和知识库知识共同训练,得到实体的共现矩阵;
具体地,卷积层是卷积神经网络的核心操作,由于在融合实体描述的知识表示任务中,处理对象是文本序列,使用一组长度为的一维卷积核。形式化地,使用X(l)表示第l层输入序列的矩阵,Z(l)表示第l层输出矩阵。其中,实体经过预处理后的描述序列X={x1,x2,L,xn}即为第一层卷积层的输入。
池化层:我们针对文本描述编码的特定任务,在两个池化层设置了不同的池化策略。这是因为文本描述通常包括多个句子,我们认为卷积层对于每个句子内部有的局部信息抽取特征时,可能会有一定的冗余和噪声,所以在第一个池化层进行最大池化操作,仅适用局部特征最强烈的值作为整个局部的代表,得到输出矩阵在第二个池化层,我们认为描述中的每个句子有应该对最后的知识表示产生影响,所以适用平均池化的策略综合考虑所有的局部信息,得到共现矩阵这种不同的池化策略设置,使得卷积神经网络模型能够在尽可能抽取高质量的文本信息的同时,减少模型复杂度与需要训练的参数量,最终建立更好的实体基于描述的知识表示。
步骤S102,结构性表示,利用TransE算法对实体内部进行学习建模;
具体地,藏文知识库结构的表示使用TransE进行表示学习。给定一个三元组fact=(h,r,t),TransE模型将关系表示为翻译向量r,以较低的错误把实体的向量h,t链接起来,即
h+r=t
打分函数定义为h+r与t之间的距离:
fr(h,t)=-||h+r-t||1/2
如果(h,r,t)真实存在,那么函数fr的值就比较高。
步骤S103,融合表示学习,将描述性表示和结构性表示映射到同一向量空间中,使用改进的能量函数,在训练中采用平移模型的学习框架,利用最大间隔方法,定义评分函数对模型进行优化,得到藏文知识库的最终表示。
具体地,融合表示学习模型沿用了平移模型的假设,即认为三元组内的实体与关系向量之间应该具有的关系。更形式化地表示,融合表示学习模型的定义了如下能量函数。
E(h,r,t)=a1||hS+r-tS||+a2||hS+r-tD||+a3||hD+r-tS||+a4||hD+r-tD||
其中,a1,a2,a3,a4是控制各项权值的超参数。在能量函数中,||hS+r-tS||部分与平移模型中定义的能量函数类似,而||hD+r-tD||,||hD+r-tS||,||hD+r-tD||三项则是基于描述的实体向量。通过这样混合项的软限制,融合表示学习模型可以很自然地将实体的两种向量映射到了同一语义空间中,并可以共享相同的关系向量。
融合表示学习模型使用基于改进的能量函数,在训练中也参考了平移模型的学习框架。使用了最大间隔方法,定义了评分函数对模型进行优化,如下所示。
其中,(h',r',t')是负例三元组,γ是表示正负例三元组得分的间隔距离的超参数。与平移模型所不同的是,这里的三元组得分的能量函数E(h,r,t)包括了两种实体向量表示的四种组合项。最大间隔方法就是确定正例三元组的能量函数得分比负例三元组的能量函数得分至少小γ。T'是负例三元组的集合,由于知识图谱中没有显式的负例三元组,对于给定的正例三元组(h,r,t),我们设置负例三元组的集合如下式所示。
T'={(h',r,t)|h'∈E}∪{(h,r,t')|t'∈E}∪{(h,r',t)|r'∈R},(h,r,t)∈T
上式表示所有负例三元组均由正例三元组中任一实体(或关系)随机替换成另外的实体(或者关系)产生。同时为了降低负例三元组的选取随机性,本发明在负例生成时加上了以下限制条件,如下式所示。
这种方式不仅避免随机替换后生成的负例三元组中存在真正的正例,同时也大大降低了负例三元组的随机性,使得训练模型具有更强的泛化能力。
本发明实施例在藏文知识库数据稀疏的情况下,利用卷积神经网络对实体描述信息进行建模,联合藏文百科知识和知识库知识共同训练,得到实体的共现矩阵。另外,为了更好的对知识库表示进行学习,本发明实施例对实体结构性表示和描述性表示进行联合训练,使用改进的能量函数,在训练中采用平移模型的学习框架,利用最大间隔方法,定义了评分函数对模型进行优化,得到知识库的最终表示。
Claims (8)
1.一种藏文知识库的表示方法,其特征在于,包括以下步骤:
描述性表示,利用卷积神经网络对实体描述信息进行建模,联合藏文百科知识和知识库知识共同训练,得到实体的共现矩阵;
结构性表示,利用TransE算法对实体内部进行学习建模;
融合表示学习,将描述性表示和结构性表示映射到同一向量空间中,使用改进的能量函数,在训练中采用平移模型的学习框架,利用最大间隔方法,定义评分函数对模型进行优化,得到藏文知识库的最终表示。
2.根据权利要求1所述的方法,其特征在于,卷积神经网络中的卷积层使用一组长度为一维的卷积核,使用X(l)表示第l层输入序列的矩阵,Z(l)表示第l层输出矩阵;其中,实体经过预处理后的描述序列X={x1,x2,L,xn}即为第一层卷积层的输入。
5.根据权利要求1所述的方法,其特征在于,结构性表示步骤包括:给定一个三元组fact=(h,r,t),TransE模型将关系表示为翻译向量r,以较低的错误把实体的向量h,t链接起来,即
h+r=t
打分函数定义为h+r与t之间的距离:
fr(h,t)=-||h+r-t||1/2
如果(h,r,t)真实存在,那么函数fr的值就比较高。
6.根据权利要求1所述的方法,其特征在于,融合表示学习模型的定义了如下能量函数:
E(h,r,t)=a1||hS+r-tS||+a2||hS+r-tD||+a3||hD+r-tS||+a4||hD+r-tD||
其中,a1,a2,a3,a4是控制各项权值的超参数,在能量函数中,||hS+r-tS||部分与平移模型中定义的能量函数类似,而||hD+r-tD||,||hD+r-tS||,||hD+r-tD||三项则是基于描述的实体向量;通过这样混合项的软限制,融合表示学习模型可以很自然地将实体的两种向量映射到了同一语义空间中,并可以共享相同的关系向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910502622.7A CN111008186A (zh) | 2019-06-11 | 2019-06-11 | 一种藏文知识库的表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910502622.7A CN111008186A (zh) | 2019-06-11 | 2019-06-11 | 一种藏文知识库的表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111008186A true CN111008186A (zh) | 2020-04-14 |
Family
ID=70110797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910502622.7A Pending CN111008186A (zh) | 2019-06-11 | 2019-06-11 | 一种藏文知识库的表示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111008186A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113312487A (zh) * | 2021-01-16 | 2021-08-27 | 江苏网进科技股份有限公司 | 一种基于TransE模型的面向法律文本的知识表示学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886543A (zh) * | 2015-12-16 | 2017-06-23 | 清华大学 | 结合实体描述的知识图谱表示学习方法和系统 |
CN108197290A (zh) * | 2018-01-19 | 2018-06-22 | 桂林电子科技大学 | 一种融合实体和关系描述的知识图谱表示学习方法 |
CN109408805A (zh) * | 2018-09-07 | 2019-03-01 | 青海大学 | 一种基于混合深度学习的藏文情感分析方法及系统 |
-
2019
- 2019-06-11 CN CN201910502622.7A patent/CN111008186A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886543A (zh) * | 2015-12-16 | 2017-06-23 | 清华大学 | 结合实体描述的知识图谱表示学习方法和系统 |
CN108197290A (zh) * | 2018-01-19 | 2018-06-22 | 桂林电子科技大学 | 一种融合实体和关系描述的知识图谱表示学习方法 |
CN109408805A (zh) * | 2018-09-07 | 2019-03-01 | 青海大学 | 一种基于混合深度学习的藏文情感分析方法及系统 |
Non-Patent Citations (1)
Title |
---|
TANG XING 等: "Knowledge representation learning with entity descriptions,hierarchical types, and textual relations", 《INFORMATION PROCESSING AND MANAGEMENT》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113312487A (zh) * | 2021-01-16 | 2021-08-27 | 江苏网进科技股份有限公司 | 一种基于TransE模型的面向法律文本的知识表示学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444305B (zh) | 一种基于知识图谱嵌入的多三元组联合抽取方法 | |
CN108009285B (zh) | 基于自然语言处理的林业生态环境人机交互方法 | |
CN106560848B (zh) | 模拟生物双向认知能力的新型神经网络模型及训练方法 | |
CN110032635B (zh) | 一种基于深度特征融合神经网络的问题对匹配方法和装置 | |
CN112131366A (zh) | 训练文本分类模型及文本分类的方法、装置及存储介质 | |
CN111160564B (zh) | 一种基于特征张量的中文知识图谱表示学习方法 | |
CN110046252B (zh) | 一种基于注意力机制神经网络与知识图谱的医疗文本分级方法 | |
CN110781319B (zh) | 跨媒体大数据的公共语义表示、搜索方法和装置 | |
CN109992784B (zh) | 一种融合多模态信息的异构网络构建和距离度量方法 | |
CN106844356B (zh) | 一种基于数据选择改善英中机器翻译质量的方法 | |
CN111639254A (zh) | 一种医疗领域的sparql查询语句的生成系统和方法 | |
CN112464816A (zh) | 基于二次迁移学习的地方手语识别方法、装置 | |
CN111581364B (zh) | 一种面向医疗领域的中文智能问答短文本相似度计算方法 | |
CN114077659A (zh) | 一种基于邻居交互网络的知识图谱问答方法及系统 | |
CN117076640A (zh) | 一种中文推理任务模型构建方法、装置、设备及介质 | |
CN115658912A (zh) | 一种知识图谱的优化方法、系统及储存介质 | |
CN116028846A (zh) | 一种融合多特征和注意力机制的多模态情感分析方法 | |
Mathur et al. | A scaled‐down neural conversational model for chatbots | |
CN111666753A (zh) | 基于全局和局部匹配的短文本匹配方法及系统 | |
CN113010690B (zh) | 一种基于文本信息增强实体嵌入的方法 | |
CN111008186A (zh) | 一种藏文知识库的表示方法 | |
CN112231476B (zh) | 一种改进的图神经网络科技文献大数据分类方法 | |
CN107590237B (zh) | 一种基于动态翻译原则的知识图谱表示学习方法 | |
CN115186072A (zh) | 一种基于双过程认知理论的知识图谱视觉问答方法 | |
CN114580430B (zh) | 一种基于神经网络的鱼病描述情感词的提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Sun Yuan Inventor after: Xia Tianci Inventor after: Chen Andong Inventor before: Sun Yuan Inventor before: Xia Tianci |
|
CB03 | Change of inventor or designer information | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200414 |
|
WD01 | Invention patent application deemed withdrawn after publication |