CN111950279B - 实体关系的处理方法、装置、设备及计算机可读存储介质 - Google Patents

实体关系的处理方法、装置、设备及计算机可读存储介质 Download PDF

Info

Publication number
CN111950279B
CN111950279B CN201910414289.4A CN201910414289A CN111950279B CN 111950279 B CN111950279 B CN 111950279B CN 201910414289 A CN201910414289 A CN 201910414289A CN 111950279 B CN111950279 B CN 111950279B
Authority
CN
China
Prior art keywords
sample
feature vector
entity
text
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910414289.4A
Other languages
English (en)
Other versions
CN111950279A (zh
Inventor
范淼
白也淇
孙明明
李平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910414289.4A priority Critical patent/CN111950279B/zh
Priority to US16/875,274 priority patent/US20200364406A1/en
Publication of CN111950279A publication Critical patent/CN111950279A/zh
Application granted granted Critical
Publication of CN111950279B publication Critical patent/CN111950279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种实体关系的处理方法、装置、设备及计算机可读存储介质。本发明实施例由于利用了少量的标注数据即不常见的一些实体关系类别下的少量标注样本,并且增加了更加细粒度的分段特征来表征待处理的文本,使得能够基于不常见的实体关系的少量标注样本准确地预测出文本中所存在的不常见的实体关系,从而提高了少量不常见的实体关系的识别准确率。

Description

实体关系的处理方法、装置、设备及计算机可读存储介质
【技术领域】
本发明涉及实体关系识别技术,尤其涉及一种实体关系的处理方法、装置、设备及计算机可读存储介质。
【背景技术】
有效的实体关系识别算法可以帮助机器理解自然语言的内部结构,同时也是拓展知识库或者补全知识图谱的重要手段。现有的实体关系识别算法的共同缺陷是对大量标注数据的高度依赖。因此,以上的算法往往只能在大量常见的实体关系上产生较高的识别准确率,而在一些少量不常见的实体关系上则只能得到较低的识别准确率。
因此,亟需提供一种实体关系的处理方法,用以提高少量不常见的实体关系的识别准确率。
【发明内容】
本发明的多个方面提供一种实体关系的处理方法、装置、设备及计算机可读存储介质,用以提高少量不常见的实体关系的识别准确率。
本发明的一方面,提供一种实体关系的处理方法,包括:
利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量;
将所述文本进行分段处理,以获得所述文本的至少两个分段;
利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量;
根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量;
根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别。
本发明的另一方面,提供一种实体关系的处理装置,包括:
第一特征提取单元,用于利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量;
第二特征提取单元,用于将所述文本进行分段处理,以获得所述文本的至少两个分段;以及利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量;
特征处理单元,用于根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量;
关系识别单元,用于根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别。
本发明的另一方面,提供一种设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述一方面所提供的实体关系的处理方法。
本发明的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述一方面所提供的实体关系的处理方法。
本发明的另一方面,提供一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方面和任一可能的实现方式的方法。
由上述技术方案可知,本发明实施例通过利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量,以及再将所述文本进行分段处理,以获得所述文本的至少两个分段,进而利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量,并根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量,使得能够根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别,由于利用了少量的标注数据即不常见的一些实体关系类别下的少量标注样本,并且增加了更加细粒度的分段特征来表征待处理的文本,使得能够基于不常见的实体关系的少量标注样本准确地预测出文本中所存在的不常见的实体关系,从而提高了少量不常见的实体关系的识别准确率。
另外,采用本发明所提供的技术方案,具有不依赖不常见的实体关系的大量标注样本的特点,使得在模型训练时可以大大降低标注数据的成本,同时保证了模型的稳定性。
另外,采用本发明所提供的技术方案,通过在模型训练阶段,在交叉熵损失函数的基础之上引入额外的三元组损失函数,能够进一步提高识别准确率。
另外,采用本发明所提供的技术方案,能够有效地提高用户的体验。
【附图说明】
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1A为本发明一实施例提供的实体关系的处理方法的流程示意图;
图1B为图1对应的实施例中利用交叉熵损失函数进行模型训练的分类效果示意图;
图1C为图1对应的实施例中利用交叉熵损失函数和三元组损失函数进行模型训练的分类效果示意图;
图2为本发明另一实施例提供的实体关系的处理装置的结构示意图;
图3为适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。
【具体实施方式】
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例中所涉及的终端可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(Tablet Computer)、个人电脑(Personal Computer,PC)、MP3播放器、MP4播放器、可穿戴设备(例如,智能眼镜、智能手表、智能手环等)等。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1A为本发明一实施例提供的实体关系的处理方法的流程示意图,如图1A所示。
101、利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量。
102、将所述文本进行分段处理,以获得所述文本的至少两个分段。
103、利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量。
104、根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量。
105、根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别。
其中,所述第一神经网络、所述第二神经网络或者所述第三神经网络可以包括但不限于循环神经网络(Recurrent Neural Network,RNN)、卷积神经网络(ConvolutionalNeural Network,CNN)或深度神经网络(Deep Neural Network,DNN),本实施例对此不进行特别限定。
需要说明的是,101~105的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
这样,通过利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量,以及再将所述文本进行分段处理,以获得所述文本的至少两个分段,进而利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量,并根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量,使得能够根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别,由于利用了少量的标注数据即不常见的一些实体关系类别下的少量标注样本,并且增加了更加细粒度的分段特征来表征待处理的文本,使得能够基于不常见的实体关系的少量标注样本准确地预测出文本中所存在的不常见的实体关系,从而提高了少量不常见的实体关系的识别准确率。
在本发明中,对待处理文本的特征提取进行优化处理,增加了更加细粒度的分段特征来表征待处理的文本,除了利用现有的第一神经网络整体对文本进行特征抽取之外,还进一步利用创新的第二神经网络单独对文本中的每个分段进行特征抽取,能够有效突出文本中具有不常见的实体关系的实体的特征。
本发明中,由于构建模型(即第一神经网络、第二神经网络和第三神经网络)时所采用的大量标注样本,其中所具有的实体关系(即第二实体关系)都是常见的实体关系,那么,在对待处理文本中存在的不常见的实体关系进行预测的过程中,可以利用所构建的模型,再配合少量的具有不常见的实体关系(即第一实体关系)的标注样本,采用基于小样本的机器学习技术,进行文本中所存在的实体关系的预测。
在数据(包括语料和语料标签)有限的情况下,基于小样本的机器学习技术(Few-shot Learning)往往会取得比传统监督学习算法更加理想的效果。Few-shot Learning的数据由许多成对的支持数据(Support Set)和测试数据(Query Set)组成。每个SupportSet中包含N个类别(即本发明是所识别的第一实体关系类别)的数据,每个类别的数据则有K条数据实例(Data Instance)(即第一样本)。每个Query Set中包含Q条未标注数据(即待处理的文本),且该Q条数据一定属于Support Set提供的N个类别。基于小样本的机器学习模型(Few-shot Learning Model)的任务就是对Query Set中的数据进行预测。
可选地,在本实施例的一个可能的实现方式中,在101中,具体可以以卷积神经网络作为第一神经网络作为举例,详细说明如何获得待处理的文本的初始特征向量。
(1)将文本转化为矩阵。
将文本中的单词(例如,M个单词)转化为各自对应的D维向量,每个文本会形成相应的文本矩阵,维度为(D,M)。
(2)卷积神经网络提取特征。
将维度为(D,M)的文本矩阵作为输入,输入到卷积神经网络,经过卷积神经网络的卷积层之后,输出维度为(H,M)的新矩阵。其中,卷积层由H个卷积核构成。然后,再经过卷积神经网络的池化层之后,输出长度为H的一维特征向量,即为文本的初始特征向量。
可选地,在本实施例的一个可能的实现方式中,在102中,所进行的所述分段处理的结果具体可以包括但不限于首实体(Head Entity)、尾实体(Tail Entity)和第一上下文(Middle Mention),本实施例对此不进行限定。
其中,所述第一上下文可以包括但不限于所述首实体与所述尾实体之间的内容,本实施例对此不进行特别限定。
进一步地,所述分段处理的结果还可以进一步包括但不限于第二上下文(FrontMention)和第三上下文(Back Mention)中的至少一项,本实施例对此不进行限定。
其中,所述第二上下文可以包括但不限于所述首实体之前的内容,本实施例对此不进行特别限定。
其中,所述第三上下文可以包括但不限于所述尾实体之后的内容,本实施例对此不进行特别限定。
例如,如下表格中所示例的为一个文本“Under instructions the firstJesuits to be sent,Parsons and Edmund Campion,were to work closely with otherCatholic priests in England.”的分段处理的结果
Figure GDA0002895537660000081
可选地,在本实施例的一个可能的实现方式中,在103中,具体可以将所述文本的每个分段单独作为输入,输入到各自所对应的第二神经网络,进行特征提取,以获得所述文本的每个分段的特征向量。这些第二神经网络的结构,可以为相同结构的神经网络,也可以为不同结构的神经网络,类似地,其参数可以相同或者也可以不相同,本实施例对此不进行特别限定。
具体地,每个第二神经网络的结构与第一神经网络的结构可以相同或者也可以不相同,类似地,其参数可以相同或者也可以不相同,因此,获得所述文本的每个分段的特征向量的详细描述可以参见获得待处理的文本的初始特征向量的相关内容。
可选地,在本实施例的一个可能的实现方式中,在104中,具体可以将所述文本的初始特征向量和所述文本的每个分段的特征向量进行拼接处理,例如,采用向量拼接原理等,获得所述文本的优化特征向量。
可选地,在本实施例的一个可能的实现方式中,在105之前,还可以进一步执行获取所述至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量的操作。
首先,可以利用所述第一神经网络,对所述每个第一实体关系类别下的每个第一样本进行特征提取处理,以获得所述每个第一样本的初始特征向量。
具体地,获得所述每个第一样本的初始特征向量的详细描述可以参见获得待处理的文本的初始特征向量的相关内容。
在获得所述每个第一样本的初始特征向量的同时,还可以进一步将所述每个第一样本进行分段处理,以获得所述每个第一样本的至少两个分段,并利用所述至少一个第二神经网络,对所述每个第一样本的至少两个分段中每个分段进行特征提取处理,以获得所述每个第一样本的每个分段的特征向量。
其中,所进行的所述分段处理的结果具体可以包括但不限于首实体(HeadEntity)、尾实体(Tail Entity)和第一上下文(Middle Mention),其中,所述第一上下文可以包括所述首实体与所述尾实体之间的内容。
进一步地,所述分段处理的结果还可以进一步包括第二上下文(Front Mention)和第三上下文(Back Mention)中的至少一项,其中,所述第二上下文可以包括所述首实体之前的内容,所述第三上下文可以包括所述尾实体之后的内容。
具体地,获得每个第一样本的每个分段的特征向量的详细描述可以参见获得文本的每个分段的特征向量的相关内容。
在获得每个第一样本的每个分段的特征向量之后,则可以根据所述每个第一样本的初始特征向量和所述每个第一样本的每个分段的特征向量,获得所述每个第一样本的优化特征向量。
具体地,具体可以将所述每个第一样本的初始特征向量和所述每个第一样本的每个分段的特征向量进行拼接处理例如,采用向量拼接原理等,获得所述每个第一样本的优化特征向量。
在获得所述每个第一样本的优化特征向量之后,可以根据所述每个第一样本的优化特征向量,获得所述每个第一实体关系类别的优化特征向量。
具体地,具体可以将所述每个第一实体关系类别下的全部第一样本的优化特征向量的平均值,作为该第一实体关系类别的优化特征向量。
可选地,在本实施例的一个可能的实现方式中,还可以进一步利用至少两个第二实体关系类别下每个第二样本,进行模型训练处理,以获得所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络。
具体地,在模型训练的过程中,具体可以基于所述每个第二样本,利用交叉熵损失函数和三元组损失函数中的至少一项,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理。
在一个具体的实现过程中,具体可以利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束。
具体地,交叉熵损失函数可以采用如下的方式计算:
Figure GDA0002895537660000101
其中,c为第二实体关系类别的类别个数;yn为第二实体关系类别的标注特征向量;sn为每个第二样本的优化特征向量与该第二样本所属的第二实体关系类别的优化特征向量之间的距离值所对应的softmax函数。
在模型训练的过程中,具体可以利用所述第一神经网络,对所述每个第二实体关系类别下的每个第二样本进行特征提取处理,以获得所述每个第二样本的初始特征向量。
具体地,获得所述每个第二样本的初始特征向量的详细描述可以参见获得待处理的文本的初始特征向量的相关内容。
在获得所述每个第二样本的初始特征向量的同时,还可以进一步将每个第二实体关系类别下的每个第二样本进行分段处理,以获得所述每个第二样本的至少两个分段,并利用所述至少一个第二神经网络,对所述每个第二样本的至少两个分段中每个分段进行特征提取处理,以获得所述每个第二样本的每个分段的特征向量。
获得每个第二样本的每个分段的特征向量的详细描述可以参见获得文本的每个分段的特征向量的相关内容。
在获得每个第二样本的每个分段的特征向量之后,则可以根据所述每个第二样本的初始特征向量和所述每个第二样本的每个分段的特征向量,获得所述每个第二样本的优化特征向量。
具体地,具体可以将所述每个第二样本的初始特征向量和所述每个第二样本的每个分段的特征向量进行拼接处理例如,采用向量拼接原理等,获得所述每个第二样本的优化特征向量。
在获得所述每个第二样本的优化特征向量之后,可以根据所述每个第二样本的优化特征向量,获得所述每个第二实体关系类别的优化特征向量。
具体地,具体可以将所述每个第二实体关系类别下的全部第二样本的优化特征向量的平均值,作为该第二实体关系类别的优化特征向量。
至此,则可以根据每个第二样本的优化特征向量和该第二样本所属的第二实体关系类别的优化特征向量,计算该第二样本的优化特征向量与该第二样本所属的第二实体关系类别的优化特征向量之间的距离值,进而,则可以获得该距离值所对应的softmax函数。
这样,通过进行以最小化交叉熵损失函数为目的的反向传输,使得模型达到最高的识别准确率。
在另一个具体的实现过程中,具体可以利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本(anchorsample)、一个正样本(positive sample)和一个负样本(negative sample)组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
其中,所述基础样本的优化特征向量ai、所述正样本的优化特征向量pi、以及所述负样本的优化特征向量ni,的获得方法,详细描述可以参见第一样本的优化特征向量的相关内容。
具体地,对于单个三元组而言,它的三元组损失函数可以采用如下的方式计算:
SingleTripletLoss=max(0,||ai-pi||2-||ai-ni||2+margin)
其中,margin为一个预设的常数项;||ai-pi||2为第i个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离;||ai-ni||2为第i个三元组中的基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离。
对于所有三元组例如m个三元组而言,他们的三元组损失函数的和可以采用如下的方式计算:
Figure GDA0002895537660000121
这样,通过以最小化三元组损失函数为目的的类间分布优化,使得每个三元组内的类内距离(即基础样本的优化特征向量与正样本的优化特征向量之间的距离)以显著的距离(例如,预设的常数项如margin值)小于类间距离(基础样本的优化特征向量与负样本的优化特征向量之间的距离),能够使得三元组损失函数在同类的特征向量之间产生一种拉力,而在异类的特征向量之间产生一种推力,从而能够使得模型的类间特征分布更加均匀,而类内特征分布更加紧密。
在另一个具体的实现过程中,具体可以利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束;以及利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本(anchor sample)、一个正样本(positive sample)和一个负样本(negative sample)组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
由于模型的分类效果是基于特征向量的类间分布产生的,因此,优化类间分布,使得待处理的文本的特征与实体关系类别的特征的距离比对产生更加清晰的分类效果。
为了使三元组损失函数与交叉熵损失函数共同工作,产生更好的模型优化效果,还可以进一步对两种函数进行加权求和,产生了最终的损失函数。
图1B为图1对应的实施例中利用交叉熵损失函数进行模型训练的分类效果示意图,图1C为图1对应的实施例中利用交叉熵损失函数和三元组损失函数进行模型训练的分类效果示意图,通过比较两个分类效果示意图,可以发现,图1C的类间特征分布更加均匀,类内特征分布更加紧密。
本实施例中,通过利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量,以及再将所述文本进行分段处理,以获得所述文本的至少两个分段,进而利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量,并根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量,使得能够根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别,由于利用了少量的标注数据即不常见的一些实体关系类别下的少量标注样本,并且增加了更加细粒度的分段特征来表征待处理的文本,使得能够基于不常见的实体关系的少量标注样本准确地预测出文本中所存在的不常见的实体关系,从而提高了少量不常见的实体关系的识别准确率。
另外,采用本发明所提供的技术方案,具有不依赖不常见的实体关系的大量标注样本的特点,使得在模型训练时可以大大降低标注数据的成本,同时保证了模型的稳定性。
另外,采用本发明所提供的技术方案,通过在模型训练阶段,在交叉熵损失函数的基础之上引入额外的三元组损失函数,能够进一步提高识别准确率。
另外,采用本发明所提供的技术方案,能够有效地提高用户的体验。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图2为本发明另一实施例提供的实体关系的处理装置的结构示意图,如图2所示。本实施例的实体关系的处理装置可以包括第一特征提取单元21、第二特征提取单元22、特征处理单元23和关系识别单元24。其中,第一特征提取单元21,用于利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量;第二特征提取单元22,用于将所述文本进行分段处理,以获得所述文本的至少两个分段;以及利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量;特征处理单元23,用于根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量;关系识别单元24,用于根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别。
需要说明的是,本实施例所提供的实体关系的处理装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的搜索引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
可选地,在本实施例的一个可能的实现方式中,所述关系识别单元24,还可以进一步用于利用所述第一神经网络,对所述每个第一实体关系类别下的每个第一样本进行特征提取处理,以获得所述每个第一样本的初始特征向量;将所述每个第一样本进行分段处理,以获得所述每个第一样本的至少两个分段;利用所述至少一个第二神经网络,对所述每个第一样本的至少两个分段中每个分段进行特征提取处理,以获得所述每个第一样本的每个分段的特征向量;根据所述每个第一样本的初始特征向量和所述每个第一样本的每个分段的特征向量,获得所述每个第一样本的优化特征向量;以及根据所述每个第一样本的优化特征向量,获得所述每个第一实体关系类别的优化特征向量。
可选地,在本实施例的一个可能的实现方式中,本实施例中所涉及的所述分段处理的结果可以包括但不限于首实体、尾实体和第一上下文,其中,所述第一上下文可以包括但不限于所述首实体与所述尾实体之间的内容,本实施例对此不进行特别限定。
进一步地,所述分段处理的结果还可以进一步包括第二上下文和第三上下文中的至少一项,其中,所述第二上下文可以包括但不限于所述首实体之前的内容,所述第三上下文可以包括但不限于所述尾实体之后的内容,本实施例对此不进行特别限定。
可选地,在本实施例的一个可能的实现方式中,所述关系识别单元24,还可以进一步用于利用至少两个第二实体关系类别下每个第二样本,进行模型训练处理,以获得所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络。
具体来说,所述关系识别单元24,具体可以用于利用交叉熵损失函数和三元组损失函数中的至少一项,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理。
在一个具体的实现过程中,所述关系识别单元24,具体可以用于利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束。
在另一个具体的实现过程中,所述关系识别单元24,具体可以用于利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本、一个正样本和一个负样本组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
在另一个具体的实现过程中,所述关系识别单元24,具体可以用于利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束;以及利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本、一个正样本和一个负样本组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
需要说明的是,图1A对应的实施例中方法,可以由本实施例提供的实体关系的处理装置实现。详细描述可以参见图1A对应的实施例中的相关内容,此处不再赘述。
本实施例中,通过第一特征提取单元利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量,以及再通过第二特征提取单元将所述文本进行分段处理,以获得所述文本的至少两个分段,进而利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量,并由特征处理单元根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量,使得关系识别单元能够根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别,由于利用了少量的标注数据即不常见的一些实体关系类别下的少量标注样本,并且增加了更加细粒度的分段特征来表征待处理的文本,使得能够基于不常见的实体关系的少量标注样本准确地预测出文本中所存在的不常见的实体关系,从而提高了少量不常见的实体关系的识别准确率。
另外,采用本发明所提供的技术方案,具有不依赖不常见的实体关系的大量标注样本的特点,使得在模型训练时可以大大降低标注数据的成本,同时保证了模型的稳定性。
另外,采用本发明所提供的技术方案,通过在模型训练阶段,在交叉熵损失函数的基础之上引入额外的三元组损失函数,能够进一步提高识别准确率。
另外,采用本发明所提供的技术方案,能够有效地提高用户的体验。
图3示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。图3显示的计算机系统/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,存储装置或者系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器25等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口44进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图1A所对应的实施例所提供的实体关系的处理方法。
本发明另一实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现图1A所对应的实施例所提供的实体关系的处理方法。
具体来说,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或页面组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一个计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (18)

1.一种实体关系的处理方法,其特征在于,包括:
利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量;
将所述文本进行分段处理,以获得所述文本的至少两个分段;
利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量;
根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量;
根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别;其中,
所述根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别之前,还包括:
利用所述第一神经网络,对所述每个第一实体关系类别下的每个第一样本进行特征提取处理,以获得所述每个第一样本的初始特征向量;
将所述每个第一样本进行分段处理,以获得所述每个第一样本的至少两个分段;
利用所述至少一个第二神经网络,对所述每个第一样本的至少两个分段中每个分段进行特征提取处理,以获得所述每个第一样本的每个分段的特征向量;
根据所述每个第一样本的初始特征向量和所述每个第一样本的每个分段的特征向量,获得所述每个第一样本的优化特征向量;
根据所述每个第一样本的优化特征向量,获得所述每个第一实体关系类别的优化特征向量。
2.根据权利要求1所述的方法,其特征在于,所述分段处理的结果包括首实体、尾实体和第一上下文,其中,所述第一上下文包括所述首实体与所述尾实体之间的内容。
3.根据权利要求2所述的方法,其特征在于,所述分段处理的结果还包括第二上下文和第三上下文中的至少一项,其中,所述第二上下文包括所述首实体之前的内容,所述第三上下文包括所述尾实体之后的内容。
4.根据权利要求1~3任一权利要求所述的方法,其特征在于,所述方法还包括:
利用至少两个第二实体关系类别下每个第二样本,进行模型训练处理,以获得所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络。
5.根据权利要求4所述的方法,其特征在于,所述利用至少两个第二实体关系类别下每个第二样本,进行模型训练,包括:
利用交叉熵损失函数和三元组损失函数中的至少一项,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理。
6.根据权利要求5所述的方法,其特征在于,所述利用交叉熵损失函数,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理,包括:
利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束。
7.根据权利要求5所述的方法,其特征在于,所述三元组损失函数,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理,包括:
利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本、一个正样本和一个负样本组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
8.根据权利要求5所述的方法,其特征在于,所述利用交叉熵损失函数和三元组损失函数中的至少一项,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理,包括:
利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束;以及
利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本、一个正样本和一个负样本组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
9.一种实体关系的处理装置,其特征在于,包括:
第一特征提取单元,用于利用第一神经网络,对待处理的文本进行特征提取处理,以获得所述文本的初始特征向量;
第二特征提取单元,用于将所述文本进行分段处理,以获得所述文本的至少两个分段;以及利用至少一个第二神经网络,对所述文本的至少两个分段中每个分段进行特征提取处理,以获得所述文本的每个分段的特征向量;
特征处理单元,用于根据所述文本的初始特征向量和所述文本的每个分段的特征向量,获得所述文本的优化特征向量;
关系识别单元,用于根据至少两个第一实体关系类别中每个第一实体关系类别的优化特征向量和所述文本的优化特征向量,利用第三神经网络,获得所述文本中所存在的第一实体关系类别;其中,
所述关系识别单元,还用于
利用所述第一神经网络,对所述每个第一实体关系类别下的每个第一样本进行特征提取处理,以获得所述每个第一样本的初始特征向量;
将所述每个第一样本进行分段处理,以获得所述每个第一样本的至少两个分段;
利用所述至少一个第二神经网络,对所述每个第一样本的至少两个分段中每个分段进行特征提取处理,以获得所述每个第一样本的每个分段的特征向量;
根据所述每个第一样本的初始特征向量和所述每个第一样本的每个分段的特征向量,获得所述每个第一样本的优化特征向量;以及
根据所述每个第一样本的优化特征向量,获得所述每个第一实体关系类别的优化特征向量。
10.根据权利要求9所述的装置,其特征在于,所述分段处理的结果包括首实体、尾实体和第一上下文,其中,所述第一上下文包括所述首实体与所述尾实体之间的内容。
11.根据权利要求10所述的装置,其特征在于,所述分段处理的结果还包括第二上下文和第三上下文中的至少一项,其中,所述第二上下文包括所述首实体之前的内容,所述第三上下文包括所述尾实体之后的内容。
12.根据权利要求10~11任一权利要求所述的装置,其特征在于,所述关系识别单元,还用于
利用至少两个第二实体关系类别下每个第二样本,进行模型训练处理,以获得所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络。
13.根据权利要求12所述的装置,其特征在于,所述关系识别单元,具体用于
利用交叉熵损失函数和三元组损失函数中的至少一项,对所述第一神经网络、所述至少一个第二神经网络和所述第三神经网络进行参数优化处理。
14.根据权利要求13所述的装置,其特征在于,所述关系识别单元,具体用于
利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束。
15.根据权利要求13所述的装置,其特征在于,所述关系识别单元,具体用于
利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本、一个正样本和一个负样本组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
16.根据权利要求13所述的装置,其特征在于,所述关系识别单元,具体用于
利用交叉熵损失函数,对所述每个第二实体关系类别下的每个第二样本中预测的实体关系类别与该第二样本中标注的实体关系类别之间的差值进行最小化约束;以及
利用三元组损失函数,对至少一个三元组中每个三元组中的基础样本的优化特征向量与该三元组中的正样本的优化特征向量之间的第一距离,与,所述基础样本的优化特征向量与该三元组中的负样本的优化特征向量之间的第二距离,之间的差值进行约束;其中,所述每个三元组由一个基础样本、一个正样本和一个负样本组成,所述每个三元组中的样本为从至少两个第二实体关系类别中每个第二实体关系类别中的样本中抽取,所述基础样本中所存在的实体关系类别与所述正样本中所存在的实体关系类别相同,所述基础样本中所存在的实体关系类别与所述负样本中所存在的实体关系类别不相同。
17.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1~8中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~8中任一所述的方法。
CN201910414289.4A 2019-05-17 2019-05-17 实体关系的处理方法、装置、设备及计算机可读存储介质 Active CN111950279B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910414289.4A CN111950279B (zh) 2019-05-17 2019-05-17 实体关系的处理方法、装置、设备及计算机可读存储介质
US16/875,274 US20200364406A1 (en) 2019-05-17 2020-05-15 Entity relationship processing method, apparatus, device and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910414289.4A CN111950279B (zh) 2019-05-17 2019-05-17 实体关系的处理方法、装置、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111950279A CN111950279A (zh) 2020-11-17
CN111950279B true CN111950279B (zh) 2023-06-23

Family

ID=73228630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910414289.4A Active CN111950279B (zh) 2019-05-17 2019-05-17 实体关系的处理方法、装置、设备及计算机可读存储介质

Country Status (2)

Country Link
US (1) US20200364406A1 (zh)
CN (1) CN111950279B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633407B (zh) * 2020-12-31 2023-10-13 深圳云天励飞技术股份有限公司 分类模型的训练方法、装置、电子设备及存储介质
CN113010638B (zh) * 2021-02-25 2024-02-09 北京金堤征信服务有限公司 实体识别模型生成方法及装置、实体提取方法及装置
CN113590774B (zh) * 2021-06-22 2023-09-29 北京百度网讯科技有限公司 事件查询方法、装置以及存储介质
CN113536795B (zh) * 2021-07-05 2022-02-15 杭州远传新业科技有限公司 实体关系抽取的方法、系统、电子装置和存储介质
CN113342995B (zh) * 2021-07-05 2022-12-02 成都信息工程大学 一种基于路径语义和特征提取的负样本提取方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10169315B1 (en) * 2018-04-27 2019-01-01 Asapp, Inc. Removing personal information from text using a neural network

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8457950B1 (en) * 2012-11-01 2013-06-04 Digital Reasoning Systems, Inc. System and method for coreference resolution
US20150324481A1 (en) * 2014-05-06 2015-11-12 International Business Machines Corporation Building Entity Relationship Networks from n-ary Relative Neighborhood Trees
US9710544B1 (en) * 2016-05-19 2017-07-18 Quid, Inc. Pivoting from a graph of semantic similarity of documents to a derivative graph of relationships between entities mentioned in the documents
CN107436875B (zh) * 2016-05-25 2020-12-04 华为技术有限公司 文本分类方法及装置
US10268679B2 (en) * 2016-12-02 2019-04-23 Microsoft Technology Licensing, Llc Joint language understanding and dialogue management using binary classification based on forward and backward recurrent neural network
CN107908642B (zh) * 2017-09-29 2021-11-12 江苏华通晟云科技有限公司 基于分布式平台的行业文本实体提取方法
CN107832400B (zh) * 2017-11-01 2019-04-16 山东大学 一种基于位置的lstm和cnn联合模型进行关系分类的方法
CN107943847B (zh) * 2017-11-02 2019-05-17 平安科技(深圳)有限公司 企业关系提取方法、装置及存储介质
CN108280062A (zh) * 2018-01-19 2018-07-13 北京邮电大学 基于深度学习的实体和实体关系识别方法及装置
CN108536679B (zh) * 2018-04-13 2022-05-20 腾讯科技(成都)有限公司 命名实体识别方法、装置、设备及计算机可读存储介质
CN108763376B (zh) * 2018-05-18 2020-09-29 浙江大学 融合关系路径、类型、实体描述信息的知识表示学习方法
CN108875809A (zh) * 2018-06-01 2018-11-23 大连理工大学 联合attention机制与神经网络的生物医学实体关系分类方法
CN109063159B (zh) * 2018-08-13 2021-04-23 桂林电子科技大学 一种基于神经网络的实体关系抽取方法
CN109062901B (zh) * 2018-08-14 2019-10-11 第四范式(北京)技术有限公司 神经网络训练方法和装置及命名实体识别方法和装置
CN109145303B (zh) * 2018-09-06 2023-04-18 腾讯科技(深圳)有限公司 命名实体识别方法、装置、介质以及设备
CN109284374B (zh) * 2018-09-07 2024-07-05 百度在线网络技术(北京)有限公司 用于确定实体类别的方法、装置、设备以及计算机可读存储介质
CN109522557B (zh) * 2018-11-16 2021-07-16 中山大学 文本关系抽取模型的训练方法、装置及可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10169315B1 (en) * 2018-04-27 2019-01-01 Asapp, Inc. Removing personal information from text using a neural network

Also Published As

Publication number Publication date
US20200364406A1 (en) 2020-11-19
CN111950279A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN111950279B (zh) 实体关系的处理方法、装置、设备及计算机可读存储介质
CN113326764B (zh) 训练图像识别模型和图像识别的方法和装置
CN106649890B (zh) 数据存储方法和装置
CN109918513B (zh) 图像处理方法、装置、服务器及存储介质
CN108121699B (zh) 用于输出信息的方法和装置
CN111783039B (zh) 风险确定方法、装置、计算机系统和存储介质
CN113722438B (zh) 基于句向量模型的句向量生成方法、装置及计算机设备
CN109947924B (zh) 对话系统训练数据构建方法、装置、电子设备及存储介质
CN112749300B (zh) 用于视频分类的方法、装置、设备、存储介质和程序产品
CN113486178B (zh) 文本识别模型训练方法、文本识别方法、装置以及介质
CN113434683B (zh) 文本分类方法、装置、介质及电子设备
CN113051911B (zh) 提取敏感词的方法、装置、设备、介质及程序产品
CN113762303B (zh) 图像分类方法、装置、电子设备及存储介质
CN116402166A (zh) 一种预测模型的训练方法、装置、电子设备及存储介质
CN117635998A (zh) 用于多标签半监督分类的基于百分位数的伪标签选择
CN111738009B (zh) 实体词标签生成方法、装置、计算机设备和可读存储介质
CN107729944A (zh) 一种低俗图片的识别方法、装置、服务器及存储介质
CN114911926A (zh) 一种引入注意力机制的卷积神经网络与支持向量机分类器结合的文本分类方法
CN116450943A (zh) 基于人工智能的话术推荐方法、装置、设备及存储介质
CN107430600A (zh) 可扩展的web数据提取
CN110059180B (zh) 文章作者身份识别及评估模型训练方法、装置及存储介质
CN115840817A (zh) 基于对比学习的信息聚类处理方法、装置和计算机设备
CN113988059A (zh) 一种会话数据类型识别方法、系统、设备及存储介质
CN113239273A (zh) 用于生成文本的方法、装置、设备以及存储介质
CN112417131A (zh) 信息推荐方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant