CN111310454B - 一种基于领域迁移的关系抽取方法及装置 - Google Patents
一种基于领域迁移的关系抽取方法及装置 Download PDFInfo
- Publication number
- CN111310454B CN111310454B CN202010051693.2A CN202010051693A CN111310454B CN 111310454 B CN111310454 B CN 111310454B CN 202010051693 A CN202010051693 A CN 202010051693A CN 111310454 B CN111310454 B CN 111310454B
- Authority
- CN
- China
- Prior art keywords
- feature vector
- sample
- relation
- sample feature
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供了一种基于领域迁移的关系抽取方法及装置,所述方法包括:获取待处理文本;提取待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成第一预设词性的词语与第二预设词性的词语对应的关系词对;根据待处理文本的标识,关系词对在待处理文本中的位置,待处理文本所属的领域,生成关系提及特征向量矩阵;利用预先训练好的关系分类模型对关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到关系提及特征向量对应的关系类别。本发明实施例,使用优化的样本数据训练关系分类模型,能够提高分类结果的准确度。
Description
技术领域
本发明涉及自然语言处理技术领域,特别是涉及一种基于领域迁移的关系抽取方法及装置。
背景技术
信息抽取技术是通过从自然语言文本中抽取指定类型的实体、关系、事件等事实信息来提取出文本中所包含的重要信息。关系抽取作为信息抽取技术中一个重要的子任务,主要对句子或文本中概念之间的关系进行识别和分类,同时,关系抽取也是许多自然语言处理领域任务的基础。
现有的关系抽取方法为:采用远程监督的方式获取标注数据,进而使用标注的数据来训练分类模型,例如,逻辑回归分类模型,或支持向量机分类模型等来对文本信息进行关系分类。其中,采用远程监督的方式获取标注数据的实现过程为:借助外部知识库为数据提供标签,来标注文本中实体对之间的关系,该外部知识库为已经设置好的存储有实体对之间对应关系的数据库。例如,“汉武帝封卫青为大将军”这句话中的汉武帝和卫青在外部知识库中存储有关系:君臣等。
现有的关系抽取方法中训练分类模型所使用的数据,是采用远程监督的方式获取的标注数据,而远程监督是借助外部知识库为数据提供标签的,在标注数据时只能局限于外部知识库。外部知识库将同一对实体的所有情况标注为一种关系,那么所有包含此对实体的数据都表达这个关系,例如,“汉武帝封卫青为大将军”这句话中的汉武帝和卫青在外部知识库中存储有关系:君臣,而在另一句话:“汉武帝是卫青姐姐的丈夫”中汉武帝和卫青应该是亲属关系而不是君臣关系,此时外部知识库提供的信息就是不准确的,使得标签的准确度不高,进而标注的数据准确度也就不高,导致使用所标注的数据训练得到的分类模型的分类结果准确度较低。
发明内容
本发明实施例的目的在于提供一种基于领域迁移的关系抽取方法及装置,使用优化的样本数据训练关系分类模型,以提高分类结果的准确度。具体技术方案如下:
第一方面,本发明实施例提供了一种基于领域迁移的关系抽取方法,所述方法包括:
获取待处理文本,所述待处理文本为待进行关系抽取的文本;
提取所述待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成所述第一预设词性的词语与所述第二预设词性的词语对应的关系词对;
根据待处理文本的标识,所述关系词对在所述待处理文本中的位置,所述待处理文本所属的领域,生成关系提及特征向量矩阵;所述关系提及特征向量矩阵中的一行表示一个关系提及特征向量;
利用预先训练好的关系分类模型对所述关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到所述关系提及特征向量对应的关系类别,所述关系类别包括:无关系类别和有关系类别;其中,所述关系分类模型,是根据优化后的各第一样本特征向量,以及所述优化后的各第一样本特征向量对应的标准类别标签训练得到的;所述优化后的各第一样本特征向量,是将第一样本特征向量,输入预先训练好的优化模型中得到的;所述优化模型,是根据目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签训练得到的,所述目标领域为所述待处理文本所属的领域,所述目标领域与所述源领域为同一领域下的不同子领域。
可选地,所述利用预先训练好的关系分类模型对所述关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到所述关系提及特征向量对应的关系类别的步骤,包括:
将所述关系提及特征向量矩阵中每一关系提及特征向量,输入预先训练好的关系分类模型中,得到所述关系提及特征向量对应的关系类别。
可选地,所述优化模型的训练过程,包括:
构建初始的强化学习模型,以及构建初始的神经网络;
获取第一样本特征向量;
依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量;
将各所述第一样本特征向量,各所述第二样本特征向量,各所述第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签,输入所述神经网络中,得到各所述第一样本特征向量对应的类别标签;
基于各所述第一样本特征向量对应的类别标签,与所述第三样本特征向量对应的类别标签的差异,计算损失函数,并对所述神经网络中的参数进行更新;
判断所述神经网络的损失函数是否满足第一预设收敛条件,并判断强化学习模型的梯度参数值是否满足第二预设收敛条件;
如果所述神经网络的损失函数满足第一预设收敛条件,且所述强化学习模型的梯度参数值满足第二预设收敛条件,将所述第二样本特征向量,作为优化后的第一样本特征向量;
如果所述神经网络的损失函数不满足第一预设收敛条件,或所述强化学习模型的梯度参数值不满足第二预设收敛条件,将所述神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并返回执行依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量的步骤。
可选地,所述获取第一样本特征向量的步骤,包括:
获取样本文本,所述样本文本所属的领域为目标领域;
提取所述样本文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成所述第一预设词性的词语与所述第二预设词性的词语对应的关系词对;
根据样本文本的标识,所述关系词对在所述样本文本中的位置,所述样本文本所属的领域,生成所述样本文本对应的关系提及特征向量矩阵;所述样本文本对应的关系提及特征向量矩阵中的一行表示一个关系提及特征向量;
根据预先设置好的知识库,为所述样本文本对应的关系提及特征向量矩阵中每一特征向量添加标签,得到添加标签后的关系提及特征向量矩阵;
将添加标签后的关系提及特征向量矩阵中的关系提及特征向量,确定为第一样本特征向量。
可选地,所述依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量的步骤,包括:
依次针对每一第一样本特征向量执行步骤S1-步骤S5:
步骤S1,以排序在当前第一样本特征向量之前的,动作为第一预设参数的所有第一样本特征向量中特征的均值,和所有第一样本特征向量中特征的均值,构成中间信息;以所述当前第一样本特征向量中的特征,所述中间信息,构成当前第一样本特征向量对应的状态;
步骤S2,将所述状态输入所述强化学习模型中,得到所述状态对应的动作;
步骤S3,将所述状态对应的当前第一样本特征向量,输入预先训练好的分类模型中,得到所述状态对应的分类结果;
步骤S4,根据所述状态对应的分类结果,使用预设的奖励计算表达式计算所述状态在所述分类结果下的奖励;
步骤S5,基于所述状态,该状态对应的动作和奖励,更新所述强化学习模型的参数;
计算所述强化学习模型的梯度参数值;
将所有动作为第二预设参数的状态对应的第一样本特征向量,确定为目标领域中的第二样本特征向量。
第二方面,本发明实施例提供了一种基于领域迁移的关系抽取装置,所述装置包括:
获取模块,用于获取待处理文本,所述待处理文本为待进行关系抽取的文本;
第一生成模块,用于提取所述待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成所述第一预设词性的词语与所述第二预设词性的词语对应的关系词对;
第二生成模块,用于根据待处理文本的标识,所述关系词对在所述待处理文本中的位置,所述待处理文本所属的领域,生成关系提及特征向量矩阵;所述关系提及特征向量矩阵中的一行表示一个关系提及特征向量;
分类模块,用于利用预先训练好的关系分类模型对所述关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到所述关系提及特征向量对应的关系类别,所述关系类别包括:无关系类别和有关系类别;其中,所述关系分类模型,是根据优化后的各第一样本特征向量,以及所述优化后的各第一样本特征向量对应的标准类别标签训练得到的;所述优化后的各第一样本特征向量,是将第一样本特征向量,输入预先训练好的优化模型中得到的;所述优化模型,是根据目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签训练得到的,所述目标领域为所述待处理文本所属的领域,所述目标领域与所述源领域为同一领域下的不同子领域。
可选地,所述分类模块,具体用于:
将所述关系提及特征向量矩阵中每一关系提及特征向量,输入预先训练好的关系分类模型中,得到所述关系提及特征向量对应的关系类别。
可选地,所述装置还包括:
构建模块,用于构建初始的强化学习模型,以及构建初始的神经网络;
第一获取模块,用于获取第一样本特征向量;
第一获得模块,用于依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量;
第二获得模块,用于将各所述第一样本特征向量,各所述第二样本特征向量,各所述第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签,输入所述神经网络中,得到各所述第一样本特征向量对应的类别标签;
计算模块,用于基于各所述第一样本特征向量对应的类别标签,与所述第三样本特征向量对应的类别标签的差异,计算损失函数,并对所述神经网络中的参数进行更新;
判断模块,用于判断所述神经网络的损失函数是否满足第一预设收敛条件,并判断强化学习模型的梯度参数值是否满足第二预设收敛条件;
确定模块,用于在所述判断模块判断出所述神经网络的损失函数满足第一预设收敛条件,且所述强化学习模型的梯度参数值满足第二预设收敛条件时,将所述第二样本特征向量,作为优化后的第一样本特征向量;
更新模块,用于在所述判断模块判断出所述神经网络的损失函数不满足第一预设收敛条件,或所述强化学习模型的梯度参数值不满足第二预设收敛条件时,将所述神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并触发第一获得模块执行依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量。
第三方面,本发明实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面所述的一种基于领域迁移的关系抽取方法的方法步骤。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面所述的一种基于领域迁移的关系抽取方法的方法步骤。
本发明实施例有益效果:
本发明实施例提供的一种基于领域迁移的关系抽取方法及装置,由于能够使用目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,训练得到优化模型,然后,基于该优化模型得到优化后的各第一样本特征向量,即借助与目标领域同一领域下的不同子领域中标注准确度较高的已标注数据,对目标领域中的样本特征向量进行优化,能够提高标注数据的准确度。进而根据标注准确度较高的优化后的各样本特征向量,以及优化后的各样本特征向量对应的标准类别标签训练得到关系分类模型,使得该训练得到的关系分类模型的分类结果准确度提高。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于领域迁移的关系抽取方法的流程示意图;
图2为本发明实施例提供的一种优化模型训练实施方式流程示意图;
图3为本发明实施例提供的一种样本特征获取方式流程示意图;
图4为本发明实施例提供的另一种样本特征获得方式流程示意图;
图5为本发明实施例提供的一种基于领域迁移的关系抽取装置的结构示意图;
图6为本发明实施例提供的一种优化模型训练装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决现有关系抽取方法中训练分类模型所使用的数据标注不准确,导致训练的分类模型分类结果准确度低的问题,本发明实施例提供了一种基于领域迁移的关系抽取方法及装置。
下面首先对本发明实施例所提供的一种基于领域迁移的关系抽取方法进行介绍。
如图1所示,图1为本发明实施例提供的一种基于领域迁移的关系抽取方法的流程示意图,该方法可以包括:
S101、获取待处理文本。
本发明实施例中,待处理文本可以为待进行关系抽取的文本。在需要对文本的关系进行抽取时,可以先获取待进行关系抽取的文本,还可以同时获取待处理文本的标识。该待处理文本的标识,可以作为生成该待处理文本对应的关系提及特征向量矩阵的参数。示例性的,获取的一个待处理文本的标识可以是abc123等。所获取的待处理文本可以是一个,也可以是多个。
S102、提取待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成第一预设词性的词语与第二预设词性的词语对应的关系词对。
本发明实施例中,针对所获取的待处理文本,可以提取所有的待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并将在文本中位置相邻的一组第一预设词性的词语与第二预设词性的词语,或在同一句话中的一组第一预设词性的词语与第二预设词性的词语组成一个关系词对,以生成第一预设词性的词语与第二预设词性的词语对应的关系词对。
示例性的,第一预设词性的词语可以为形容词,第二预设词性的词语可以是名词,提取所有的待处理文本中的形容词和名词,将在文本中位置相邻的一组形容词和名词,或是在同一句话中的一组形容词和名词,组成一个关系词对,生成所有的待处理文本中形容词和名词对应的关系词对。
S103、根据待处理文本的标识,关系词对在待处理文本中的位置,待处理文本所属的领域,生成关系提及特征向量矩阵。
在获取到待处理文本,以及得到所获取的待处理文本中的所有关系词对之后,可以将待处理文本的标识,每一关系词对在待处理文本中的坐标位置,待处理文本所属的领域,组成一个个的关系提及特征向量,得到关系提及特征向量矩阵。该关系提及特征向量矩阵中的一行表示一个关系提及特征向量,一个关系提及特征向量可以表示:一组关系词对与待处理文本及待处理文本所属领域之间的关系。
示例性的,待处理文本的标识可以是abc123,一组关系词对在待处理文本中的坐标位置可以为关系词对在待处理文本的句子中第3个词的位置,和第5个词的位置,该待处理文本所属的领域为手机,则待处理文本所属领域可以使用手机的大写字母缩写SJ表示,那么根据这些信息所生成的一个关系提及特征向量可以表示为:[abc123,3,5,SJ]。其中,每一关系提及特征向量中均包含待处理文本的标识,当待处理文本为一个时,所生成的关系提及特征向量矩阵中的每一关系提及特征向量中待处理文本的标识是相同的;当待处理文本为多个时,所生成的关系提及特征向量矩阵中的每一关系提及特征向量中待处理文本的标识是不相同的。
S104、利用预先训练好的关系分类模型对关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到关系提及特征向量对应的关系类别。
将所得到的关系提及特征向量矩阵,利用预先训练好的关系分类模型对该关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到关系提及特征向量对应的关系类别,可选的,该实施过程可以为:
将关系提及特征向量矩阵中每一关系提及特征向量,输入预先训练好的关系分类模型中,得到关系提及特征向量对应的关系类别。其中,该关系类别可以包括:无关系类别和有关系类别。其中,无关系类别表示:关系提及特征向量中的关系词对在其所在的待处理文本的句子中不存在关系,即在该关系词对所处的待处理文本的句子中,该关系词对中的形容词不修饰该关系词对中的名词;有关系类别表示:关系提及特征向量中的关系词对在其所在的待处理文本的句子中存在关系,即在该关系词对所处的待处理文本的句子中,该关系词对中的形容词修饰该关系词对中的名词。
其中,上述预先训练好的关系分类模型,可以是根据优化后的各第一样本特征向量,以及优化后的各第一样本特征向量对应的标准类别标签训练得到的。该关系分类模型可以是神经网络模型,也可以是支持向量机模型,还可以是逻辑回归模型等能够实现分类的模型,具体的训练过程本领域技术人员可参考现有的模型进行训练,本发明实施例在此不再赘述。
上述训练关系分类模型所使用的优化后的各第一样本特征向量,是将第一样本特征向量,输入预先训练好的优化模型中得到的。而该预先训练好的优化模型,是根据目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签训练得到的,具体的,优化模型的训练过程在下文详细介绍。其中,目标领域为待处理文本所属的领域,目标领域与源领域为同一领域下的不同子领域。示例性的,同一领域为电子产品领域,目标领域为手机领域,那么源领域可以为相机领域,或者电脑领域等,可见,目标领域与源领域可以属于同一层面的领域。
本发明实施例提供的一种基于领域迁移的关系抽取方法,由于能够使用目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,训练得到优化模型,然后,基于该优化模型得到优化后的各第一样本特征向量,即借助与目标领域同一领域下的不同子领域中标注准确度较高的已标注数据,对目标领域中的样本特征向量进行优化,能够提高标注数据的准确度。进而根据标注准确度较高的优化后的各样本特征向量,以及优化后的各样本特征向量对应的标准类别标签训练得到关系分类模型,使得该训练得到的关系分类模型的分类结果准确度提高。
作为本发明实施例的一种实施方式,如图2所示,优化模型的训练过程,可以包括:
S201、构建初始的强化学习模型,以及构建初始的神经网络。
本发明实施例中,为了训练优化模型,可以先构建初始的强化学习模型,以及构建初始的神经网络。在所构建的初始强化学习模型,以及构建的初始神经网络中,模型的参数值均为初始值,训练的过程中不断地优化强化学习模型以及神经网络中的参数。
S202、获取第一样本特征向量。
本发明实施例中,可以获取第一样本特征向量训练优化模型,具体的,第一样本特征向量的获取过程在下文进行详细介绍。
S203、依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量。
获取到训练优化模型的第一样本特征向量后,依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量,该步骤的具体实施方式在下文进行详细介绍。
S204、将各第一样本特征向量,各第二样本特征向量,各第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,输入神经网络中,得到各第一样本特征向量对应的类别标签。
将所获取的各第一样本特征向量,利用强化学习模型得到的各第二样本特征向量,各第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,输入神经网络中进行训练,其中,源领域中的第三样本特征向量,以及第三样本特征向量对应的类别标签为真值,训练输出各第一样本特征向量对应的类别标签。
示例性的,各第二样本特征向量对应的动作可以为1或0,其中,1表示第二样本特征向量中,关系词对在其所在的待处理文本的句子中存在关系,0表示第二样本特征向量中,关系词对在其所在的待处理文本的句子中不存在关系。训练输出各第一样本特征向量对应的类别标签可以表示为1或0,以及第三样本特征向量对应的类别标签也可以表示为1或0,与各第二样本特征向量对应的动作表示方式一致;第三样本特征向量对应的类别标签也可以表示为A或B,与各第二样本特征向量对应的动作表示方式不一致,但是不管表示方式是否一致,其表示的含义需一致。
S205、基于各第一样本特征向量对应的类别标签,与第三样本特征向量对应的类别标签的差异,计算损失函数,并对神经网络中的参数进行更新。
本发明实施例中,将第三样本特征向量对应的类别标签作为真值,利用神经网络输出的各第一样本特征向量对应的类别标签,及第三样本特征向量对应的类别标签的差异,计算损失函数,进而对损失函数进行最小化处理,得到最小化损失函数,再根据最小化损失函数,确定初始神经网络中各模块的权重参数,最后,利用权重参数对初始神经网络中的参数进行更新。此过程的详细实现过程,可参见现有技术神经网络训练的实现,本发明实施例在此不再赘述。
S206、判断神经网络的损失函数是否满足第一预设收敛条件,并判断强化学习模型的梯度参数值是否满足第二预设收敛条件。
本发明实施例中,使用神经网络和强化学习模型一起训练优化模型,在强化学习模型迭代一次,输出第二样本特征向量后,将各第一样本特征向量,各第二样本特征向量,各第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签作为神经网络的输入,使用神经网络训练一次,之后,判断神经网络的损失函数是否满足第一预设收敛条件,可以是判断神经网络的最小化损失函数是否满足第一预设收敛条件,示例性的,该第一预设收敛条件可以是预先设置的数值,例如,0.01,0.1,0.5等。并判断强化学习模型的梯度参数值是否满足第二预设收敛条件,示例性的,该第二预设收敛条件也可以是预先设置的数值,例如,0.01,0.1,0.5等。
如果神经网络的损失函数满足第一预设收敛条件,且强化学习模型的梯度参数值满足第二预设收敛条件,表明神经网络和强化学习模型都已收敛,即优化模型已收敛,训练完成,此时执行步骤S207;如果神经网络的损失函数不满足第一预设收敛条件,或强化学习模型的梯度参数值不满足第二预设收敛条件,表明神经网络或强化学习模型没有收敛,或是同时都不收敛,此时的优化模型必然不收敛,训练还没有完成,此时执行步骤S208。
S207、如果神经网络的损失函数满足第一预设收敛条件,且强化学习模型的梯度参数值满足第二预设收敛条件,将第二样本特征向量,作为优化后的第一样本特征向量。
本发明实施例中,使用优化模型对样本特征向量进行特征的优化。如果神经网络的损失函数满足第一预设收敛条件,且强化学习模型的梯度参数值满足第二预设收敛条件,表明优化模型已收敛,训练完成,此时,将强化学习模型输出的优化后的第二样本特征向量,作为优化后的第一样本特征向量。
S208、如果神经网络的损失函数不满足第一预设收敛条件,或强化学习模型的梯度参数值不满足第二预设收敛条件,将神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并返回执行依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量的步骤。
如果神经网络的损失函数不满足第一预设收敛条件,或强化学习模型的梯度参数值不满足第二预设收敛条件,表明此时的优化模型不收敛,训练还没有完成,则将神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并返回执行依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量的步骤,进入下一次迭代,进行继续训练。
作为本发明实施例一种可选的实施方式,如图3所示,上述步骤S202,获取第一样本特征向量的实施过程,可以包括:
S2021、获取样本文本。
在进行优化模型训练时,需要使用样本数据,该样本数据可以从样本文本中获取,该样本文本所属的领域为目标领域。示例性的,目标领域可以为手机等。
S2022、提取样本文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成第一预设词性的词语与第二预设词性的词语对应的关系词对。
S2023、根据样本文本的标识,关系词对在样本文本中的位置,样本文本所属的领域,生成样本文本对应的关系提及特征向量矩阵。
其中,样本文本对应的关系提及特征向量矩阵中的一行表示一个关系提及特征向量。
步骤S2022和S2023的实现过程可参考上述步骤S102和S103的记载,本发明实施例在此不再赘述。
S2024、根据预先设置好的知识库,为样本文本对应的关系提及特征向量矩阵中每一特征向量添加标签,得到添加标签后的关系提及特征向量矩阵。
在得到样本文本对应的关系提及特征向量矩阵之后,可以使用预先设置好的知识库,为样本文本对应的关系提及特征向量矩阵中每一特征向量添加标签。其中,预先设置好的知识库可以是,人为预先设置的不同领域中的第一预设词性的词语与第二预设词性的词语在不同的语境下是否存在关系的知识库。
示例性的,该标签可以为1或0,其中,1表示样本文本对应的关系提及特征向量矩阵中,每一特征向量的关系词对在其所在的样本文本的句子中存在关系,0表示样本文本对应的关系提及特征向量矩阵中,每一特征向量的关系词对在其所在的样本文本的句子中不存在关系。
S2025、将添加标签后的关系提及特征向量矩阵中的关系提及特征向量,确定为第一样本特征向量。
将添加标签后的关系提及特征向量矩阵中的关系提及特征向量,作为第一样本特征向量,便于优化模型的训练。
作为本发明实施例一种可选的实施方式,如图4所示,上述步骤S203,依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量的实施过程,可以包括:
S2031、依次针对每一第一样本特征向量执行步骤S2032-步骤S2036:
S2032、以排序在当前第一样本特征向量之前的,动作为第一预设参数的所有第一样本特征向量中特征的均值,和所有第一样本特征向量中特征的均值,构成中间信息;以当前第一样本特征向量中的特征,中间信息,构成当前第一样本特征向量对应的状态。
在获取第一样本特征向量后,依次针对每一第一样本特征向量,进行强化学习模型的训练。具体的,可以以排序在当前第一样本特征向量之前的,动作为第一预设参数的所有第一样本特征向量中特征的均值,和所有第一样本特征向量中特征的均值,构成中间信息,再以当前第一样本特征向量中的特征,中间信息,构成当前第一样本特征向量对应的状态。示例性的,第一预设参数可以表示动作为1,即该第一样本特征向量中的关系词对在该第一样本特征向量所表示的文本中存在关系。
示例性的,第一样本特征向量有100个,即第一样本特征向量矩阵有100行,如果当前第一样本特征向量为第50个,则中间信息:由排序在前49个的第一样本特征向量中动作为1的第一样本特征向量中特征的均值,和100个第一样本特征向量中特征的均值构成。以当前第一样本特征向量中的特征,排序在前49个的第一样本特征向量中动作为1的第一样本特征向量中特征的均值,和100个第一样本特征向量中特征的均值,构成当前第一样本特征向量对应的状态。如果当前第一样本特征向量为第1个,则中间信息为0,当前第一样本特征向量对应的状态,由当前第一样本特征向量中的特征,和中间信息0构成。
S2033、将状态输入强化学习模型中,得到状态对应的动作。
在强化学习模型中,输入状态,会确定一个动作,在执行状态对应的动作后,会得到一个奖励值,然后转移至下一个状态。本发明实施例中,将状态输入强化学习模型中,得到状态对应的动作,该动作可以为数值,例如,1或0等。
S2034、将状态对应的当前第一样本特征向量,输入预先训练好的分类模型中,得到状态对应的分类结果。
将状态对应的当前第一样本特征向量,输入预先训练好的分类模型中,得到状态对应的分类结果。该预先训练好的分类模型,是根据源领域中的第三样本特征向量,第三样本特征向量对应的类别标签训练得到的,所得到的状态对应的分类结果可以是小数。
S2035、根据状态对应的分类结果,使用预设的奖励计算表达式计算状态在分类结果下的奖励。
将所得到的状态对应的分类结果,使用预设的奖励计算表达式计算状态在分类结果下的奖励。示例性的,该预设的奖励计算表达式可以表示为:
|分类结果-0.5|-baselinereward
其中,baselinereward表示奖励值调整参数,可以是预先设置的固定值,例如,0.1,0.2,0.5等,也可以是当前所有第一样本特征向量对应的奖励值的算术平均值。
S2036、基于状态,该状态对应的动作和奖励,更新强化学习模型的参数。
根据上述步骤S2032得到的状态对应的数据,以及步骤S2033和S2034得到的该状态对应的动作和奖励对应的数据,更新强化学习模型的参数,此过程的实现可参考现有技术中强化学习模型训练过程中参数更新的过程,本发明实施例在此不做赘述。
S2037、计算强化学习模型的梯度参数值。
在完成对所有第一样本特征向量的一次迭代之后,计算强化学习模型的梯度参数值,具体的计算方式可参考现有技术中强化学习模型训练过程中梯度参数值的计算过程,本发明实施例在此不做赘述。计算强化学习模型的梯度参数值,是为了判断强化学习模型的训练是否达到收敛。
S2038、将所有动作为第二预设参数的状态对应的第一样本特征向量,确定为目标领域中的第二样本特征向量。
将强化学习模型训练中所有动作为第二预设参数的状态对应的第一样本特征向量,确定为目标领域中的第二样本特征向量。该第二预设参数可以表示动作为1,即该第一样本特征向量中的关系词对在该第一样本特征向量所表示的文本中存在关系。
本发明实施例中,训练优化模型,首先使用强化学习模型训练,筛选动作为第二预设参数的状态对应的第一样本特征向量,进而再将各第一样本特征向量,各第二样本特征向量,各第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签作为输入,训练神经网络,对第二样本特征向量进行优化,得到优化后的第二样本特征向量,作为优化后的第一样本特征向量,使得优化后的第一样本特征向量标签标注的更为准确。进一步,根据标注准确度较高的优化后的各样本特征向量,以及优化后的各样本特征向量对应的标准类别标签训练得到关系分类模型,使得该训练得到的关系分类模型的分类结果准确度提高。
相应于上述方法实施例,本发明实施例提供了一种基于领域迁移的关系抽取装置,如图5所示,该装置可以包括:
获取模块301,用于获取待处理文本,待处理文本为待进行关系抽取的文本。
第一生成模块302,用于提取待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成第一预设词性的词语与第二预设词性的词语对应的关系词对。
第二生成模块303,用于根据待处理文本的标识,关系词对在待处理文本中的位置,待处理文本所属的领域,生成关系提及特征向量矩阵;关系提及特征向量矩阵中的一行表示一个关系提及特征向量。
分类模块304,用于利用预先训练好的关系分类模型对关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到关系提及特征向量对应的关系类别,关系类别包括:无关系类别和有关系类别;其中,关系分类模型,是根据优化后的各第一样本特征向量,以及优化后的各第一样本特征向量对应的标准类别标签训练得到的;优化后的各第一样本特征向量,是将第一样本特征向量,输入预先训练好的优化模型中得到的;优化模型,是根据目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签训练得到的,目标领域为待处理文本所属的领域,目标领域与源领域为同一领域下的不同子领域。
本发明实施例提供的一种基于领域迁移的关系抽取装置,由于能够使用目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,训练得到优化模型,然后,基于该优化模型得到优化后的各第一样本特征向量,即借助与目标领域同一领域下的不同子领域中标注准确度较高的已标注数据,对目标领域中的样本特征向量进行优化,能够提高标注数据的准确度。进而根据标注准确度较高的优化后的各样本特征向量,以及优化后的各样本特征向量对应的标准类别标签训练得到关系分类模型,使得该训练得到的关系分类模型的分类结果准确度提高。
需要说明的是,本发明实施例的装置是与图1所示的一种基于领域迁移的关系抽取方法对应的装置,图1所示的一种基于领域迁移的关系抽取方法的所有实施例均适用于该装置,且均能达到相同的有益效果。
可选地,上述分类模块304,具体用于:
将关系提及特征向量矩阵中每一关系提及特征向量,输入预先训练好的关系分类模型中,得到关系提及特征向量对应的关系类别。
可选地,如图6所示,上述装置还可以包括:
构建模块401,用于构建初始的强化学习模型,以及构建初始的神经网络。
第一获取模块402,用于获取第一样本特征向量。
第一获得模块403,用于依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量。
第二获得模块404,用于将各第一样本特征向量,各第二样本特征向量,各第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,输入神经网络中,得到各第一样本特征向量对应的类别标签。
计算模块405,用于基于各第一样本特征向量对应的类别标签,与第三样本特征向量对应的类别标签的差异,计算损失函数,并对神经网络中的参数进行更新。
判断模块406,用于判断神经网络的损失函数是否满足第一预设收敛条件,并判断强化学习模型的梯度参数值是否满足第二预设收敛条件。
确定模块407,用于在判断模块406判断出神经网络的损失函数满足第一预设收敛条件,且强化学习模型的梯度参数值满足第二预设收敛条件时,将第二样本特征向量,作为优化后的第一样本特征向量。
更新模块408,用于在判断模块406判断出神经网络的损失函数不满足第一预设收敛条件,或强化学习模型的梯度参数值不满足第二预设收敛条件时,将神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并触发第一获得模块403块执行依次针对每一第一样本特征向量,利用强化学习模型,得到目标领域中的第二样本特征向量。
可选地,上述第一获取模块402,具体用于:
获取样本文本,样本文本所属的领域为目标领域。
提取样本文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成第一预设词性的词语与第二预设词性的词语对应的关系词对。
根据样本文本的标识,关系词对在样本文本中的位置,样本文本所属的领域,生成样本文本对应的关系提及特征向量矩阵;样本文本对应的关系提及特征向量矩阵中的一行表示一个关系提及特征向量。
根据预先设置好的知识库,为样本文本对应的关系提及特征向量矩阵中每一特征向量添加标签,得到添加标签后的关系提及特征向量矩阵。
将添加标签后的关系提及特征向量矩阵中的关系提及特征向量,确定为第一样本特征向量。
可选地,上述第一获得模块403,具体用于:
依次针对每一第一样本特征向量执行步骤S1-步骤S5:
步骤S1,以排序在当前第一样本特征向量之前的,动作为第一预设参数的所有第一样本特征向量中特征的均值,和所有第一样本特征向量中特征的均值,构成中间信息;以当前第一样本特征向量中的特征,中间信息,构成当前第一样本特征向量对应的状态。
步骤S2,将状态输入强化学习模型中,得到状态对应的动作。
步骤S3,将状态对应的当前第一样本特征向量,输入预先训练好的分类模型中,得到状态对应的分类结果。
步骤S4,根据状态对应的分类结果,使用预设的奖励计算表达式计算状态在分类结果下的奖励。
步骤S5,基于状态,该状态对应的动作和奖励,更新强化学习模型的参数。
计算强化学习模型的梯度参数值。
将所有动作为第二预设参数的状态对应的第一样本特征向量,确定为目标领域中的第二样本特征向量。
本发明实施例还提供了一种电子设备,如图7所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信,
存储器503,用于存放计算机程序;
处理器501,用于执行存储器503上所存放的程序时,实现本发明实施例所提供的一种基于领域迁移的关系抽取方法的步骤。
本发明实施例提供的一种电子设备,由于能够使用目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,第三样本特征向量对应的类别标签,训练得到优化模型,然后,基于该优化模型得到优化后的各第一样本特征向量,即借助与目标领域同一领域下的不同子领域中标注准确度较高的已标注数据,对目标领域中的样本特征向量进行优化,能够提高标注数据的准确度。进而根据标注准确度较高的优化后的各样本特征向量,以及优化后的各样本特征向量对应的标准类别标签训练得到关系分类模型,使得该训练得到的关系分类模型的分类结果准确度提高。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一一种基于领域迁移的关系抽取方法的步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置/电子设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (8)
1.一种基于领域迁移的关系抽取方法,其特征在于,所述方法包括:
获取待处理文本,所述待处理文本为待进行关系抽取的文本;
提取所述待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成所述第一预设词性的词语与所述第二预设词性的词语对应的关系词对;
根据待处理文本的标识,所述关系词对在所述待处理文本中的位置,所述待处理文本所属的领域,生成关系提及特征向量矩阵;所述关系提及特征向量矩阵中的一行表示一个关系提及特征向量;
利用预先训练好的关系分类模型对所述关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到所述关系提及特征向量对应的关系类别,所述关系类别包括:无关系类别和有关系类别;其中,所述关系分类模型,是根据优化后的各第一样本特征向量,以及所述优化后的各第一样本特征向量对应的标准类别标签训练得到的;所述优化后的各第一样本特征向量,是将第一样本特征向量,输入预先训练好的优化模型中得到的;所述优化模型,是根据目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签训练得到的,所述目标领域为所述待处理文本所属的领域,所述目标领域与所述源领域为同一领域下的不同子领域;
其中,所述优化模型的训练过程,包括:
构建初始的强化学习模型,以及构建初始的神经网络;
获取第一样本特征向量;
依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量;
将各所述第一样本特征向量,各所述第二样本特征向量,各所述第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签,输入所述神经网络中,得到各所述第一样本特征向量对应的类别标签;
基于各所述第一样本特征向量对应的类别标签,与所述第三样本特征向量对应的类别标签的差异,计算损失函数,并对所述神经网络中的参数进行更新;
判断所述神经网络的损失函数是否满足第一预设收敛条件,并判断强化学习模型的梯度参数值是否满足第二预设收敛条件;
如果所述神经网络的损失函数满足第一预设收敛条件,且所述强化学习模型的梯度参数值满足第二预设收敛条件,将所述第二样本特征向量,作为优化后的第一样本特征向量;
如果所述神经网络的损失函数不满足第一预设收敛条件,或所述强化学习模型的梯度参数值不满足第二预设收敛条件,将所述神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并返回执行依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量的步骤。
2.根据权利要求1所述的方法,其特征在于,所述利用预先训练好的关系分类模型对所述关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到所述关系提及特征向量对应的关系类别的步骤,包括:
将所述关系提及特征向量矩阵中每一关系提及特征向量,输入预先训练好的关系分类模型中,得到所述关系提及特征向量对应的关系类别。
3.根据权利要求1所述的方法,其特征在于,所述获取第一样本特征向量的步骤,包括:
获取样本文本,所述样本文本所属的领域为目标领域;
提取所述样本文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成所述第一预设词性的词语与所述第二预设词性的词语对应的关系词对;
根据样本文本的标识,所述关系词对在所述样本文本中的位置,所述样本文本所属的领域,生成所述样本文本对应的关系提及特征向量矩阵;所述样本文本对应的关系提及特征向量矩阵中的一行表示一个关系提及特征向量;
根据预先设置好的知识库,为所述样本文本对应的关系提及特征向量矩阵中每一特征向量添加标签,得到添加标签后的关系提及特征向量矩阵;
将添加标签后的关系提及特征向量矩阵中的关系提及特征向量,确定为第一样本特征向量。
4.根据权利要求1所述的方法,其特征在于,所述依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量的步骤,包括:
依次针对每一第一样本特征向量执行步骤S1-步骤S5:
步骤S1,以排序在当前第一样本特征向量之前的,动作为第一预设参数的所有第一样本特征向量中特征的均值,和所有第一样本特征向量中特征的均值,构成中间信息;以所述当前第一样本特征向量中的特征,所述中间信息,构成当前第一样本特征向量对应的状态;
步骤S2,将所述状态输入所述强化学习模型中,得到所述状态对应的动作;
步骤S3,将所述状态对应的当前第一样本特征向量,输入预先训练好的分类模型中,得到所述状态对应的分类结果;
步骤S4,根据所述状态对应的分类结果,使用预设的奖励计算表达式计算所述状态在所述分类结果下的奖励;
步骤S5,基于所述状态,该状态对应的动作和奖励,更新所述强化学习模型的参数;
计算所述强化学习模型的梯度参数值;
将所有动作为第二预设参数的状态对应的第一样本特征向量,确定为目标领域中的第二样本特征向量。
5.一种基于领域迁移的关系抽取装置,其特征在于,所述装置包括:
获取模块,用于获取待处理文本,所述待处理文本为待进行关系抽取的文本;
第一生成模块,用于提取所述待处理文本中具有第一预设词性的词语,以及具有第二预设词性的词语,并生成所述第一预设词性的词语与所述第二预设词性的词语对应的关系词对;
第二生成模块,用于根据待处理文本的标识,所述关系词对在所述待处理文本中的位置,所述待处理文本所属的领域,生成关系提及特征向量矩阵;所述关系提及特征向量矩阵中的一行表示一个关系提及特征向量;
分类模块,用于利用预先训练好的关系分类模型对所述关系提及特征向量矩阵中每一关系提及特征向量进行处理,得到所述关系提及特征向量对应的关系类别,所述关系类别包括:无关系类别和有关系类别;其中,所述关系分类模型,是根据优化后的各第一样本特征向量,以及所述优化后的各第一样本特征向量对应的标准类别标签训练得到的;所述优化后的各第一样本特征向量,是将第一样本特征向量,输入预先训练好的优化模型中得到的;所述优化模型,是根据目标领域中的第二样本特征向量,第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签训练得到的,所述目标领域为所述待处理文本所属的领域,所述目标领域与所述源领域为同一领域下的不同子领域;
所述装置还包括:
构建模块,用于构建初始的强化学习模型,以及构建初始的神经网络;
第一获取模块,用于获取第一样本特征向量;
第一获得模块,用于依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量;
第二获得模块,用于将各所述第一样本特征向量,各所述第二样本特征向量,各所述第二样本特征向量对应的动作,以及源领域中的第三样本特征向量,所述第三样本特征向量对应的类别标签,输入所述神经网络中,得到各所述第一样本特征向量对应的类别标签;
计算模块,用于基于各所述第一样本特征向量对应的类别标签,与所述第三样本特征向量对应的类别标签的差异,计算损失函数,并对所述神经网络中的参数进行更新;
判断模块,用于判断所述神经网络的损失函数是否满足第一预设收敛条件,并判断强化学习模型的梯度参数值是否满足第二预设收敛条件;
确定模块,用于在所述判断模块判断出所述神经网络的损失函数满足第一预设收敛条件,且所述强化学习模型的梯度参数值满足第二预设收敛条件时,将所述第二样本特征向量,作为优化后的第一样本特征向量;
更新模块,用于在所述判断模块判断出所述神经网络的损失函数不满足第一预设收敛条件,或所述强化学习模型的梯度参数值不满足第二预设收敛条件时,将所述神经网络得到的优化后的第一样本特征向量,更新为目标领域中的第一样本特征向量,并触发第一获得模块执行依次针对每一第一样本特征向量,利用所述强化学习模型,得到所述目标领域中的第二样本特征向量。
6.根据权利要求5所述的装置,其特征在于,所述分类模块,具体用于:
将所述关系提及特征向量矩阵中每一关系提及特征向量,输入预先训练好的关系分类模型中,得到所述关系提及特征向量对应的关系类别。
7.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-4任一所述的方法步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-4任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010051693.2A CN111310454B (zh) | 2020-01-17 | 2020-01-17 | 一种基于领域迁移的关系抽取方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010051693.2A CN111310454B (zh) | 2020-01-17 | 2020-01-17 | 一种基于领域迁移的关系抽取方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111310454A CN111310454A (zh) | 2020-06-19 |
CN111310454B true CN111310454B (zh) | 2022-01-07 |
Family
ID=71150928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010051693.2A Active CN111310454B (zh) | 2020-01-17 | 2020-01-17 | 一种基于领域迁移的关系抽取方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310454B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105938495A (zh) * | 2016-04-29 | 2016-09-14 | 乐视控股(北京)有限公司 | 实体关系识别方法及装置 |
EP3173983A1 (en) * | 2015-11-26 | 2017-05-31 | Siemens Aktiengesellschaft | A method and apparatus for providing automatically recommendations concerning an industrial system |
CN107943784A (zh) * | 2017-11-02 | 2018-04-20 | 南华大学 | 基于生成对抗网络的关系抽取方法 |
CN108280058A (zh) * | 2018-01-02 | 2018-07-13 | 中国科学院自动化研究所 | 基于强化学习的关系抽取方法和装置 |
CN108596335A (zh) * | 2018-04-20 | 2018-09-28 | 浙江大学 | 一种基于深度强化学习的自适应众包方法 |
WO2018206504A1 (en) * | 2017-05-10 | 2018-11-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Pre-training system for self-learning agent in virtualized environment |
CN110188191A (zh) * | 2019-04-08 | 2019-08-30 | 北京邮电大学 | 一种用于网络社区文本的实体关系图谱构建方法和系统 |
CN110209836A (zh) * | 2019-05-17 | 2019-09-06 | 北京邮电大学 | 远程监督关系抽取方法及装置 |
CN110334814A (zh) * | 2019-07-01 | 2019-10-15 | 阿里巴巴集团控股有限公司 | 用于构建风险控制模型的方法和系统 |
-
2020
- 2020-01-17 CN CN202010051693.2A patent/CN111310454B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3173983A1 (en) * | 2015-11-26 | 2017-05-31 | Siemens Aktiengesellschaft | A method and apparatus for providing automatically recommendations concerning an industrial system |
CN105938495A (zh) * | 2016-04-29 | 2016-09-14 | 乐视控股(北京)有限公司 | 实体关系识别方法及装置 |
WO2018206504A1 (en) * | 2017-05-10 | 2018-11-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Pre-training system for self-learning agent in virtualized environment |
CN107943784A (zh) * | 2017-11-02 | 2018-04-20 | 南华大学 | 基于生成对抗网络的关系抽取方法 |
CN108280058A (zh) * | 2018-01-02 | 2018-07-13 | 中国科学院自动化研究所 | 基于强化学习的关系抽取方法和装置 |
CN108596335A (zh) * | 2018-04-20 | 2018-09-28 | 浙江大学 | 一种基于深度强化学习的自适应众包方法 |
CN110188191A (zh) * | 2019-04-08 | 2019-08-30 | 北京邮电大学 | 一种用于网络社区文本的实体关系图谱构建方法和系统 |
CN110209836A (zh) * | 2019-05-17 | 2019-09-06 | 北京邮电大学 | 远程监督关系抽取方法及装置 |
CN110334814A (zh) * | 2019-07-01 | 2019-10-15 | 阿里巴巴集团控股有限公司 | 用于构建风险控制模型的方法和系统 |
Non-Patent Citations (3)
Title |
---|
Domain-adversarial training of neural networks;Ganin 等;《The Journal of Machine Learning Research》;20160416;第1-35页 * |
基于强化学习的多源域关系抽取模型的研究与实现;刘振龙;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210415;第I138-1075页 * |
深度学习实体关系抽取研究综述;鄂海红 等;《软件学报》;20190328;第1793-1818页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111310454A (zh) | 2020-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107506414B (zh) | 一种基于长短期记忆网络的代码推荐方法 | |
CN107122346B (zh) | 一种输入语句的纠错方法及装置 | |
CN108121700B (zh) | 一种关键词提取方法、装置及电子设备 | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
Demir et al. | Improving named entity recognition for morphologically rich languages using word embeddings | |
JPWO2018051841A1 (ja) | モデル学習装置、その方法、及びプログラム | |
US11069340B2 (en) | Flexible and expandable dialogue system | |
CN109977394B (zh) | 文本模型训练方法、文本分析方法、装置、设备及介质 | |
CN113688634B (zh) | 一种细粒度情感分析方法 | |
US11669740B2 (en) | Graph-based labeling rule augmentation for weakly supervised training of machine-learning-based named entity recognition | |
CN110598869B (zh) | 基于序列模型的分类方法、装置、电子设备 | |
CN114818729A (zh) | 一种训练语义识别模型、查找语句的方法、装置及介质 | |
CN112183030A (zh) | 基于预设神经网络的事件抽取方法、装置、计算机设备及存储介质 | |
CN113204953A (zh) | 基于语义识别的文本匹配方法、设备及设备可读存储介质 | |
CN115687563A (zh) | 一种可解释的智能判决方法、装置、电子设备及存储介质 | |
CN115409111A (zh) | 命名实体识别模型的训练方法和命名实体识别方法 | |
CN116842951A (zh) | 命名实体识别方法、装置、电子设备及存储介质 | |
CN108021544B (zh) | 对实体词的语义关系进行分类的方法、装置和电子设备 | |
CN111178082A (zh) | 一种句向量生成方法、装置及电子设备 | |
Shin et al. | End-to-end task dependent recurrent entity network for goal-oriented dialog learning | |
CN113420542B (zh) | 对话生成方法、装置、电子设备及存储介质 | |
Dong et al. | Relational distance and document-level contrastive pre-training based relation extraction model | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN112818096A (zh) | 对话生成方法及其装置 | |
CN111310454B (zh) | 一种基于领域迁移的关系抽取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |