CN111597795A - 一种远监督关系抽取方法、装置、设备及存储介质 - Google Patents

一种远监督关系抽取方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111597795A
CN111597795A CN202010442730.2A CN202010442730A CN111597795A CN 111597795 A CN111597795 A CN 111597795A CN 202010442730 A CN202010442730 A CN 202010442730A CN 111597795 A CN111597795 A CN 111597795A
Authority
CN
China
Prior art keywords
sentence
vector
neural network
residual
outputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010442730.2A
Other languages
English (en)
Inventor
李净
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Huiwen Technology Group Co ltd
Original Assignee
Beijing Huiwen Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Huiwen Technology Group Co ltd filed Critical Beijing Huiwen Technology Group Co ltd
Priority to CN202010442730.2A priority Critical patent/CN111597795A/zh
Publication of CN111597795A publication Critical patent/CN111597795A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种远监督关系抽取方法、装置、设备及存储介质,该方法包括:获取句子信息,将句子信息转换为文本向量;将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;从隐层状态向量中提取句子低维向量;将句子低维向量输入至分类器,输出得到关系抽取结果。该方法实现提升抽取结果的准确性。

Description

一种远监督关系抽取方法、装置、设备及存储介质
技术领域
本发明涉及计算机技术领域,特别是涉及一种远监督关系抽取方法、装置、设备及存储介质。
背景技术
目前,在智能机器人交互中,机器人通过计算机系统与操作员或程序员进行人机对话,实现对机器人的控制与操作。随着人工智能技术的高速发展,各种各样的智能对话机器人在日常生活的不同领域中大放异彩。自然语言理解作为对话系统的唯一输入接口,对于整个系统的重要性不言而喻。其接受纯文本形式的自然语言,也可通过语音技术将语音转为文字,首先必须经过实体识别和关系抽取将无结构化的数据转化为结构化数据,才能进行后续的意图识别、对话管理和答案生成等步骤。一个性能良好的实体关系抽取模型,对于对话系统中的自然语言理解和知识库的构建起到了至关重要的作用。
利用远程监督方法进行关系抽取,是目前在学术研究领域中运用最广泛、最成熟和最有效的关系抽取方法之一。其主要思想是,通过自动标注数据的方式来扩充训练数据集,以此提升模型的整体性能。目前的远程监督关系抽取方法大多基于浅层神经网络,然而由于浅层神经网络层数较少,所以基于浅层神经网络的远程监督关系抽取方法对应的抽取结果的准确性较低。
因此,如何提升抽取结果的准确性是亟待解决的技术问题。
发明内容
本发明的目的是提供一种远监督关系抽取方法、装置、设备及存储介质,以实现提升抽取结果的准确性。
为解决上述技术问题,本发明提供一种远监督关系抽取方法,包括:
获取句子信息,将句子信息转换为文本向量;
将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;
从隐层状态向量中提取句子低维向量;
将句子低维向量输入至分类器,输出得到关系抽取结果。
优选的,所述将句子信息转换为句子文本向量,包括:
对于句子信息,获取每个单词的词嵌入和位置嵌入;
将每个单词的词嵌入和位置嵌入进行拼接,得到句子文本向量。
优选的,所述深层神经网络为残差神经网络。
优选的,所述将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量之前,还包括:
对残差神经网络的残差块构建补偿机制,调整残差神经网络的信息流。
优选的,所述补偿机制的公式如下:
c=(c+C)(1-g(C))+c0g(C);
g(C)=tan(C)+b;
Figure BDA0002504537660000021
其中,c代表残差操作中的自身映射,C代表残差操作中的短路连接,g(C)为门控机制,c0为残差神经网络的原始输入,tan为正切函数,b为偏置,b0为初始化偏置,
Figure BDA0002504537660000022
是偏置的变化率,i代表残差块在残差神经网络中的深度。
优选的,所述从隐层状态向量中提取句子低维向量,包括:
通过池化操作提取隐层状态向量中的最大值作为特征向量,通过特征向量获取句子低维向量。
优选的,所述池化操作为分段最大池化操作。
本发明还提供一种远监督关系抽取装置,包括:
转换模块,用于获取句子信息,将句子信息转换为文本向量;
第一输入模块,用于将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;
提取模块,用于从隐层状态向量中提取句子低维向量;
第二输入模块,用于将句子低维向量输入至分类器,输出得到关系抽取结果。
本发明还提供一种远监督关系抽取设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上任一项所述的远监督关系抽取方法的步骤。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一项所述的远监督关系抽取方法的步骤。
本发明所提供的一种远监督关系抽取方法、装置、设备及存储介质,获取句子信息,将句子信息转换为文本向量;将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;从隐层状态向量中提取句子低维向量;将句子低维向量输入至分类器,输出得到关系抽取结果。可见,采用深层神经网络来完成远程监督的关系抽取,由于深层神经网络的层数比浅层神经网络多,深层神经网络所对应的抽取结果相对于浅层神经网络更加准确,实现提升抽取结果的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明所提供的一种远监督关系抽取方法的流程图;
图2为相对位置示意图;
图3为远程监督的关系抽取框架图;
图4为基于远程监督的关系抽取模型结构图;
图5为本发明所提供的一种远监督关系抽取装置结构示意图;
图6为本发明所提供的一种远监督关系抽取设备结构示意图。
具体实施方式
本发明的核心是提供一种远监督关系抽取方法、装置、设备及存储介质,以实现提升抽取结果的准确性。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1为本发明所提供的一种远监督关系抽取方法的流程图,该方法包括以下步骤:
S11:获取句子信息,将句子信息转换为文本向量;
S12:将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;
S13:从隐层状态向量中提取句子低维向量;
S14:将句子低维向量输入至分类器,输出得到关系抽取结果。
可见,该方法中,采用深层神经网络来完成远程监督的关系抽取,由于深层神经网络的层数比浅层神经网络多,深层神经网络所对应的抽取结果相对于浅层神经网络更加准确,实现提升抽取结果的准确性。
基于上述方法,进一步的,步骤S11中,将句子信息转换为句子文本向量的过程包括以下步骤:
S21:对于句子信息,获取每个单词的词嵌入和位置嵌入;
S22:将每个单词的词嵌入和位置嵌入进行拼接,得到句子文本向量。
其中,在关系抽取任务中,所处理的文本的基本单位为句子,其目标是识别出句子中实体之间所存在的关系。关系抽取任务的第一步是将句子文本转化为向量化表示。句子中的每个单词被转化为词嵌入表示和位置嵌入表示。在句子S={x1,x2,…,xm}中,xi为句子中第i个单词,设置e1和e2分别为句子中对应的两个实体。
在关系抽取任务中,目的是为了捕获句子中两个实体之间的关系。句子中单词和两个实体之间的距离,蕴含着十分重要的意义。本发明采用位置特征结合了当前单词同两个实体之间的相对距离。如图2所示,图2为相对位置示意图,词组京东公司距离词组刘强东和首席执行官的相对距离分别为2和-2。然后通过随机初始化的位置矩阵,将每个单词的两个相对距离分别转换成低维位置嵌入
Figure BDA0002504537660000051
R为实数域。
最后,将句子中每个单词的词嵌入和位置嵌入拼接起来,作为单词的向量化表示。假设词嵌入维度dw为3,位置嵌入维度dp为1,那么,最终单词的向量化表示的维度为d=dw+2dp
为了捕获文本的语法和语义信息,步骤S11将单词转化为预训练的分布式向量化表示。通过查询预训练的Glove词嵌入矩阵,将句子中的每个单词wi都被转变成低维向量
Figure BDA0002504537660000052
基于上述方法,进一步的,步骤S12中,所述深层神经网络为残差神经网络。残差神经网络属于卷积神经网络,卷积神经网络受生物视觉启发,利用卷积核提取目标局部信息,经过特征抽取和非线性转换等一系列操作,结合全部局部信息生成全局性输出。关系抽取中,使用卷积神经网络去汇集句子文本向量的局部信息,然后预测全局性关系类型标签。
为了缓解深层网络中梯度消失和梯度爆炸的问题,将几个卷积层和非线性层堆叠成单元残差块,利用残差神经网络来缓解这一问题。对于句子文本向量化表示,假设V∈Rm×n和W∈Rm×n,V,W为矩阵,并且定义文本卷积乘
Figure BDA0002504537660000053
的公式如下:
Figure BDA0002504537660000054
vi:i+j代表将句子中索引为i到i+j单词的向量化表示[vi,vi+1,...,vi+j],按维度拼接起来。给定一个句子,卷积神经网络通过卷积核Wq从vi:i+j去抽取局部特征,获得隐层向量ci∈R|s|-h+1,S为映射之后的维度,h为卷积核尺寸。卷积核扫描完整个句子后获得最终隐状态,当卷积核随着窗口滑动到句子外时,使用0向量填充矩阵边缘。在句子级别上,一个完整的卷积操作如下:
Figure BDA0002504537660000061
其中,b∈R是偏置向量,函数f()为非线性函数,
Figure BDA0002504537660000062
为文本卷积乘。
普通网络线性堆叠会导致网络在训练过程中出现退化,残差学习通过自身映射(Identity Mapping)和短路连接(Shortcut Connections)操作使得深层网络易于优化。每个残差块由若干个卷积层和激活层组成。为了保持数据在传播过程中维度固定,本文采用same卷积方法,即通过填充边缘向量使得卷积层输入和输出的维度相同。在残差网络中,每个卷积层都有若干个卷积核wi∈Rh,对于网络中第i层卷积,我们的定义见下式
Figure BDA0002504537660000063
其中,bi∈R为偏置,Ci为卷积层的输出。假设一个残差块包含两个卷积层,w1,w2∈Rh为每层的卷积核,对于第一层卷积的输出
Figure BDA0002504537660000068
表达式如下:
Figure BDA0002504537660000064
对于第二层卷积的输出
Figure BDA0002504537660000065
表达式如下:
Figure BDA0002504537660000066
其中,b1,b2∈R为偏置,
Figure BDA0002504537660000067
为第一层卷积的部分输出。残差神经网络中的自身映射c和短路连接C如下式所示:
c=c+C
基于上述方法,进一步的,步骤S12之前,还包括以下步骤:
S31:对残差神经网络的残差块构建补偿机制,调整残差神经网络的信息流。
在深层神经网络中,梯度消失和梯度爆炸是造成深层网络难以大规模训练的主要因素之一。残差学习中的自身映射和短路连接改变了网络反向传播中梯度连续相乘的表现形式,进一步缓解了深层网络难以训练的瓶颈问题。然而,残差学习仅仅复制前一个残差块的输入信息到下一层的残差块,并不能根据实际情况调整信息流。
为了对残差神经网络的信息流进行合理的调整,本发明利用门控机制(GatingMechanism)动态的补偿原始数据到每层残差块的输入。并且网络会根据残差块所处的网络深度,动态的调整补偿系数。参见图3,图3为远程监督的关系抽取框架图,在残差神经网络中增加了补偿机制。参见图4,图4为基于远程监督的关系抽取模型结构图,添加了补偿机制,根据网络的深度动态对残差块补偿原始数据,图中的加号即为补偿原始数据的过程。
详细的,在深层残差神经网络中提出的补偿机制的表达式如下:
c=(c+C)(1-g(C))+c0g(C)
其中,c代表残差操作中的自身映射,C代表残差操作中的短路连接,g(C)为门控机制,c0为残差神经网络的原始输入。
为了根据网络的深度动态的对残差块补偿原始数据,在原始输入c0和c+C之间添加一个门控机制,门控机制表达式如下:
g(C)=tan(C)+b
其中,tan为正切函数,b为偏置。
此外,b根据网络深度的增加还会不断变化,如下式:
Figure BDA0002504537660000071
其中,b0为初始化偏置,
Figure BDA0002504537660000072
是偏置的变化率,i代表残差块在残差神经网络中的深度。
上述c、g(C)、b这三个表达式代表本发明在深度残差神经网络中提出的补偿机制,该补偿机制作用于网络中的每一个残差块。
进一步的,步骤S13的过程包括:通过池化操作提取隐层状态向量中的最大值作为特征向量,通过特征向量获取句子低维向量。
在卷积神经网络中,每个卷积核通过扫描整个句子得到隐层向量,再通过最大池化层提取隐层状态中最大的值作为特征向量,从而达到提取句子特征的目的。而且,这种设计很自然的解决了句子长度不定的问题,句子向量的维度和卷积核个数就保持相同了。
其中,步骤S13中的池化操作为分段最大池化操作。由于最大池化操作过于粗暴的减少了隐藏层的大小,无法捕获细粒度句子特征,从而丢失了部分句子信息。为了抽取更细粒度的句子特征,本发明采用分段最大池化(Piecewise Max Pooling)来提取隐层向量。在关系抽取任务中,一个句子包含两个实体,根据两个实体的位置将句子分为三段,分别进行最大池化操作,并且返回每段的最大值。例如,当只含有一个卷积核时,经过分段池化操作隐层输出向量ci被{ci1,ci 2,ci3}代替,如下式:
pij=max(cij)1≤i≤n,1≤j≤3
其中,cij表示句子分为三段,每一段的输出。n表示输入句子的数量。pi被设置为级联的形式,是pij的拼接结果,表示句子低维向量。最后,输出向量经过非线性激活层。
本方法基于远程监督学习,将深度残差神经网络应用于关系抽取中,并且在深度残差神经网络中提出补偿机制,可以根据网络所处的深度动态的补偿原始数据给网络输入,解决了深度网络传播中数据变形和数据损失的问题,进一步提升网络模型的性能。
另外,可选的,引入句子包级别的注意力机制,充分的利用远程监督方法生成的数据。计算机注意力机制与人类注意力机制类似,目标是通过训练学习使得模型具有筛选信息的能力。可选的,为了缓解深度神经网络对噪声数据太过于敏感,引入对抗学习技术来提升模型的鲁棒性。补偿机制和对抗学习相比于先进的基线方法,可以显著的提高模型性能。
请参考图5,图5为本发明所提供的一种远监督关系抽取装置结构示意图,用于实现上述方法,该装置包括:
转换模块101,用于获取句子信息,将句子信息转换为文本向量;
第一输入模块102,用于将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;
提取模块103,用于从隐层状态向量中提取句子低维向量;
第二输入模块104,用于将句子低维向量输入至分类器,输出得到关系抽取结果。
可见,该装置中,采用深层神经网络来完成远程监督的关系抽取,由于深层神经网络的层数比浅层神经网络多,深层神经网络所对应的抽取结果相对于浅层神经网络更加准确,实现提升抽取结果的准确性。
对于本发明提供的远监督关系抽取装置的介绍请参照前述的远监督关系抽取方法的实施例,本发明实施例在此不再赘述。
请参考图6,图6为本发明所提供的一种远监督关系抽取设备结构示意图,该设备包括:
存储器201,用于存储计算机程序;
处理器202,用于执行所述计算机程序时实现如前述实施例中的远监督关系抽取方法的步骤。
对于本发明提供的远监督关系抽取设备的介绍请参照前述的远监督关系抽取方法的实施例,本发明实施例在此不再赘述。
本发明还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现如前述实施例中的远监督关系抽取方法的步骤。
对于本发明提供的计算机可读存储介质的介绍请参照前述的远监督关系抽取方法的实施例,本发明实施例在此不再赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的一种远监督关系抽取方法、装置、设备及存储介质进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种远监督关系抽取方法,其特征在于,包括:
获取句子信息,将句子信息转换为文本向量;
将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;
从隐层状态向量中提取句子低维向量;
将句子低维向量输入至分类器,输出得到关系抽取结果。
2.如权利要求1所述的方法,其特征在于,所述将句子信息转换为句子文本向量,包括:
对于句子信息,获取每个单词的词嵌入和位置嵌入;
将每个单词的词嵌入和位置嵌入进行拼接,得到句子文本向量。
3.如权利要求1所述的方法,其特征在于,所述深层神经网络为残差神经网络。
4.如权利要求3所述的方法,其特征在于,所述将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量之前,还包括:
对残差神经网络的残差块构建补偿机制,调整残差神经网络的信息流。
5.如权利要求4所述的方法,其特征在于,所述补偿机制的公式如下:
c=(c+C)(1-g(C))+c0g(C);
g(C)=tan(C)+b;
b=b0+▽b×i;
其中,c代表残差操作中的自身映射,C代表残差操作中的短路连接,g(C)为门控机制,c0为残差神经网络的原始输入,tan为正切函数,b为偏置,b0为初始化偏置,▽b是偏置的变化率,i代表残差块在残差神经网络中的深度。
6.如权利要求1所述的方法,其特征在于,所述从隐层状态向量中提取句子低维向量,包括:
通过池化操作提取隐层状态向量中的最大值作为特征向量,通过特征向量获取句子低维向量。
7.如权利要求6所述的方法,其特征在于,所述池化操作为分段最大池化操作。
8.一种远监督关系抽取装置,其特征在于,包括:
转换模块,用于获取句子信息,将句子信息转换为文本向量;
第一输入模块,用于将文本向量作为输入参数,输入至深层神经网络中,输出隐层状态向量;
提取模块,用于从隐层状态向量中提取句子低维向量;
第二输入模块,用于将句子低维向量输入至分类器,输出得到关系抽取结果。
9.一种远监督关系抽取设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述的远监督关系抽取方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的远监督关系抽取方法的步骤。
CN202010442730.2A 2020-05-22 2020-05-22 一种远监督关系抽取方法、装置、设备及存储介质 Pending CN111597795A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010442730.2A CN111597795A (zh) 2020-05-22 2020-05-22 一种远监督关系抽取方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010442730.2A CN111597795A (zh) 2020-05-22 2020-05-22 一种远监督关系抽取方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN111597795A true CN111597795A (zh) 2020-08-28

Family

ID=72191394

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010442730.2A Pending CN111597795A (zh) 2020-05-22 2020-05-22 一种远监督关系抽取方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111597795A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906368A (zh) * 2021-02-19 2021-06-04 北京百度网讯科技有限公司 行业文本增量方法、相关装置及计算机程序产品
WO2022083094A1 (zh) * 2020-10-23 2022-04-28 平安科技(深圳)有限公司 文本语义识别方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109918671A (zh) * 2019-03-12 2019-06-21 西南交通大学 基于卷积循环神经网络的电子病历实体关系抽取方法
CN110489395A (zh) * 2019-07-27 2019-11-22 西南电子技术研究所(中国电子科技集团公司第十研究所) 自动获取多源异构数据知识的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109918671A (zh) * 2019-03-12 2019-06-21 西南交通大学 基于卷积循环神经网络的电子病历实体关系抽取方法
CN110489395A (zh) * 2019-07-27 2019-11-22 西南电子技术研究所(中国电子科技集团公司第十研究所) 自动获取多源异构数据知识的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秦娅: "网络安全知识图谱构建关键技术研究" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022083094A1 (zh) * 2020-10-23 2022-04-28 平安科技(深圳)有限公司 文本语义识别方法、装置、电子设备及存储介质
CN112906368A (zh) * 2021-02-19 2021-06-04 北京百度网讯科技有限公司 行业文本增量方法、相关装置及计算机程序产品

Similar Documents

Publication Publication Date Title
CN110263324B (zh) 文本处理方法、模型训练方法和装置
US20230186056A1 (en) Grabbing detection method based on rp-resnet
CN108563779B (zh) 一种基于神经网络的无模板自然语言文本答案生成方法
CN111325323A (zh) 一种融合全局信息和局部信息的输变电场景描述自动生成方法
CN110717024B (zh) 基于图像视觉到文本转换的视觉问答问题解决方法
CN109214001A (zh) 一种中文语义匹配系统及方法
CN109977428A (zh) 一种答案获取的方法及装置
CN112257449B (zh) 命名实体识别方法、装置、计算机设备和存储介质
Mishra et al. The understanding of deep learning: A comprehensive review
CN110175221B (zh) 利用词向量结合机器学习的垃圾短信识别方法
CN112632972A (zh) 一种电网设备故障报告内故障信息的快速提取方法
CN110795549B (zh) 短文本对话方法、装置、设备及存储介质
CN110580288A (zh) 基于人工智能的文本分类方法和装置
CN110598603A (zh) 人脸识别模型获取方法、装置、设备和介质
CN114020906A (zh) 基于孪生神经网络的中文医疗文本信息匹配方法及系统
CN112820301A (zh) 一种融合分布对齐和对抗学习的无监督跨域声纹识别方法
CN111597795A (zh) 一种远监督关系抽取方法、装置、设备及存储介质
CN114090780A (zh) 一种基于提示学习的快速图片分类方法
Bouchain Character recognition using convolutional neural networks
CN115238893B (zh) 面向自然语言处理的神经网络模型量化方法和装置
CN110968725A (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN111597341A (zh) 一种文档级关系抽取方法、装置、设备及存储介质
CN116662500A (zh) 一种基于bert模型与外部知识图谱的问答系统构建方法
CN114694255A (zh) 基于通道注意力与时间卷积网络的句子级唇语识别方法
CN112989843B (zh) 意图识别方法、装置、计算设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200828