CN114385817A - 实体关系的识别方法、设备及可读存储介质 - Google Patents
实体关系的识别方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN114385817A CN114385817A CN202210042332.0A CN202210042332A CN114385817A CN 114385817 A CN114385817 A CN 114385817A CN 202210042332 A CN202210042332 A CN 202210042332A CN 114385817 A CN114385817 A CN 114385817A
- Authority
- CN
- China
- Prior art keywords
- entity
- vector
- loss function
- pair
- relation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Character Discrimination (AREA)
Abstract
本发明涉及一种人工智能技术领域,提供一种实体关系的识别方法、设备及可读存储介质,其中方法包括:利用预构建的实体关系识别模型获取训练样本中的每个字的字向量;根据获取的字向量获取训练样本的所有实体对中每个实体的实体向量;通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取实体对的每个实体的额外特征向量;通过激活函数获取实体对关系类别的预测概率;通过预构建的损失函数完成对构建的实体关系识别模型的迭代训练;通过训练好的实体关系识别模型对待识别文本进行实体关系识别。本发明主要目的在于通过构建的损失函数循环训练实体关系识别模型,从而解决现有在实体识别过程中识别效果不好的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种实体关系的识别方法、装置、电子设备及计算机可读存储介质。
背景技术
知识图谱是NLP领域重要的领域,旨在实现更智能的搜索引擎。随着技术的发展,能被应用于智能搜索、智能问答、个性化推荐等场景。所以如何构建知识图谱就成为NLP领域的一个热点方向。
构建知识图谱的第一步就是从文本中进行信息抽取,信息抽取的一个关键技术就是关系抽取。在识别出文本离散的实体之后,需要对两两实体之间进行关系识别,由于两两实体之间的关系可能有多个,所以这是一个多标签分类问题。目前针对篇章级别的关系抽取的方法是采用动态阈值的方法,改造损失函数,针对每一个样本,都会有一个阀值,在模型给到这个实体对属于每个关系的概率之后,会给出一个动态阀值,高于这个阀值的关系类别都是这个实体对的类别。
但是上述方法未关注到的一个问题是:目前的多标签分类问题存在不平衡问题,不平衡数据会导致模型在识别训练数据比较少的类别的时候效果较差,导致最终整体的识别效果不好。
为解决上述问题,本发明亟需提供一种实体关系的识别方法。
发明内容
本发明提供一种实体关系的识别方法、装置、电子设备及计算机可读存储介质,其主要目的在于通过构建的损失函数循环训练实体关系识别模型,从而解决现有在实体识别过程中识别效果不好的问题。
为实现上述目的,本发明提供的一种实体关系的识别方法,应用于电子设备,所述方法包括:
利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
可选地,所述利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量,包括:
获取所述训练样本中的目标字,并确定所述目标字对应的初始字向量;
根据所述初始字向量,确定所述目标字对应的图像特征向量、字根特征向量,以及拼音特征向量;
根据所述目初始字向量、图像特征向量、字根特征向量、拼音特征向量以及预设权重矩阵生成所述目标字对应的字向量。
可选地,
所述根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,包括:
根据获取的字向量,获取所述训练样本中每个词的词向量;
根据获取的词向量,获取所述训练样本中的实体向量。
可选地,
所述通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量,包括:
通过预设的权重矩阵对所述实体对中头实体的实体向量进行处理,获取所述实体对中头实体的权重;
通过预设的权重矩阵对所述实体对中尾实体的实体向量进行处理,获取所述实体对中尾实体的权重;
根据所述实体对中头实体的权重、所述实体对中尾实体的权重,获取所述实体对的每个实体的额外特征向量。
可选地,所述通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率,包括:
通过tanh激活函数分别对所述实体对的每个实体向量以及所述额外特征向量进行处理,分别获取每个实体的tanh结果值;
并将获取的每个实体的tanh结果值进行乘积处理,然后输入到sigmoid函数,获取所述实体对关系类别的预测概率。
可选地,所述循环获取所述关系类别损失函数值,当所述关系类别损失函数值收敛至预设范围,停止循环获取所述关系类别损失函数值,以完成对构建的实体关系识别模型的迭代训练,包括:
当所述关系类型损失函数值低于或等于预设类别值时,继续循环获取所述关系类型损失函数值;
当所述关系类型损失函数值高于预设类别值时,停止获取循环获取所述关系类型损失函数值,完成对所述实体关系识别模型的训练。可选地,构建的损失函数公式为:L=L1+L2
其中,L表示损失函数;L1表示实体对中一个实体的损失函数;L2表示实体对中另一个实体的损失函数;P表示该实体对属于的类别的集合;N表示非该实体对的类别;TH表示的是预设类别值;σ表示sigmoid函数;r表示某个关系;r’表示另外一个关系,K表示参数。
为了解决上述问题,本发明还提供一种基实体关系的识别装置,所述装置包括:
字向量获取模块,用于利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
实体向量获取模块,用于根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
额外特征向量获取模块,用于通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
预测向量获取模块,用于通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
关系类别损失函数值获取模块,用于通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
模型训练完成模块,用于循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
关系类别识别模块,用于通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的实体关系的识别方法的步骤。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的实体关系的识别方法。
本发明实施例利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;通过训练好的实体关系识别模型对待识别文本进行实体关系识别。本发明主要目的在于通过构建的损失函数循环训练实体关系识别模型,从而解决现有在实体识别过程中识别效果不好的问题。
附图说明
图1为本发明一实施例提供的实体关系的识别方法的流程示意图;
图2为本发明一实施例提供的实体关系的识别装置的模块示意图;
图3为本发明一实施例提供的实现实体关系的识别方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
在下面的描述中,许多具体的细节被阐述。然而,应当理解的是,本发明的实施例可以在没有这些具体细节的情况下实现。在其他实例中,众所周知的方法、结构、和技术没有被详细地示出,以免模糊对本说明书的理解。对“一个实施例”、“实施例”、“示例性实施例”、“各种实施例”等等的参考表示本发明所描述的该实施例可包括特定的特征、结构、或特性,但并不是每一个实施例都必须包括该特定特征、结构、或特性。此外,短语“在一个实施例中”的反复使用不一定是指同一个实施例,尽管有可能是。
如本文所使用的,除非另外指明,使用序数形容词“第一”、“第二”、“第三”等等来描述公共的物体仅表明类似物体的不同实例正被参考,并且不意图暗示如此描述的该物体必须依照给定的顺序,无论在时间上、空间上、顺序上还是任何其他的方式。
如本文所使用的,除非另外指明,术语“移动设备”和/或“设备”一般是指无线通信设备,并且更具体地指以下的一个或多个:便携式电子设备、电话(例如,蜂窝式电话、智能手机)、计算机(例如,膝上型电脑、平板电脑)、便携式媒体播放器、个人数字助理(PDA)、或具有联网能力的任何其他电子设备。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
机器学习(Machine Learning,简称ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本发明提供一种实体关系的识别方法。参照图1所示,为本发明一实施例提供的实体关系的识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,实体关系的识别方法,包括:
S1:利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
S2:根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
S3:通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
S4:通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
S5:通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
S6:循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
S7:通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
在本发明的实施例中,通过构建的损失函数循环训练实体关系识别模型,从而解决现有在实体识别过程中识别效果不好的问题。
在步骤S1中,所述利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量,包括:
获取所述训练样本中的目标字,并确定所述目标字对应的初始字向量;
根据所述初始字向量,确定所述目标字对应的图像特征向量、字根特征向量,以及拼音特征向量;
根据所述目初始字向量、图像特征向量、字根特征向量、拼音特征向量以及预设权重矩阵生成所述目标字对应的字向量。
其中,利用构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本的每个字的字向量,其中,获取所述训练样本的每个字的字向量采用的公式为:
[h1,h2,…,hl]=BERT(|x1,x2,…,xl|)
其中,h1,h2,…,hl表示训练样本中每个字的字向量;x1,x2,…,xl表示训练样本中的每个字;l表示训练样本的长度。
在本发明的实施例中,BERT是通过海量数据训练好的获取字向量的模型,通过将句子中的每个字输入到BERT模型中,可以得到每个字在BERT模型最后一层隐藏层的向量,这个向量可以作为每个字的向量。其中,针对实体的向量表示,在向实体关系识别模型输入的时候,在是实体的token前插入“*”,最后用“*”对应的向量作为这个实体的向量表示。由于一个实体在文中会出现多次,对应的可以获得这个实体的多个向量表示。针对这个实体的多个向量表示,用步骤S2的公式来计算,以此公式的结果作为最终这个实体的向量表示。
在步骤S2中,所述根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,包括:
根据获取的字向量,获取所述训练样本中每个词的词向量;
根据获取的词向量,获取所述训练样本中的实体向量。
其中,对于任意一个实体ei,假设该实体有N个子符,那么最终该实体的向量可以表示成如下公式,即:获取所述训练样本的所有实体对中每个实体的实体向量采用的公式为:
在步骤S3中,所述通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量,包括:
通过预设的权重矩阵对所述实体对中头实体的实体向量进行处理,获取所述实体对中头实体的权重;
通过预设的权重矩阵对所述实体对中尾实体的实体向量进行处理,获取所述实体对中尾实体的权重;
根据所述实体对中头实体的权重、所述实体对中尾实体的权重,获取所述实体对的每个实体的额外特征向量。
其中,获取所述实体对的每个实体的额外特征向量采用的公式为:
A(s,o)=As·Ao
其中,As表示实体对中的头实体S关于其他实体的权重;
Ao表示实体对中的尾实体O关于其他实体的权重;
A(s,o)表示实体对关于其他所有token的权重;
H表示头实体个数;
q(s,o)表示H个头实体的实体对关于其他token的权重。
在本发明的实施例中,根据实体关系识别模型,可以得到最后一层toke和token的权重矩阵Aijk,其中0<i<=H,H表示B ert中的muti_heads个数,j和k都是0<j,k<=l。通过权重矩阵,可以得到实体对中的头实体S关于其他实体的权重为As,实体对中的尾实体关于其他实体的权重为Ao,结合两个实体得到这个实体对关于其他所有token的权重为:
A(s,o)=As·Ao
由于实体对有H个head,所以最终实体对关于其他token的权重为:
由更进一步的,可以根据q(s,o)的值从大到小取出关于这个实体对最重要的topk个字,然后和这topk个对应的向量加权求和,得到额外的特征向量c(s,o)。
在步骤S4中,所述通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率,包括:
S41:通过tanh激活函数分别对所述实体对的每个实体向量以及所述额外特征向量进行处理,分别获取每个实体的tanh结果值;
S42:将获取的每个实体的tanh结果值进行乘积处理,然后输入到sigmoid函数,获取所述实体对关系类别的预测概率。
其中,Zs表示es实体向量经过全连接层之后再经过激活函数之后的向量;
在步骤S5中,构建的损失函数公式为:L=L1+L2
其中,L表示损失函数;L1表示实体对中一个实体的损失函数;L2表示实体对中另一个实体的损失函数;P表示该实体对属于的类别的集合;N表示非该实体对的类别;TH表示的是预设类别值;σ表示sigmoid函数;r表示某个关系;K表示参数。
在步骤S6中,所述循环获取所述关系类别损失函数值,当所述关系类别损失函数值收敛至预设范围,停止循环获取所述关系类别损失函数值,以完成对构建的实体关系识别模型的迭代训练,包括:
S61:当所述关系类型损失函数值低于或等于预设类别值时,继续循环获取所述关系类型损失函数值;
S62:当所述关系类型损失函数值高于预设类别值时,停止获取循环获取所述关系类型损失函数值,完成对所述实体关系识别模型的训练。
在本发明的实施例中,基于损失函数L,判断的实体对是否属于该关系类别的依据是实体对在这个类别上的得分是否高于阀值类别的得分,根据这个损失函数,如果此实体对在该类别的得分远远高于阀值类别,那么说明实体关系识别模型已经学习到了如何判断这个类别,那么这个类别的损失函数值就低一些,实体关系识别模型再接下来更多的关注其它未学习好的类别。
如果实体对在该类别的得分和阀值很接近,那么说明实体关系识别模型还没学习好如何判断这个类别,那么损失函数值就高一些,让实体关系识别模型在接下里的学习中更多的关注这个类别。即:通过损失函数中的σ(K(TH-logitr))和σ(K(logitr-TH))这两项来控制,针对正样本而言,关系r的得分logitr,预设类别值的得分是TH,sigmoid函数是单调递增函数,所以TH-logitr越小,既logitr越大,TH越小,这个类别下的损失函数就会减小,最终基于这个损失函数的改进,训练出来的实体关系识别模型既能学习到如何判别样本数量比较多的关系类别,也能学习到如何判别样本数量比较少的关系类别。
在本发明的实施例中,在损失函数L=L1+L2下,实体关系识别模型训练的时候,如果预测出来该样本属于某个类别的概率和预设类别的概率相差很大的话,就降低该这个类别的损失函数在全部损失函数中的占比,这样模型的损失函数中难学习样本的比例会加大,由于模型训练的优化目标是最小化损失函数,所以这样就能让模型更多的学习到难区分样本的特征,从而增加模型识别这些难区分样本的识别能力。
同时,在篇章关系抽取中,两个有关系的实体的关系重点体现在文章的某几个字中,这可以作为这两个实体属于这个关系的证据,那么如果能找到两个实体属于这个关系的证据对最终的预测就有很大的帮助了。由于目前的语言模型通过在大量的文本上进行训练,有更好的语义表示能力,将语言模型引入到下游任务,会提升下游任务的识别结果,所以现在的NLP任务都会把语言模型作为最底层的结构对文本进行编码,发现语言模型中的一个中间结果是每个字符相对其他字符的相关性大小,那么通过这个中间结果可以得到与这两个实体相关的字符由哪些,根据相关性大小取出TOPK的字符出来作为判别这两个实体的证据。
在步骤S7中,通过训练好的实体关系识别模型对待识别文本进行实体关系识别,获取实体对的关系类别。也就是说,基于该损失函数训练好模型之后,对于一个新的文章和实体对,可以根据上述步骤预测实体对的关系类别。
本发明实施例利用构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本的每个字的字向量;根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量;通过权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;通过构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;循环获取所述关系类别损失函数值,当所述关系类别损失函数值收敛至预设范围,停止循环获取所述关系类别损失函数值,以完成对构建的实体关系识别模型的迭代训练;通过训练好的实体关系识别模型对待识别文本进行实体关系识别,获取实体对的关系类别。本发明主要目的在于通过构建的损失函数循环训练实体关系识别模型,从而解决现有在实体识别过程中识别效果不好的问题。
如图2所示,是本发明实体关系的识别装置的功能模块图。本发明所述实体关系的识别装置100可以安装于电子设备中。根据实现的功能,所述实体关系的识别装置100可以包括:字向量获取模块101、实体向量获取模块102、额外特征向量获取模块103、预测向量获取模块104、关系类别损失函数值获取模块105、模型训练完成模块106和关系类别识别模块107。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
字向量获取模块101,用于利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
实体向量获取模块102,用于根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
额外特征向量获取模块103,用于通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
预测向量获取模块104,用于通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
关系类别损失函数值获取模块105,用于通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
模型训练完成模块106,用于循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
关系类别识别模块107,用于通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
本发明实施例利用构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本的每个字的字向量;根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量;通过权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;通过构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;循环获取所述关系类别损失函数值,当所述关系类别损失函数值收敛至预设范围,停止循环获取所述关系类别损失函数值,以完成对构建的实体关系识别模型的迭代训练;通过训练好的实体关系识别模型对待识别文本进行实体关系识别,获取实体对的关系类别。本发明主要目的在于通过构建的损失函数循环训练实体关系识别模型,从而解决现有在实体识别过程中识别效果不好的问题。
如图3所示,是本发明实现实体关系的识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如实体关系的识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如数据稽核程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。存储器可以存储内容,该内容可由电子设备显示或被发送到其他设备(例如,耳机)以由其他设备来显示或播放。存储器还可以存储从其他设备接收的内容。该来自其他设备的内容可由电子设备显示、播放、或使用,以执行任何必要的可由电子设备和/或无线接入点中的计算机处理器或其他组件实现的任务或操作。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如数据稽核程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。电子还可包括芯片组(未示出),其用于控制一个或多个处理器与用户设备的其他组件中的一个或多个之间的通信。在特定的实施例中,电子设备可基于架构或架构,并且处理器和芯片集可来自处理器和芯片集家族。该一个或多个处理器104还可包括一个或多个专用集成电路(ASIC)或专用标准产品(ASSP),其用于处理特定的数据处理功能或任务。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
此外,网络和I/O接口可包括一个或多个通信接口或网络接口设备,以提供经由网络(未示出)在电子设备和其他设备(例如,网络服务器)之间的数据传输。通信接口可包括但不限于:人体区域网络(BAN)、个人区域网络(PAN)、有线局域网(LAN)、无线局域网(WLAN)、无线广域网(WWAN)、等等。用户设备可以经由有线连接耦合到网络。然而,无线系统接口可包括硬件或软件以广播和接收消息,其使用Wi-Fi直连标准和/或IEEE 802.11无线标准、蓝牙标准、蓝牙低耗能标准、Wi-Gig标准、和/或任何其他无线标准和/或它们的组合。
无线系统可包括发射器和接收器或能够在由IEEE 802.11无线标准所支配的操作频率的广泛范围内操作的收发器。通信接口可以利用声波、射频、光学、或其他信号来在电子设备与其他设备(诸如接入点、主机、服务器、路由器、读取设备、和类似物)之间交换数据。网络可包括但不限于:因特网、专用网络、虚拟专用网络、无线广域网、局域网、城域网、电话网络、等等。
显示器可包括但不限于液晶显示器、发光二极管显示器、或由在美国马萨诸塞州剑桥城的E Ink公司(E Ink Corp.of Cambridge,Massachusetts)所制造的E-InkTM显示器。该显示器可用于将内容以文本、图像、或视频的形式显示给用户。在特定的实例中,该显示器还可以作为触控屏显示器操作,其可以使得用户能够藉由使用某些手指或手势来触摸屏幕以启动命令或操作。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备3的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的实体关系的识别程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述每组待处理语义单元的相似度语义处理结果的私密和安全性,上述每组待处理语义单元的相似度语义处理还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明的实施例中,计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的实体关系的识别方法的步骤,具体方法如下:
利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
以上参考根据本发明的示例性实施例的系统和方法和/或计算机程序产品的框图和流程图描述了本发明的某些实施例。应当理解的是,框图和流程图中的一个或多个方框、以及在框图和流程图中的方框的组合,可以分别由计算机可执行程序指令实现。同样地,根据本发明的一些实施例,框图和流程图中的一些方框可以不必按照所呈现的顺序执行,或者甚至可以完全不需要执行。
这些计算机可执行程序指令可以被加载到通用计算机、专用计算机、处理器、或其他可编程数据处理装置上以产生特定机器,使得在计算机、处理器、或其他可编程数据处理装置上执行的指令创建用于实现在流程图方框或多个方框中所指定的一个或多个功能的构件。这些计算机程序产品还可以存储在计算机可读存储器中,其可以指导计算机或其他可编程数据处理装置以特定的方式运行,使得存储在计算机可读存储器中的指令产生制品,该制品包括实现在流程图的方框或多个方框中指定的一个或多个功能的指令构件。例如,本发明的实施例可提供计算机程序产品,其包括其中包含有计算机可读程序代码或程序指令的计算机可用介质,所述计算机可读程序代码适于被执行以实现在流程图方框或多个方框中指定的一个或多个功能。计算机程序指令还可以被加载到计算机或其他可编程数据处理装置上,以致使一系列操作元素或步骤在计算机或其他可编程装置上执行易产生计算机实现的程序,使得在计算机或其他可编程装置上执行的指令提供用于实现在流程图方框或多个方框中指定的功能的元素或步骤。
相应地,框图或流程图中的方框支持用以执行指定功能的构件的组合、用于执行指定功能的元素或步骤与用于执行指定功能的程序指令构件的组合。还应当理解的是,框图和流程图中的每个方框以及框图和流程图中的方框的组合可由执行指定功能、元素或步骤的专用的基于硬件的计算机系统实现,或由专用硬件或计算机指令的组合实现。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
虽然本发明的某些实施例已经结合目前被认为是最实用的且各式各样的实施例进行了描述,但应当理解,本发明并不限于所公开的实施例,而是意在覆盖包含在所附权利要求书的范围之内的各种修改和等价布置。虽然本文采用了特定的术语,但它们仅以一般性和描述性的意义使用,而不是用于限制的目的。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种实体关系的识别方法,应用于电子设备,其特征在于,所述方法包括:
利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成对所述实体关系识别模型的迭代训练;
通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
2.如权利要求1所述的实体关系的识别方法,其特征在于,所述利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量,包括:
获取所述训练样本中的目标字,并确定所述目标字对应的初始字向量;
根据所述初始字向量,确定所述目标字对应的图像特征向量、字根特征向量,以及拼音特征向量;
根据所述目初始字向量、图像特征向量、字根特征向量、拼音特征向量以及预设权重矩阵生成所述目标字对应的字向量。
3.如权利要求1所述的实体关系的识别方法,其特征在于,所述根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,包括:
根据获取的字向量,获取所述训练样本中每个词的词向量;
根据获取的词向量,获取所述训练样本中的实体向量。
4.如权利要求3所述的实体关系的识别方法,其特征在于,所述通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量,包括:
通过预设的权重矩阵对所述实体对中头实体的实体向量进行处理,获取所述实体对中头实体的权重;
通过预设的权重矩阵对所述实体对中尾实体的实体向量进行处理,获取所述实体对中尾实体的权重;
根据所述实体对中头实体的权重、所述实体对中尾实体的权重,获取所述实体对的每个实体的额外特征向量。
5.如权利要求1所述的实体关系的识别方法,其特征在于,所述通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率,包括:
通过tanh激活函数分别对所述实体对的每个实体向量以及所述额外特征向量进行处理,分别获取每个实体的tanh结果值;
并将获取的每个实体的tanh结果值进行乘积处理,然后输入到sigmoid函数,获取所述实体对关系类别的预测概率。
6.如权利要求1所述的实体关系的识别方法,其特征在于,所述循环获取所述关系类别损失函数值,当所述关系类别损失函数值收敛至预设范围,停止循环获取所述关系类别损失函数值,以完成对构建的实体关系识别模型的迭代训练,包括:
当所述关系类型损失函数值低于或等于预设类别值时,继续循环获取所述关系类型损失函数值;
当所述关系类型损失函数值高于预设类别值时,停止获取循环获取所述关系类型损失函数值,完成对所述实体关系识别模型的训练。
8.一种实体关系的识别装置,其特征在于,所述装置包括:
字向量获取模块,用于利用预构建的实体关系识别模型对训练样本进行预处理,获取所述训练样本中的每个字的字向量;
实体向量获取模块,用于根据获取的字向量,对所述训练样本的实体对进行处理,获取所述训练样本的所有实体对中每个实体的实体向量,其中,所述实体对由所述训练样本的任意两个实体构成;
额外特征向量获取模块,用于通过预设的权重矩阵对所述实体对的每个实体的词向量进行加权求和处理,获取所述实体对的每个实体的额外特征向量;
预测向量获取模块,用于通过激活函数对所述实体对的每个实体向量以及所述额外特征向量进行处理,获取所述实体对关系类别的预测概率;
关系类别损失函数值获取模块,用于通过预构建的损失函数获取对所述实体对关系类别的预测概率进行处理,获取关系类别损失函数值;
模型训练完成模块,用于循环获取所述关系类别损失函数值,直至所述关系类别损失函数值收敛至预设范围,以完成所述实体关系识别模型的迭代训练;
关系类别识别模块,用于通过训练好的实体关系识别模型对待识别文本进行实体关系识别。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一所述的实体关系的识别方法的步骤。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一所述的实体关系的识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210042332.0A CN114385817A (zh) | 2022-01-14 | 2022-01-14 | 实体关系的识别方法、设备及可读存储介质 |
PCT/CN2022/089938 WO2023134069A1 (zh) | 2022-01-14 | 2022-04-28 | 实体关系的识别方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210042332.0A CN114385817A (zh) | 2022-01-14 | 2022-01-14 | 实体关系的识别方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114385817A true CN114385817A (zh) | 2022-04-22 |
Family
ID=81201077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210042332.0A Pending CN114385817A (zh) | 2022-01-14 | 2022-01-14 | 实体关系的识别方法、设备及可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114385817A (zh) |
WO (1) | WO2023134069A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116028880A (zh) * | 2023-02-07 | 2023-04-28 | 支付宝(杭州)信息技术有限公司 | 训练行为意图识别模型的方法、行为意图识别方法及装置 |
WO2023134069A1 (zh) * | 2022-01-14 | 2023-07-20 | 平安科技(深圳)有限公司 | 实体关系的识别方法、设备及可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522557B (zh) * | 2018-11-16 | 2021-07-16 | 中山大学 | 文本关系抽取模型的训练方法、装置及可读存储介质 |
US11514091B2 (en) * | 2019-01-07 | 2022-11-29 | International Business Machines Corporation | Extracting entity relations from semi-structured information |
CN111814469B (zh) * | 2020-07-13 | 2023-07-18 | 北京邮电大学 | 一种基于树型胶囊网络的关系抽取方法及装置 |
CN111898364B (zh) * | 2020-07-30 | 2023-09-26 | 平安科技(深圳)有限公司 | 神经网络关系抽取方法、计算机设备及可读存储介质 |
CN113128203A (zh) * | 2021-03-30 | 2021-07-16 | 北京工业大学 | 基于注意力机制的关系抽取方法、系统、设备及存储介质 |
CN114385817A (zh) * | 2022-01-14 | 2022-04-22 | 平安科技(深圳)有限公司 | 实体关系的识别方法、设备及可读存储介质 |
-
2022
- 2022-01-14 CN CN202210042332.0A patent/CN114385817A/zh active Pending
- 2022-04-28 WO PCT/CN2022/089938 patent/WO2023134069A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023134069A1 (zh) * | 2022-01-14 | 2023-07-20 | 平安科技(深圳)有限公司 | 实体关系的识别方法、设备及可读存储介质 |
CN116028880A (zh) * | 2023-02-07 | 2023-04-28 | 支付宝(杭州)信息技术有限公司 | 训练行为意图识别模型的方法、行为意图识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2023134069A1 (zh) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | The gap of semantic parsing: A survey on automatic math word problem solvers | |
CN111897964A (zh) | 文本分类模型训练方法、装置、设备及存储介质 | |
CN113312461A (zh) | 基于自然语言处理的智能问答方法、装置、设备及介质 | |
CN112988963B (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN114385817A (zh) | 实体关系的识别方法、设备及可读存储介质 | |
CN112988979A (zh) | 实体识别方法、装置、计算机可读介质及电子设备 | |
CN112989800A (zh) | 基于Bert的篇章的多意图识别方法、设备及可读存储介质 | |
CN112685550B (zh) | 智能问答方法、装置、服务器及计算机可读存储介质 | |
CN113158656B (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN113096242A (zh) | 虚拟主播生成方法、装置、电子设备及存储介质 | |
CN113761190A (zh) | 文本识别方法、装置、计算机可读介质及电子设备 | |
CN113722483A (zh) | 话题分类方法、装置、设备及存储介质 | |
CN115392237B (zh) | 情感分析模型训练方法、装置、设备及存储介质 | |
CN113378970A (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN113627530A (zh) | 相似问题文本生成方法、装置、设备及介质 | |
CN113821622A (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN113918704A (zh) | 基于机器学习的问答方法、装置、电子设备及介质 | |
CN114020886A (zh) | 语音意图识别方法、装置、设备及存储介质 | |
US20210073191A1 (en) | Knowledgeable Machines And Applications | |
CN113254814A (zh) | 网络课程视频打标签方法、装置、电子设备及介质 | |
CN112632264A (zh) | 智能问答方法、装置、电子设备及存储介质 | |
CN114662484A (zh) | 语义识别方法、装置、电子设备及可读存储介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN116341646A (zh) | Bert模型的预训练方法、装置、电子设备及存储介质 | |
CN113850078A (zh) | 基于机器学习的多意图识别方法、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |