CN108804411A - 一种语义角色分析方法、计算机可读存储介质及终端设备 - Google Patents
一种语义角色分析方法、计算机可读存储介质及终端设备 Download PDFInfo
- Publication number
- CN108804411A CN108804411A CN201810309685.6A CN201810309685A CN108804411A CN 108804411 A CN108804411 A CN 108804411A CN 201810309685 A CN201810309685 A CN 201810309685A CN 108804411 A CN108804411 A CN 108804411A
- Authority
- CN
- China
- Prior art keywords
- participle
- vector
- speech
- network model
- semantic role
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Abstract
本发明属于计算机技术领域,尤其涉及一种语义角色分析方法、计算机可读存储介质及终端设备。所述方法在进行词性分析的过程中,使用一个神经网络模型进行正序词性分析,而使用另一个神经网络模型进行逆序词性分析。在进行语义角色分析的过程中,使用一个神经网络模型进行正序语义角色分析,而使用另一个神经网络模型进行逆序语义角色分析。也即将原本较为复杂的神经网络模型拆分为相对简单的神经网络模型,再对各个神经网络模型的输出进行综合处理得到结果,由于神经网络模型结构的简化,大大减少了计算量,提升了分析效率。
Description
技术领域
本发明属于计算机技术领域,尤其涉及一种语义角色分析方法、计算机可读存储介质及终端设备。
背景技术
作为自然语言处理的一个主要研究方向,语义分析能够将自然语言转化为计算机能够理解的形式化语言,从而做到人与计算机之间的相互理解。对句子进行正确的语义分析,一直是从事自然语言理解研究的学者们追求的主要目标。目前的语义分析主要是集中在语义角色分析等方面。语义角色分析主要是分析与句子中谓词有关的成分的语义角色,如施事、受事、与事、时间和地点等。近年来,语义角色分析受到了越来越多的学者的关注,广泛于应用于信息抽取、信息检索、机器翻译等领域。
目前,主流的语义角色分析研究主要集中于使用各种机器学习技术,利用多种语言学特征,进行了语义角色的识别和分类,通常的做法是首先使用一个神经网络模型进行各个分词的词性的确定,然后再通过一个神经网络模型进行各个分词的语义角色的确定,由于在计算过程中,需要在单个的神经网络模型中考虑整个语句对分词判定结果的影响,神经网络模型往往构造的非常复杂,计算量巨大,效率低下。
发明内容
有鉴于此,本发明实施例提供了一种语义角色分析方法、计算机可读存储介质及终端设备,以解决目前的语义角色分析方法需要在单个的神经网络模型中考虑整个语句对分词判定结果的影响,神经网络模型往往构造的非常复杂,计算量巨大,效率低下的问题。
本发明实施例的第一方面提供了一种语义角色分析方法,可以包括:
对语句文本进行切词处理,得到构成所述语句文本的各个分词;
在预设的词向量数据库中分别查找各个分词的词向量,并根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵,所述词向量数据库为记录词语与词向量之间的对应关系的数据库;
将各个分词的第一输入矩阵分别输入到预设的第一神经网络模型中,得到各个分词的第一输出向量,所述第一神经网络模型为进行正序词性分析的神经网络模型;
将各个分词的第二输入矩阵分别输入到预设的第二神经网络模型中,得到各个分词的第二输出向量,所述第二神经网络模型为进行逆序词性分析的神经网络模型;
根据各个分词的第一输出向量和第二输出向量确定各个分词的词性类型;
在预设的词性向量数据库中分别查找各个分词的词性类型对应的词性向量,并根据所述词性向量分别构建各个分词的第三输入矩阵和第四输入矩阵,所述词性向量数据库为记录词性类型与词性向量之间的对应关系的数据库;
将各个分词的第三输入矩阵分别输入到预设的第三神经网络模型中,得到各个分词的第三输出向量,所述第三神经网络模型为进行正序语义角色分析的神经网络模型;
将各个分词的第四输入矩阵分别输入到预设的第四神经网络模型中,得到各个分词的第四输出向量,所述第四神经网络模型为进行逆序语义角色分析的神经网络模型;
根据各个分词的第三输出向量和第四输出向量确定各个分词的语义角色类型。
本发明实施例的第二方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令被处理器执行时实现上述语义角色分析方法的步骤。
本发明实施例的第三方面提供了一种语义角色分析终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现上述语义角色分析方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例在两个最关键的处理过程中,都采用了两个神经网络模型进行处理,例如,在进行词性分析的过程中,使用一个神经网络模型进行正序词性分析,即只考虑分词之间正序的词性相互关系,而不考虑分词之间逆序的词性相互关系,而使用另一个神经网络模型进行逆序词性分析,即只考虑分词之间逆序的词性相互关系,而不考虑分词之间正序的词性相互关系。在进行语义角色分析的过程中,使用一个神经网络模型进行正序语义角色分析,即只考虑分词之间正序的语义角色相互关系,而不考虑分词之间逆序的语义角色相互关系,而使用另一个神经网络模型进行逆序语义角色分析,即只考虑分词之间逆序的语义角色相互关系,而不考虑分词之间正序的语义角色相互关系。也即将原本较为复杂的神经网络模型拆分为相对简单的神经网络模型,再对各个神经网络模型的输出进行综合处理得到结果,由于神经网络模型结构的简化,大大减少了计算量,提升了分析效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例中一种语义角色分析方法的一个实施例流程图;
图2为第一神经网络模型的处理过程的示意流程图;
图3为第二神经网络模型的处理过程的示意流程图;
图4为第三神经网络模型的处理过程的示意流程图;
图5为第四神经网络模型的处理过程的示意流程图;
图6为本发明实施例中一种语义角色分析装置的一个实施例结构图;
图7为本发明实施例中一种语义角色分析终端设备的示意框图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,本发明实施例中一种语义角色分析方法的一个实施例可以包括:
步骤S101,对语句文本进行切词处理,得到构成所述语句文本的各个分词。
切词处理是指将一个语句文本切分成一个一个单独的词,也即各个所述分词,在本实施例中,可以根据通用词典对语句文本进行切分,保证分出的词语都是正常词汇,如词语不在词典内则分出单字。当前后方向都可以成词时,例如“要求神”,会根据统计词频的大小划分,如“要求”词频高则分出“要求/神”,如“求神”词频高则分出“要/求神”。
步骤S102,在预设的词向量数据库中分别查找各个分词的词向量,并根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵。
所述词向量数据库为记录词语与词向量之间的对应关系的数据库,所述词向量可以是根据word2vec模型训练词语所得到对应的词向量。
具体地,可以根据下式分别构建各个分词的第一输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第一输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,wvl为所述第一输入矩阵的列号,1≤wvl≤wVecLen,wVecLen为任意一个所述分词的词向量的长度,第n个分词的词向量为WordVecn,且WordVecn=(WdVecEmn,1,WdVecEmn,2,......,WdVecEmn,vl,......,WdVecEmn,wVecLen),FwWdMatrixn为第n个分词的第一输入矩阵。
根据下式分别构建各个分词的第二输入矩阵:
BkWdMatrixn为第n个分词的第二输入矩阵。
步骤S103,将各个分词的第一输入矩阵分别输入到预设的第一神经网络模型中,得到各个分词的第一输出向量。
所述第一神经网络模型为进行正序词性分析的神经网络模型,所述第一神经网络模型的处理过程具体可以包括如图2所示的步骤:
步骤S1031,分别计算各个分词的第一复合向量。
具体地,可以根据下式分别计算各个分词的第一复合向量:
FwWdCpVecn=(FwWdCpEmn,1,FwWdCpEmn,2,......,FwWdCpEmn,wvl,......,FwWdCpEmn,wVecLen)其中,
ln为自然对数函数,tanh为双曲正切函数,FwWdWtwvl、FwWdWt′wvl均为预设的权重系数。
步骤S1032,分别计算各个词性类型的第一概率值。
具体地,可以根据下式分别计算各个词性类型的第一概率值:
其中,m为词性类型的序号,1≤m≤M,M为词性类型的个数,FwWdWtVecm为预设的与第m个词性类型对应的权值向量,FwWdProbn,m为第n个分词是第m个词性类型的第一概率值。
步骤S1033,构建各个分词的第一输出向量。
具体地,可以根据下式构建各个分词的第一输出向量:
FwWdVecn=(FwWdProbn,1,FwWdProbn,2,......,FwWdProbn,m,......,FwWdProbn,M)其中,FwWdVecn为第n个分词的第一输出向量。
步骤S104,将各个分词的第二输入矩阵分别输入到预设的第二神经网络模型中,得到各个分词的第二输出向量。
所述第二神经网络模型为进行逆序词性分析的神经网络模型,所述第二神经网络模型的处理过程具体可以包括如图3所示的步骤:
步骤S1041,分别计算各个分词的第二复合向量。
具体地,可以根据下式分别计算各个分词的第二复合向量:
BkWdCpVecn=(BkWdCpEmn,1,BkWdCpEmn,2,......,BkWdCpEmn,wvl,......,BkWdCpEmn,wVecLen)其中,
BkWdWtwvl、BkWdWt′wvl均为预设的权重系数。
步骤S1042,分别计算各个词性类型的第二概率值。
具体地,可以根据下式分别计算各个词性类型的第二概率值:
其中,BkWdWtVecm为预设的与第m个词性类型对应的权值向量,BkWdProbn,m为第n个分词是第m个词性类型的第二概率值。
步骤S1043,构建各个分词的第二输出向量。
具体地,可以根据下式构建各个分词的第二输出向量:
BkWdVecn=(BkWdProbn,1,BkWdProbn,2,......,BkWdProbn,m,......,BkWdProbn,M)
其中,BkWdVecn为第n个分词的第二输出向量。
步骤S105,根据各个分词的第一输出向量和第二输出向量确定各个分词的词性类型。
具体地,可以根据下式分别计算各个分词的词性概率向量:
WdProbVecn=(WdProbn,1,WdProbn,2,......,WdProbn,m,......,WdProbn,M)
其中,WdProbn,m=η1*FwWdProbn,m+η2*BkWdProbn,m,η1、η2均为预设的权重系数,WdProbVecn为第n个分词的词性概率向量。
根据下式分别确定各个分词的词性类型:
CharSeqn=arg max(WdProbVecn)
其中,arg max为最大自变量函数,CharSeqn为第n个分词的词性类型序号。也即将第n个分词的词性概率向量中取值最大的元素所对应的词性类型确定为第n个分词的词性类型。
步骤S106,在预设的词性向量数据库中分别查找各个分词的词性类型对应的词性向量,并根据所述词性向量分别构建各个分词的第三输入矩阵和第四输入矩阵。
所述词性向量数据库为记录词性类型与词性向量之间的对应关系的数据库。所述词性向量为各个词性类型所对应的向量形式,即根据词性类型的上下文信息来表示该词性类型出现的概率。词性向量的训练先将每个词性类型表示成一个0-1向量(one-hot)形式,再进行模型训练,用n-1个词的词性类型来预测第n个词的词性类型,神经网络模型预测后得到的中间过程作为词性向量。具体地,如词性类型“名词”的one-hot向量假设定为[1,0,0,0,……,0],词性类型“形容词”的one-hot向量为[0,1,0,0,……,0],词性类型“动词”的one-hot向量为[0,0,1,0,……,0],词性类型“副词”的向量[0,0,0,1,……,0],模型经过训练会生成隐藏层的系数矩阵W,每个词性类型的one-hot向量和系数矩阵的乘积为该词性类型的词性向量,最后的形式将是类似于“[-0.11,0.26,-0.03,…...,0.71]”这样的一个多维向量。
具体地,可以根据下式分别构建各个分词的第三输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第三输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,cvl为所述第三输入矩阵的列号,1≤cvl≤cVecLen,cVecLen为任意一个所述分词的词性向量的长度,第n个分词的词性向量为CharVecn,且CharVecn=(CrVecEmn,1,CrVecEmn,2,......,CrVecEmn,cvl,......,CrVecEmn,cVecLen),FwCrMatrixn为第n个分词的第三输入矩阵。
根据下式分别构建各个分词的第四输入矩阵:
BkCrMatrixn为第n个分词的第四输入矩阵。
步骤S107,将各个分词的第三输入矩阵分别输入到预设的第三神经网络模型中,得到各个分词的第三输出向量。
所述第三神经网络模型为进行正序语义角色分析的神经网络模型,所述第三神经网络模型的处理过程具体可以包括如图4所示的步骤:
步骤S1071,分别计算各个分词的第三复合向量。
具体地,可以根据下式分别计算各个分词的第三复合向量:
FwCrCpVecn=(FwCrCpEmn,1,FwCrCpEmn,2,......,FwCrCpEmn,vl,......,FwCrCpEmn,cVecLen)其中,
ln为自然对数函数,tanh为双曲正切函数,FwCrWtcvl、FwCrWt′cvl均为预设的权重系数。
步骤S1072,分别计算各个语义角色类型的第一概率值。
具体地,可以根据下式分别计算各个语义角色类型的第一概率值:
其中,l为语义角色类型的序号,1≤l≤L,L为语义角色类型的个数,FwCrWtVecl为预设的与第l个语义角色类型对应的权值向量,FwCrProbn,l为第n个分词是第l个语义角色类型的第一概率值。
步骤S1073,构建各个分词的第三输出向量。
具体地,可以根据下式构建各个分词的第三输出向量:
FwCrVecn=(FwCrProbn,1,FwCrProbn,2,......,FwCrProbn,l,......,FwCrProbn,L)其中,FwCrVecn为第n个分词的第三输出向量。
步骤S108,将各个分词的第四输入矩阵分别输入到预设的第四神经网络模型中,得到各个分词的第四输出向量。
所述第四神经网络模型为进行逆序语义角色分析的神经网络模型,所述第三神经网络模型的处理过程具体可以包括如图5所示的步骤:
步骤S1081,分别计算各个分词的第四复合向量。
具体地,可以根据下式分别计算各个分词的第四复合向量:
BkCrCpVecn=(BkCrCpEmn,1,BkCrCpEmn,2,......,BkCrCpEmn,cvl,......,BkCrCpEmn,cVecLen),其中,
BkCrWtcvl、BkCrWt′cvl均为预设的权重系数。
步骤S1082,分别计算各个语义角色类型的第二概率值。
具体地,可以根据下式分别计算各个语义角色类型的第二概率值:
其中,BkCrWtVecl为预设的与第l个语义角色类型对应的权值向量,BkCrProbn,l为第n个分词是第l个语义角色类型的第二概率值。
步骤S1083,构建各个分词的第四输出向量。
具体地,可以根据下式构建各个分词的第四输出向量:
BkCrVecn=(BkCrProbn,1,BkCrProbn,2,......,BkCrProbn,l,......,BkCrProbn,L)其中,BkCrVecn为第n个分词的第四输出向量。
步骤S109,根据各个分词的第三输出向量和第四输出向量确定各个分词的语义角色类型。
具体地,可以根据下式分别计算各个分词的语义角色概率向量:
CrProbVecn=(CrProbn,1,CrProbn,2,......,CrProbn,l,......,CrProbn,L)
其中,CrProbn,l=ξ1*FwCrProbn,l+ξ2*BkCrProbn,l,ξ1、ξ2均为预设的权重系数,CrProbVecn为第n个分词的语义角色概率向量。
根据下式分别确定各个分词的语义角色类型:
RoleSeqn=arg max(CrProbVecn)
其中,arg max为最大自变量函数,RoleSeqn为第n个分词的语义角色类型序号。也即将第n个分词的语义角色概率向量中取值最大的元素所对应的语义角色类型确定为第n个分词的语义角色类型。也即将第n个分词的语义角色概率向量中取值最大的元素所对应的语义角色类型确定为第n个分词的语义角色类型。
综上所述,本发明实施例在两个最关键的处理过程中,都采用了两个神经网络模型进行处理,例如,在进行词性分析的过程中,使用一个神经网络模型进行正序词性分析,即只考虑分词之间正序的词性相互关系,而不考虑分词之间逆序的词性相互关系,而使用另一个神经网络模型进行逆序词性分析,即只考虑分词之间逆序的词性相互关系,而不考虑分词之间正序的词性相互关系。在进行语义角色分析的过程中,使用一个神经网络模型进行正序语义角色分析,即只考虑分词之间正序的语义角色相互关系,而不考虑分词之间逆序的语义角色相互关系,而使用另一个神经网络模型进行逆序语义角色分析,即只考虑分词之间逆序的语义角色相互关系,而不考虑分词之间正序的语义角色相互关系。也即将原本较为复杂的神经网络模型拆分为相对简单的神经网络模型,再对各个神经网络模型的输出进行综合处理得到结果,由于神经网络模型结构的简化,大大减少了计算量,提升了分析效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的一种语义角色分析方法,图6示出了本发明实施例提供的一种语义角色分析装置的一个实施例结构图。
本实施例中,一种语义角色分析装置可以包括:
切词处理模块601,用于对语句文本进行切词处理,得到构成所述语句文本的各个分词;
词向量查找模块602,用于在预设的词向量数据库中分别查找各个分词的词向量,所述词向量数据库为记录词语与词向量之间的对应关系的数据库;
词向量矩阵构建模块603,用于根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵;
第一处理模块604,用于将各个分词的第一输入矩阵分别输入到预设的第一神经网络模型中,得到各个分词的第一输出向量,所述第一神经网络模型为进行正序词性分析的神经网络模型;
第二处理模块605,用于将各个分词的第二输入矩阵分别输入到预设的第二神经网络模型中,得到各个分词的第二输出向量,所述第二神经网络模型为进行逆序词性分析的神经网络模型;
词性类型确定模块606,用于根据各个分词的第一输出向量和第二输出向量确定各个分词的词性类型;
词性向量查找模块607,用于在预设的词性向量数据库中分别查找各个分词的词性类型对应的词性向量,所述词性向量数据库为记录词性类型与词性向量之间的对应关系的数据库;
词性向量矩阵构建模块608,用于根据所述词性向量分别构建各个分词的第三输入矩阵和第四输入矩阵;
第三处理模块609,用于将各个分词的第三输入矩阵分别输入到预设的第三神经网络模型中,得到各个分词的第三输出向量,所述第三神经网络模型为进行正序语义角色分析的神经网络模型;
第四处理模块610,用于将各个分词的第四输入矩阵分别输入到预设的第四神经网络模型中,得到各个分词的第四输出向量,所述第四神经网络模型为进行逆序语义角色分析的神经网络模型;
语义角色类型确定模块611,用于根据各个分词的第三输出向量和第四输出向量确定各个分词的语义角色类型。
进一步地,所述词向量矩阵构建模块可以包括:
第一输入矩阵构建单元,用于根据下式分别构建各个分词的第一输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第一输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,wvl为所述第一输入矩阵的列号,1≤wvl≤wVecLen,wVecLen为任意一个所述分词的词向量的长度,第n个分词的词向量为WordVecn,且WordVecn=(WdVecEmn,1,WdVecEmn,2,......,WdVecEmn,vl,......,WdVecEmn,wVecLen),FwWdMatrixn为第n个分词的第一输入矩阵;
第二输入矩阵构建单元,用于根据下式分别构建各个分词的第二输入矩阵:
BkWdMatrixn为第n个分词的第二输入矩阵。
进一步地,所述第一处理模块可以包括:
第一复合向量计算单元,用于根据下式分别计算各个分词的第一复合向量:
FwWdCpVecn=(FwWdCpEmn,1,FwWdCpEmn,2,......,FwWdCpEmn,wvl,......,FwWdCpEmn,wVecLen)其中,
ln为自然对数函数,tanh为双曲正切函数,FwWdWtwvl、FwWdWt′wvl均为预设的权重系数;
词性第一概率值计算单元,用于根据下式分别计算各个词性类型的第一概率值:
其中,m为词性类型的序号,1≤m≤M,M为词性类型的个数,FwWdWtVecm为预设的与第m个词性类型对应的权值向量,FwWdProbn,m为第n个分词是第m个词性类型的第一概率值;
第一输出向量构建单元,用于根据下式构建各个分词的第一输出向量:
FwWdVecn=(FwWdProbn,1,FwWdProbn,2,......,FwWdProbn,m,......,FwWdProbn,M)
其中,FwWdVecn为第n个分词的第一输出向量;
进一步地,所述第二处理模块可以包括:
第二复合向量计算单元,用于根据下式分别计算各个分词的第二复合向量:
BkWdCpVecn=(BkWdCpEmn,1,BkWdCpEmn,2,......,BkWdCpEmn,wvl,......,BkWdCpEmn,wVecLen)其中,
BkWdWtwvl、BkWdWt′wvl均为预设的权重系数;
词性第二概率值计算单元,用于根据下式分别计算各个词性类型的第二概率值:
其中,BkWdWtVecm为预设的与第m个词性类型对应的权值向量,BkWdProbn,m为第n个分词是第m个词性类型的第二概率值;
第二输出向量构建单元,用于根据下式构建各个分词的第二输出向量:
BkWdVecn=(BkWdProbn,1,BkWdProbn,2,......,BkWdProbn,m,......,BkWdProbn,M)
其中,BkWdVecn为第n个分词的第二输出向量。
进一步地,所述词性类型确定模块可以包括:
词性概率向量计算单元,用于根据下式分别计算各个分词的词性概率向量:
WdProbVecn=(WdProbn,1,WdProbn,2,......,WdProbn,m,......,WdProbn,M)
其中,WdProbn,m=η1*FwWdProbn,m+η2*BkWdProbn,m,η1、η2均为预设的权重系数,WdProbVecn为第n个分词的词性概率向量;
词性类型确定单元,用于根据下式分别确定各个分词的词性类型:
CharSeqn=arg max(WdProbVecn)
其中,arg max为最大自变量函数,CharSeqn为第n个分词的词性类型序号。
进一步地,所述词性向量矩阵构建模块可以包括:
第三输入矩阵构建单元,用于根据下式分别构建各个分词的第三输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第三输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,cvl为所述第三输入矩阵的列号,1≤cvl≤cVecLen,cVecLen为任意一个所述分词的词性向量的长度,第n个分词的词性向量为CharVecn,且CharVecn=(CrVecEmn,1,CrVecEmn,2,......,CrVecEmn,cvl,......,CrVecEmn,cVecLen),
FwCrMatrixn为第n个分词的第三输入矩阵;
第四输入矩阵构建单元,用于根据下式分别构建各个分词的第四输入矩阵:
BkCrMatrixn为第n个分词的第四输入矩阵。
进一步地,所述第三处理模块可以包括:
第三复合向量计算单元,用于根据下式分别计算各个分词的第三复合向量:
FwCrCpVecn=(FwCrCpEmn,1,FwCrCpEmn,2,......,FwCrCpEmn,vl,......,FwCrCpEmn,cVecLen)其中,
ln为自然对数函数,tanh为双曲正切函数,FwCrWtcvl、FwCrWt′cvl均为预设的权重系数;
语义角色第一概率值计算单元,用于根据下式分别计算各个语义角色类型的第一概率值:
其中,l为语义角色类型的序号,1≤l≤L,L为语义角色类型的个数,FwCrWtVecl为预设的与第l个语义角色类型对应的权值向量,FwCrProbn,l为第n个分词是第l个语义角色类型的第一概率值;
第三输出向量构建单元,用于根据下式构建各个分词的第三输出向量:
FwCrVecn=(FwCrProbn,1,FwCrProbn,2,......,FwCrProbn,l,......,FwCrProbn,L)
其中,FwCrVecn为第n个分词的第三输出向量;
进一步地,所述第四处理模块可以包括:
第四复合向量计算单元,用于根据下式分别计算各个分词的第四复合向量:
BkCrCpVecn=(BkCrCpEmn,1,BkCrCpEmn,2,......,BkCrCpEmn,cvl,......,BkCrCpEmn,cVecLen)其中,
BkCrWtcvl、BkCrWt′cvl均为预设的权重系数;
语义角色第二概率值计算单元,用于根据下式分别计算各个语义角色类型的第二概率值:
其中,BkCrWtVecl为预设的与第l个语义角色类型对应的权值向量,BkCrProbn,l为第n个分词是第l个语义角色类型的第二概率值;
第四输出向量构建单元,用于根据下式构建各个分词的第四输出向量:
BkCrVecn=(BkCrProbn,1,BkCrProbn,2,......,BkCrProbn,l,......,BkCrProbn,L)
其中,BkCrVecn为第n个分词的第四输出向量。
进一步地,所述语义角色类型确定模块可以包括:
语义角色概率向量计算单元,用于根据下式分别计算各个分词的语义角色概率向量:
CrProbVecn=(CrProbn,1,CrProbn,2,......,CrProbn,l,......,CrProbn,L)
其中,CrProbn,l=ξ1*FwCrProbn,l+ξ2*BkCrProbn,l,ξ1、ξ2均为预设的权重系数,CrProbVecn为第n个分词的语义角色概率向量;
语义角色类型确定单元,用于根据下式分别确定各个分词的语义角色类型:
RoleSeqn=arg max(CrProbVecn)
其中,arg max为最大自变量函数,RoleSeqn为第n个分词的语义角色类型序号。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
图7示出了本发明实施例提供的一种语义角色分析终端设备的示意框图,为了便于说明,仅示出了与本发明实施例相关的部分。
在本实施例中,所述语义角色分析终端设备7可以是手机、平板电脑、桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该语义角色分析终端设备7可包括:处理器70、存储器71以及存储在所述存储器71中并可在所述处理器70上运行的计算机可读指令72,例如执行上述的语义角色分析方法的计算机可读指令。所述处理器70执行所述计算机可读指令72时实现上述各个语义角色分析方法实施例中的步骤,例如图1所示的步骤S101至S109。或者,所述处理器70执行所述计算机可读指令72时实现上述各装置实施例中各模块/单元的功能,例如图6所示模块601至611的功能。
示例性的,所述计算机可读指令72可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器71中,并由所述处理器70执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机可读指令72在所述语义角色分析终端设备7中的执行过程。
所述处理器70可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器71可以是所述语义角色分析终端设备7的内部存储单元,例如语义角色分析终端设备7的硬盘或内存。所述存储器71也可以是所述语义角色分析终端设备7的外部存储设备,例如所述语义角色分析终端设备7上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器71还可以既包括所述语义角色分析终端设备7的内部存储单元也包括外部存储设备。所述存储器71用于存储所述计算机可读指令以及所述语义角色分析终端设备7所需的其它指令和数据。所述存储器71还可以用于暂时地存储已经输出或者将要输出的数据。
在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干计算机可读指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储计算机可读指令的介质。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种语义角色分析方法,其特征在于,包括:
对语句文本进行切词处理,得到构成所述语句文本的各个分词;
在预设的词向量数据库中分别查找各个分词的词向量,并根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵,所述词向量数据库为记录词语与词向量之间的对应关系的数据库;
将各个分词的第一输入矩阵分别输入到预设的第一神经网络模型中,得到各个分词的第一输出向量,所述第一神经网络模型为进行正序词性分析的神经网络模型;
将各个分词的第二输入矩阵分别输入到预设的第二神经网络模型中,得到各个分词的第二输出向量,所述第二神经网络模型为进行逆序词性分析的神经网络模型;
根据各个分词的第一输出向量和第二输出向量确定各个分词的词性类型;
在预设的词性向量数据库中分别查找各个分词的词性类型对应的词性向量,并根据所述词性向量分别构建各个分词的第三输入矩阵和第四输入矩阵,所述词性向量数据库为记录词性类型与词性向量之间的对应关系的数据库;
将各个分词的第三输入矩阵分别输入到预设的第三神经网络模型中,得到各个分词的第三输出向量,所述第三神经网络模型为进行正序语义角色分析的神经网络模型;
将各个分词的第四输入矩阵分别输入到预设的第四神经网络模型中,得到各个分词的第四输出向量,所述第四神经网络模型为进行逆序语义角色分析的神经网络模型;
根据各个分词的第三输出向量和第四输出向量确定各个分词的语义角色类型。
2.根据权利要求1所述的语义角色分析方法,其特征在于,所述根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵包括:
根据下式分别构建各个分词的第一输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第一输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,wvl为所述第一输入矩阵的列号,1≤wvl≤wVecLen,wVecLen为任意一个所述分词的词向量的长度,第n个分词的词向量为WordVecn,且
WordVecn=(WdVecEmn,1,WdVecEmn,2,......,WdVecEmn,vl,......,WdVecEmn,wVecLen),
FwWdMatrixn为第n个分词的第一输入矩阵;
根据下式分别构建各个分词的第二输入矩阵:
BkWdMatrixn为第n个分词的第二输入矩阵。
3.根据权利要求2所述的语义角色分析方法,其特征在于,所述第一神经网络模型的处理过程包括:
根据下式分别计算各个分词的第一复合向量:
FwWdCpVecn=(FwWdCpEmn,1,FwWdCpEmn,2,......,FwWdCpEmn,wvl,......,FwWdCpEmn,wVecLen)
其中,
ln为自然对数函数,tanh为双曲正切函数,FwWdWtwvl、FwWdWt′wvl均为预设的权重系数;
根据下式分别计算各个词性类型的第一概率值:
其中,m为词性类型的序号,1≤m≤M,M为词性类型的个数,FwWdWtVecm为预设的与第m个词性类型对应的权值向量,FwWdProbn,m为第n个分词是第m个词性类型的第一概率值;
根据下式构建各个分词的第一输出向量:
FwWdVecn=(FwWdProbn,1,FwWdProbn,2,......,FwWdProbn,m,......,FwWdProbn,M)
其中,FwWdVecn为第n个分词的第一输出向量;
所述第二神经网络模型的处理过程包括:
根据下式分别计算各个分词的第二复合向量:
BkWdCpVecn=(BkWdCpEmn,1,BkWdCpEmn,2,......,BkWdCpEmn,wvl,......,BkWdCpEmn,wVecLen)
其中,
BkWdWtwvl、BkWdWt′wvl均为预设的权重系数;
根据下式分别计算各个词性类型的第二概率值:
其中,BkWdWtVecm为预设的与第m个词性类型对应的权值向量,BkWdProbn,m为第n个分词是第m个词性类型的第二概率值;
根据下式构建各个分词的第二输出向量:
BkWdVecn=(BkWdProbn,1,BkWdProbn,2,......,BkWdProbn,m,......,BkWdProbn,M)
其中,BkWdVecn为第n个分词的第二输出向量。
4.根据权利要求3所述的语义角色分析方法,其特征在于,所述根据各个分词的第一输出向量和第二输出向量确定各个分词的词性类型包括:
根据下式分别计算各个分词的词性概率向量:
WdProbVecn=(WdProbn,1,WdProbn,2,......,WdProbn,m,......,WdProbn,M)
其中,WdProbn,m=η1*FwWdProbn,m+η2*BkWdProbn,m,η1、η2均为预设的权重系数,WdProbVecn为第n个分词的词性概率向量;
根据下式分别确定各个分词的词性类型:
CharSeqn=argmax(WdProbVecn)
其中,argmax为最大自变量函数,CharSeqn为第n个分词的词性类型序号。
5.根据权利要求1所述的语义角色分析方法,其特征在于,所述根据所述词性向量分别构建各个分词的第三输入矩阵和第四输入矩阵包括:
根据下式分别构建各个分词的第三输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第三输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,cvl为所述第三输入矩阵的列号,1≤cvl≤cVecLen,cVecLen为任意一个所述分词的词性向量的长度,第n个分词的词性向量为CharVecn,且
CharVecn=(CrVecEmn,1,CrVecEmn,2,......,CrVecEmn,cvl,......,CrVecEmn,cVecLen),
FwCrMatrixn为第n个分词的第三输入矩阵;
根据下式分别构建各个分词的第四输入矩阵:
BkCrMatrixn为第n个分词的第四输入矩阵。
6.根据权利要求5所述的语义角色分析方法,其特征在于,所述第三神经网络模型的处理过程包括:
根据下式分别计算各个分词的第三复合向量:
FwCrCpVecn=(FwCrCpEmn,1,FwCrCpEmn,2,......,FwCrCpEmn,vl,......,FwCrCpEmn,cVecLen)
其中,
ln为自然对数函数,tanh为双曲正切函数,FwCrWtcvl、FwCrWtc′vl均为预设的权重系数;
根据下式分别计算各个语义角色类型的第一概率值:
其中,l为语义角色类型的序号,1≤l≤L,L为语义角色类型的个数,FwCrWtVecl为预设的与第l个语义角色类型对应的权值向量,FwCrProbn,l为第n个分词是第l个语义角色类型的第一概率值;
根据下式构建各个分词的第三输出向量:
FwCrVecn=(FwCrProbn,1,FwCrProbn,2,......,FwCrProbn,l,......,FwCrProbn,L)
其中,FwCrVecn为第n个分词的第三输出向量;
所述第四神经网络模型的处理过程包括:
根据下式分别计算各个分词的第四复合向量:
BkCrCpVecn=(BkCrCpEmn,1,BkCrCpEmn,2,......,BkCrCpEmn,cvl,......,BkCrCpEmn,cVecLen)其中,
BkCrWtcvl、BkCrWtc′vl均为预设的权重系数;
根据下式分别计算各个语义角色类型的第二概率值:
其中,BkCrWtVecl为预设的与第l个语义角色类型对应的权值向量,BkCrProbn,l为第n个分词是第l个语义角色类型的第二概率值;
根据下式构建各个分词的第四输出向量:
BkCrVecn=(BkCrProbn,1,BkCrProbn,2,......,BkCrProbn,l,......,BkCrProbn,L)
其中,BkCrVecn为第n个分词的第四输出向量。
7.根据权利要求6所述的语义角色分析方法,其特征在于,所述根据各个分词的第三输出向量和第四输出向量确定各个分词的语义角色类型包括:
根据下式分别计算各个分词的语义角色概率向量:
CrProbVecn=(CrProbn,1,CrProbn,2,......,CrProbn,l,......,CrProbn,L)
其中,CrProbn,l=ξ1*FwCrProbn,l+ξ2*BkCrProbn,l,ξ1、ξ2均为预设的权重系数,CrProbVecn为第n个分词的语义角色概率向量;
根据下式分别确定各个分词的语义角色类型:
RoleSeqn=argmax(CrProbVecn)
其中,argmax为最大自变量函数,RoleSeqn为第n个分词的语义角色类型序号。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的语义角色分析方法的步骤。
9.一种语义角色分析终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如下步骤:
对语句文本进行切词处理,得到构成所述语句文本的各个分词;
在预设的词向量数据库中分别查找各个分词的词向量,并根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵,所述词向量数据库为记录词语与词向量之间的对应关系的数据库;
将各个分词的第一输入矩阵分别输入到预设的第一神经网络模型中,得到各个分词的第一输出向量,所述第一神经网络模型为进行正序词性分析的神经网络模型;
将各个分词的第二输入矩阵分别输入到预设的第二神经网络模型中,得到各个分词的第二输出向量,所述第二神经网络模型为进行逆序词性分析的神经网络模型;
根据各个分词的第一输出向量和第二输出向量确定各个分词的词性类型;
在预设的词性向量数据库中分别查找各个分词的词性类型对应的词性向量,并根据所述词性向量分别构建各个分词的第三输入矩阵和第四输入矩阵,所述词性向量数据库为记录词性类型与词性向量之间的对应关系的数据库;
将各个分词的第三输入矩阵分别输入到预设的第三神经网络模型中,得到各个分词的第三输出向量,所述第三神经网络模型为进行正序语义角色分析的神经网络模型;
将各个分词的第四输入矩阵分别输入到预设的第四神经网络模型中,得到各个分词的第四输出向量,所述第四神经网络模型为进行逆序语义角色分析的神经网络模型;
根据各个分词的第三输出向量和第四输出向量确定各个分词的语义角色类型。
10.根据权利要求9所述的语义角色分析终端设备,其特征在于,所述根据所述词向量分别构建各个分词的第一输入矩阵和第二输入矩阵包括:
根据下式分别构建各个分词的第一输入矩阵:
其中,n为所述分词按照前后顺序依次排列的序号,1≤n≤N,N为所述语句文本的分词总数,cl为所述第一输入矩阵的行号,1≤cl≤CoupLen,CoupLen为预设的耦合长度,wvl为所述第一输入矩阵的列号,1≤wvl≤wVecLen,wVecLen为任意一个所述分词的词向量的长度,第n个分词的词向量为WordVecn,且
WordVecn=(WdVecEmn,1,WdVecEmn,2,......,WdVecEmn,vl,......,WdVecEmn,wVecLen),
FwWdMatrixn为第n个分词的第一输入矩阵;
根据下式分别构建各个分词的第二输入矩阵:
BkWdMatrixn为第n个分词的第二输入矩阵。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810309685.6A CN108804411B (zh) | 2018-04-09 | 2018-04-09 | 一种语义角色分析方法、计算机可读存储介质及终端设备 |
PCT/CN2018/096258 WO2019196236A1 (zh) | 2018-04-09 | 2018-07-19 | 语义角色分析方法、可读存储介质、终端设备及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810309685.6A CN108804411B (zh) | 2018-04-09 | 2018-04-09 | 一种语义角色分析方法、计算机可读存储介质及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108804411A true CN108804411A (zh) | 2018-11-13 |
CN108804411B CN108804411B (zh) | 2019-10-29 |
Family
ID=64095371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810309685.6A Active CN108804411B (zh) | 2018-04-09 | 2018-04-09 | 一种语义角色分析方法、计算机可读存储介质及终端设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108804411B (zh) |
WO (1) | WO2019196236A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110164450A (zh) * | 2019-05-09 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 登录方法、装置、播放设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080221878A1 (en) * | 2007-03-08 | 2008-09-11 | Nec Laboratories America, Inc. | Fast semantic extraction using a neural network architecture |
US20090204605A1 (en) * | 2008-02-07 | 2009-08-13 | Nec Laboratories America, Inc. | Semantic Search Via Role Labeling |
CN102662931A (zh) * | 2012-04-13 | 2012-09-12 | 厦门大学 | 一种基于协同神经网络的语义角色标注方法 |
CN104021115A (zh) * | 2014-06-13 | 2014-09-03 | 北京理工大学 | 基于神经网络的中文比较句识别方法及装置 |
CN104462066A (zh) * | 2014-12-24 | 2015-03-25 | 北京百度网讯科技有限公司 | 语义角色标注方法及装置 |
CN107480122A (zh) * | 2017-06-26 | 2017-12-15 | 迈吉客科技(北京)有限公司 | 一种人工智能交互方法及人工智能交互装置 |
-
2018
- 2018-04-09 CN CN201810309685.6A patent/CN108804411B/zh active Active
- 2018-07-19 WO PCT/CN2018/096258 patent/WO2019196236A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080221878A1 (en) * | 2007-03-08 | 2008-09-11 | Nec Laboratories America, Inc. | Fast semantic extraction using a neural network architecture |
US20090204605A1 (en) * | 2008-02-07 | 2009-08-13 | Nec Laboratories America, Inc. | Semantic Search Via Role Labeling |
CN102662931A (zh) * | 2012-04-13 | 2012-09-12 | 厦门大学 | 一种基于协同神经网络的语义角色标注方法 |
CN104021115A (zh) * | 2014-06-13 | 2014-09-03 | 北京理工大学 | 基于神经网络的中文比较句识别方法及装置 |
CN104462066A (zh) * | 2014-12-24 | 2015-03-25 | 北京百度网讯科技有限公司 | 语义角色标注方法及装置 |
CN107480122A (zh) * | 2017-06-26 | 2017-12-15 | 迈吉客科技(北京)有限公司 | 一种人工智能交互方法及人工智能交互装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110164450A (zh) * | 2019-05-09 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 登录方法、装置、播放设备及存储介质 |
CN110164450B (zh) * | 2019-05-09 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 登录方法、装置、播放设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108804411B (zh) | 2019-10-29 |
WO2019196236A1 (zh) | 2019-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021047286A1 (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN109992773B (zh) | 基于多任务学习的词向量训练方法、系统、设备及介质 | |
WO2022007823A1 (zh) | 一种文本数据处理方法及装置 | |
CN106776713A (zh) | 一种基于词向量语义分析的海量短文本聚类方法 | |
CN108733644B (zh) | 一种文本情感分析方法、计算机可读存储介质及终端设备 | |
CN108345583B (zh) | 基于多语注意力机制的事件识别及分类方法及装置 | |
CN112183747A (zh) | 神经网络训练的方法、神经网络的压缩方法以及相关设备 | |
CN109165386A (zh) | 一种中文零代词消解方法及系统 | |
CN109299280A (zh) | 短文本聚类分析方法、装置和终端设备 | |
CN109325229A (zh) | 一种利用语义信息计算文本相似度的方法 | |
US20190065505A1 (en) | Document ranking by contextual vectors from natural language query | |
CN111694940A (zh) | 一种用户报告的生成方法及终端设备 | |
CN110245353B (zh) | 自然语言表示方法、装置、设备及存储介质 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
CN113593661A (zh) | 临床术语标准化方法、装置、电子设备及存储介质 | |
CN116561538A (zh) | 问答评分方法、问答评分装置、电子设备及存储介质 | |
US11829722B2 (en) | Parameter learning apparatus, parameter learning method, and computer readable recording medium | |
CN109344246B (zh) | 一种电子问卷生成方法、计算机可读存储介质及终端设备 | |
WO2021129411A1 (zh) | 文本处理方法及装置 | |
CN110046344A (zh) | 添加分隔符的方法及终端设备 | |
CN108804411B (zh) | 一种语义角色分析方法、计算机可读存储介质及终端设备 | |
CN113656563A (zh) | 一种神经网络搜索方法及相关设备 | |
CN109472022A (zh) | 基于机器学习的新词识别方法及终端设备 | |
CN108875024A (zh) | 文本分类方法、系统、可读存储介质及电子设备 | |
CN117271736A (zh) | 一种问答对的生成方法和系统、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |