CN110222330B - 语义识别方法及装置、存储介质、计算机设备 - Google Patents
语义识别方法及装置、存储介质、计算机设备 Download PDFInfo
- Publication number
- CN110222330B CN110222330B CN201910345595.7A CN201910345595A CN110222330B CN 110222330 B CN110222330 B CN 110222330B CN 201910345595 A CN201910345595 A CN 201910345595A CN 110222330 B CN110222330 B CN 110222330B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- text
- named entity
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 139
- 239000013598 vector Substances 0.000 claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims description 41
- 238000004590 computer program Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 11
- 238000005457 optimization Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 241000282465 Canis Species 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种语义识别方法及装置、存储介质、计算机设备,涉及本文处理技术领域,可以提升语义识别效率。其中方法包括:利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量;利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体;利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。本申请适用于保险产品业务中的客服智能问答。
Description
技术领域
本申请涉及本文处理技术领域,尤其是涉及到语义识别方法及装置、存储介质及计算机设备。
背景技术
随着科学技术的发展,对于一些词语和词语之间的关系识别方法越来越多,所适用的场景也越来越广泛,例如一些地名之间的上下关系,国家机构之间的层级关系,物品种类的包含关系等,而这些需要各自独立的识别模型分别来实现词语(即,命名实体)的识别以及词语和词语之间的关系(即,实体关系)识别。
现有技术存在的不足为,上述用于实现命名实体识别和实体关系识别的两种独立的识别模型在联合使用的过程中,彼此之间容易存在信息冗余的问题,目前的解决方法也仅局限于基于循环神经网络将上述两种独立的识别模型进行部分的联合,以提升网络模型的计算速率,从而提升命名实体识别和实体关系识别的效率,但提升效果较弱。
发明内容
有鉴于此,本申请提供了语义识别方法及装置、存储介质、计算机设备,主要目的在于解决现有用于命名实体识别和实体关系识别的两种独立的识别模型在联合使用的过程中,彼此之间容易存在信息冗余,以及所采用的网络模型的计算速率较低的问题。
根据本申请的一个方面,提供了一种语义识别方法,该方法包括:
利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量;
利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体;
利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。
根据本申请的另一方面,提供了一种语义识别装置,该装置包括:
第一卷积神经网络模块,用于利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量;
第二卷积神经网络模块,用于利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体;
第三卷积神经网络模块,用于利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。
依据本申请又一个方面,提供了一种存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述语义识别方法。
依据本申请再一个方面,提供了一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述语义识别方法。
借由上述技术方案,本申请提供的语义识别方法及装置、存储介质、计算机设备,与现有基于循环神经网络将用于命名实体识别和实体关系识别的两种独立的识别模型进行部分联合的技术方案相比,本申请利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量,利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体,以及利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。可见,通过利用语义识别模型中的多层卷积神经网络实现对命名实体和实体关系的识别,能够有效避免现有两种独立的识别模型在联合使用过程中造成的信息冗余问题,从而有效提升语义识别效率。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1示出了本申请实施例提供的一种语义识别方法的流程示意图;
图2示出了本申请实施例提供的另一种语义识别方法的流程示意图;
图3示出了本申请实施例提供的一种语义识别装置的结构示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本申请。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
针对现有用于实现命名实体识别和实体关系识别的两种独立的识别模型在联合使用的过程中,彼此之间容易存在信息冗余,以及所采用的网络模型的计算速率较低的问题。本实施例提供了一种语义识别方法,能够有效避免现有两种独立的识别模型在联合使用过程中造成的信息冗余问题,从而有效提升语义识别效率,如图1所示,该方法包括:
101、利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量。
获取待识别文本,对获取到的待识别文本进行预处理,得到初始化的文本向量,并将初始化的文本向量输入语义识别模型预设的第一卷积神经网络,生成用于表征待识别文本的文本向量。其中,预处理可以根据实际的应用场景进行具体设定,例如设定该预处理为分词处理,即以词语为单位对待识别文本进行分词标记;或者设定该预处理为词语筛选处理,即以词语为单位对待识别文本进行分词标记后,剔除不重要的词语,例如,“能够、应该”等助动词,以及“喔、啊”等感叹词等不重要的词语,以提升对待识别文本的语义识别效率,此处不对预处理进行具体限定。
其中,以设定该预处理为分词处理为例,对待识别文本进行分词处理具体为,利用SBME标记法对待识别文本中的词语分别进行标记,即将单字标记为S,词的首部标记为B,词的中部标记为M,词的尾部标记为E,并根据标记后的待识别文本生成初始化的文本向量。
在对待识别文本进行语义识别之前构建本申请的语义识别模型,并获取用于训练该语义识别模型的训练样本集,即该训练样本集能够用于训练初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,从而得到语义识别模型。该训练样本集包括多个词组语料,词组语料为短句格式,即以逗号划分为一个短句,具体为,每个词组语料中包括两个具有相互关系的词语,例如,“中国、上海”,并在每个词组语料中标记两个词语之间的关系,例如,对“中国、上海”标记词语之间的关系为上下关系,从而构建训练样本集。此外,还可以对上述多个词组语料中的每个词语标记对应的词语属性,例如,将“中国、上海”中的中国和上海分别标记为地名,或者“犬科、狗”中的犬科和狗分别标记为动物。
在实际应用过程中,词组语料中两个词语之间的关系可以进行多种设定,例如,标记“版权局、商标局”之间的关系为并列关系,标记“版权局、商标局”中的版权局和商标局的词语属性为国家机构;标记“犬科、狗”之间的关系为包含关系,标记“犬科、狗”中的犬科和狗的词语属性为动物等,此处不对相互关系进行具体限定。
102、利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体。
预设的第二卷积神经网络用于识别待识别文本中包含的命名实体,将预设的第一卷积神经网络的输出结果作为预设的第二卷积神经网络的输入,输入预设的第二卷积神经网络,输出结果即待识别文本中包含的命名实体。
其中,待识别文本中包含的命名实体可以为多个,即待识别文本中包括多个词语,针对每个词语对应输出一个命名实体或者命名实体类别,命名实体类别包括人名、地名、机构名、产品名、专有名词等命名实体类别。
103、利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。
预设的第三卷积神经网络用于识别待识别文本中包含的实体关系,将预设的第一卷积神经网络的输出结果和预设的第二卷积神经网络的输出结果作为预设的第三卷积神经网络的输入,输入预设的第三卷积神经网络,输出结果即待识别文本中包含的命名实体间的实体关系。
在实际应用中,由于待识别文本为短句格式,在经由预设的第二卷积神经网络处理后,得到的命名实体数量不会很多,因此,被局限于几类的实名实体在经由预设的第三卷积神经网络处理后得到的实体关系将相对较为确定且准确。例如,预设的第二卷积神经网络输出的命名实体数量为两个或三个,则根据输出的两个或三个命名实体,利用预设的第三卷积神经网络输出两个或三个命名实体之间的实体关系,由于待识别文本为短句格式,且预设的第三卷积神经网络仅用于少量命名实体间的相互关系识别,从而使得对待识别文本的识别效率得到了显著的提升。
对于本实施例可以按照上述方案,根据所构建的语义识别模型对获取到的待识别文本进行层级式识别,利用语义识别模型中不同的卷积神经网络分别实现对待识别文本中命名实体和实体关系的识别,与现有的基于循环神经网络将用于命名实体识别和实体关系识别的两种独立的识别模型进行部分联合的技术方案相比,本实施例不仅能够提升对待识别文本的识别效率,避免现有两种独立的识别模型在联合使用过程中造成的信息冗余问题,同时本实施例的适用场景更加的宽泛,即能够同时适用于单独对命名实体识别,单独对实体关系识别,以及同时对命名实体和实体关系识别的应用场景,而不需要针对不同的需求去构建不同的语义识别模型,对于后期的模型维护与优化都降低了成本,且在降低成本的同时完全不影响模型的语义识别效率和语义识别准确度。
进一步的,作为上述实施例具体实施方式的细化和扩展,为了完整说明本实施例的具体实施过程,提供了另一种语义识别方法,如图2所示,该方法包括:
201、根据初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,分别确定第一损失函数、第二损失函数和第三损失函数。
由于第二卷积神经网络用于识别命名实体,以及第三卷积神经网络用于识别实体关系,因此基于交叉熵构造第二卷积神经网络和第三卷积神经网络的损失函数,第二卷积神经网络的损失函数为用于识别命名实体的交叉熵,第三卷积神经网络的损失函数为用于识别关系识别的交叉熵。
根据实际应用场景的需要,第一损失函数、第二损失函数和第三损失函数可以根据初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络分别设定不同的损失函数,也可以使用相同的损失函数,此处不对第一损失函数、第二损失函数和第三损失函数进行具体设定,在本实施例中,设定第一损失函数、第二损失函数和第三损失函数相同,计算公式为:
其中,x为用于训练初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络的样本集中的数据样本,p、q分别为样本集的真实概率分布,非真实概率分布。
202、根据所确定的第一损失函数、第二损失函数和第三损失函数,对初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络进行训练,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。
为了说明步骤202的具体实施方式,作为一种优选实施例,步骤202具体可以包括:根据所确定的第一损失函数、第二损失函数和第三损失函数,确定所述语义识别模型的损失函数;利用所述语义识别模型的损失函数训练初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。
例如,根据实际应用场景的需要,对所确定的第一损失函数、第二损失函数和第三损失函数进行相加求平均值,得到语义识别模型的损失函数,进一步地,若实际应用场景中,待识别文本中命名实体数量较多,则相应增加第二损失函数的权重值,若实际应用场景中,待识别文本中实体关系数量较多,则相应增加第三损失函数的权重值,此处不对语义识别模型的损失函数的计算方式进行具体限定。
在初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络的训练过程中,根据所确定的损失函数,利用凸优化算法自动更新神经网络隐层中的网络参数,从而得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。其中,凸优化算法,又称为凸最优化算法,或者凸最小化算法,是数学最优化的一个子领域,利用局部最优值即全局最优值的思想更新神经网络隐层中的网络参数。
自适应矩估计(Adam:Adaptive Moment Estimation)优化算法是一种能够替代传统随机梯度下降过程的一阶优化算法,根据本申请的训练样本集,利用Adam优化算法更新神经网络隐层中的网络参数。
在Python的tensorflow库中,对语义识别模型的损失函数进行凸函数优化,具体为,以损失函数最小化为目标,利用Adam优化算法对语义识别模型中的网络参数进行迭代更新,以得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。其中,本申请对语义识别模型中的卷积层数量进行具体限定。
在实际应用中,具体的训练过程为,将第二卷积神经网络输出的命名实体识别结果与训练样本集中的命名实体或者标记的词语属性进行比较,若比较结果不一致,则说明识别错误;以及,根据第二卷积神经网络输出的命名实体识别结果,将第三卷积神经网络输出的实体关系识别结果与训练样本集中对应输出的命名实体识别结果标记的实体关系进行比较,若比较结果不一致,则说明识别错误。利用语义识别模型的损失函数对错误的识别结果进行纠错,进而完成对语义识别模型的训练,得到能够同时进行命名实体识别以及实体关系识别的语义识别模型。
203、利用字词向量词典获取待识别文本的字向量和词向量。
通过对获取到的待识别文本进行分词处理后得到初始化的文本向量,并将初始化的文本向量作为语义识别模型预设的第一卷积神经网络的输入。预设的第一卷积神经网络的嵌入层利用预设的字词向量词典将初始化的文本向量转换成用于表征待识别文本的字向量和词向量。其中,预设的字词向量词典中包含初始化的文本向量中每个字对应的字向量,以及每个词对应的词向量。
204、对得到的字向量和词向量进行卷积运算,得到待识别文本的文本向量。
预设的第一卷积神经网络包括双层的一维全卷积结构,来自嵌入层的字向量和词向量经由双层的一维全卷积结构,输出得到待识别文本的文本向量。具体为,利用卷积核分别与待识别文本的字向量和词向量进行卷积运算(即点乘运算),并将得到的所有的卷积运算结果作为待识别文本的文本向量。
例如,设定卷积核长度为3,即利用维度为3的卷积核分别与待识别文本的字向量和词向量进行卷积运算,并将得到的待识别文本的文本向量作为预设的第二卷积神经网络和预设的第三卷积神经网络的输入。
其中,预设的第一卷积神经网络为预设的第二卷积神经网络和预设的第三卷积神经网络的共享网络结构,从而实现预设的第二卷积神经网络和预设的第三卷积神经网络中底层参数的共享,有效避免现有两种独立的识别模型在联合使用过程中造成的信息冗余问题,进一步提升语义识别效率。
205、对所获取的文本向量进行卷积运算,得到待确定的命名实体。
利用语义识别模型中预设的第二卷积神经网络,对所获取的文本向量进行命名实体识别(NER:Named Entity Recognition),得到待确定的命名实体。其中,命名实体识别又称作“专名识别”,是指识别待识别文本中具有特定意义的实体。
预设的第二卷积神经网络为密集连接结构DenseNet,密集连接结构存在大量密集连接,能够最大化神经网络中所有层之间的信息流,通过将神经网络中所有层进行两两连接,使得神经网络每一层的输入都是前面所有层输出的并集,且该层输出的特征图也会被直接传给其后的所有层作为输入,从而实现特征的重复利用,降低冗余性。
此外,预设的第二卷积神经网络包括两层卷积结构,基于两层卷积结构对语义识别模型中预设的第一卷积神经网络输出的卷积运算结果进行进一步的卷积运算,得到待确定的命名实体。
其中,预设的第二卷积神经网络中的卷积结构为一维全卷积结构,一维全卷积结构能够与经由其输出的卷积运算结果保持等长,即基于一维全卷积结构,使得预设的第一卷积神经网络输出的卷积运算结果和经由一维全卷积结构输出的卷积运算结果为等长序列。
206、对待确定的命名实体进行边界字符识别,根据识别结果确定最终的命名实体。
为了说明步骤206的具体实施方式,作为一种优选实施例,步骤206具体可以包括:若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果一致,则确定所述待确定的命名实体为最终的命名实体;若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果不一致,则将所述待确定的命名实体作为所述语义识别模型的新增训练样本。
利用语义识别模型中预设的第二卷积神经网络,根据得到的待确定的命名实体中的SBME标记进行边界字符识别,具体为,若得到的待确定的命名实体中的标记为S,即待确定的命名实体为单字,则对该单字进行识别;若识别结果与预设的边界字符识别结果一致,则确定该单字是最终的命名实体。例如,若识别待确定的命名实体为“猫”,该识别结果与预设的边界字符识别结果一致,则识别得到的最终的命名实体为猫。若识别结果与预设的边界字符识别结果不一致,则表示该单字不是命名实体。例如,若识别待确定的命名实体为“怎”,该识别结果与预设的边界字符识别结果不一致,则将“怎”作为语义识别模型的新增训练样本,对语义识别模型进行进一步优化,以提升语义识别模型的识别准确度。
若得到的待确定的命名实体中的标记包括BME或者BE,即待确定的命名实体为多字或者双字,则根据标记B和标记E对该命名实体进行识别;若识别结果与预设的边界字符识别结果一致,则确定该待确定的命名实体是最终的命名实体。例如,若待确定的命名实体中的标记包括BME,识别待确定的命名实体中的标记B和标记E对应“预”和“家”,该识别结果与预设的边界字符识别结果一致,则识别最终的命名实体为预言家;若待确定的命名实体中的标记包括BE,识别待确定的命名实体中的标记B和标记E对应“作”和“家”,该识别结果与预设的边界字符识别结果一致,则识别最终的命名实体为作家。若识别结果与预设的边界字符识别结果不一致,则表示该多字或者双字不是命名实体,可能是多识别了字符或者是少识别了字符的原因,导致识别结果不是命名实体。例如,若识别待确定的命名实体为“作家他”,该识别结果与预设的边界字符识别结果不一致,则将“作家他”作为语义识别模型的新增训练样本,对语义识别模型进行进一步优化,以提升语义识别模型的识别准确度。
在实际应用中,预设的边界字符识别结果可以为命名实体的单字,以及双字和多字中的首部和尾部,也可以为训练样本集中对词语标记的词语属性,即词语属性的单字,以及双字和多字中的首部和尾部。
在实际应用中,待识别文本中可以包括一个或者多个命名实体,因此,根据待识别文本的文本向量,利用预设的第二卷积神经网络中的激活函数softmax输出一个或者多个命名实体的识别结果,即输出结果对应待识别文本中包括的一个或者多个命名实体。具体为,第二卷积神经网络还包括激活函数softmax,基于激活函数softmax对第二卷积神经网络中经由两层卷积结构得到的运算结果(即,待确定的命名实体)进行进一步地分类运算,得到最终的命名实体。
207、利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。
预设的第三卷积神经网络为密集连接结构DenseNet,在预设的第一卷积神经网络的基础上构建一层卷积层和一层池化层,并通过包含激活函数softmax的全连接层输出识别结果,该输出结果为多分类变量,即根据不同分类的概率值确定待识别文本中包括的一个或者多个实体关系。
在实际应用中,根据所确定的命名实体,利用训练样本集中命名实体与所标记的实体关系的对应关系确定实体关系,将识别得到的实体关系与所确定的实体关系进行比较,若识别结果一致,则识别得到的实体关系为待识别文本中的实体关系;若识别结果不一致,则说明识别错误,将错误的识别结果调整为利用训练样本集中命名实体与所标记的实体关系的对应关系所确定的实体关系,作为待识别文本中的实体关系。其中,将错误的识别结果作为新增训练样本,以实现对语义识别模型的训练,得到优化的语义识别模型。
208、利用所述新增训练样本对所述语义识别模型进行训练,得到优化的语义识别模型。
当待确定的命名实体不是最终的命名实体时,将待确定的命名实体补入用于训练该语义识别模型的训练样本集中作为一个新的词组语料,并在词组语料中标记该待确定的命名实体的词语属性为识别错误,以使语义识别模型在进行优化训练后能够有效提升对待识别文本的识别准确度。
通过应用本实施例的技术方案,利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量,利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体,以及利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系。与现有基于循环神经网络将用于命名实体识别和实体关系识别的两种独立的识别模型进行部分联合的技术方案相比,本实施例应用于保险产品业务中的客服智能问答时,系统能够根据用户输入的语句,利用语义识别模型实现对语句准确、且快速地识别,从而为用户提供更准确的服务,提升用户体验。
进一步的,作为图1方法的具体实现,本申请实施例提供了一种语义识别装置,如图3所示,该装置包括:第一卷积神经网络模块31、第二卷积神经网络模块32、第三卷积神经网络模块33。
第一卷积神经网络模块31,可以用于利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量;该第一卷积神经网络模块31为本装置识别待识别文本中的命名实体和实体关系的基础模块。
第二卷积神经网络模块32,可以用于利用语义识别模型中预设的第二卷积神经网络,根据第一卷积神经网络模块31获取到的文本向量确定待识别文本中的命名实体;第二卷积神经网络模块32为本装置中识别待识别文本中的命名实体的主要功能模块,也是本装置的核心功能模块。
第三卷积神经网络模块33,可以用于利用语义识别模型中预设的第三卷积神经网络,根据第一卷积神经网络模块31获取到的文本向量和第二卷积神经网络模块32所确定的命名实体,确定待识别文本中的实体关系;第三卷积神经网络模块33为本装置中识别待识别文本中的实体关系的主要功能模块,也是本装置的核心功能模块。
在具体的应用场景中,第一卷积神经网络模块31,具体可以用于利用字词向量词典获取待识别文本的字向量和词向量,对得到的字向量和词向量进行卷积运算,得到待识别文本的文本向量。
在具体的应用场景中,还包括训练模块34,可以用于根据初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,分别确定第一损失函数、第二损失函数和第三损失函数;根据所确定的第一损失函数、第二损失函数和第三损失函数,对初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络进行训练,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。
在具体的应用场景中,训练模块34,具体可以用于根据所确定的第一损失函数、第二损失函数和第三损失函数,确定所述语义识别模型的损失函数;利用所述语义识别模型的损失函数训练初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。
在具体的应用场景中,第二卷积神经网络模块32,具体可以用于对所获取的文本向量进行卷积运算,得到待确定的命名实体;对待确定的命名实体进行边界字符识别,根据识别结果确定最终的命名实体。
在具体的应用场景中,第二卷积神经网络模块32,具体可以用于若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果一致,则确定所述待确定的命名实体为最终的命名实体;若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果不一致,则将所述待确定的命名实体作为所述语义识别模型的新增训练样本。
在具体的应用场景中,训练模块34,具体可以用于利用所述新增训练样本对所述语义识别模型进行训练,得到优化的语义识别模型。
需要说明的是,本申请实施例提供的一种语义识别装置所涉及各功能单元的其他相应描述,可以参考图1和图2中的对应描述,在此不再赘述。
基于上述如图1和图2所示方法,相应的,本申请实施例还提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述如图1和图2所示的语义识别方法。
基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施场景所述的方法。
基于上述如图1、图2所示的方法,以及图3所示的虚拟装置实施例,为了实现上述目的,本申请实施例还提供了一种计算机设备,具体可以为个人计算机、服务器、网络设备等,该实体设备包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述如图1和图2所示的语义识别方法。
可选的,该计算机设备还可以包括用户接口、网络接口、摄像头、射频(RadioFrequency,RF)电路,传感器、音频电路、WI-FI模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard)等,可选用户接口还可以包括USB接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如蓝牙接口、WI-FI接口)等。
本领域技术人员可以理解,本实施例提供的一种计算机设备结构并不构成对该实体设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储介质中还可以包括操作系统、网络通信模块。操作系统是管理计算机设备硬件和软件资源的程序,支持信息处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与该实体设备中其它硬件和软件之间通信。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本申请可以借助软件加必要的通用硬件平台的方式来实现,也可以通过硬件实现。通过应用本申请的技术方案,与现有基于循环神经网络将用于命名实体识别和实体关系识别的两种独立的识别模型进行部分联合的技术方案相比,本实施例能够有效避免现有两种独立的识别模型在联合使用过程中造成的信息冗余问题,从而有效提升语义识别效率。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本申请所必须的。本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。
上述本申请序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本申请的几个具体实施场景,但是,本申请并非局限于此,任何本领域的技术人员能思之的变化都应落入本申请的保护范围。
Claims (7)
1.一种语义识别方法,其特征在于,包括:
利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量;
利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体;
利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系,其中,所述预设的第三卷积神经网络为密集连接结构DenseNet;
所述利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体,具体包括:
对所获取的文本向量进行卷积运算,得到待确定的命名实体;
对待确定的命名实体进行边界字符识别,根据识别结果确定最终的命名实体;
其中,所述对待确定的命名实体进行边界字符识别,根据识别结果确定最终的命名实体,具体包括:
若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果一致,则确定所述待确定的命名实体为最终的命名实体;
若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果不一致,则将所述待确定的命名实体作为所述语义识别模型的新增训练样本;
其中,所述利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量,具体包括:
利用字词向量词典获取待识别文本的字向量和词向量;
对得到的字向量和词向量进行卷积运算,得到待识别文本的文本向量。
2.根据权利要求1所述的方法,其特征在于,具体还包括:
根据初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,分别确定第一损失函数、第二损失函数和第三损失函数;
根据所确定的第一损失函数、第二损失函数和第三损失函数,对初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络进行训练,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。
3.根据权利要求2所述的方法,其特征在于,根据所确定的第一损失函数、第二损失函数和第三损失函数,对初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络进行训练,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,具体包括:
根据所确定的第一损失函数、第二损失函数和第三损失函数,确定所述语义识别模型的损失函数;
利用所述语义识别模型的损失函数训练初始化的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络,得到预设的第一卷积神经网络、第二卷积神经网络和第三卷积神经网络。
4.根据权利要求1所述的方法,其特征在于,具体还包括:
利用所述新增训练样本对所述语义识别模型进行训练,得到优化的语义识别模型。
5.一种语义识别装置,其特征在于,包括:
第一卷积神经网络模块,用于利用语义识别模型中预设的第一卷积神经网络获取待识别文本的文本向量;
第二卷积神经网络模块,用于利用语义识别模型中预设的第二卷积神经网络,根据所获取的文本向量确定待识别文本中的命名实体;
第三卷积神经网络模块,用于利用语义识别模型中预设的第三卷积神经网络,根据所获取的文本向量和所确定的命名实体,确定待识别文本中的实体关系,其中,所述预设的第三卷积神经网络为密集连接结构DenseNet;
所述第二卷积神经网络模块具体可以用于对所获取的文本向量进行卷积运算,得到待确定的命名实体;对待确定的命名实体进行边界字符识别,根据识别结果确定最终的命名实体;
所述第二卷积神经网络模块具体可以用于若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果一致,则确定所述待确定的命名实体为最终的命名实体;若待确定的命名实体的边界字符识别结果与预设的边界字符识别结果不一致,则将所述待确定的命名实体作为所述语义识别模型的新增训练样本;
所述第一卷积神经网络模块具体可用于利用字词向量词典获取待识别文本的字向量和词向量;对得到的字向量和词向量进行卷积运算,得到待识别文本的文本向量。
6.一种存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1至4中任一项所述的语义识别方法。
7.一种计算机设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至4中任一项所述的语义识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910345595.7A CN110222330B (zh) | 2019-04-26 | 2019-04-26 | 语义识别方法及装置、存储介质、计算机设备 |
PCT/CN2019/117723 WO2020215683A1 (zh) | 2019-04-26 | 2019-11-12 | 基于卷积神经网络的语义识别方法及装置、非易失性可读存储介质、计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910345595.7A CN110222330B (zh) | 2019-04-26 | 2019-04-26 | 语义识别方法及装置、存储介质、计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110222330A CN110222330A (zh) | 2019-09-10 |
CN110222330B true CN110222330B (zh) | 2024-01-30 |
Family
ID=67819991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910345595.7A Active CN110222330B (zh) | 2019-04-26 | 2019-04-26 | 语义识别方法及装置、存储介质、计算机设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110222330B (zh) |
WO (1) | WO2020215683A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222330B (zh) * | 2019-04-26 | 2024-01-30 | 平安科技(深圳)有限公司 | 语义识别方法及装置、存储介质、计算机设备 |
CN111079418B (zh) * | 2019-11-06 | 2023-12-05 | 科大讯飞股份有限公司 | 命名体识别方法、装置、电子设备和存储介质 |
CN112232088A (zh) * | 2020-11-19 | 2021-01-15 | 京北方信息技术股份有限公司 | 合同条款风险智能识别方法、装置、电子设备及存储介质 |
CN112765984A (zh) * | 2020-12-31 | 2021-05-07 | 平安资产管理有限责任公司 | 命名实体识别方法、装置、计算机设备和存储介质 |
CN112906380A (zh) * | 2021-02-02 | 2021-06-04 | 北京有竹居网络技术有限公司 | 文本中角色的识别方法、装置、可读介质和电子设备 |
CN112949477B (zh) * | 2021-03-01 | 2024-03-15 | 苏州美能华智能科技有限公司 | 基于图卷积神经网络的信息识别方法、装置及存储介质 |
CN114332903A (zh) * | 2021-12-02 | 2022-04-12 | 厦门大学 | 一种基于端到端神经网络的琵琶乐谱识别方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5761328A (en) * | 1995-05-22 | 1998-06-02 | Solberg Creations, Inc. | Computer automated system and method for converting source-documents bearing alphanumeric text relating to survey measurements |
CN107239446A (zh) * | 2017-05-27 | 2017-10-10 | 中国矿业大学 | 一种基于神经网络与注意力机制的情报关系提取方法 |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN108804417A (zh) * | 2018-05-21 | 2018-11-13 | 山东科技大学 | 一种基于特定领域情感词的文档级情感分析方法 |
CN109101492A (zh) * | 2018-07-25 | 2018-12-28 | 南京瓦尔基里网络科技有限公司 | 一种自然语言处理中使用历史对话行为进行实体提取的方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10360507B2 (en) * | 2016-09-22 | 2019-07-23 | nference, inc. | Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities |
CN108763445B (zh) * | 2018-05-25 | 2019-09-17 | 厦门智融合科技有限公司 | 专利知识库的构建方法、装置、计算机设备和存储介质 |
CN109165385B (zh) * | 2018-08-29 | 2022-08-09 | 中国人民解放军国防科技大学 | 一种基于实体关系联合抽取模型的多三元组抽取方法 |
CN110222330B (zh) * | 2019-04-26 | 2024-01-30 | 平安科技(深圳)有限公司 | 语义识别方法及装置、存储介质、计算机设备 |
-
2019
- 2019-04-26 CN CN201910345595.7A patent/CN110222330B/zh active Active
- 2019-11-12 WO PCT/CN2019/117723 patent/WO2020215683A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5761328A (en) * | 1995-05-22 | 1998-06-02 | Solberg Creations, Inc. | Computer automated system and method for converting source-documents bearing alphanumeric text relating to survey measurements |
CN107239446A (zh) * | 2017-05-27 | 2017-10-10 | 中国矿业大学 | 一种基于神经网络与注意力机制的情报关系提取方法 |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN108804417A (zh) * | 2018-05-21 | 2018-11-13 | 山东科技大学 | 一种基于特定领域情感词的文档级情感分析方法 |
CN109101492A (zh) * | 2018-07-25 | 2018-12-28 | 南京瓦尔基里网络科技有限公司 | 一种自然语言处理中使用历史对话行为进行实体提取的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110222330A (zh) | 2019-09-10 |
WO2020215683A1 (zh) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110222330B (zh) | 语义识别方法及装置、存储介质、计算机设备 | |
CN110705301A (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
CN109598517B (zh) | 商品通关处理、对象的处理及其类别预测方法和装置 | |
CN108959474B (zh) | 实体关系提取方法 | |
CN108304376B (zh) | 文本向量的确定方法、装置、存储介质及电子装置 | |
CN112966106A (zh) | 文本的情绪识别方法、装置、设备及存储介质 | |
CN114757176A (zh) | 一种获取目标意图识别模型的方法以及意图识别方法 | |
CN113158656B (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN116070632A (zh) | 一种非正式文本实体标签识别方法和装置 | |
CN112951233A (zh) | 语音问答方法、装置、电子设备及可读存储介质 | |
CN115862040A (zh) | 文本纠错方法、装置、计算机设备及可读存储介质 | |
CN110929532B (zh) | 数据处理方法、装置、设备及存储介质 | |
CN112214595A (zh) | 类别确定方法、装置、设备及介质 | |
CN111368066B (zh) | 获取对话摘要的方法、装置和计算机可读存储介质 | |
CN112799658B (zh) | 模型训练方法、模型训练平台、电子设备和存储介质 | |
CN111814496B (zh) | 文本处理方法、装置、设备及存储介质 | |
CN107734123A (zh) | 一种联系人排序方法和装置 | |
CN107783958B (zh) | 一种目标语句识别方法及装置 | |
CN112307749A (zh) | 文本检错方法、装置、计算机设备和存储介质 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
CN109614494B (zh) | 一种文本分类方法及相关装置 | |
CN110232328A (zh) | 一种征信报告解析方法、装置及计算机可读存储介质 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
CN115017906A (zh) | 一种针对文本中实体的识别方法、装置及存储介质 | |
CN115130475A (zh) | 一种可扩展的通用端到端命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |