CN113836936A - 语义解析方法、系统、装置、设备及存储介质 - Google Patents
语义解析方法、系统、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113836936A CN113836936A CN202111108983.7A CN202111108983A CN113836936A CN 113836936 A CN113836936 A CN 113836936A CN 202111108983 A CN202111108983 A CN 202111108983A CN 113836936 A CN113836936 A CN 113836936A
- Authority
- CN
- China
- Prior art keywords
- neural network
- analysis result
- final
- scores
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000004458 analytical method Methods 0.000 claims abstract description 202
- 238000003062 neural network model Methods 0.000 claims abstract description 114
- 238000012360 testing method Methods 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 230000008451 emotion Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000002790 cross-validation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及一种语义解析方法、系统、装置、设备及存储介质,其中,所述方法包括:获取预先训练好的至少两个神经网络模型;获取待解析的文本;对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;从各个所述解析结果中,确定所述文本的最终解析结果。本申请用以解决现有语义解析方法准确度低的问题。
Description
技术领域
本申请涉及语义解析领域,尤其涉及一种语义解析方法、系统、装置、设备及存储介质。
背景技术
语音识别技术有三个重要部分:语音识别(ASR)、自然语音理解(NLU)和语音合成(TTS)。其中,自然语言理解是核心且复杂的环节,各类模型广泛运用于此环节,且因为此领域处在高速发展阶段,每几个月都会推陈出新。
目前,采用单一神经网络模型进行语义解析,但是,每个神经网络模型因为网络特性和训练集的侧重,会对特定的一个或几个领域样本起到很好的回归和预测效果,但是对其他领域的样本可能无法起到高准确性的解析效果,或者直接无法解析。
发明内容
本申请提供了一种语义解析方法、系统、装置、设备及存储介质,用以解决现有语义解析方法的准确度低的问题。
第一方面,本申请实施例提供了一种语义解析方法,包括:
获取预先训练好的至少两个神经网络模型;
获取待解析的文本;
对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;
从各个所述解析结果中,确定所述文本的最终解析结果。
可选的,所述从各个所述解析结果中,确定所述文本的最终解析结果,包括:
获取各个所述解析结果的子评分;其中,所述子评分用于指示所述解析结果为最终解析结果的概率;
基于各个所述解析结果的子评分,从各个所述解析结果中,确定所述最终解析结果。
可选的,所述将所述文本输入到所述神经网络模型中进行解析之后,还包括:获取所述神经网络模型针对所述文本确定的目标业务领域;
所述获取各个所述解析结果的子评分,包括:
对于每一个所述解析结果,进行如下操作:
获取所述解析结果的置信度;
获取所述神经网络模型针对所述目标业务领域的目标测试准确概率;
计算所述目标测试准确概率和所述置信度的乘积,得到所述解析结果的子评分。
可选的,所述获取所述神经网络模型针对所述目标业务领域的目标测试准确概率,包括:
获取所述神经网络模型在训练阶段,针对不同业务领域各自的测试准确概率;
从所述不同业务领域各自对应的测试准确概率中,确定所述目标业务领域对应的测试准确概率,作为所述目标测试准确概率。
可选的,所述基于各个所述解析结果的子评分,从各个所述解析结果中,确定所述最终解析结果,包括:
对于每一个所述解析结果,判断所述各个所述解析结果中的其他解析结果中,是否存在与所述解析结果相同的至少一个目标解析结果;
如果是,则将所述解析结果和所述至少一个目标解析结果进行合并,得到中间解析结果;并将所述解析结果的子评分和各个所述目标解析结果的子评分相加,得到所述中间解析结果的最终评分;
如果否,则将所述解析结果作为所述中间解析结果;将所述解析结果的子评分,作为所述中间解析结果的最终评分;
从各个所述中间解析结果的最终评分中,确定目标最高评分;
将所述目标最高评分对应的所述中间解析结果,作为所述最终解析结果。
可选的,所述从各个所述中间解析结果的最终评分中,确定目标最高评分,包括:
判定各个所述最终评分中,存在至少两个相同的最高最终评分;
获取组成每个所述最高最终评分各自的子评分的数量;
若具有相同最高最终评分的所述子评分的数量不同,则选取所述子评分数量最少的最高最终评分作为所述目标最高评分;
若具有相同最高最终评分的所述子评分的数量相同,则选取所述子评分最大的最高最终评分作为所述目标最高评分。
可选的,所述选取所述子评分最大的最高最终评分作为所述目标最高评分,包括:
若各个所述最高最终评分的子评分中的最大值相同,则从所述至少两个相同的最高最终评分中,任意选取一个所述最高最终评分作为所述目标最高评分。
第二方面,本申请实施例提供了一种语义解析系统,包括:输入设备和服务器;所述输入设备和所述服务器之间建立通信连接;其中,所述服务器中预先存储有训练好的至少两个神经网络模型;
所述输入设备,用于获取待解析的文本,并将所述文本发送到所述服务器中;
所述服务器,用于对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;以及从各个所述解析结果中,确定所述文本的最终解析结果。
第三方面,本申请实施例提供了一种语义解析装置,包括:
第一获取模块,用于获取预先训练好的至少两个神经网络模型;
第二获取模块,用于获取待解析的文本;
解析模块,用于对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;
确定模块,用于从各个所述解析结果中,确定所述文本的最终解析结果。
第四方面,本申请实施例提供了一种电子设备,包括:处理器、存储器和通信总线,其中,处理器和存储器通过通信总线完成相互间的通信;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器中所存储的程序,实现第一方面所述的语义解析方法。
第五方面,本申请实施例提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的语义解析方法。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:本申请实施例提供的该方法,对于待解析的文本,分别输入到至少两个神经网络模型中进行解析,得到每个神经网络模型对文本的解析结果,从各个解析结果中,确定文本的最终解析结果。对待解析的文本,同时调用多个神经网络模型分别进行解析,不同的神经网络模型覆盖的擅长领域不同,同时使用不同的神经网络模型进行解析,很大程度上缓解了目前使用单一神经网络模型语义解析时只擅长部分领域,导致解析的准确度偏低的问题,能够提高语义解析的准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种语义解析系统的结构示意图;
图2为本申请实施例提供的一种语义解析方法的流程示意图;
图3为本申请实施例提供的一种语义解析装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了解决现有技术中,现有语义解析方法的准确度低的问题,本申请实施例提供了一种语义解析方法。在介绍本申请实施例提供的一种语义解析方法之前,首先,介绍本申请实施例提供的一种语义解析系统,该语义解析系统包括:输入设备101和服务器102;输入设备101和服务器102之间建立通信连接;其中,服务器102中预先存储有训练好的至少两个神经网络模型;
输入设备101,用于获取待解析的文本,并将文本发送到服务器102中;其中,待解析的文本是指采集的语音经过识别得到的文本。
服务器102,用于对于每一个神经网络模型,将文本输入到神经网络模型中进行解析,得到神经网络模型针对文本的解析结果;以及从各个解析结果中,确定文本的最终解析结果。
在具体实现时,输入设备101可以是计算机,计算机上运行有语音识别的软件,能够对采集到的语音进行识别,得到待解析的文本。服务器102可以是云端服务器,也可以是本地服务器。其中,输入设备101和服务器102之间可以通过无线网络实现通信连接。
下面结合图2对本申请实施例提供的一种语义解析方法做详细说明。如图2所示,本申请实施例提供的语义解析方法,包括:
步骤201,获取预先训练好的至少两个神经网络模型;
其中,不同的神经网络模型擅长的领域不同,预先训练多种擅长不同领域的模型,在具体实现时,可以将至少两个神经网络模型存储在云端服务器中,以供使用,使得不同神经网络模型擅长领域的并集能够覆盖多种业务领域。
在确定神经网络模型时,可以对业务领域进行统计,对所有可能覆盖到的业务领域进行划分,比如:系统控制域、资源调度域(音乐、视屏、电台、故事等)、情感分析域、推荐建议域(功能推荐、商品推荐、资源推荐等)、虚拟人物形象域(闲聊)等。对各个业务领域,对应选择合适的神经网络训练模型,例如:系统控制域可以用Rasa工具包,其中,Rasa工具包可以胜任系统控制域和资源调度域,Bert神经网络模型和LSTM(Long Short-Term Memory,长短期记忆人工神经网络)可以适用于情感分析域和虚拟人物形象域。Q-learning、Embedding相关的衍生,适合做推荐建议域。
在训练阶段,可以针对性的选取各种神经网络模型适合的领域的训练集。具体的,可以获取网络上开源的训练集,还可以结合内部业务处理得到的话术样本获取训练集。按照交叉验证的方法观察各个神经网络模型的收敛情况,确定每个神经网络的最佳训练次数,获得训练好的各个神经网络模型。对于每一种神经网络模型,对各个域的训练集进行解析,获取每个神经网络模型对各个域的测试准确概率。
在交叉验证时,可以采用将训练集的样本按照4:1的比例进行分配,并利用交叉验证方法进行训练。例如:在训练情感分析域时,训练集有1000个语料、以及对应的人工标注情感分类(喜、怒、哀、惧怕、推荐、排斥、无情感等),将这1000个语料分为ABCDE,5个桶,每桶放200条。
第一次训练时,用ABCD桶,训练2轮,得到训练集准确度。然后拿E桶给当前模型进行测试,将神经网络模型给出的情感分类,与实际情感分类(人工标注的情感分类)进行比对,得到测试集准确率;然后将训练集换成ABCE,D做测试集,再训练两轮,得到测试集和训练集的准确率;再把训练集换成ABDE,C做测试集。按照同样的方式,将每个桶都做一次测试集,取神经网络模型对于测试集的平均准确率作为该神经网络模型的测试准确概率。
其中,交叉验证的好处在于,避免全部带答案的语料都给神经网络模型一次用完,对于这1000条语料模型能做到极致分类了,但是随便拿新的100条没见过的语料让模型去分类,模型反而给出的准确率很低的问题,即避免过拟合的问题。
步骤202,获取待解析的文本;
其中,待解析的文本是指通过语音识别识别到的文本。例如:采集到一段语音,通过语音识别算法处理,即可得到待解析的文本。其中,语音识别算法并不是本申请实施例的重点,可以采用任何一种语音识别算法。
步骤203,对于每一个神经网络模型,将文本输入到神经网络模型中进行解析,得到神经网络模型针对文本的解析结果;
在实际实现时,并行调用各个神经网络模型,将待解析的文本分别输入到各个神经网络模型中,得到每个神经网络模型针对该待解析的文本的解析结果。在实际解析的过程中,将文本输入到神经网络模型中进行解析之后,还可以获取到神经网络模型针对文本确定的目标业务领域,以及对该解析结果的置信度。
步骤204,从各个解析结果中,确定文本的最终解析结果。
具体的,可以获取各个解析结果的子评分;其中,子评分用于指示解析结果为最终解析结果的概率;基于各个解析结果的子评分,从各个解析结果中,确定最终解析结果。
其中,获取各个解析结果的子评分的方法,包括:对于每一个解析结果,进行如下操作:获取解析结果的置信度;获取神经网络模型针对目标业务领域的目标测试准确概率;计算目标测试准确概率和置信度的乘积,得到解析结果的子评分。
为了便于理解,举例说明,在本申请实施例中,包括3个不同的神经网络模型:第一个神经网络模型的解析结果是A,目标业务领域是系统控制域,置信度为90%;第二个神经网络模型的解析结果是A,目标业务领域是系统控制域,置信度为10%;第三个神经网络模型的解析结果是B,目标业务领域是资源调度域,置信度为5%。
在训练阶段,第一个神经网络模型对于系统控制域的测试准确概率是90%;第二个神经网络模型对于系统控制域的测试准确概率是8%;第三个神经网络模型对于资源调度域的测试准确概率是15%。
则各个神经网络模型的解析结果的子评分分别为:第一个神经网络模型的解析结果的子评分为:系统控制域的测试准确概率90%*置信度为90%=81%;第二个神经网络模型的解析结果的子评分为:系统控制域的测试准确概率8%*置信度为10%=0.8%;第三个神经网络模型的解析结果的子评分为:资源调度域的测试准确概率15%*置信度为5%=0.75%。
其中,对于根据各个解析结果的子评分,从各个解析结果中,确定最终解析结果的过程具体包括:
对于每一个解析结果,判断各个解析结果中的其他解析结果中,是否存在与解析结果相同的至少一个目标解析结果;如果是,则将解析结果和至少一个目标解析结果进行合并,得到中间解析结果;并将解析结果的子评分和各个目标解析结果的子评分相加,得到中间解析结果的最终评分;如果否,则将解析结果作为中间解析结果;将解析结果的子评分,作为中间解析结果的最终评分;从各个中间解析结果的最终评分中,确定目标最高评分;将目标最高评分对应的中间解析结果,作为最终解析结果。
在具体实现时,不同的神经网络模型可能得到的解析结果是相同的,对于各个不同神经网络模型解析到的相同解析结果进行合并去重,得到中间解析结果,在合并去重时,将相同的解析结果的子评分相加,作为该中间解析结果的最终评分;对于不重复的解析结果,直接将自身作为中间解析结果,该解析结果的子评分作最终评分。
为了便于理解,举例说明,例如:4个神经网络模型的解析结果和解析结果对应的子评分分别为:神经网络模型A的解析结果为R1,子评分为g1;神经网络模型B的解析结果为R1,子评分为g2;神经网络模型C的解析结果为R3,子评分为g3;神经网络模型D的解析结果为R4,子评分为g4。
其中,神经网络模型A和神经网络模型B的解析结果相同,则将这两个相同的解析结果保留一个,得到第一个中间解析结果R1,该中间解析结果R1的最终评分为G1=g1+g2;剩下两个神经网络模型的解析结果都不相同,各自作为中间解析结果,则第二个中间解析结果为R3,中间解析结果R3的最终评分G2为g3;第三个中间解析结果为R4,中间解析结果R4的最终评分G3为g4。
从各个最终评分中,确定目标最高评分,若目标最高评分为G1,则将目标最高评分G1对应的中间解析结果R1作为待解析文本的最终解析结果。
在从各个最终评分中,确定目标最高评分时,可能会存在具有相同最终评分的情况,当判定各个最终评分中,存在至少两个相同的最高最终评分时,获取组成每个最高最终评分各自的子评分的数量;若具有相同最高最终评分的子评分的数量不同,则选取子评分数量最少的最高最终评分作为目标最高评分;若具有相同最高最终评分的子评分的数量相同,则选取子评分最大的最高最终评分作为目标最高评分。若各个最高最终评分的子评分中的最大值相同,则从至少两个相同的最高最终评分中,任意选取一个最高最终评分作为目标最高评分。
为了便于理解,这里举例说明,Gx和Gy为两个相同的最高最终评分,主要分为以下几种情况:
1、如果存在Gx等于Gy,则选择组成该最高最终评分的子评分最少的,作为目标最高评分。例如:Gx由两个子评分g(a)和g(b)组成,Gx=g(a)+g(b);而Gy由一个子评分g(c)组成,Gy=g(c);则Gy优于Gx,取Gy作为目标最高评分,取Gy对应的解析结果Ry为最终解析结果;
2、如果存在Gx等于Gy,如果组成这两个最高最终评分的子评分相同,则选取单个子评分最大的,作为目标最高评分。例如:Gx由两个子评分g(a)和g(b)组成,Gx=g(a)+g(b);而Gy也由两个子评分g(c)+g(d)组成,Gy=g(c)+g(d);若比较g(a)、g(b)、g(c)和g(d)的大小,若g(a)>g(c)且g(a)>g(d),则Gx更优,取Gx对应的解析结果Rx,作为最终解析结果。
3、如果存在Gx等于Gy,如果组成这两个最高最终评分的子评分相同,且这两个最高最终评分中的最大子评分也相同,则选取任意一个最高最终评分作为目标最高评分即可,将目标最高评分对应的中间解析结果,作为最终解析结果。
在本申请实施例中,对于待解析的文本,分别输入到至少两个神经网络模型中进行解析,得到每个神经网络模型对文本的解析结果,从各个解析结果中,确定文本的最终解析结果。对待解析的文本,同时调用多个神经网络模型分别进行解析,不同的神经网络模型覆盖的擅长领域不同,同时使用不同的神经网络模型进行解析,很大程度上缓解了目前使用单一神经网络模型语义解析时只擅长部分领域,导致解析的准确度偏低的问题,能够提高语义解析的准确性。
基于同一构思,本申请实施例中提供了一种语义解析装置,该装置的具体实施可参见方法实施例部分的描述,重复之处不再赘述,如图3所示,该装置主要包括:
第一获取模块301,用于获取预先训练好的至少两个神经网络模型;
第二获取模块302,用于获取待解析的文本;
解析模块303,用于对于每一个神经网络模型,将文本输入到神经网络模型中进行解析,得到神经网络模型针对文本的解析结果;
确定模块304,用于从各个解析结果中,确定文本的最终解析结果。
在一个具体实施例中,确定模块304,用于获取各个解析结果的子评分;其中,子评分用于指示解析结果为最终解析结果的概率;基于各个解析结果的子评分,从各个解析结果中,确定最终解析结果。
在一个具体实施例中,解析模块303,还用于在将文本输入到神经网络模型中进行解析之后,获取神经网络模型针对文本确定的目标业务领域。确定模块304,用于对于每一个解析结果,进行如下操作:获取解析结果的置信度;获取神经网络模型针对目标业务领域的目标测试准确概率;计算目标测试准确概率和置信度的乘积,得到解析结果的子评分。
在一个具体实施例中,确定模块304,用于获取神经网络模型在训练阶段,针对不同业务领域各自的测试准确概率;从不同业务领域各自对应的测试准确概率中,确定目标业务领域对应的测试准确概率,作为目标测试准确概率。
在一个具体实施例中,确定模块304,用于对于每一个解析结果,判断各个解析结果中的其他解析结果中,是否存在与解析结果相同的至少一个目标解析结果;如果是,则将解析结果和至少一个目标解析结果进行合并,得到中间解析结果;并将解析结果的子评分和各个目标解析结果的子评分相加,得到中间解析结果的最终评分;如果否,则将解析结果作为中间解析结果;将解析结果的子评分,作为中间解析结果的最终评分;从各个中间解析结果的最终评分中,确定目标最高评分;将目标最高评分对应的中间解析结果,作为最终解析结果。
在一个具体实施例中,确定模块304,用于判定各个最终评分中,存在至少两个相同的最高最终评分;获取组成每个最高最终评分各自的子评分的数量;若具有相同最高最终评分的子评分的数量不同,则选取子评分数量最少的最高最终评分作为目标最高评分;若具有相同最高最终评分的子评分的数量相同,则选取子评分最大的最高最终评分作为目标最高评分。
在一个具体实施例中,确定模块304,用于若各个最高最终评分的子评分中的最大值相同,则从至少两个相同的最高最终评分中,任意选取一个最高最终评分作为目标最高评分。
基于同一构思,本申请实施例中还提供了一种电子设备,如图4所示,该电子设备主要包括:处理器401、存储器402和通信总线403,其中,处理器401和存储器402通过通信总线403完成相互间的通信。其中,存储器402中存储有可被处理器401执行的程序,处理器401执行存储器402中存储的程序,实现如下步骤:
获取预先训练好的至少两个神经网络模型;
获取待解析的文本;
对于每一个神经网络模型,将文本输入到神经网络模型中进行解析,得到神经网络模型针对文本的解析结果;
从各个解析结果中,确定文本的最终解析结果。
上述电子设备中提到的通信总线403可以是外设部件互连标准(PeripheralComponent Interconnect,简称PCI)总线或扩展工业标准结构(Extended IndustryStandard Architecture,简称EISA)总线等。该通信总线403可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器402可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选地,存储器还可以是至少一个位于远离前述处理器401的存储装置。
上述的处理器401可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等,还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当该计算机程序在计算机上运行时,使得计算机执行上述实施例中所描述的一种语义解析方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机指令时,全部或部分地产生按照本申请实施例所述的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络或者其他可编程装置。该计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、微波等)方式向另外一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是磁性介质(例如软盘、硬盘、磁带等)、光介质(例如DVD)或者半导体介质(例如固态硬盘)等。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种语义解析方法,其特征在于,包括:
获取预先训练好的至少两个神经网络模型;
获取待解析的文本;
对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;
从各个所述解析结果中,确定所述文本的最终解析结果。
2.根据权利要求1所述的语义解析方法,其特征在于,所述从各个所述解析结果中,确定所述文本的最终解析结果,包括:
获取各个所述解析结果的子评分;其中,所述子评分用于指示所述解析结果为最终解析结果的概率;
基于各个所述解析结果的子评分,从各个所述解析结果中,确定所述最终解析结果。
3.根据权利要求2所述的语义解析方法,其特征在于,所述将所述文本输入到所述神经网络模型中进行解析之后,还包括:获取所述神经网络模型针对所述文本确定的目标业务领域;
所述获取各个所述解析结果的子评分,包括:
对于每一个所述解析结果,进行如下操作:
获取所述解析结果的置信度;
获取所述神经网络模型针对所述目标业务领域的目标测试准确概率;
计算所述目标测试准确概率和所述置信度的乘积,得到所述解析结果的子评分。
4.根据权利要求3所述的语义解析方法,其特征在于,所述获取所述神经网络模型针对所述目标业务领域的目标测试准确概率,包括:
获取所述神经网络模型在训练阶段,针对不同业务领域各自的测试准确概率;
从所述不同业务领域各自对应的测试准确概率中,确定所述目标业务领域对应的测试准确概率,作为所述目标测试准确概率。
5.根据权利要求3所述的语义解析方法,其特征在于,所述基于各个所述解析结果的子评分,从各个所述解析结果中,确定所述最终解析结果,包括:
对于每一个所述解析结果,判断所述各个所述解析结果中的其他解析结果中,是否存在与所述解析结果相同的至少一个目标解析结果;
如果是,则将所述解析结果和所述至少一个目标解析结果进行合并,得到中间解析结果;并将所述解析结果的子评分和各个所述目标解析结果的子评分相加,得到所述中间解析结果的最终评分;
如果否,则将所述解析结果作为所述中间解析结果;将所述解析结果的子评分,作为所述中间解析结果的最终评分;
从各个所述中间解析结果的最终评分中,确定目标最高评分;
将所述目标最高评分对应的所述中间解析结果,作为所述最终解析结果。
6.根据权利要求5所述的语义解析方法,其特征在于,所述从各个所述中间解析结果的最终评分中,确定目标最高评分,包括:
判定各个所述最终评分中,存在至少两个相同的最高最终评分;
获取组成每个所述最高最终评分各自的子评分的数量;
若具有相同最高最终评分的所述子评分的数量不同,则选取所述子评分数量最少的最高最终评分作为所述目标最高评分;
若具有相同最高最终评分的所述子评分的数量相同,则选取所述子评分最大的最高最终评分作为所述目标最高评分。
7.根据权利要求6所述的语义解析方法,其特征在于,所述选取所述子评分最大的最高最终评分作为所述目标最高评分,包括:
若各个所述最高最终评分的子评分中的最大值相同,则从所述至少两个相同的最高最终评分中,任意选取一个所述最高最终评分作为所述目标最高评分。
8.一种语义解析系统,其特征在于,包括:输入设备和服务器;所述输入设备和所述服务器之间建立通信连接;其中,所述服务器中预先存储有训练好的至少两个神经网络模型;
所述输入设备,用于获取待解析的文本,并将所述文本发送到所述服务器中;
所述服务器,用于对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;以及从各个所述解析结果中,确定所述文本的最终解析结果。
9.一种语义解析装置,其特征在于,包括:
第一获取模块,用于获取预先训练好的至少两个神经网络模型;
第二获取模块,用于获取待解析的文本;
解析模块,用于对于每一个所述神经网络模型,将所述文本输入到所述神经网络模型中进行解析,得到所述神经网络模型针对所述文本的解析结果;
确定模块,用于从各个所述解析结果中,确定所述文本的最终解析结果。
10.一种电子设备,其特征在于,包括:处理器、存储器和通信总线,其中,处理器和存储器通过通信总线完成相互间的通信;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述存储器中所存储的程序,实现权利要求1~7任意一项所述的语义解析方法。
11.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7任意一项所述的语义解析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111108983.7A CN113836936B (zh) | 2021-09-22 | 2021-09-22 | 语义解析方法、系统、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111108983.7A CN113836936B (zh) | 2021-09-22 | 2021-09-22 | 语义解析方法、系统、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113836936A true CN113836936A (zh) | 2021-12-24 |
CN113836936B CN113836936B (zh) | 2023-10-13 |
Family
ID=78960343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111108983.7A Active CN113836936B (zh) | 2021-09-22 | 2021-09-22 | 语义解析方法、系统、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113836936B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107301164A (zh) * | 2016-04-14 | 2017-10-27 | 科大讯飞股份有限公司 | 数学公式的语义解析方法及装置 |
CN109065051A (zh) * | 2018-09-30 | 2018-12-21 | 珠海格力电器股份有限公司 | 一种语音识别处理方法及装置 |
CN109166577A (zh) * | 2018-08-10 | 2019-01-08 | 珠海格力电器股份有限公司 | 一种语义场景的确定方法、系统及空调器 |
CN110188348A (zh) * | 2019-05-07 | 2019-08-30 | 南京邮电大学 | 一种基于深度神经网络的中文语言处理模型及方法 |
US10957310B1 (en) * | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
-
2021
- 2021-09-22 CN CN202111108983.7A patent/CN113836936B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10957310B1 (en) * | 2012-07-23 | 2021-03-23 | Soundhound, Inc. | Integrated programming framework for speech and text understanding with meaning parsing |
CN107301164A (zh) * | 2016-04-14 | 2017-10-27 | 科大讯飞股份有限公司 | 数学公式的语义解析方法及装置 |
CN109166577A (zh) * | 2018-08-10 | 2019-01-08 | 珠海格力电器股份有限公司 | 一种语义场景的确定方法、系统及空调器 |
CN109065051A (zh) * | 2018-09-30 | 2018-12-21 | 珠海格力电器股份有限公司 | 一种语音识别处理方法及装置 |
CN110188348A (zh) * | 2019-05-07 | 2019-08-30 | 南京邮电大学 | 一种基于深度神经网络的中文语言处理模型及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113836936B (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240078386A1 (en) | Methods and systems for language-agnostic machine learning in natural language processing using feature extraction | |
CN107797984B (zh) | 智能交互方法、设备及存储介质 | |
US10326863B2 (en) | Speed and accuracy of computers when resolving client queries by using graph database model | |
US11580299B2 (en) | Corpus cleaning method and corpus entry system | |
CN111651996A (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN110019742B (zh) | 用于处理信息的方法和装置 | |
CN110187780B (zh) | 长文本预测方法、装置、设备和存储介质 | |
CN111930914A (zh) | 问题生成方法和装置、电子设备以及计算机可读存储介质 | |
CN108804526A (zh) | 兴趣确定系统、兴趣确定方法及存储介质 | |
CN111581074A (zh) | 通话场景覆盖测试方法、装置、计算机设备及存储介质 | |
CN111767740A (zh) | 音效添加方法和装置、存储介质和电子设备 | |
CN112199500B (zh) | 针对评论的情感倾向识别方法、装置及电子设备 | |
CN113345468A (zh) | 语音质检方法、装置、设备及存储介质 | |
CN111492364A (zh) | 数据标注方法、装置及存储介质 | |
CN113656575B (zh) | 训练数据的生成方法、装置、电子设备及可读介质 | |
CN110969005A (zh) | 一种确定实体语料之间的相似性的方法及装置 | |
JP6983729B2 (ja) | 抽出装置、評価装置、抽出方法および抽出プログラム | |
CN110705308A (zh) | 语音信息的领域识别方法、装置、存储介质及电子设备 | |
CN116431912A (zh) | 用户画像推送方法及装置 | |
CN107656627B (zh) | 信息输入方法和装置 | |
CN115620726A (zh) | 语音文本生成方法、语音文本生成模型的训练方法、装置 | |
CN113836936A (zh) | 语义解析方法、系统、装置、设备及存储介质 | |
CN109446318A (zh) | 一种确定汽车维修文档主题的方法及相关设备 | |
CN113011162B (zh) | 一种指代消解方法、装置、电子设备及介质 | |
CN115098665A (zh) | 一种对话数据扩展方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |