CN113223500B - 语音识别方法、训练语音识别模型的方法及对应装置 - Google Patents
语音识别方法、训练语音识别模型的方法及对应装置 Download PDFInfo
- Publication number
- CN113223500B CN113223500B CN202110389478.8A CN202110389478A CN113223500B CN 113223500 B CN113223500 B CN 113223500B CN 202110389478 A CN202110389478 A CN 202110389478A CN 113223500 B CN113223500 B CN 113223500B
- Authority
- CN
- China
- Prior art keywords
- entity
- model
- recognition
- recognition result
- specific type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 6
- 230000006399 behavior Effects 0.000 claims description 46
- 238000010801 machine learning Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 14
- 238000013135 deep learning Methods 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Abstract
本公开公开了一种语音识别方法、训练语音识别模型的方法及对应装置,涉及语音和深度学习技术领域。具体实现方案为:获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,所述N为大于1的正整数;利用实体打分模型分别对所述N个候选识别结果进行打分,得到各候选识别结果的实体得分;综合所述候选识别结果的识别得分和实体得分,从所述N个候选识别结果中确定所述待识别语音对应的识别结果;其中,所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。本公开能够提高识别准确性。
Description
技术领域
本公开涉及计算机应用技术领域,尤其涉及语音和深度学习技术领域。
背景技术
近几十年来,语音识别技术取得显著进步,逐步进入了工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域。在现有的语音识别架构中,使用音频训练数据进行语音识别模型中声学模型的训练,使用文本训练数据进行语音识别模型中语言模型的训练,如图1中所示。解码器利用声学模型进行语音到音节的概率计算,利用语言模型进行从音节到文本的概率计算,最终输出概率得分最高的文本作为语音识别结果。
然而,在一些垂直领域或专业领域的语音识别场景下,对于一些特定实体的识别准确性较低。例如,在地图类应用领域,由于POI(Point Of Interest,兴趣点)或地点文本不同于普通语言的语义逻辑,因此对于POI或地点文本的识别准确率较低。再例如,在医学应用领域,由于疾病、药物等专业名词的文本也不同于普通语言的语义逻辑,因此对于疾病、药物等专业名词的文本的识别准确率也较低。
发明内容
有鉴于此,本公开提供了一种语音识别方法和装置,以便于提高识别准确性。
根据本公开的第一方面,提供了一种语音识别方法,包括:
获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,所述N为大于1的正整数;
利用实体打分模型分别对所述N个候选识别结果进行打分,得到各候选识别结果的实体得分;
综合所述候选识别结果的识别得分和实体得分,从所述N个候选识别结果中确定所述待识别语音对应的识别结果;
其中,所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
根据本公开的第二方面,提供了一种训练语音识别模型的方法,包括:
在训练语音识别模型的过程中,利用实体打分模型对所述语音识别模型的输出文本进行打分,得到该输出文本的实体得分;
利用所述实体得分,调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率;
其中所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
根据本公开的第三方面,提供了一种语音识别装置,包括:
候选获取单元,用于获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,所述N为大于1的正整数;
实体打分单元,用于利用实体打分模型分别对所述N个候选识别结果进行打分,得到各候选识别结果的实体得分;
结果确定单元,用于综合所述候选识别结果的识别得分和实体得分,从所述N个候选识别结果中确定所述待识别语音对应的识别结果;
其中,所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
根据本公开的第四方面,提供了一种训练语音识别模型的装置,包括:
实体打分单元,用于在训练语音识别模型的过程中,利用实体打分模型对所述语音识别模型的输出文本进行打分,得到该输出文本的实体得分;
训练调整单元,用于利用所述实体得分,调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率;
其中所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本公开的第七方面,一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
由以上技术方案可以看出,在获取到语音识别模型对候选识别结果的识别得分基础上,将用户对特定类型的实体的识别结果满意度状况融入对各候选结果的打分,并综合打分和识别得分确定最终的识别结果,以使得最终的识别结果能够尽可能体现大量用户满意的特定类型的实体的识别结果,从而提高识别准确率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示出了现有技术中语音识别方法的示意图;
图2示出了可以应用本发明实施例的语音识别方法或装置的示例性系统架构;
图3为本公开实施例提供的一种语音识别方法的流程图;
图4为本公开实施例提供的语音识别方法的示意图;
图5为本公开实施例提供的训练语音识别模型的示意图;
图6为本公开实施例提供的语音识别装置的结构图;
图7为本公开实施例提供的训练语音识别模型的装置结构图;
图8是用来实现本公开实施例的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图2示出了可以应用本发明实施例的语音识别方法或装置的示例性系统架构。
如图2所示,该系统架构可以包括终端设备101和102,网络103和服务器104。网络103用以在终端设备101、102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101和102通过网络103与服务器104交互。终端设备101和102上可以安装有各种应用,例如语音交互应用、网页浏览器应用、地图类应用、通信类应用等。
终端设备101和102可以是支持语音交互的各种电子设备,可以是有屏设备,也可以是无屏设备。包括但不限于智能手机、平板电脑、智能音箱、智能电视等等。本发明所提供的语音识别装置可以设置并运行于上述终端设备101或102侧,也可以设置并运行于上述服务器104侧。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
例如,语音识别装置设置并运行于上述服务器104侧,那么用户通过终端设备101输入语音请求,由终端设备101将语音请求发送至服务器104。由服务器104采用本公开实施例提供的方式进行语音识别后得到语音识别结果,并基于该语音识别结果进行响应。例如将语音识别结果返回给终端设备101并显示给用户。再例如依据语音识别结果执行其中包含的指令,等等。另外,服务器104侧还可以设置有本公开实施例提供的训练语音识别模型的装置,预先对语音识别模型进行训练用以进行上述语音识别。
服务器104可以是单一服务器,也可以是多个服务器构成的服务器群组。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图3为本公开实施例提供的一种语音识别方法的流程图,该方法的执行装置为语音识别装置,该装置可以是位于服务器端的应用,或者还可以为位于服务器端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,或者,还可以位于具有较强计算能力的终端设备侧,本发明实施例对此不进行特别限定。如图3中所示,该方法可以包括以下步骤:
步骤301:获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,N为大于1的正整数。
步骤302:利用实体打分模型分别对该N个候选识别结果进行打分,得到各候选识别结果的实体得分;其中,实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
步骤303:综合候选识别结果的识别得分和实体得分,从上述N个候选识别结果中确定待识别语音对应的识别结果。
由图3所示实施例可以看出,在获取到语音识别模型对候选识别结果的识别得分基础上,将用户对特定类型的实体的识别结果满意度状况融入对各候选结果的打分,并综合打分和识别得分确定最终的识别结果,以使得最终的识别结果能够尽可能体现大量用户满意的特定类型的实体的识别结果,从而提高识别准确率。
本公开所提供的上述语音识别的方法可以应用于多种领域。例如地图类应用领域,即上述特定类型的实体为POI或地点等。再例如医疗类应用领域,即上述特定类型的实体为疫病、药品等。为了方便对上述方法的理解,在下面实施例中以地图类应用领域为例进行描述。
下面结合实施例对上述实施例中各步骤进行详细描述。
首先在上述步骤301中,本公开对于解码器的处理并未进行任何修改和影响,解码器仍然利用语音识别模型(包括声学模型和语言模型)获取候选识别结果以及各候选识别结果的识别得分。
其中可以按照识别得分对各候选识别结果进行排序,选取排在前N个的候选识别结果。其中N为大于1的正整数。
鉴于这部分内容本实施例并未进行变更,在此不加以详述。
例如,在用户输入包含地点的语音请求“导航到鼓楼大街”后,由于用户发音、环境等等因素的影响,解码器的识别结果并不一定准确。例如利用语音识别模型对该语音请求进行识别后,获取识别得分排在前3个的识别结果:“导航到古龙大街”、“导航到鼓楼大街”和“导航到胡楼大街”。可见如果采用传统的实现方式直接选取排在第1个的识别结果,则识别结果并不正确。
下面结合实施例对上述步骤302即“利用实体打分模型分别对该N个候选识别结果进行打分,得到各候选识别结果的实体得分;其中,实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的”进行详细描述。
为了方便理解,首先对实体打分模型进行介绍。实体打分模型的主要作用是对候选识别结果中出现的特定类型的实体进行打分,例如对候选识别结果中出现的地点进行打分,得到实体得分。实体得分值越高,则说明针对该地点的识别结果越可靠;反之,说明针对该地点的识别结果越不可靠。
实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。例如,基于用户对地点的识别结果满意度状况预先训练得到的。
其中,用户对特定类型实体的识别结果的满意度状况可以预先通过收集用户针对特定类型实体的识别结果的行为数据得到。具体可以包括:在用户下发语音请求后,收集用户针对包含特定类型的实体的识别结果的行为数据;基于特定类型的各实体分别统计上述的行为数据;依据统计的行为数据确定该特定类型的各实体的识别结果满意度。
其中,依据统计的行为数据确定该特定类型的各实体的识别结果满意度可以包括:
依据对包含特定类型的实体的识别结果的直接搜索行为,确定第一满意度;
依据对包含特定类型的实体的识别结果进行修改后搜索的行为,确定第二满意度;
依据对包含特定类型的实体的识别结果重新发起语音请求且重新发起请求的识别结果与上一次识别结果相似的行为,确定第三满意度;
依据对包含特定类型的实体的识别结果重新发起两次以上的语音请求且重新发起请求的识别识别与上一次识别结果不相似的行为,确定第四满意度;
第一满意度大于第二满意度,第二满意度大于第三满意度,第三满意度大于第四满意度。
以地图类应用中的地点为例,在用户下发语音请求后,如果识别结果中所包含地点的识别结果,则可以依据用户对该识别结果的行为来确定用户对该地点的满意度。
如果用户对于包含某地点的识别结果不进行修改而直接进行搜索,则说明用户对于该识别结果是很满意的,对于该地点的识别结果是准确地,因此,可以认为用户对该地点的识别结果是强支持。
如果用户对于包含某地点的识别结果进行了修改后进行搜索,则说明对于该地点的识别较为满意但不是太准确,因此可以认为用户对该地点的识别结果是弱支持。
如果用户对于包含某地点的识别结果重新发起了语音请求且重新发起请求的识别结果与上一次识别结果相似,则说明用户对于该地点的识别不太满意,因此可以认为用户对该地点的识别结果是弱反对。
如果用户对于包含某地点的识别结果重新发起两次以上的语音请求且重新发起请求的识别结果与上一次识别结果不相似,则说明用户对于改地点的识别非常不满意,识别得很不准确,因此可以认为用户对该地点的识别结果是强反对。
对于上述用户行为数据的收集实际上是不需要任何用户属性或用户隐私等信息,并不需要知晓用户是谁,只需要知道用户对识别结果后续做了什么。并且后续在进行行为统计时,是基于地点进行的统计,即针对每个地点分别统计用户对该地点的强反对、弱反对、弱支持和强支持的数量,而无需知晓是哪些用户发出的。因此这种实现方式完全规避了对用户隐私数据的侵犯。
例如,统计到对“导航到古龙大街”、“导航到鼓楼大街”和“导航到胡楼大街”等的强反对、弱反对、弱支持和强支持的数量,基于这些数量可以对“古龙大街”、“鼓楼大街”和“胡楼大街”分别标注评分标签。
在训练实体打分模型时,可以统计包含地点的文本以及标注的评分标签,将其对应存储直接作为实体打分模型。在实体打分模型进行打分时依据对应关系进行查询来得到候选识别结果对应的评分。但这种情况仅适用于候选识别结果在实体打分模型中存在对应关系的情况,为了使得实体打分模型能够适用于新出现的候选识别结果,作为一种优选的实施方式,可以采用以下方式训练实体打分模型:
首先获取训练样本。其中每个训练样本包含地点的识别结果,以及识别结果标注的评分标签。
将训练样本中的识别结果作为机器学习模型的输入,将识别结果对应的评分标签作为机器学习模型的目标输出,最终训练得到的机器学习模型作为实体打分模型。
其中,上述机器学习模型可以采用诸如神经网络模型、逻辑回归模型、XGBoost等等。
经过上述训练后得到的实体打分模型能够对步骤301得到的N个候选识别结果分别进行打分,即将该N个候选识别结果分别输入实体打分模型后就能够获得实体打分模型输出的实体评分。
下面对上述步骤303即“综合候选识别结果的识别得分和实体得分,从上述N个候选识别结果中确定待识别语音对应的识别结果”进行详细描述。
在本步骤中,可以将候选识别结果的识别得分和实体得分进行加权求和,得到N个候选识别结果的最终得分,然后利用最终得分确定待识别语音对应的识别结果。
其中上述进行加权求和处理时采用的权重可以是经验值,也可以是实验值。
在利用最终得分确定待识别语音对应的识别结果时,如果仅输出一个识别结果,则可以将最终得分最高的候选识别结果作为待识别语音对应的识别结果。如果可以输出M个识别结果,则可以按照最终得分的顺序输出排在前M个的识别结果,其中M≤N。
接续上例,在步骤301中经过语音识别模型得到的识别得分排在前3个的识别结果:“导航到古龙大街”、“导航到鼓楼大街”和“导航到胡楼大街”,经过实体打分模型进行打分后,由于肯定绝大多数用户对于“鼓楼大街”相关的识别结果的行为数据所反映的满意度是最高的,因此实体打分模型对于“导航到鼓楼大街”的实体评分会显著高于“导航到古龙大街”和“导航到胡楼大街”。这样经过对识别得分和实体得分进行加权求和后,“导航到鼓楼大街”的最终得分会升高,从而使得最终获得的识别结果的准确性提高。
如图4中所示,实体打分模型在语音识别过程中并未对解码器的处理过程进行干预,而是对解码器输出的候选识别结果进行最终得分的调整。
另外,上述实体打分模型除了能够作用于语音识别过程中之外,也可以作用于预先训练语音识别模型的过程。
在训练语音识别模型的过程中,利用实体打分模型对语音识别模型的输出文本进行打分,得到该输出文本的实体得分。具体地,当利用训练数据训练语言识别模型时,输入是训练数据中的语音样本,解码器能够利用语言识别模型输出针对该语音样本的识别文本。在本公开实施例中,实体打分模型针对输出文本进行打分,得到输出文本的实体得分。
然后利用实体得分调整语音识别模型对该输出文本所包含特定类型的实体的学习率。如图5中所示,可以包括两方面的调整:一方面,利用实体得分,调整声学模型对输出文本所包含特定类型的实体对应的语音样本的学习率;另一方面,依据实体得分调整语言模型对输出文本所包含特定类型的实体所对应音素序列的学习率。
仍以地图类应用场景中的地点为例,在训练过程中包括声学模型和语言模型的语音识别模型对于训练样本中的音频进行识别后,得到输出文本,即识别得分排在第一位的文本。利用上述方法实施例中预先训练得到的实体打分模型对输出文本进行打分得到实体得分。
如果输出文本的实体得分越高,说明语言识别模型对于输出文本所包含地点的识别准确性已经较高,已经较好满足用户,因此就可以降低该地点所对应语音样本的学习率。如果输出文本的实体得分越低,说明语音识别模型对于输出文本所包含地点的识别准确性较差,不能很好地满足用户,因此可以提高该地点所对应语音样本的学习率。也就是说,实体得分与调整的声学模型的学习率负相关。这样是为了将语音识别模型已经学习得很好的地点降低学习率,从而将学习能力放在尚未很好学习到的地点对应的语音样本上。
对于声学模型的调整逻辑与对于语言模型的调整逻辑正好相反。语言模型在训练时输入的是音素序列,输出的是文本。如果输出文本的实体得分越高,就越提高语言模型对输出文本所包含地点对应的音素序列的学习率。如果输出文本的实体得分越低,就越降低语言模型对输出文本所包含地点对应的音素序列的学习率。
上述学习率(Learning rate)是深度学习过程中控制模型学习进度的参数,可以理解为反向传播算法中的步长。
之所以对于声学模型的调整逻辑与对于语言模型的调整逻辑正好相反,是因为大多数语言模型在训练时采用的是无监督数据,而声学模型采用的是有监督数据。对于音频的建模难度很大,需要将建模能力分配到没有很好学习到的数据上。实体得分低的语音样本都是经过人工标注的,这部分对于声学模型而言价值最大,需要重点学习。语言模型相对于声学模型而言,建模难度小,且采用的是无监督数据,噪声大。实体得分高的输出文本大概率是正确的且通顺的,而实体得分低的文本很可能是错误的噪声,因此需要对噪声进行抑制,降低对其的学习率。因此,这种语言识别模型的训练方式是能够使得训练得到的语言识别模型更加聚焦、抗噪性能更强。
以上是对本公开所提供方法进行的详细描述,下面结合实施例对本公开提供的装置进行详细描述。
图6为本公开实施例提供的语音识别装置的结构图,如图6中所示,该装置600可以包括:候选获取单元601、实体打分单元602和结果确定单元603,还可以包括模型训练单元604和满意度收集单元605。其中各组成单元的主要功能如下:
候选获取单元601,用于获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,N为大于1的正整数。
实体打分单元602,用于利用实体打分模型分别对N个候选识别结果进行打分,得到各候选识别结果的实体得分。
结果确定单元603,用于综合候选识别结果的识别得分和实体得分,从N个候选识别结果中确定待识别语音对应的识别结果。
其中,实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
模型训练单元604,用于获取训练样本,训练样本包含特定类型的实体的识别结果,以及依据识别结果对应的满意度状况标注的评分标签;将训练样本中的识别结果作为机器学习模型的输入,将该识别结果对应的评分标签作为机器学习模型的目标输出,训练机器学习模型得到实体打分模型。
满意度收集单元605,用于在用户下发语音请求后,收集用户针对包含特定类型的实体的识别结果的行为数据;基于特定类型的各实体分别统计行为数据;依据统计的行为数据确定特定类型的各实体的识别结果满意度。
作为一种可实现的方式,满意度收集单元605在依据行为数据确定特定类型的各实体的识别结果满意度时,具体执行:
依据对包含特定类型的实体的识别结果的直接搜索行为,确定第一满意度;
依据对包含特定类型的实体的识别结果进行修改后搜索的行为,确定第二满意度;
依据对包含特定类型的实体的识别结果重新发起语音请求且重新发起请求的识别结果与上一次识别结果相似的行为,确定第三满意度;
依据对包含特定类型的实体的识别结果重新发起两次以上的语音请求且重新发起请求的识别结果与上一次识别结果不相似的行为,确定第四满意度;
第一满意度大于第二满意度,第二满意度大于第三满意度,第三满意度大于第四满意度。
作为一种优选的实施方式,结果确定单元603可以将候选识别结果的识别得分和实体得分进行加权求和,得到N个候选识别结果的最终得分;利用最终得分确定待识别语音对应的识别结果。
作为一种典型的应用场景,上述特定类型的实体可以包括:兴趣点POI或地点。
图7为本公开实施例提供的训练语音识别模型的装置结构图,如图7中所示,该装置700可以包括:实体打分单元701和训练调整单元702,还可以进一步包括:模型训练单元703和满意度收集单元704。其中各组成单元的主要功能如下:
实体打分单元701,用于在训练语音识别模型的过程中,利用实体打分模型对语音识别模型的输出文本进行打分,得到该输出文本的实体得分。
训练调整单元702,用于利用实体得分,调整语音识别模型对该输出文本所包含特定类型的实体的学习率。
其中实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的。
作为一种可实现的方式,训练调整单元702可以依据实体得分,调整声学模型对输出文本所包含特定类型的实体对应的语音样本的学习率;和/或,依据实体得分,调整语言模型对输出文本所包含特定类型的实体所对应音素序列的学习率。
其中,实体得分与调整的声学模型的学习率负相关;实体得分与调整的语言模型的学习率正相关。
模型训练单元703,用于获取训练样本,训练样本包含特定类型的实体的识别结果,以及依据识别结果对应的满意度状况标注的评分标签;将训练样本中的识别结果作为机器学习模型的输入,将该识别结果对应的评分标签作为机器学习模型的目标输出,训练机器学习模型得到实体打分模型。
满意度收集单元704,用于在用户下发语音请求后,收集用户针对包含特定类型的实体的识别结果的行为数据;基于特定类型的各实体分别统计行为数据;依据统计的行为数据确定特定类型的各实体的识别结果满意度。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
如图8所示,是根据本公开实施例的语音识别方法或训练语音识别模型的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如语音识别方法或训练语音识别模型的方法。例如,在一些实施例中,语音识别方法或训练语音识别模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。
在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的语音识别方法或训练语音识别模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行语音识别方法或训练语音识别模型的方法。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控30制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPs,Ⅵirtual Private Server)服务中存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (22)
1.一种语音识别方法,包括:
获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,所述N为大于1的正整数;
利用实体打分模型分别对所述N个候选识别结果进行打分,得到各候选识别结果的实体得分;
综合所述候选识别结果的识别得分和实体得分,从所述N个候选识别结果中确定所述待识别语音对应的识别结果;
其中,所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的,以用于对候选识别结果中出现的特定类型的实体进行打分;
其中,所述实体打分模型还用于对训练语音识别模型过程中的所述语音识别模型的输出文本进行打分以得到该输出文本的实体得分,所述输出文本的实体得分用于调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率;所述输出文本的实体得分与调整的语音识别模型中声学模型的学习率负相关,与调整的语音识别模型中语言模型的学习率正相关。
2.根据权利要求1所述的方法,其中,所述用户对特定类型实体的识别结果满意度状况采用如下方式预先确定:
在用户下发语音请求后,收集用户针对包含所述特定类型的实体的识别结果的行为数据;
基于所述特定类型的各实体分别统计所述行为数据;
依据统计的所述行为数据确定所述特定类型的各实体的识别结果满意度。
3.根据权利要求2所述的方法,其中,所述依据统计的所述行为数据确定所述特定类型的各实体的识别结果满意度包括:
依据对包含所述特定类型的实体的识别结果的直接搜索行为,确定第一满意度;
依据对包含所述特定类型的实体的识别结果进行修改后搜索的行为,确定第二满意度;
依据对包含所述特定类型的实体的识别结果重新发起语音请求且重新发起请求的识别结果与上一次识别结果相似的行为,确定第三满意度;
依据对包含所述特定类型的实体的识别结果重新发起两次以上的语音请求且重新发起请求的识别结果与上一次识别结果不相似的行为,确定第四满意度;
所述第一满意度大于第二满意度,所述第二满意度大于第三满意度,所述第三满意度大于第四满意度。
4.根据权利要求1所述的方法,其中,所述实体打分模型采用如下方式预先训练得到:
获取训练样本,训练样本包含所述特定类型的实体的识别结果,以及依据所述识别结果对应的满意度状况标注的评分标签;
将训练样本中的识别结果作为机器学习模型的输入,将该识别结果对应的评分标签作为机器学习模型的目标输出,训练所述机器学习模型得到所述实体打分模型。
5.根据权利要求1所述的方法,其中,所述综合所述候选识别结果的识别得分和实体得分,从所述N个候选识别结果中确定所述待识别语音对应的识别结果包括:
将所述候选识别结果的识别得分和实体得分进行加权求和,得到所述N个候选识别结果的最终得分;
利用所述最终得分确定所述待识别语音对应的识别结果。
6.根据权利要求1至5中任一项所述的方法,其中,所述特定类型的实体包括:兴趣点POI或地点。
7.一种训练语音识别模型的方法,包括:
在训练语音识别模型的过程中,利用实体打分模型对所述语音识别模型的输出文本进行打分,得到该输出文本的实体得分;
利用所述实体得分,调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率;
其中所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的,以用于对候选识别结果中出现的特定类型的实体进行打分;
其中所述实体得分与调整的语音识别模型中声学模型的学习率负相关,所述实体得分与调整的语音识别模型中语言模型的学习率正相关。
8.根据权利要求7所述的方法,其中,所述利用所述实体得分,调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率包括:
依据所述实体得分,调整声学模型对所述输出文本所包含特定类型的实体对应的语音样本的学习率;和/或,
依据所述实体得分,调整语言模型对所述输出文本所包含特定类型的实体所对应音素序列的学习率。
9.根据权利要求7所述的方法,所述用户对特定类型实体的识别结果满意度状况采用如下方式预先确定:
在用户下发语音请求后,收集用户针对包含所述特定类型的实体的识别结果的行为数据;
基于所述特定类型的各实体分别统计所述行为数据;
依据所述行为数据确定所述特定类型的各实体的识别结果满意度。
10.根据权利要求7所述的方法,所述实体打分模型采用如下方式预先训练得到:
获取训练样本,训练样本包含所述特定类型的实体的识别结果,以及依据所述识别结果对应的满意度状况标注的评分标签;
将训练样本中的识别结果作为机器学习模型的输入,将该识别结果对应的评分标签作为机器学习模型的目标输出,训练所述机器学习模型得到所述实体打分模型。
11.一种语音识别装置,包括:
候选获取单元,用于获取语音识别模型针对待识别语音输出的识别得分排在前N个的候选识别结果,所述N为大于1的正整数;
实体打分单元,用于利用实体打分模型分别对所述N个候选识别结果进行打分,得到各候选识别结果的实体得分;
结果确定单元,用于综合所述候选识别结果的识别得分和实体得分,从所述N个候选识别结果中确定所述待识别语音对应的识别结果;
其中,所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的,以用于对候选识别结果中出现的特定类型的实体进行打分;
其中,所述实体打分模型还用于对训练语音识别模型过程中的所述语音识别模型的输出文本进行打分以得到该输出文本的实体得分,所述输出文本的实体得分用于调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率;所述输出文本的实体得分与调整的语音识别模型中声学模型的学习率负相关,与调整的语音识别模型中语言模型的学习率正相关。
12.根据权利要求11所述的装置,还包括:
模型训练单元,用于获取训练样本,训练样本包含所述特定类型的实体的识别结果,以及依据所述识别结果对应的满意度状况标注的评分标签;将训练样本中的识别结果作为机器学习模型的输入,将该识别结果对应的评分标签作为机器学习模型的目标输出,训练所述机器学习模型得到所述实体打分模型。
13.根据权利要求11所述的装置,还包括:
满意度收集单元,用于在用户下发语音请求后,收集用户针对包含所述特定类型的实体的识别结果的行为数据;基于所述特定类型的各实体分别统计所述行为数据;依据统计的所述行为数据确定所述特定类型的各实体的识别结果满意度。
14.根据权利要求13所述的装置,其中,所述满意度收集单元在依据统计的所述行为数据确定所述特定类型的各实体的识别结果满意度时,具体执行:
依据对包含所述特定类型的实体的识别结果的直接搜索行为,确定第一满意度;
依据对包含所述特定类型的实体的识别结果进行修改后搜索的行为,确定第二满意度;
依据对包含所述特定类型的实体的识别结果重新发起语音请求且重新发起请求的识别结果与上一次识别结果相似的行为,确定第三满意度;
依据对包含所述特定类型的实体的识别结果重新发起两次以上的语音请求且重新发起请求的识别结果与上一次识别结果不相似的行为,确定第四满意度;
所述第一满意度大于第二满意度,所述第二满意度大于第三满意度,所述第三满意度大于第四满意度。
15.根据权利要求11所述的装置,其中,所述结果确定单元,具体用于:将所述候选识别结果的识别得分和实体得分进行加权求和,得到所述N个候选识别结果的最终得分;利用所述最终得分确定所述待识别语音对应的识别结果。
16.根据权利要求11至15中任一项所述的装置,其中,所述特定类型的实体包括:兴趣点POI或地点。
17.一种训练语音识别模型的装置,包括:
实体打分单元,用于在训练语音识别模型的过程中,利用实体打分模型对所述语音识别模型的输出文本进行打分,得到该输出文本的实体得分;
训练调整单元,用于利用所述实体得分,调整所述语音识别模型对该输出文本所包含特定类型的实体的学习率;
其中所述实体打分模型是基于用户对特定类型的实体的识别结果满意度状况预先训练得到的,以用于对候选识别结果中出现的特定类型的实体进行打分;
其中所述实体得分与调整的语音识别模型中声学模型的学习率负相关,所述实体得分与调整的语音识别模型中语言模型的学习率正相关。
18.根据权利要求17所述的装置,其中,所述训练调整单元,具体用于:依据所述实体得分,调整声学模型对所述输出文本所包含特定类型的实体对应的语音样本的学习率;和/或,依据所述实体得分,调整语言模型对所述输出文本所包含特定类型的实体所对应音素序列的学习率。
19.根据权利要求17所述的装置,还包括:
模型训练单元,用于获取训练样本,训练样本包含所述特定类型的实体的识别结果,以及依据所述识别结果对应的满意度状况标注的评分标签;将训练样本中的识别结果作为机器学习模型的输入,将该识别结果对应的评分标签作为机器学习模型的目标输出,训练所述机器学习模型得到所述实体打分模型。
20.根据权利要求17所述的装置,还包括:
满意度收集单元,用于在用户下发语音请求后,收集用户针对包含所述特定类型的实体的识别结果的行为数据;基于所述特定类型的各实体分别统计所述行为数据;依据统计的所述行为数据确定所述特定类型的各实体的识别结果满意度。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110389478.8A CN113223500B (zh) | 2021-04-12 | 2021-04-12 | 语音识别方法、训练语音识别模型的方法及对应装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110389478.8A CN113223500B (zh) | 2021-04-12 | 2021-04-12 | 语音识别方法、训练语音识别模型的方法及对应装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113223500A CN113223500A (zh) | 2021-08-06 |
CN113223500B true CN113223500B (zh) | 2022-02-25 |
Family
ID=77086963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110389478.8A Active CN113223500B (zh) | 2021-04-12 | 2021-04-12 | 语音识别方法、训练语音识别模型的方法及对应装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113223500B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103531197A (zh) * | 2013-10-11 | 2014-01-22 | 安徽科大讯飞信息科技股份有限公司 | 一种对用户语音识别结果反馈的命令词识别自适应优化方法 |
CN103810997A (zh) * | 2012-11-14 | 2014-05-21 | 北京百度网讯科技有限公司 | 一种确定语音识别结果置信度的方法和装置 |
CN110675871A (zh) * | 2019-09-25 | 2020-01-10 | 北京蓦然认知科技有限公司 | 一种语音识别方法及装置 |
CN111326140A (zh) * | 2020-03-12 | 2020-06-23 | 科大讯飞股份有限公司 | 语音识别结果判别方法、纠正方法、装置、设备及存储介质 |
CN111816165A (zh) * | 2020-07-07 | 2020-10-23 | 北京声智科技有限公司 | 语音识别方法、装置及电子设备 |
CN112151022A (zh) * | 2020-09-25 | 2020-12-29 | 北京百度网讯科技有限公司 | 语音识别的优化方法、装置、设备以及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923854B (zh) * | 2010-08-31 | 2012-03-28 | 中国科学院计算技术研究所 | 一种交互式语音识别系统和方法 |
CN103915092B (zh) * | 2014-04-01 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
KR102386854B1 (ko) * | 2015-08-20 | 2022-04-13 | 삼성전자주식회사 | 통합 모델 기반의 음성 인식 장치 및 방법 |
CN107104994B (zh) * | 2016-02-22 | 2021-07-20 | 华硕电脑股份有限公司 | 语音识别方法、电子装置及语音识别系统 |
US10332515B2 (en) * | 2017-03-14 | 2019-06-25 | Google Llc | Query endpointing based on lip detection |
CN111862954B (zh) * | 2020-05-29 | 2024-03-01 | 北京捷通华声科技股份有限公司 | 一种语音识别模型的获取方法及装置 |
CN112349289B (zh) * | 2020-09-28 | 2023-12-29 | 北京捷通华声科技股份有限公司 | 一种语音识别方法、装置、设备以及存储介质 |
CN112489637B (zh) * | 2020-11-03 | 2024-03-26 | 北京百度网讯科技有限公司 | 语音识别方法和装置 |
-
2021
- 2021-04-12 CN CN202110389478.8A patent/CN113223500B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810997A (zh) * | 2012-11-14 | 2014-05-21 | 北京百度网讯科技有限公司 | 一种确定语音识别结果置信度的方法和装置 |
CN103531197A (zh) * | 2013-10-11 | 2014-01-22 | 安徽科大讯飞信息科技股份有限公司 | 一种对用户语音识别结果反馈的命令词识别自适应优化方法 |
CN110675871A (zh) * | 2019-09-25 | 2020-01-10 | 北京蓦然认知科技有限公司 | 一种语音识别方法及装置 |
CN111326140A (zh) * | 2020-03-12 | 2020-06-23 | 科大讯飞股份有限公司 | 语音识别结果判别方法、纠正方法、装置、设备及存储介质 |
CN111816165A (zh) * | 2020-07-07 | 2020-10-23 | 北京声智科技有限公司 | 语音识别方法、装置及电子设备 |
CN112151022A (zh) * | 2020-09-25 | 2020-12-29 | 北京百度网讯科技有限公司 | 语音识别的优化方法、装置、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113223500A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112487173B (zh) | 人机对话方法、设备和存储介质 | |
CN107039040A (zh) | 语音识别系统 | |
CN113223516B (zh) | 语音识别方法和装置 | |
CN113407850B (zh) | 一种虚拟形象的确定和获取方法、装置以及电子设备 | |
EP2940551A1 (en) | Method and device for implementing voice input | |
CN114840671A (zh) | 对话生成方法、模型的训练方法、装置、设备及介质 | |
CN114267375B (zh) | 音素检测方法及装置、训练方法及装置、设备和介质 | |
CN112307188B (zh) | 对话生成方法、系统、电子设备和可读存储介质 | |
CN112466289A (zh) | 语音指令的识别方法、装置、语音设备和存储介质 | |
CN111460117B (zh) | 对话机器人意图语料生成方法、装置、介质及电子设备 | |
CN114625923A (zh) | 视频检索模型的训练方法、视频检索方法、装置以及设备 | |
CN113191261B (zh) | 图像类别的识别方法、装置和电子设备 | |
CN112860995A (zh) | 交互方法、装置、客户端、服务器以及存储介质 | |
CN113223500B (zh) | 语音识别方法、训练语音识别模型的方法及对应装置 | |
CN114758649B (zh) | 一种语音识别方法、装置、设备和介质 | |
CN114416941B (zh) | 融合知识图谱的对话知识点确定模型的生成方法及装置 | |
CN116049370A (zh) | 信息查询方法和信息生成模型的训练方法、装置 | |
CN114141236B (zh) | 语言模型更新方法、装置、电子设备及存储介质 | |
CN116257611A (zh) | 问答模型的训练方法、问答处理方法、装置及存储介质 | |
CN113360590B (zh) | 兴趣点信息的更新方法、装置、电子设备及存储介质 | |
CN115292467A (zh) | 信息处理与模型训练方法、装置、设备、介质及程序产品 | |
CN114549695A (zh) | 图像生成方法、装置、电子设备及可读存储介质 | |
CN114281964A (zh) | 对话技能服务的确定方法、装置、电子设备及存储介质 | |
CN113129894A (zh) | 语音识别方法、装置、电子设备以及存储介质 | |
US20230085458A1 (en) | Dialog data generating |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |