CN113223501B - 一种语音交互业务的执行方法及执行装置 - Google Patents
一种语音交互业务的执行方法及执行装置 Download PDFInfo
- Publication number
- CN113223501B CN113223501B CN202110460617.1A CN202110460617A CN113223501B CN 113223501 B CN113223501 B CN 113223501B CN 202110460617 A CN202110460617 A CN 202110460617A CN 113223501 B CN113223501 B CN 113223501B
- Authority
- CN
- China
- Prior art keywords
- voice
- recognition result
- voice information
- information
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 68
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000004044 response Effects 0.000 claims abstract description 80
- 238000012549 training Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 16
- 238000002372 labelling Methods 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本说明书公开了一种语音交互业务的执行方法及执行装置,业务平台响应于用户针对语音交互业务的语音交互请求,获取该语音交互业务对应的语音信息,而后,可以将该语音信息输入到预先训练的基础识别模型中,得到基础识别结果,并根据基础识别结果,判断语音信息是否满足预设条件。响应于该语音信息满足预设条件,可以根据基础识别结果,判断当前用户的语音状态,响应于该语音信息不满足预设条件,根据辅助识别结果,判断当前用户的语音状态,并根据该语音状态,执行语音交互业务,相比于现有技术,提高了对用户的语音状态判断的准确性。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种语音交互业务的执行方法及执行装置。
背景技术
在实际应用中,用户可以与语音机器人进行持续地语音交互,从而便于执行自己的一些业务,例如,语音机器人可以作为业务平台中的客服,用户通过和语音机器人之间的语音交互,可以询问自身在业务平台中的一些业务上的问题,并使得语音机器人对自身的问题进行解决。
在用户与语音机器人的交互过程中,业务平台需要确定用户的语音状态,即,确定出用户在何时说完一句话,并在用户说完一句话后,使语音机器人向用户进行回复,用户根据语音机器人的回复再说下一句话,在现有技术中,业务平台可以在确定用户的语音中不包含人声的时长超过设定时长后,确定用户说完了一句话,并让语音机器人回复用户。
在现有技术中,设定时长可以通过人为进行设置,若该设定时长设置得过短,则可能会在用户未说完一句话时,语音机器人开始回复用户,而若是该设定时长设定得过长,则用户需要等待过长时间使语音机器人进行回复。
所以,如何能够准确地确定出用户的语音状态,则是一个亟待解决的问题。
发明内容
本说明书提供一种语音交互业务的执行方法及执行装置,以部分地解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种语音交互业务的执行方法,包括:
响应于用户针对语音交互业务的语音交互请求,获取所述语音交互业务对应的语音信息;
将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,所述基础识别结果用于表示所述语音信息中是否包含人声,并根据所述基础识别结果,判断所述语音信息是否满足预设条件;
响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,所述语音状态用于表示所述用户是否在当前完成一次语音应答,所述辅助识别结果是通过将所述语音信息输入到预先训练的辅助识别模型中得到的,所述辅助识别结果用于表示所述语音信息是否包含一次语音应答的结束语音;
根据所述语音状态,执行所述语音交互业务。
可选地,将所述语音信息输入到预先训练的基础识别模型之前,所述方法还包括:
将所述语音信息进行分割得到各音频帧,并针对每个音频帧进行特征提取,得到每个音频帧对应的音频特征;
将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,具体包括:
将每个音频帧对应的音频特征输入到所述基础识别模型中,得到每个音频帧对应的基础识别结果;
通过将所述语音信息输入到预先训练的辅助识别模型中得到辅助识别结果,具体包括:
将每个音频帧对应的音频特征输入到所述辅助识别模型中,得到每个音频帧对应的辅助识别结果。
可选地,根据所述基础识别结果,判断所述语音信息是否满足预设条件,具体包括:
响应于根据所述基础识别结果,确定所述语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,确定所述语音信息满足所述预设条件;或
响应于根据所述基础识别结果,确定所述语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,确定所述语音信息满足所述预设条件,所述第一设定时长小于所述第二设定时长。
可选地,响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,具体包括:
响应于所述语音信息中不包含人声的至少部分语音片段的持续时长超过所述第二设定时长,确定当前所述用户对应的语音状态为在当前完成一次语音应答。
可选地,响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,具体包括:
响应于所述语音信息中不包含人声的至少部分语音片段的持续时长未超过所述第一设定时长,确定当前所述用户对应的语音状态为在当前未完成一次语音应答。
可选地,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,具体包括:
响应于所述语音信息中不包含人声的至少部分语音片段的持续时长超过所述第一设定时长,且未超过所述第二设定时长,根据所述辅助识别结果,确定所述语音信息是否为一次语音应答的结束语音;
响应于所述语音信息为一次语音应答的结束语音,确定所述语音状态为所述用户在当前完成一次语音应答;
响应于所述语音信息不为一次语音应答的结束语音,确定所述语音状态为所述用户在当前未完成一次语音应答。
可选地,训练所述辅助识别模型,具体包括:
获取训练样本,所述训练样本包含有若干样本音频帧,所述若干样本音频帧拼接出的语音信息包含完整语句对应的语音信息;
将每个样本音频帧输入到待训练的辅助识别模型中,得到所述辅助识别模型预测出的每个样本音频帧对应的预测结果;
针对每个音频帧,以最小化该样本音频帧对应的标注信息与该样本音频帧对应的预测结果之间的偏差为优化目标,对所述辅助识别模型进行训练,其中,该样本音频帧的标注信息用于表示该样本音频帧是否为完整语句的结束语音。
本说明书提供了一种语音交互业务的执行装置,包括:
获取模块,用于响应于用户针对语音交互业务的语音交互请求,获取所述语音交互业务对应的语音信息;
输入模块,用于将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,所述基础识别结果用于表示所述语音信息中是否包含人声,并根据所述基础识别结果,判断所述语音信息是否满足预设条件;
判断模块,用于响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,所述语音状态用于表示所述用户是否在当前完成一次语音应答,所述辅助识别结果是通过将所述语音信息输入到预先训练的辅助识别模型中得到的,所述辅助识别结果用于表示所述语音信息是否包含一次语音应答的结束语音;
执行模块,用于根据所述语音状态,执行所述语音交互业务。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述语音交互业务的执行方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述语音交互业务的执行方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的语音交互业务的执行方法及执行装置中,业务平台响应于用户针对语音交互业务的语音交互请求,获取该语音交互业务对应的语音信息,而后,可以将该语音信息输入到预先训练的基础识别模型中,得到基础识别结果,并根据基础识别结果,判断语音信息是否满足预设条件。响应于该语音信息满足预设条件,可以根据基础识别结果,判断当前用户的语音状态,响应于该语音信息不满足预设条件,根据辅助识别结果,判断当前用户的语音状态,该语音状态用于表示用户是否在当前完成一次语音应答,辅助识别结果是通过将该语音信息输入到预先训练的辅助识别模型中得到的,辅助识别结果用于表示语音信息是否包含一次语音应答的结束语音,根据语音状态,执行语音交互业务。
从上述方法中可以看出,业务平台在执行语音交互业务时,不仅可以通过基础识别模型给出的语音信息中是否包含有人声来判断用户实时的语音状态,还可以参考辅助识别模型给出的语音信息是否包含结束语音来判断,相比于现有技术,提高了对用户的语音状态判断的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种语音交互业务的执行方法的流程示意图;
图2为本说明书提供的一种对辅助识别模型进行训练的示意图;
图3为本说明书中一种语音交互业务的执行装置的示意图;
图4为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种语音交互业务的执行方法的流程示意图,具体包括以下步骤:
S101:响应于用户针对语音交互业务的语音交互请求,获取所述语音交互业务对应的语音信息。
在实际应用中,业务平台可以提供给用户语音交互业务,使语音机器人与用户进行语音交互,使语音机器人为用户解决一些问题、该语音交互业务与人们日常通话类似,在该语音交互业务中,语音机器人与用户之间的语音交互是持续的。这里提到的语音机器人并不一定是指实体机器人,该语音机器人也可以是指业务平台中能够提供与用户进行语音交互业务的系统,用户可以通过终端与该语音机器人进行语音交互。
基于此,业务平台响应于用户针对语音交互业务的语音交互请求,可以获取该语音交互业务对应的语音信息,其中,用户针对语音交互业务的语音交互请求,可以是指用户在需要业务平台的语音机器人进行语音交互时所发送给业务平台的请求。业务平台获取到的语音信息,即是指用户在进行语音交互过程中与语音机器人持续的通话语音。业务平台可以通过该语音信息判断用户在何时说完一句话,并使语音机器人及时回复用户。
S102:将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,所述基础识别结果用于表示所述语音信息中是否包含人声,并根据所述基础识别结果,判断所述语音信息是否满足预设条件。
业务平台获取到上述语音信息后,可以将该语音信息输入到预先训练的基础识别模型中,得到基础识别结果,并根据该基础识别结果,判断该语音信息是否满足预设条件。其中,该基础识别结果用于表示语音信息中是否包含人声。
业务平台在获取语音信息后,可以先将该语音信息进行分割,得到各音频帧,并针对每个音频帧进行特征提取,得到每个音频帧对应的音频特征,其中,一个音频帧对应的音频特征可以表示该音频帧在声音上的特征。而后,业务平台可以将每个音频帧对应的音频特征输入到基础识别模型中,得到每个音频帧对应的基础识别结果,由于,在某些情况下业务平台需要参考辅助识别模型所得到的结果来判断用户的语音状态,因此还可以将每个音频帧对应的音频特征输入到辅助识别模型中,得到每个音频帧对应的辅助识别结果。
在上述步骤中提到过,基础识别结果仅能够表示出语音信息中是否包含人声,即,仅可以确定出在该语音交互业务中的通话中有没有用户的声音,仅通过基础识别结果,判断用户的语音状态,可能会存在不准确的问题。因此,业务平台可以在某些情况下,参考辅助识别模型所得出的辅助识别结果,来判断用户的语音状态,因而,业务平台可以根据基础识别结果判断该语音信息是否满足预设条件,从而在该语音信息不满足预设条件时,参考辅助识别模型所得出的辅助识别结果,来判断用户的语音状态。
具体的,业务平台响应于根据该基础识别结果,确定该语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,可以确定该语音信息满足预设条件,也就是说,业务平台若确定语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,可以确定该语音信息满足预设条件。
或者,业务平台响应于根据该基础识别结果,可以确定语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,可以确定该语音信息满足预设条件,也就是说,业务平台若确定语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,可以确定该语音信息不满足预设条件。其中,上述的第一设定时长小于第二设定时长。
即,上述两种情况分别是该语音信息中不存在连续人声的时长未超过第一设定时长或是超过了第二设定时长,该第一设定时长可以被设为一个较短时长,第二设定时长可以设为一个较长时长,也就是说,该语音信息不存在人声的时间较短时,或是不存在人声的时间较长时,确定该语音信息符合预设条件。
S103:响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,所述语音状态用于表示所述用户是否在当前完成一次语音应答,所述辅助识别结果是通过将所述语音信息输入到预先训练的辅助识别模型中得到的,所述辅助识别结果用于表示所述语音信息是否包含一次语音应答的结束语音。
业务平台判断出语音信息是否满足预设条件后,响应于该语音信息满足预设条件,可以根据基础识别结果,判断当前用户的语音状态。具体的,业务平台响应于该语音信息不满足预设条件,可以根据辅助识别结果,确定当前用户的语音状态,上述提到的响应于,均可以理解为若确定。
其中,该语音状态用于表示该用户是否在当前完成一次语音应答,即,该用户是否在当前说完一句话,辅助识别结果是通过将语音信息输入到预先训练的辅助识别模型中得到的,该辅助识别结果用于表示该语音信息是否包含一次语音应答的结束语音,即,可以表示出该语音信息是否包含一句话的结尾。
从上述步骤中可以看出,在该语音信息满足预设条件时,语音信息中不包含人声的时间要么较短,要么较长。不包含人声的时间较短时,可能是用户在说话过程中有所停顿,即使辅助识别结果表示出语音信息为一次语音应答的结束语音,也不能直接确定用户已经说完了一句话。因此,业务平台响应于语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,可以确定当前该用户对应的语音状态为在当前未完成一次语音应答。即,若业务平台确定语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,可以确定当前该用户对应的语音状态为在当前未完成一次语音应答。
而不包含人声的时间较长时,可以确定用户已经较长时间未说话,则即使辅助识别结果表示语音信息不为一次语音应答的结束语音,也可以判定出用户已说完一句话,因此,业务平台响应于该语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,可以确定当前用户对应的语音状态为在当前完成一次语音应答,即,业务平台若确定该语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,可以确定当前用户对应的语音状态为在当前完成一次语音应答。
可以看出,在语音信息满足预设条件时,即,语音信息中不包含人声的时间较短,或是不包含人声的时间较长时,业务平台不需要参考上述辅助识别结果,判断用户的语音状态,因此,在实际应用中,业务平台既可以同时确定出语音信息对应的基础识别结果和辅助识别结果,也可以在需要参考辅助识别结果时(即,语音信息不满足设定条件时),再通过辅助识别模型确定出该辅助识别结果。
若是业务平台确定出语音信息不满足预设条件,则需要参考辅助识别模型得出的辅助识别结果,判断用户的语音状态。具体的,业务平台响应于语音信息中不包含人声的至少部分语音片段的持续时长超过该第一设定时长,且未超过第二设定时长,可以根据辅助识别结果,确定该语音信息是否为一次语音应答的结束语音。业务平台响应于该语音信息为一次语音应答的结束语音,可以确定用户当前的语音状态为该用户在当前完成一次语音应答,业务平台响应于该语音信息不为一次语音应答的结束语音,可以确定该语音状态为该用户在当前未完成一次语音应答。
即,上述情况是该语音信息不包含人声的至少部分语音片段的持续时长超过该第一设定时长,且未超过第二设定时长,即,该语音信息不存在人声的时长不是特别短,也不是特别长,此时,可以参考该辅助识别结果来确定该用户当前的语音状态,即,若通过辅助识别结果确定当前语音信息为一句话的结尾,即语音状态为用户说完了一句话,若通过辅助识别结果确定当前语音信息不为一句话的结尾,即语音状态为用户还未说完一句话。
S104:根据所述语音状态,执行所述语音交互业务。
业务平台确定出当前用户的语音状态后,可以根据该语音状态,执行该语音交互业务。具体的,若业务平台确定当前用户的语音状态为未完成一次语音应答,则需要使语音机器人等待用户说完这句话,再进行语音反馈。若业务平台确定当前的用户的语音状态为完成了一次语音应答,则可以直接使语音机器人向用户进行语音反馈。
需要说明的是,在对辅助识别模型以及基础识别模型进行训练时,均可以通过有监督训练方式进行训练。其中,对辅助识别模型进行训练时,业务平台可以获取训练样本,该训练样本包含有若干样本音频帧,该若干样本音频帧拼接出的语音信息包含完整语句对应的语音信息,如图2所示。
图2为本说明书提供的一种对辅助识别模型进行训练的示意图。
从图2中可以看出,业务平台可以将每个样本音频帧输入到待训练的辅助识别模型中,得到该辅助识别模型预测出的每个样本音频帧对应的预测结果。这里提到的将每个样本音频帧输入到待训练的辅助识别模型中,可以是指将每个样本音频帧对应的音频特征输入到待训练的辅助识别模型中,而后,业务平台可以针对每个音频帧,以最小化该样本音频帧对应的标注信息与该样本音频帧对应的预测结果之间的偏差为优化目标,对该辅助识别模型进行训练,其中,该样本音频帧的标注信息用于表示该样本音频帧是否为完整语句的结束语音。
而在对基础识别模型进行训练时,业务平台可以获取到用于训练该基础识别模型的样本数据,该样本数据对应的标注信息表示该样本数据是否包含人声,业务平台可以将该样本数据输入到待训练的基础识别模型中,得到该样本数据对应的预测结果,并以最小化该样本数据对应的预测结果与该样本数据对应的标注信息之间的偏差为优化目标,对该基础识别模型进行训练。
在本说明书中,上述提到过可以将语音信息分割成多个音频帧,并得到每个音频帧对应的基础识别结果,或每个音频帧对应的辅助识别结果,这样一来,持续的语音信息,对应有多个基础识别结果,以及多个辅助识别结果,在确定语音信息中不存在人声的时长时,只需确定出多个连续的不存在人声的音频帧的总时长即可,而在确定语音信息是否为一次语音应答的结束语音时,确定出语音信息中的音频帧是否为一次语音应答的结束语音即可。
从上述方法中可以看出,业务平台在通过基础识别模型判断用户的语音状态时,可以设定两种时长,即,第一设定时长以及第二设定时长,第二设定时长可以保障用户在长时间未说话的情况下,业务平台确定出该用户已说完一句话,而第一设定时长可以用来区分用户只是较短的停顿,还是真正说完了一句话,因此,不存在用户的人声超过第一设定时长后,业务平台可以参考辅助识别模型所得到的的辅助识别结果,来判断用户的语音状态,相比于现有技术,能够更准确地对用户的语音状态进行确定。
以上为本说明书的一个或多个实施例提供的语音交互业务的执行方法,基于同样的思路,本说明书还提供了相应的语音交互业务的执行装置,如图3所示。
图3为本说明书提供的一种语音交互业务的执行装置的示意图,具体包括:
获取模块301,用于响应于用户针对语音交互业务的语音交互请求,获取所述语音交互业务对应的语音信息;
输入模块302,用于将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,所述基础识别结果用于表示所述语音信息中是否包含人声,并根据所述基础识别结果,判断所述语音信息是否满足预设条件;
判断模块303,用于响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,所述语音状态用于表示所述用户是否在当前完成一次语音应答,所述辅助识别结果是通过将所述语音信息输入到预先训练的辅助识别模型中得到的,所述辅助识别结果用于表示所述语音信息是否包含一次语音应答的结束语音;
执行模块304,用于根据所述语音状态,执行所述语音交互业务。
可选地,所述输入模块302将所述语音信息输入到预先训练的基础识别模型之前,所述输入模块302还用于,将所述语音信息进行分割得到各音频帧,并针对每个音频帧进行特征提取,得到每个音频帧对应的音频特征;所述输入模块302具体用于,将每个音频帧对应的音频特征输入到所述基础识别模型中,得到每个音频帧对应的基础识别结果;所述输入模块302具体用于,将每个音频帧对应的音频特征输入到所述辅助识别模型中,得到每个音频帧对应的辅助识别结果。
可选地,所述输入模块302具体用于,响应于根据所述基础识别结果,确定所述语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,确定所述语音信息满足所述预设条件;或响应于根据所述基础识别结果,确定所述语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,确定所述语音信息满足所述预设条件,所述第一设定时长小于所述第二设定时长。
可选地,所述判断模块303具体用于,响应于所述语音信息中不包含人声的至少部分语音片段的持续时长超过所述第二设定时长,确定当前所述用户对应的语音状态为在当前完成一次语音应答。
可选地,所述判断模块303具体用于,响应于所述语音信息中不包含人声的至少部分语音片段的持续时长未超过所述第一设定时长,确定当前所述用户对应的语音状态为在当前未完成一次语音应答。
可选地,所述判断模块303具体用于,响应于所述语音信息中不包含人声的至少部分语音片段的持续时长超过所述第一设定时长,且未超过所述第二设定时长,根据所述辅助识别结果,确定所述语音信息是否为一次语音应答的结束语音;响应于所述语音信息为一次语音应答的结束语音,确定所述语音状态为所述用户在当前完成一次语音应答;响应于所述语音信息不为一次语音应答的结束语音,确定所述语音状态为所述用户在当前未完成一次语音应答。
可选地,所述装置还包括:
训练模块305,用于获取训练样本,所述训练样本包含有若干样本音频帧,所述若干样本音频帧拼接出的语音信息包含完整语句对应的语音信息;将每个样本音频帧输入到待训练的辅助识别模型中,得到所述辅助识别模型预测出的每个样本音频帧对应的预测结果;针对每个音频帧,以最小化该样本音频帧对应的标注信息与该样本音频帧对应的预测结果之间的偏差为优化目标,对所述辅助识别模型进行训练,其中,该样本音频帧的标注信息用于表示该样本音频帧是否为完整语句的结束语音。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1所示的语音交互业务的执行方法。
本说明书还提供了图4所示的电子设备的示意结构图。如图4所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的语音交互业务的执行方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (9)
1.一种语音交互业务的执行方法,其特征在于,包括:
响应于用户针对语音交互业务的语音交互请求,获取所述语音交互业务对应的语音信息;
将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,所述基础识别结果用于表示所述语音信息中是否包含人声,并根据所述基础识别结果,判断所述语音信息是否满足预设条件,所述预设条件包括所述语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,或所述语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,所述第一设定时长小于所述第二设定时长;
响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,所述语音状态用于表示所述用户是否在当前完成一次语音应答,所述辅助识别结果是通过将所述语音信息输入到预先训练的辅助识别模型中得到的,所述辅助识别结果用于表示所述语音信息是否包含一次语音应答的结束语音;
根据所述语音状态,执行所述语音交互业务。
2.如权利要求1所述的方法,其特征在于,将所述语音信息输入到预先训练的基础识别模型之前,所述方法还包括:
将所述语音信息进行分割得到各音频帧,并针对每个音频帧进行特征提取,得到每个音频帧对应的音频特征;
将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,具体包括:
将每个音频帧对应的音频特征输入到所述基础识别模型中,得到每个音频帧对应的基础识别结果;
通过将所述语音信息输入到预先训练的辅助识别模型中得到辅助识别结果,具体包括:
将每个音频帧对应的音频特征输入到所述辅助识别模型中,得到每个音频帧对应的辅助识别结果。
3.如权利要求1所述的方法,其特征在于,响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,具体包括:
响应于所述语音信息中不包含人声的至少部分语音片段的持续时长超过所述第二设定时长,确定当前所述用户对应的语音状态为在当前完成一次语音应答。
4.如权利要求1所述的方法,其特征在于,响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,具体包括:
响应于所述语音信息中不包含人声的至少部分语音片段的持续时长未超过所述第一设定时长,确定当前所述用户对应的语音状态为在当前未完成一次语音应答。
5.如权利要求1所述的方法,其特征在于,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,具体包括:
响应于所述语音信息中不包含人声的至少部分语音片段的持续时长超过所述第一设定时长,且未超过所述第二设定时长,根据所述辅助识别结果,确定所述语音信息是否为一次语音应答的结束语音;
响应于所述语音信息为一次语音应答的结束语音,确定所述语音状态为所述用户在当前完成一次语音应答;
响应于所述语音信息不为一次语音应答的结束语音,确定所述语音状态为所述用户在当前未完成一次语音应答。
6.如权利要求2所述的方法,其特征在于,训练所述辅助识别模型,具体包括:
获取训练样本,所述训练样本包含有若干样本音频帧,所述若干样本音频帧拼接出的语音信息包含完整语句对应的语音信息;
将每个样本音频帧输入到待训练的辅助识别模型中,得到所述辅助识别模型预测出的每个样本音频帧对应的预测结果;
针对每个音频帧,以最小化该样本音频帧对应的标注信息与该样本音频帧对应的预测结果之间的偏差为优化目标,对所述辅助识别模型进行训练,其中,该样本音频帧的标注信息用于表示该样本音频帧是否为完整语句的结束语音。
7.一种语音交互业务的执行装置,其特征在于,包括:
获取模块,用于响应于用户针对语音交互业务的语音交互请求,获取所述语音交互业务对应的语音信息;
输入模块,用于将所述语音信息输入到预先训练的基础识别模型中,得到基础识别结果,所述基础识别结果用于表示所述语音信息中是否包含人声,并根据所述基础识别结果,判断所述语音信息是否满足预设条件,所述预设条件包括所述语音信息中不包含人声的至少部分语音片段的持续时长未超过第一设定时长,或所述语音信息中不包含人声的至少部分语音片段的持续时长超过第二设定时长,所述第一设定时长小于所述第二设定时长;
判断模块,用于响应于所述语音信息满足所述预设条件,根据所述基础识别结果,判断当前所述用户的语音状态,响应于所述语音信息不满足所述预设条件,根据辅助识别结果,判断当前所述用户的语音状态,所述语音状态用于表示所述用户是否在当前完成一次语音应答,所述辅助识别结果是通过将所述语音信息输入到预先训练的辅助识别模型中得到的,所述辅助识别结果用于表示所述语音信息是否包含一次语音应答的结束语音;
执行模块,用于根据所述语音状态,执行所述语音交互业务。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~6任一项所述的方法。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110460617.1A CN113223501B (zh) | 2021-04-27 | 2021-04-27 | 一种语音交互业务的执行方法及执行装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110460617.1A CN113223501B (zh) | 2021-04-27 | 2021-04-27 | 一种语音交互业务的执行方法及执行装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113223501A CN113223501A (zh) | 2021-08-06 |
CN113223501B true CN113223501B (zh) | 2022-11-04 |
Family
ID=77089265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110460617.1A Active CN113223501B (zh) | 2021-04-27 | 2021-04-27 | 一种语音交互业务的执行方法及执行装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113223501B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105405441A (zh) * | 2015-10-20 | 2016-03-16 | 北京云知声信息技术有限公司 | 一种语音信息的反馈方法及装置 |
CN107665708A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 智能语音交互方法及系统 |
CN108492824A (zh) * | 2018-03-07 | 2018-09-04 | 珠海市中粤通信技术有限公司 | 一种ai智能式的语音交互方法 |
CN110517685A (zh) * | 2019-09-25 | 2019-11-29 | 深圳追一科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN112256229A (zh) * | 2020-09-11 | 2021-01-22 | 北京三快在线科技有限公司 | 人机语音交互方法、装置、电子设备及存储介质 |
CN112567457A (zh) * | 2019-12-13 | 2021-03-26 | 华为技术有限公司 | 语音检测方法、预测模型的训练方法、装置、设备及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545192B (zh) * | 2018-12-18 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
-
2021
- 2021-04-27 CN CN202110460617.1A patent/CN113223501B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105405441A (zh) * | 2015-10-20 | 2016-03-16 | 北京云知声信息技术有限公司 | 一种语音信息的反馈方法及装置 |
CN107665708A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 智能语音交互方法及系统 |
CN108492824A (zh) * | 2018-03-07 | 2018-09-04 | 珠海市中粤通信技术有限公司 | 一种ai智能式的语音交互方法 |
CN110517685A (zh) * | 2019-09-25 | 2019-11-29 | 深圳追一科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN112567457A (zh) * | 2019-12-13 | 2021-03-26 | 华为技术有限公司 | 语音检测方法、预测模型的训练方法、装置、设备及介质 |
CN112256229A (zh) * | 2020-09-11 | 2021-01-22 | 北京三快在线科技有限公司 | 人机语音交互方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
智能服务机器人语音交互的设计与实现;杨国庆等;《科技视界》;20200325(第09期);第135-137页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113223501A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107437416B (zh) | 一种基于语音识别的咨询业务处理方法及装置 | |
CN109710727B (zh) | 用于自然语言处理的系统和方法 | |
CN109065044A (zh) | 唤醒词识别方法、装置、电子设备及计算机可读存储介质 | |
CN112735374B (zh) | 一种自动语音交互的方法及装置 | |
CN115952272B (zh) | 一种生成对话信息的方法、装置、设备及可读存储介质 | |
CN115203394A (zh) | 一种模型训练的方法、业务执行的方法及装置 | |
CN112735407B (zh) | 一种对话处理方法及装置 | |
CN115759122A (zh) | 一种意图识别方法、装置、设备及可读存储介质 | |
CN115146601A (zh) | 语言处理任务的执行方法、装置、可读存储介质以及设备 | |
CN115129878B (zh) | 一种对话业务执行方法、装置、存储介质及电子设备 | |
CN112597301A (zh) | 一种语音意图识别方法及装置 | |
CN108446266B (zh) | 一种语句拆分的方法、装置及设备 | |
CN117828360A (zh) | 一种模型训练、代码生成方法、装置、存储介质及设备 | |
CN110659361B (zh) | 一种对话方法、装置、设备及介质 | |
CN110532755B (zh) | 一种计算机实现的风险识别的方法及装置 | |
CN113223501B (zh) | 一种语音交互业务的执行方法及执行装置 | |
CN116434787B (zh) | 一种语音情感识别的方法、装置、存储介质及电子设备 | |
CN112908315A (zh) | 一种基于声音特征和语音识别的问答意图判断方法 | |
CN116186231A (zh) | 一种回复文本的生成方法、装置、存储介质及电子设备 | |
CN115620706B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN111798849A (zh) | 一种机器人指令识别方法、装置及电子设备和存储介质 | |
CN115019781A (zh) | 一种对话业务执行方法、装置、存储介质及电子设备 | |
CN112738344B (zh) | 一种识别用户身份的方法、装置、存储介质及电子设备 | |
CN115934902A (zh) | 一种生成对话信息的方法、装置、可读存储介质以及设备 | |
CN115456114A (zh) | 一种模型训练和业务执行的方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |