CN109215646B - 语音交互处理方法、装置、计算机设备及存储介质 - Google Patents
语音交互处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN109215646B CN109215646B CN201810930622.2A CN201810930622A CN109215646B CN 109215646 B CN109215646 B CN 109215646B CN 201810930622 A CN201810930622 A CN 201810930622A CN 109215646 B CN109215646 B CN 109215646B
- Authority
- CN
- China
- Prior art keywords
- voice
- voiceprint information
- noise
- dialogue
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 25
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 26
- 230000004044 response Effects 0.000 claims description 32
- 238000007781 pre-processing Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了语音交互处理方法、装置、计算机设备及存储介质,其中方法包括:当智能语音设备处于正常工作状态时,获取来自用户的对话语音;提取获取到的对话语音的声纹信息;根据提取出的声纹信息确定对话语音是否为噪音;若不为噪音,则对对话语音进行应答处理。应用本发明所述方案,能够提高语音交互的准确性等。
Description
【技术领域】
本发明涉及计算机应用技术,特别涉及语音交互处理方法、装置、计算机设备及存储介质。
【背景技术】
随着语音识别等技术的不断发展,具备语音交互功能的智能语音设备的应用越来越普及,比如,带有答疑和指导功能的智能机器人不断受到市场热捧。
这类智能机器人通常都服务于比较嘈杂的环境,比如,服务于机场这种高流量、高密度环境。这种环境下,智能机器人很容易受到噪音的干扰。
图1为现有噪音干扰方式示意图。如图1所示,用户1唤醒智能机器人后,询问智能机器人自己的航班信息,当用户1问完“我的航班在哪值机”后,智能机器人询问用户1的航班号,这时用户2的噪音传来“今天天气怎么样”,智能机器人可能会响应用户2的噪音,回答“今天天气晴...”,从而打断用户1的对话,对于用户1来说给出错误的应答。
用户2可能为路过的用户,比如用户2和用户3从用户1旁边路过,用户2和用户3在用较大的声音谈话,用户2询问用户3“今天天气怎么样”,对于用户1来说,“今天天气怎么样”就成了噪音。
目前,智能机器人并没有对声源进行筛选,是一种“有问就答”的模式,只要语音(声音)的分贝数达到阵列的收声要求就会进行应答处理。这种模式非常不利于在嘈杂环境下使用,很可能导致上述的应答错误,从而降低了语音交互的准确性。
【发明内容】
有鉴于此,本发明提供了语音交互处理方法、装置、计算机设备及存储介质。
具体技术方案如下:
一种语音交互处理方法,包括:
当智能语音设备处于正常工作状态时,获取来自用户的对话语音;
提取获取到的对话语音的声纹信息;
根据提取出的声纹信息确定所述对话语音是否为噪音;
若不为噪音,则对所述对话语音进行应答处理。
根据本发明一优选实施例,所述根据提取出的声纹信息确定所述对话语音是否为噪音包括:
将提取出的声纹信息与获取到的基准声纹信息进行匹配;
若匹配成功,则确定所述对话语音不为噪音,若匹配失败,则确定所述对话语音为噪音。
根据本发明一优选实施例,所述基准声纹信息的获取方式包括:
根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态;
提取所述唤醒语音的声纹信息,将所述唤醒语音的声纹信息作为所述基准声纹信息。
根据本发明一优选实施例,所述基准声纹信息的获取方式包括:
根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态;
提取所述唤醒语音的声纹信息;
将提取出的所述唤醒语音的声纹信息与提取出的所述智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配;
若匹配成功,则根据两次提取出的声纹信息确定出所述基准声纹信息。
根据本发明一优选实施例,所述根据两次提取出的声纹信息确定出所述基准声纹信息包括:
将所述唤醒语音的声纹信息或所述首次获取到的对话语音的声纹信息作为所述基准声纹信息。
一种语音交互处理装置,包括:预处理单元以及应答单元;
所述预处理单元,用于当智能语音设备处于正常工作状态时,获取来自用户的对话语音,提取获取到的对话语音的声纹信息,根据提取出的声纹信息确定所述对话语音是否为噪音;
所述应答单元,用于当所述预处理单元确定所述对话语音不为噪音时,对所述对话语音进行应答处理。
根据本发明一优选实施例,所述预处理单元将提取出的声纹信息与获取到的基准声纹信息进行匹配,若匹配成功,则确定所述对话语音不为噪音,若匹配失败,则确定所述对话语音为噪音。
根据本发明一优选实施例,所述预处理单元进一步用于,根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态,提取所述唤醒语音的声纹信息,将所述唤醒语音的声纹信息作为所述基准声纹信息。
根据本发明一优选实施例,所述预处理单元进一步用于,根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态,提取所述唤醒语音的声纹信息,并将提取出的所述唤醒语音的声纹信息与提取出的所述智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配,若匹配成功,则根据两次提取出的声纹信息确定出所述基准声纹信息。
根据本发明一优选实施例,若匹配成功,则所述预处理单元将所述唤醒语音的声纹信息或所述首次获取到的对话语音的声纹信息作为所述基准声纹信息。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,当智能语音设备处于正常工作状态时,获取来自用户的对话语音,并提取获取到的对话语音的声纹信息,进而根据提取出的声纹信息确定对话语音是否为噪音,当确定不为噪音时,才会进行应答处理,从而排除了噪音干扰,提高了语音交互的准确性等。
【附图说明】
图1为现有噪音干扰方式示意图。
图2为本发明所述语音交互处理方法第一实施例的流程图。
图3为本发明所述语音交互处理方法第二实施例的流程图。
图4为本发明所述语音交互处理装置实施例的组成结构示意图。
图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。
【具体实施方式】
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案进行进一步说明。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图2为本发明所述语音交互处理方法第一实施例的流程图。如图2所示,包括以下具体实现方式。
在201中,当智能语音设备处于正常工作状态时,获取来自用户的对话语音。
在202中,提取获取到的对话语音的声纹信息。
在203中,根据提取出的声纹信息确定对话语音是否为噪音。
在204中,若不为噪音,则对对话语音进行应答处理。
当智能语音设备处于正常工作状态时,获取到的对话语音可能来自于与智能语音设备进行正常交互的用户,也可能来自于噪音用户。本实施例中,在对每次获取到的对话语音进行应答处理之前,可先提取对话语音的声纹信息,并根据提取出的声纹信息确定对话语音是否为噪音,只有当不为噪音时,才会进行应答处理,从而排除了噪音干扰,进而提高了语音交互的准确性等。
声纹是指能唯一识别一个人的声音特征,声纹虽然不像人脸、指纹的个体差异那样直观可见,但由于每个人的声道、口腔和鼻腔等具有个体的差异性,反映到声音上也具有差异性。现代科学研究表明,声纹不仅具有特定性,而且有相对稳定性的特点,成年以后,人的声音可保持长期相对稳定不变,实验证明,无论讲话者是故意模仿他人声音和语气,还是耳语轻声讲话,即使模仿得惟妙惟肖,其声纹也会不同。
本实施例中,可采用现有的各种声纹提取方式来进行声纹提取,具体方式不作限制。
在根据提取出的声纹信息确定对话语音是否为噪音时,可将提取出的声纹信息与获取到的基准声纹信息进行匹配,若匹配成功,则可确定对话语音不为噪音,若匹配失败,则可确定对话语音为噪音。
获取基准声纹信息的方式可至少包括以下两种。
1)方式一
根据来自用户的唤醒语音唤醒智能语音设备,使得智能语音设备进入正常工作状态,提取唤醒语音的声纹信息,将唤醒语音的声纹信息作为基准声纹信息。
为节省资源消耗等,智能语音设备在不工作时,可处于休眠状态,当用户需要使用智能语音设备时,需要先通过唤醒语音唤醒智能语音设备,唤醒语音可为说出预定的唤醒词等。
智能语音设备被唤醒之后,将进入正常工作状态,与用户进行语音交互。
可提取唤醒语音的声纹信息,将提取出的唤醒语音的声纹信息作为所需的基准声纹信息。
这样,后续当每次获取到来自用户的对话语音时,可首先提取对话语音的声纹信息,之后,将提取出的声纹信息与基准声纹信息进行匹配,若匹配成功,则可确定对话语音不为噪音,若匹配失败,则可确定对话语音为噪音。
若对话语音不为噪音,可对对话语音进行正常的应答处理,若对话语音为噪音,可不进行应答处理。
将提取出的声纹信息与基准声纹信息进行匹配,可以是指计算提取出的声纹信息与基准声纹信息的相似度,也可以是指比较提取出的声纹信息与基准声纹信息的差异性等。以计算相似度为例,在实际应用中,可以是当相似度为100%时,判定提取出的声纹信息与基准声纹信息相匹配即匹配成功,或者,也可以是当相似度大于预定阈值时,即判定提取出的声纹信息与基准声纹信息相匹配。
2)方式二
根据来自用户的唤醒语音唤醒智能语音设备,使得智能语音设备进入正常工作状态,提取唤醒语音的声纹信息,并将提取出的唤醒语音的声纹信息与提取出的智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配,若匹配成功,则根据两次提取出的声纹信息确定出基准声纹信息。
方式一中,直接将提取出的唤醒语音的声纹信息作为基准声纹信息,为确保基准声纹信息的准确性,方式二中,进一步将提取出的唤醒语音的声纹信息与提取出的智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配,若匹配成功,则进一步根据两次提取出的声纹信息确定出基准声纹信息,比如,可将唤醒语音的声纹信息或首次获取到的对话语音的声纹信息作为基准声纹信息。
这样处理主要是考虑到发出唤醒语音的用户与智能语音设备被唤醒之后首次发出对话语音的用户通常为同一个用户,利用同一个用户两次发出的语音的声纹信息进行相互验证,可以提高获取到的基准声纹信息的准确性等。
后续当每次获取到来自用户的对话语音时,可首先提取出对话语音的声纹信息,之后,可将提取出的声纹信息与基准声纹信息进行匹配,若匹配成功,则可确定对话语音不为噪音,若匹配失败,则可确定对话语音为噪音。
其中,对于智能语音设备被唤醒之后首次获取到的对话语音,基于前述的基准声纹信息的获取方式可知,首次获取到的对话语音的声纹信息将会与基准声纹信息匹配成功,对于首次之后获取到的对话语音,可能匹配成功,也可能匹配失败,若匹配成功,可确定对话语音不为噪音,若匹配失败,可确定对话语音为噪音,若对话语音不为噪音,可对对话语音进行正常的应答处理,若对话语音为噪音,可不进行应答处理。
基于上述介绍,图3为本发明所述语音交互处理方法第二实施例的流程图。如图3所示,包括以下具体实现方式。
在301中,根据来自用户的唤醒语音唤醒智能语音设备。
在302中,获取来自用户的对话语音。
在303中,提取对话语音的声纹信息。
在304中,将提取出的声纹信息与基准声纹信息进行匹配。
可采用上述方式一或方式二来获取基准声纹信息。
在305中,确定是否匹配成功,若是,则执行306,否则,执行308。
在306中,确定对话语音不为噪音,之后执行307。
在307中,对对话语音进行应答处理,之后重复执行302。
若确定对话语音不为噪音,那么可按照现有方式对对话语音进行应答处理,如进行语音识别、应答语句生成及播放等处理,之后重复执行302,即等待下一对话语音的到来。
在308中,确定对话语音为噪音,之后执行309。
在309中,不对对话语音进行应答处理,之后重复执行302。
若确定对话语音为噪音,那么可不对对话语音进行应答处理,直接等待下一对话语音的到来。
需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
总之,采用本发明方法实施例所述方案,在对每次获取到的对话语音进行应答处理之前,可先提取对话语音的声纹信息,并可通过与基准声纹信息进行匹配来确定对话语音是否为噪音,只有当不为噪声时,才会对对话语音进行应答处理,从而排除了噪音干扰,进而提高了语音交互的准确性等。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图4为本发明所述语音交互处理装置实施例的组成结构示意图。如图4所示,包括:预处理单元401以及应答单元402。
预处理单元401,用于当智能语音设备处于正常工作状态时,获取来自用户的对话语音,提取获取到的对话语音的声纹信息,根据提取出的声纹信息确定对话语音是否为噪音。
应答单元402,用于当预处理单元401确定对话语音不为噪音时,对对话语音进行应答处理。
其中,预处理单元401在根据提取出的声纹信息确定对话语音是否为噪音时,可将提取出的声纹信息与获取到的基准声纹信息进行匹配,若匹配成功,则可确定对话语音不为噪音,若匹配失败,则可确定对话语音为噪音。
获取基准声纹信息的方式可至少包括以下两种。
一种方式中,预处理单元401可根据来自用户的唤醒语音唤醒智能语音设备,使得智能语音设备进入正常工作状态,并提取唤醒语音的声纹信息,将唤醒语音的声纹信息作为基准声纹信息。
另一种方式中,预处理单元402可根据来自用户的唤醒语音唤醒智能语音设备,使得智能语音设备进入正常工作状态,提取唤醒语音的声纹信息,并将提取出的唤醒语音的声纹信息与提取出的智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配,若匹配成功,则可根据两次提取出的声纹信息确定出基准声纹信息,比如,可将唤醒语音的声纹信息或首次获取到的对话语音的声纹信息作为基准声纹信息。
预处理单元401在每次获取到来自用户的对话语音时,可首先提取对话语音的声纹信息,之后,可将提取出的声纹信息与基准声纹信息进行匹配,若匹配成功,则可确定对话语音不为噪音,若匹配失败,则可确定对话语音为噪音。若对话语音不为噪音,应答单元402可对对话语音进行正常的应答处理,若对话语音为噪音,应答单元402可不进行应答处理。
图4所示装置实施例的具体工作流程请参照前述方法实施例中的相关说明,不再赘述。
总之,采用本发明装置实施例所述方案,在对每次获取到的对话语音进行应答处理之前,可先提取对话语音的声纹信息,并可通过与基准声纹信息进行匹配来确定对话语音是否为噪音,只有当不为噪声时,才会对对话语音进行应答处理,从而排除了噪音干扰,进而提高了语音交互的准确性等。
图5示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。图5显示的计算机系统/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同系统组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图2或图3所示实施例中的方法。
本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图2或图3所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (10)
1.一种语音交互处理方法,其特征在于,包括:
当智能语音设备处于正常工作状态时,获取来自用户的对话语音;
提取获取到的对话语音的声纹信息;
根据提取出的声纹信息确定所述对话语音是否为噪音,所述噪音为来自于噪音用户的对话语音,所述噪音用户为与所述智能语音设备进行正常交互的用户之外的用户;
若不为噪音,则对所述对话语音进行应答处理,若为噪音,则不对所述对话语音进行应答处理;
其中,所述根据提取出的声纹信息确定所述对话语音是否为噪音,包括:将提取出的声纹信息与获取到的基准声纹信息进行匹配;若匹配成功,则确定所述对话语音不为噪音,若匹配失败,则确定所述对话语音为噪音;
所述基准声纹信息包括:用户唤醒所述智能语音设备的唤醒语音的声纹信息,或者,所述智能语音设备被唤醒之后首次获取到的对话语音的声纹信息。
2.根据权利要求1所述的方法,其特征在于,
所述基准声纹信息的获取方式包括:
根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态;
提取所述唤醒语音的声纹信息,将所述唤醒语音的声纹信息作为所述基准声纹信息。
3.根据权利要求1所述的方法,其特征在于,
所述基准声纹信息的获取方式包括:
根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态;
提取所述唤醒语音的声纹信息;
将提取出的所述唤醒语音的声纹信息与提取出的所述智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配;
若匹配成功,则根据两次提取出的声纹信息确定出所述基准声纹信息。
4.根据权利要求3所述的方法,其特征在于,
所述根据两次提取出的声纹信息确定出所述基准声纹信息包括:
将所述唤醒语音的声纹信息或所述首次获取到的对话语音的声纹信息作为所述基准声纹信息。
5.一种语音交互处理装置,其特征在于,包括:预处理单元以及应答单元;
所述预处理单元,用于当智能语音设备处于正常工作状态时,获取来自用户的对话语音,提取获取到的对话语音的声纹信息,根据提取出的声纹信息确定所述对话语音是否为噪音,所述噪音为来自于噪音用户的对话语音,所述噪音用户为与所述智能语音设备进行正常交互的用户之外的用户;
所述应答单元,用于当所述预处理单元确定所述对话语音不为噪音时,对所述对话语音进行应答处理,若为噪音,则不对所述对话语音进行应答处理;
其中,所述预处理单元将提取出的声纹信息与获取到的基准声纹信息进行匹配,若匹配成功,则确定所述对话语音不为噪音,若匹配失败,则确定所述对话语音为噪音;所述基准声纹信息包括:用户唤醒所述智能语音设备的唤醒语音的声纹信息,或者,所述智能语音设备被唤醒之后首次获取到的对话语音的声纹信息。
6.根据权利要求5所述的装置,其特征在于,
所述预处理单元进一步用于,根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态,提取所述唤醒语音的声纹信息,将所述唤醒语音的声纹信息作为所述基准声纹信息。
7.根据权利要求5所述的装置,其特征在于,
所述预处理单元进一步用于,根据来自用户的唤醒语音唤醒所述智能语音设备,使得所述智能语音设备进入所述正常工作状态,提取所述唤醒语音的声纹信息,并将提取出的所述唤醒语音的声纹信息与提取出的所述智能语音设备被唤醒之后首次获取到的对话语音的声纹信息进行匹配,若匹配成功,则根据两次提取出的声纹信息确定出所述基准声纹信息。
8.根据权利要求7所述的装置,其特征在于,
若匹配成功,则所述预处理单元将所述唤醒语音的声纹信息或所述首次获取到的对话语音的声纹信息作为所述基准声纹信息。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810930622.2A CN109215646B (zh) | 2018-08-15 | 2018-08-15 | 语音交互处理方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810930622.2A CN109215646B (zh) | 2018-08-15 | 2018-08-15 | 语音交互处理方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109215646A CN109215646A (zh) | 2019-01-15 |
CN109215646B true CN109215646B (zh) | 2021-08-17 |
Family
ID=64988873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810930622.2A Active CN109215646B (zh) | 2018-08-15 | 2018-08-15 | 语音交互处理方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109215646B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109979467B (zh) * | 2019-01-25 | 2021-02-23 | 出门问问信息科技有限公司 | 人声过滤方法、装置、设备及存储介质 |
CN110164434A (zh) * | 2019-04-16 | 2019-08-23 | 平安普惠企业管理有限公司 | 基于语音识别的面谈审批方法及装置 |
CN110310657B (zh) * | 2019-07-10 | 2022-02-08 | 北京猎户星空科技有限公司 | 一种音频数据处理方法及装置 |
CN110517697A (zh) * | 2019-08-20 | 2019-11-29 | 中信银行股份有限公司 | 用于交互式语音应答的提示音智能打断装置 |
CN111210829B (zh) * | 2020-02-19 | 2024-07-30 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、系统、设备和计算机可读存储介质 |
CN112637428A (zh) * | 2020-12-29 | 2021-04-09 | 平安科技(深圳)有限公司 | 无效通话判断方法、装置、计算机设备及存储介质 |
CN114255786A (zh) * | 2021-12-27 | 2022-03-29 | 中国电信股份有限公司 | 语音播报的打断检测方法、装置、存储介质及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104575504A (zh) * | 2014-12-24 | 2015-04-29 | 上海师范大学 | 采用声纹和语音识别进行个性化电视语音唤醒的方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112017021673B1 (pt) * | 2015-04-10 | 2023-02-14 | Honor Device Co., Ltd | Método de controle de voz, meio não-transitório legível por computador e terminal |
CN108074581B (zh) * | 2016-11-16 | 2021-05-07 | 深圳儒博智能科技有限公司 | 用于人机交互智能终端的控制系统 |
US10388282B2 (en) * | 2017-01-25 | 2019-08-20 | CliniCloud Inc. | Medical voice command device |
CN107147618B (zh) * | 2017-04-10 | 2020-05-15 | 易视星空科技无锡有限公司 | 一种用户注册方法、装置及电子设备 |
CN107623614B (zh) * | 2017-09-19 | 2020-12-08 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN107886957A (zh) * | 2017-11-17 | 2018-04-06 | 广州势必可赢网络科技有限公司 | 一种结合声纹识别的语音唤醒方法及装置 |
-
2018
- 2018-08-15 CN CN201810930622.2A patent/CN109215646B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104575504A (zh) * | 2014-12-24 | 2015-04-29 | 上海师范大学 | 采用声纹和语音识别进行个性化电视语音唤醒的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109215646A (zh) | 2019-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109215646B (zh) | 语音交互处理方法、装置、计算机设备及存储介质 | |
CN107808670B (zh) | 语音数据处理方法、装置、设备及存储介质 | |
CN108520743B (zh) | 智能设备的语音控制方法、智能设备及计算机可读介质 | |
CN110265040B (zh) | 声纹模型的训练方法、装置、存储介质及电子设备 | |
CN110069608B (zh) | 一种语音交互的方法、装置、设备和计算机存储介质 | |
CN107622770B (zh) | 语音唤醒方法及装置 | |
US10593333B2 (en) | Method and device for processing voice message, terminal and storage medium | |
CN107886944B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN108831477B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN107240395B (zh) | 一种声学模型训练方法和装置、计算机设备、存储介质 | |
US20150325240A1 (en) | Method and system for speech input | |
CN110047481B (zh) | 用于语音识别的方法和装置 | |
US10529340B2 (en) | Voiceprint registration method, server and storage medium | |
JP2019015952A (ja) | ウェイクアップ方法、デバイス及びシステム、クラウドサーバーと可読媒体 | |
KR20170080672A (ko) | 키 문구 사용자 인식의 증강 | |
EP3444811B1 (en) | Speech recognition method and device | |
CN113674746B (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN110706707B (zh) | 用于语音交互的方法、装置、设备和计算机可读存储介质 | |
CN113053390B (zh) | 基于语音识别的文本处理方法、装置、电子设备及介质 | |
CN109785846A (zh) | 单声道的语音数据的角色识别方法及装置 | |
US20210158816A1 (en) | Method and apparatus for voice interaction, device and computer readable storate medium | |
EP3493201B1 (en) | Information processing device, information processing method, and computer program | |
CN111400463B (zh) | 对话响应方法、装置、设备和介质 | |
CN112669837B (zh) | 智能终端的唤醒方法、装置及电子设备 | |
CN106980640B (zh) | 针对照片的交互方法、设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |