CN113571053A - 语音唤醒方法和设备 - Google Patents
语音唤醒方法和设备 Download PDFInfo
- Publication number
- CN113571053A CN113571053A CN202010352298.8A CN202010352298A CN113571053A CN 113571053 A CN113571053 A CN 113571053A CN 202010352298 A CN202010352298 A CN 202010352298A CN 113571053 A CN113571053 A CN 113571053A
- Authority
- CN
- China
- Prior art keywords
- voice
- microphones
- energy
- signals input
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000002618 waking effect Effects 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims description 36
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 59
- 230000006870 function Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 20
- 230000006854 communication Effects 0.000 description 20
- 239000010410 layer Substances 0.000 description 18
- 238000012545 processing Methods 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Telephone Function (AREA)
Abstract
本申请涉及语音唤醒技术领域,尤其涉及一种语音唤醒方法和设备。其中,所述语音唤醒方法,应用于具有麦克风的电子设备,包括:检测到满足第一条件的至少两路麦克风输入的语音信号;根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒电子设备;其中,如果满足所述第二条件,则唤醒电子设备;如果不满足所述第二条件,则继续检测麦克风输入的语音信号。基于本申请实施例的方法和设备,可以实现以免唤醒词方式语音唤醒电子设备。
Description
技术领域
本申请涉及语音唤醒技术领域,尤其涉及一种语音唤醒方法和设备。
背景技术
语音唤醒是指电子设备在待机状态下,接收到用户发出的特定语音指令进入到工作状态或者完成某一操作的功能。目前,各种电子设备普遍具备语音唤醒功能,例如,智能手机、可穿戴设备、车载设备、智能家居等都可以通过语音方式进行唤醒。在当前的语音唤醒方式中,主要还是通过唤醒词进行唤醒,当电子设备检测到用户输入的语音中含有特定关键词时,设备才会启动进入后续的处理流程。当前语音唤醒方案的主要缺点在于,每次用户和电子设备交互时都需要先语音输入特定唤醒词,在实际场景中,大多数用户不希望每次和电子设备对话都要先输入特定唤醒词,如每次唤醒设备时都要先输入设备名称,此方式对话交互过程繁琐,而且降低人机对话体验。
发明内容
本申请提供一种语音唤醒方法和设备,以实现免唤醒词方式对电子设备进行唤醒。
第一方面,本技术方案提供了一种语音唤醒方法,应用于具有麦克风的电子设备,特别是应用于具有至少两路麦克风的电子设备,该方法包括:检测到满足第一条件的至少两路麦克风输入的语音信号;根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒电子设备;其中,如果满足所述第二条件,则唤醒电子设备;如果不满足所述第二条件,则继续检测麦克风输入的语音信号。
上述技术方案提供的语音唤醒方法,接收至少两路麦克风输入的语音信号。当至少两路麦克风输入的语音信号均满足第一条件时,基于该至少两路语音信号的语音能量对电子设备唤醒。在此方式下,用户无需语音输入特定唤醒词即可唤醒电子设备。在一种可能的方式中,用户可以输入没有明确指示的语音唤醒电子设备。在另一种可能的方式中用户可以直接输入语音指令,如“播放歌曲”“呼叫A”等。在此方式,可以在唤醒电子设备的基础上控制电子设备执行对应的语音指令。
结合第一方面,在第一方面的某些实现方式中,所述至少两路麦克风的位置分布在电子设备上的不同区域。在此方式中,获取位于电子设备不同区域的麦克风输入的语音信号。通过不同区域的麦克风输入的语音信号的语音能量可以控制电子设备的唤醒。
在本实现方式中,判断所述至少两路麦克风的位置是否分布于电子设备不同区域的方式可以包括:将电子设备包含的各个麦克风按照其具体位置划分为不同组。根据麦克风所属的组别标识确定所述至少两路麦克风是否位于电子设备的不同区域。对于一个具体电子设备,例如手机,根据手机上麦克风的位置,对手机上的麦克风分组。在一种分组方式中,手机顶部和背部的麦克风划分在第一组,手机底部的麦克风划分在第二组。如果输入语音信号的麦克风分别来自第一组和第二组,则确定所述至少两路麦克风分布于电子设备的不同区域。具体的,可以首先获取麦克风标识,根据麦克风标识确定其分组,分组不同表示其对应的电子设备区域不同。
结合第一方面,在第一方面的某些实现方式中,确定麦克风输入的语音信号是否满足第一条件,包括:计算所述至少两路麦克风输入的语音信号的语音能量,如果所述语音能量大于第一阈值则确定所述至少两路麦克风输入的语音信号满足所述第一条件。即,当麦克风输入语音能量大于第一阈值的语音信号时,确定该路麦克风输入的语音信号满足第一条件。
在本申请实施例方案中,可以根据实际需要设置判断语音信号是否满足第一条件和判断麦克风是否分布于不同区域的执行顺序。在一种可能的设计中,首先确定输入语音信号的各路麦克风是否分布于电子设备的不同区域。如果是,再进一步判断各路麦克风输入的语音信号的语音能量是否大于第一阈值。另外,当属于同一区域的多个麦克风输入语音信号时,可以仅选择属于该区域的其中一路麦克风进行第一条件的判断。在另一种可能的设计中,首先判断各路麦克风输入的语音信号的语音能量是否大于第一阈值。当至少两路麦克风输入的语音信号的语音能量大于第一阈值时,进一步判断该至少两路麦克风的位置是否分布在电子设备的不同区域。
结合第一方面,在第一方面的某些实现方式中,计算麦克风输入的语音信号的语音能量的方式可以是,对语音信号进行采样,通过计算采样信号的语音能量计算输入的语音信号的语音能量。具体的:从麦克风输入的语音信号中截取具有第一时长的第一语音信号,之后按照设定采样频率对第一语音信号采样,基于采样信号计算麦克风输入的语音信号的语音能量。例如,从麦克风输入语音信号的起始时刻开始计时,并截取具有第一时长如20毫秒的语音信号,之后按照设定采样频率如16kHz对截取的语音信号采样。
结合第一方面,在第一方面的某些实现方式中,基于所述采样信号计算所述至少两路麦克风输入的语音信号的语音能量,包括:计算所述采样信号包含的各个采样值的能量值,将所述各个采样值的能量值的均值确定为所述至少两路麦克风输入的语音信号的语音能量。
结合第一方面,在第一方面的某些实现方式中,确定所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,包括:根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件;或者,根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号之间的语音能量是否满足所述第二条件。
结合第一方面,在第一方面的某些实现方式中,根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件,包括:如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音信号之间的能量值差值均大于第二阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足所述第二条件。
结合第一方面,在第一方面的某些实现方式中,根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件,包括:如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音之间的能量值比值均大于第三阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足所述第二条件。
第二方面,本技术方案提供了一种语音唤醒设备,包括:语音检测单元,用于检测满足第一条件的至少两路麦克风输入的语音信号;唤醒单元,用于根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒电子设备;其中,如果语音能量满足所述第二条件,则唤醒电子设备;否则,继续通过语音检测单元检测语音信号。
结合第二方面,在第二方面的某些实现方式中,所述至少两路麦克风的位置分布在电子设备上的不同区域。
结合第二方面,在第二方面的某些实现方式中,所述语音检测单元具体用于计算所述至少两路麦克风输入的语音信号的语音能量,如果所述语音能量大于第一阈值则确定所述至少两路麦克风输入的语音信号满足第一条件。
结合第二方面,在第二方面的某些实现方式中,所述语音检测单元具体用于从所述至少两路麦克风输入的语音信号中截取具有第一时长的第一语音信号;按照设定采样频率对所述第一语音信号采样;基于采样信号计算所述至少两路麦克风输入的语音信号的语音能量。
结合第二方面,在第二方面的某些实现方式中,所述语音检测单元具体用于计算采样信号包含的各个采样值的能量值,将所述各个采样值的能量值均值确定为所述至少两路麦克风输入的语音信号的语音能量。
结合第二方面,在第二方面的某些实现方式中,所述唤醒单元具体用于根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件;或者,根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号之间的语音能量是否满足第二条件。
结合第二方面,在第二方面的某些实现方式中,所述唤醒单元具体用于如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音信号之间的能量值差值均大于第二阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足第二条件。
结合第二方面,在第二方面的某些实现方式中,所述唤醒单元具体用于如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音之间的能量值比值均大于第三阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足第二条件。
第三方面,本技术方案提供了一种语音唤醒设备,包括:麦克风;一个或多个处理器;存储器;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行以下步骤:检测到满足第一条件的至少两路麦克风输入的语音信号;根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒电子设备;其中,如果满足所述第二条件,则唤醒电子设备;如果不满足所述第二条件,则继续检测语音信号。
第四方面,本技术方案提供了一种语音唤醒设备,所述设备包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现所述第一方面或者第一方面的任一可能的实现方式中的方法。
第五方面,本技术方案提供了一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行第一方面或第一方面的任一可能的实现方式中的方法。
可选的,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面或第一方面的任一可能的实现方式中的方法。
第六方面,本技术方案提供了一种计算机可读存储介质,所述计算机可读介质存储用于设备执行的程序代码,所述程序代码包括用于执行第一方面或者第一方面的任一可能的实现方式中的方法的指令。
附图说明
图1是本申请实施例提供的电子设备的一种结构示意图;
图2是本申请实施例提供的电子设备的一种软件结构框图;
图3是本申请实施例提供的语音唤醒方法的一个示意性流程图;
图4是本申请实施例提供的语音唤醒方法的另一个示意性流程图;
图5是本申请实施例提供的语音唤醒方法的另一个示意性流程图;
图6是本申请实施例提供的语音唤醒设备的一种结构示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
如背景技术部分所介绍,目前语音唤醒主要基于关键词检测(key wordspotting,KWS)技术,当检测到用户输入的语音信号中包含设定关键词时,电子设备唤醒并进入后续可能的流程,此种语音唤醒方案交过过程繁琐,而且与真正的人与人对话有明显区别,降低用户人机对话体验,为此需要一种语音唤醒方法以简化电子设备语音唤醒流程。
本申请实施例提供了一种语音唤醒方法,应用于具有麦克风的电子设备,尤其是应用于具有至少两路麦克风的电子设备,当用户希望唤醒电子设备时,可以在电子设备输入任意语音,电子设备检测到用户输入的语音信号判断各路语音信号是否满足设定的能量差条件,如果满足则唤醒电子设备,在此方式下,用于唤醒电子设备的语音信号中不要求具有特定关键词,实现电子设备的唤醒词唤醒。
本申请实施例的语音唤醒方法可以应用于手机、可穿戴设备、车载设备、智能家居设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备等电子设备上,本申请实施例对电子设备的具体类型不作任何限制。
示例性的,图1示出了本申请实施例提供的电子设备100的一种结构示意图。电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等,可选地,上述麦克风170C的数量为多个。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备100的各种功能应用以及数据处理。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
其中,麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
例如,本申请语音唤醒方法所应用在的电子设备中可以包括两个、三个、四个或者更多个麦克风170C,麦克风170C采集用户输入的语音信号,并且将语音信号发送给音频模块170,通过音频模块170将语音信号发送给处理器110,由处理器110对语音信号进行处理以实现本申请实施例的语音唤醒方法。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的安卓(Android)系统为例,示例性说明电子设备100的软件结构。
图2是本申请实施例提供的电子设备100的一种软件结构框图。分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,无线局域网(wireless local area networks,WLAN),蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
例如,在本申请中,基于语音进行唤醒的函数或者算法以及语音识别的算法都可以包括在应用程序框架层。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
为了便于理解,本申请以下实施例将以具有图1和图2所示结构的电子设备为例,结合附图和应用场景,对本申请实施例提供的语音唤醒方法进行具体阐述。
在电子设备处于待机状态下,要实现对电子设备免唤醒词的语音唤醒,本申请提供了一种基于语音信号的能量进行语音唤醒的技术。其中,当麦克风采集的语音信号达到设定的语音能量要求时,自动对电子设备进行唤醒,无需用户语音输入特定唤醒词。
图3是本申请实施例提供的语音唤醒方法的一个示意性流程图。本申请将以手机作为电子设备,详细介绍本申请提供的语音唤醒方法。
101,采集语音信号。
在息屏、锁屏状态下,手机处于待机状态,在此状态下手机中的麦克风和语音检测(Voice Activity Detection,VAD)模块保持开启。当用户发出语音时,麦克风采集用户发出的声音,并且将声音信号转换成电子语音信号。麦克风将转换得到的电子语音信号发送给语音检测模块,由语音检测模块对电子语音信号进行处理。
上述语音检测模块用于对语音信号处理以实现本申请实施例的语音唤醒方法。其中,语音检测模块具体可以通过硬件或者硬件和计算机软件的结合形式来实现。在一种可能的方式中,语音检测模块可以基于处理器运行。当手机待机时,处理器保持低功耗运行模式,如保持睡眠模式。在该模式下语音检测模块保持开启,并在检测到满足唤醒要求的语音信号时向处理器发送唤醒信号。在另一种可能的方式中,处理器包括控制器和语音处理器,所述语音处理器例如可以是DSP。当手机处于待机状态时,控制器保持低功耗模式,语音检测模块在语音处理器中保持开启。当语音检测模块检测到满足唤醒要求的语音信号时,向控制器发送唤醒信号。
102,判断是否至少有两路麦克风输入有效语音信号。如果至少有两路麦克风输入有效语音信号执行步骤103;否则,语音检测模块继续监听麦克风中是否有语音信号输入。
通常状态下,当用户发出语音时,手机上的各个麦克风均能采集到语音信号。语音检测模块获取各个麦克风输入的语音信号。语音检测模块从获取的各个语音信号中判断是否至少有两路麦克风输入有效声音信号。如果至少有两路麦克风输入有效语音信号,则进一步判断该至少两路语音信号的能量是否满足唤醒条件;否则,继续监听麦克风中是否有语音信号的输入,不进行下一步唤醒条件的判断。在一个示例中,手机上包括两路麦克风,当用户发出语音时,该两路麦克风向语音检测模块发送语音信号,语音检测模块判断该两路麦克风采集的语音信号是否为有效语音信号;又例如,手机上包括三路麦克风,当用户发出语音时,该三路麦克风向语音检测模块发送语音信号,语音检测模块判断该三路麦克风采集的语音信号是否均为有效语音信号,或者判断该三路语音信号中是否有两路语音信号为有效语音信号,同理当手机上包括四路或者更多路麦克风时,各路麦克风向语音检测模块发送语音信号,语音检测模块判断各路语音信号是否均为有效语音信号或者判断有效的语音信号数量是否超过两路。可选的,当有效的语音信号数量超过三路时,可以选取预定数量的语音信号送入步骤103,例如从有效语音信号中选取两路或者三路或者其它数量的语音信号送入步骤103以进行后续步骤的处理。
本申请实施例中,语音检测模块可以基于语音能量判断接收到的语音信号是否为有效语音信号,即将语音能量的判断作为第一条件判断语音信号是否有效。可选的,语音检测模块确定接收到的语音信号的语音能量大于第一阈值时,确定该路麦克风输入的语音信号有效。在一个示例中,第一阈值取值为20dB声压级,当检测到的语音信号的语音能量大于20dB声压级时,确定语音信号有效。当检测到手机的至少两路麦克风输入满足第一条件的语音信号后,进入步骤103。
103,基于语音信号能量唤醒电子设备。
在检测到手机的至少两路麦克风输入满足第一条件的语音信号后,语音检测模块根据该至少两路语音信号的语音能量判断是否唤醒电子设备。其中,可以根据该至少两路语音信号的语音能量之间的关系判断是否唤醒电子设备。在一种可选的方式中,如果该至少两路语音信号的语音能量的关系满足设定的第二条件,则唤醒电子设备。其中,该至少两路语音信号的语音能量之间的关系可以是能量值差值、能量值比值或者其它可能的能量之间的关系,本申请实施例不一一限定。具体的,如果该至少两路语音信号的能量值差值或者能量值比值满足第二条件,则唤醒电子设备。
所述至少两路语音信号之间的能量值差值满足第二条件包括:如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它麦克风输入的语音信号之间的能量值差值均大于第二阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足第二条件。其中,所述第二阈值可以根据需要设置,例如设置为40dB声压级。在一个示例中,手机中包括顶部麦克风和底部麦克风。当用户对着顶部麦克风讲话时,顶部麦克风输入的语音信号的语音能量明显高于底部麦克风输入的语音信号的语音能量。如果顶部麦克风输入的语音信号与底部麦克风输入的语音信号的能量值差值大于第二阈值,如大于40dB声压级,则唤醒电子设备。
在另一种可能的方式中,如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音之间的能量值比值均大于第三阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足第二条件。其中,所述第三阈值可以根据需要设置,例如设置为3。在一个示例中,手机中包括顶部麦克风和底部麦克风。当用户对着顶部麦克风讲话时,顶部麦克风输入的语音信号的语音能量明显高于底部麦克风输入的语音信号的语音能量。如果顶部麦克风输入的语音信号与底部麦克风输入的语音信号的能量值比值大于第三阈值,如大于3,则唤醒电子设备。
本申请中,基于语音信号的能量唤醒电子设备。在此方式下,用户输入的语音中无需包含特定唤醒词。在一种可能的方式中,用户可以输入没有明确指示的语音唤醒电子设备,如“嗯”“额”“啊”等语气词。当电子设备基于没有明确指示的语音唤醒后,可以从待机模式切换到正常运行模式,例如点亮屏幕等。在另一种可能的方式中,用户可以直接输入语音指令,如“播放歌曲”“呼叫A”“天气预报”“导航到B处”等。当用户输入的语音信号中包含语音指令时,可以在唤醒电子设备的基础上控制电子设备执行语音指令。例如,通过语音信号唤醒电子设备后启动语音助手应用程序。语音助手识别语音信号中的语音指令并执行。所述语音指令例如可以包括:播放歌曲,查找A的电话号码并拨出,查询本市天气预报并播报或显示,显示由当前位置导航到B处的路线等。可见,使用本申请实施例的语音唤醒方法,用户可以通过任意语音能量满足第二条件的的语音唤醒电子设备。另外,本申请实施例方法,在唤醒电子设备的同时,还可以直接通过语音指令与电子设备进行人机交互,更加符合人机语音交互场景,提升用户人机交互体验。
图4是本申请实施例提供的语音唤醒方法的另一个示意性流程图。如图4所示,该方法包括关键词检测(KWS)模块和免唤醒词检测模块。其中,免唤醒词检测模块与上述实施例中的语音检测模块实现相同功能。当麦克风检测到语音信号后,将语音信号作为输入信号分别发送给关键词检测模块和免唤醒词检测模块。其中,关键词检测模块对语音信号进行关键词识别。如果语音信号中包含特定关键词,则关键词检测模块输出用于指示唤醒电子设备的指示值。所述指示值可以根据需要设置,例如输出为“1”时表示唤醒电子设备,输出为“0”时不唤醒点电子设备。免唤醒词检测模块接收到语音信号后,基于本申请实施例提供的方法对语音信号进行免唤醒词判断。如果根据免唤醒词判断的结果确定符合唤醒条件,则输出用于指示唤醒电子设备的指示值。所述指示值可以根据需要设置,例如输出为“1”时表示唤醒电子设备,输出为“0”时不唤醒点电子设备。唤醒决策模块根据关键词检测模块和免唤醒词检测模块的输出,确定是否唤醒电子设备。可选的,当关键词检测模块和免唤醒词检测模块中的任意一个输出用于指示唤醒电子设备的指示值时,唤醒电子设备。具体的,所述唤醒决策模块可以通过逻辑“或”、电路“或”实现。
可以理解,当具体实施时,关键词检测模块和免唤醒词检测模块可以依据用户的个性化设置开启。例如,根据用户的设置,可以仅开启关键词检测模块或者仅开启免唤醒词检测模块或者保持两种检测模块同时开启。进一步,根据免唤醒词检测模块和/或关键词检测模块唤醒电子设备之后,可以执行声纹检测或者人脸检测。声纹检测和人脸检测是为了实现用户的身份验证,即验证当前用户是否是手机的合法用户。本申请实施例的免唤醒词语音唤醒方法可以应用于手机解锁。具体的,通过免唤醒词方式唤醒电子设备后,自动对用户输入的语音信号进行声纹识别。基于声纹识别验证当前用户为合法用户后,自动解锁。由此实现电子设备的声控解锁,也即实现电子设备的无接触解锁。
对于本申请实施例的免唤醒词语音唤醒方法,根据至少两路语音信号的语音能量唤醒电子设备。此方法可以应用在近场唤醒电子设备的场景中,尤其是近场用户以特定姿势向电子设备发出语音的场景。例如,当用户拿起手机对着手机顶部或者底部麦克风讲话时,手机顶部和底部的麦克风都会采集到满足上述第一条件的语音信号。当用户对着手机顶部讲话时,顶部麦克风所采集语音信号的语音能量会明显高于底部麦克风所采集的语音信号。同理,当用户对着手机底部讲话时,底部麦克风所采集语音信号的语音能量会明显高于顶部麦克风所采集的语音信号。本申请实施例的免唤醒词语音唤醒方法,正是基于近场场景中手机上各个麦克风所采集的语音信号的语音能量来判定是否唤醒电子设备。使用本申请实施例方法,不仅可以通过无唤醒词方式唤醒电子设备,而且能够自动过滤嘈杂环境中的无效语音信号。例如,距手机一段距离处的某人发出声音。手机上的各个麦克风和声源的相对位置基本相同。手机上各个麦克风采集的语音信号的语音能量难以达到第二条件,因此无法自动唤醒手机。可见,本申请实施例方法,通过设置进行语音信号能量判定的第二条件,可以自动屏蔽周遭环境中无效语音信号的唤醒。
本申请中,基于至少两路麦克风输入的语音信号的语音能量可以判断说话人在近场中的说话姿势。在一个示例中,对电子设备进行区域划分。麦克风基于在电子设备上的位置分属在对应的区域。例如,手机以屏幕中间线为界,分为顶部区域和底部区域。如果顶部区域的麦克风所采集的语音信号的语音能量大于底部区域麦克风的语音信号,且语音能量差值或者比值满足第二条件,可以判断用户对着顶部麦克风讲话。采用此方式也可以判定用户是否对着底部区域麦克风讲话。基于语音信号和用户姿势之间的对应关系,本方法在进行语音能量判断之前,可以判断输入语音信号的麦克风是否分属于电子设备的不同区域。如果属于,则进一步进行语音能量的判断。在另一种可能的方式中,可以从输入语音信号的各路麦克风中选取分属于电子设备不同区域的至少两路麦克风进行后续语音能量的判断。
本申请实施例方案中,判断至少两路麦克风的位置是否分属于电子设备的不同区域的方式可以是:将电子设备包含的各个麦克风按照其具体位置划分为不同组。根据麦克风所属的组别标识,确定所述至少两路麦克风是否分属于电子设备的不同区域。对于一个具体的电子设备,例如手机,根据手机上麦克风的位置对手机上的麦克风分组。在一种分组方式中,手机顶部和背部的麦克风划分在第一组,手机底部的麦克风划分在第二组,如果输入语音信号的麦克风分别来自第一组和第二组则确定所述至少两路麦克风分属于电子设备的不同区域。具体的,可以根据输入语音信号的麦克风标识确定其分组,分组不同其所对应的电子设备区域也不同。例如,输入语音信号的两个麦克风标识分别为T-mic和B-mic。其中,根据T-mic标识,确定其所对应的麦克风属于第一组,对应手机顶部区域;根据B-mic标识,确定其其所对应的麦克风属于第二组,对应手机底部区域。
本申请实施例方案中,对语音信号满足第一条件的判断和对麦克风分属于不同区域的判断,可以根据实际需要设定执行顺序。在一种可能的设计中,首先确定输入语音信号的各路麦克风是否分属于电子设备的不同区域,如果是,再进一步判断各路麦克风输入的语音信号的语音能量是否大于第一阈值。另外,当同一区域中包含多个麦克风时,可以从该区域中选取一路麦克风判断语音信号能量是否大于第一阈值。在另一种可能的设计中,首先判断各路麦克风输入的语音信号的语音能量是否大于第一阈值。当至少两路麦克风输入的语音信号大于第一阈值时,进一步判断该至少两路麦克风是否分属于电子设备的不同区域。如果该至少两路麦克风分属于电子设备的不同区域,则进一步判断该至少两路语音信号的语音能量是否满足第二条件。
图5是本申请实施例提供的语音唤醒方法的另一个示意性流程图。图5所示方法以手机中的两路麦克风为例,对免唤醒词的语音唤醒流程进行说明。如图5所示,该方法包括两个阶段,第一阶段为有效语音信号识别,第二阶段为语音能量比较过程。
第一阶段:有效语音信号检测
如图5所示,手机中包括顶部麦克风和底部麦克风。顶部麦克风和底部麦克风采集到语音信号后,分别输入各自对应的语音检测子模块,即第一子模块(对应图5中的第一VAD)和第二子模块(对应图5中的第二VAD)。第一子模块用于计算顶部麦克风输入的语音信号的语音能量,并判断该语音能量是否大于第一阈值。第二子模块用于计算底部麦克风输入的语音信号的语音能量,并判断该语音能量是否大于第一阈值。如果第一子模块和第二子模块中语音信号的语音能量均大于第一阈值,说明顶部麦克风和底部麦克风均采集到有效语音信号,则进入第二阶段。
假设顶部麦克风和底部麦克风输入的语音信号分别是:
x1(n),x2(n),n=0,1,2,3…
其中n代表了数字信号的样点。那么第一子模块和第二子模块的输出可以是:
其中,E(x2)表示语音信号的语音能量,THR_vad是预先设定的一个值,如果两路语音信号的语音能量均大于THR_vad则决策子模块输出用于指示语音信号为有效的值,例如输出“1”,并进入第二阶段的能量比较过程。
上述计算语音信号的语音能量时,可以从麦克风输入的语音信号中截取具有第一时长的第一语音信号。之后,按照设定采样频率对第一语音信号采样。基于采样信号计算麦克风输入的语音信号的语音能量。其中,基于采样信号计算麦克风输入的语音信号的语音能量,包括:计算采样信号包含的各个采样值的能量值;将所述各个采样值的能量值均值确定为麦克风输入的语音信号的语音能量。
在上述示例中,E(x2)可以表示语音信号的语音能量的平均值,在实际计算过程中可以由一段时间的能量均值来代替:
其中,上述一段时间例如可以是20ms,N表示对20ms语音信号进行采样的采样点数量,例如音频采样率为16kHz,那么N可以取值为320。
第二阶段:语音能量比较
语音检测模块中包括的子模块判断各路麦克风输入有效语音信号后,进入到语音能量比较模块。在语音能量比较模块中,可以根据各路语音信号之间的语音能量判断是否唤醒电子设备。其中,可以根据各路语音信号之间语音能量值的差值、比值或者其它可能的方式判断是否满足电子设备唤醒的设定条件;如果满足,则唤醒电子设备。在本实施例中,采用语音信号之间的能量值比值判断语音信号之间是否满足设定条件,具体实现方式包括:
对于顶部麦克风和底部麦克风输入的语音信号x1(n),x2(n)采用下述公式计算顶部麦克风和底部麦克风输入的语音信号之间的能量值比值:
其中,THR是预先设定的值,例如可以设成3。当顶部麦克风输入的语音信号与底部麦克风输入的语音信号的语音能量比值大于THR,或者底部麦克风输入的语音信号与顶部麦克风输入的语音信号的语音能量比值大于THR,则确定满足设定条件。此时,语音能量比较模块输出用于指示唤醒电子设备的值,如输出1。基于语音能量比较模块可以判断用户是否在近距离与手机讲话。尤其,用户离顶部麦克风或者底部麦克风中的其中一个比较近时,语音信号在语音能量上产生比较明显的差异,符合用户手持手机对着顶部麦克风或者底部风说话的使用场景。因此可以在用户特定讲话姿势下实现对手机的免唤醒词唤醒。
可以理解的是,电子设备为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的步骤,本申请能够以硬件或者硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能。
本实施例可以根据上述方法示例对电子设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或者两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图6示出了上述实施例中涉及的语音唤醒设备的一种可能的组成示意图,如图6所示,该语音唤醒设备600可以包括:语音检测单元601和唤醒单元603,其中:
语音检测单元601,检测到满足第一条件的至少两路麦克风输入的语音信号;
唤醒单元603,用于根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒电子设备;其中,如果语音能量满足所述第二条件,则唤醒电子设备;如果不满足所述第二条件,则继续检测麦克风输入的语音信号。
在一种可能的实现方式中,所述至少两路麦克风的位置分布在电子设备上的不同区域。
在一种可能的实现方式中,所述语音检测单元601,具体用于计算所述至少两路麦克风输入的语音信号的语音能量,如果所述语音能量大于第一阈值则确定所述至少两路麦克风输入的语音信号满足所述第一条件。
在一种可能的实现方式中,所述语音检测单元601,具体用于从所述至少两路麦克风输入的语音信号中截取具有第一时长的第一语音信号;按照预设采样频率对所述第一语音信号采样;基于采样信号计算所述至少两路麦克风输入的语音信号的语音能量。
在一种可能的实现方式中,所述语音检测单元601,具体用于计算所述采样信号包含的各个采样值的能量值,将所述各个采样值的能量值的均值确定为所述至少两路麦克风输入的语音信号的语音能量。
在一种可能的实现方式中,所述唤醒单元603具体用于根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件;或者,根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号之间的语音能量是否满足第二条件。
在一种可能的实现方式中,所述唤醒单元603具体用于如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音信号之间的能量值差值均大于第二阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足第二条件。
在一种可能的实现方式中,所述唤醒单元603具体用于如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音之间的能量值比值均大于第三阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足第二条件。
应理解,这里的电子设备以功能单元的形式体现。这里的术语“单元”可以通过软件和/或硬件形式实现,对此不作具体限定。例如,“单元”可以是实现上述功能的软件程序、硬件电路或二者结合。所述硬件电路可能包括应用特有集成电路(application specificintegrated circuit,ASIC)、电子电路、用于执行一个或多个软件或固件程序的处理器(例如共享处理器、专有处理器或组处理器等)和存储器、合并逻辑电路和/或其它支持所描述的功能的合适组件。
本申请还提供了一种语音唤醒设备,所述设备包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现上述语音唤醒方法。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当该指令在计算机上运行时,使得计算机执行如上述图3-图5所示的语音唤醒方法中的各个步骤。
本申请还提供了一种包含指令的计算机程序产品,当该计算机程序产品在计算机或任一至少一种处理器上运行时,使得计算机执行如图3-图5所示的语音唤醒方法中的各个步骤。
本申请还提供一种芯片,包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行本申请提供的语音唤醒方法执行的相应操作和/或流程。
可选地,该芯片还包括存储器,该存储器与该处理器通过电路或电线与存储器连接,处理器用于读取并执行该存储器中的计算机程序。进一步可选地,该芯片还包括通信接口,处理器与该通信接口连接。通信接口用于接收需要处理的数据和/或信息,处理器从该通信接口获取该数据和/或信息,并对该数据和/或信息进行处理。该通信接口可以是输入输出接口。
存储器可以是只读存储器(read-only memory,ROM)、可存储静态信息和指令的其它类型的静态存储设备、随机存取存储器(random access memory,RAM)或可存储信息和指令的其它类型的动态存储设备,也可以是电可擦可编程只读存储器(electricallyerasable programmable read-only memory,EEPROM)、只读光盘(compact disc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其它磁存储设备,或者还可以是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其它介质等。
本申请实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示单独存在A、同时存在A和B、单独存在B的情况。其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项”及其类似表达,是指的这些项中的任意组合,包括单项或复数项的任意组合。例如,a,b和c中的至少一项可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
本领域普通技术人员可以意识到,本文中公开的实施例中描述的各单元及算法步骤,能够以电子硬件、计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,任一功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。本申请的保护范围应以所述权利要求的保护范围为准。
Claims (17)
1.一种语音唤醒方法,应用于具有麦克风的电子设备,其特征在于,包括:
检测到满足第一条件的至少两路麦克风输入的语音信号;
根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒电子设备;其中,如果满足所述第二条件,则唤醒电子设备;如果不满足所述第二条件,则继续检测麦克风输入的语音信号。
2.根据权利要求1所述的方法,其特征在于,所述至少两路麦克风的位置分布在电子设备上的不同区域。
3.根据权利要求1所述的方法,其特征在于,确定所述至少两路麦克风输入的语音信号是否满足所述第一条件,包括:
计算所述至少两路麦克风输入的语音信号的语音能量,如果所述语音能量大于第一阈值则确定所述至少两路麦克风输入的语音信号满足所述第一条件。
4.根据权利要求3所述的方法,其特征在于,计算所述至少两路麦克风输入的语音信号的语音能量,包括:
从所述至少两路麦克风输入的语音信号中截取具有第一时长的第一语音信号;
按照预设采样频率对所述第一语音信号采样;
基于采样信号计算所述至少两路麦克风输入的语音信号的语音能量。
5.根据权利要求4所述的方法,其特征在于,基于所述采样信号计算所述至少两路麦克风输入的语音信号的语音能量,包括:
计算所述采样信号包含的各个采样值的能量值,将所述各个采样值的能量值的均值确定为所述至少两路麦克风输入的语音信号的语音能量。
6.根据权利要求1至5中任一项所述的方法,其特征在于,确定所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,包括:
根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件;或者,
根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号之间的语音能量是否满足所述第二条件。
7.根据权利要求6所述的方法,其特征在于,根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件,包括:
如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音信号之间的能量值差值均大于第二阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足所述第二条件。
8.根据权利要求6所述的方法,其特征在于,根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件,包括:
如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音之间的能量值比值均大于第三阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足所述第二条件。
9.一种电子设备,其特征在于,包括:
麦克风;一个或多个处理器;存储器;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述电子设备执行时,使得所述电子设备执行以下步骤:
检测到满足第一条件的至少两路麦克风输入的语音信号;
根据所述至少两路麦克风输入的语音信号的语音能量是否满足第二条件,确定是否唤醒所述电子设备;其中,如果语音能量满足所述第二条件,则唤醒所述电子设备;如果不满足所述第二条件,则继续检测麦克风输入的语音信号。
10.根据权利要求9所述的电子设备,其特征在于,所述至少两路麦克风的位置分布在电子设备上的不同区域。
11.如权利要求9所述的电子设备,其特征在于,当所述指令被所述设备执行时,使得所述设备具体执行以下步骤:
计算所述至少两路麦克风输入的语音信号的语音能量,如果所述语音能量大于第一阈值则确定所述至少两路麦克风输入的语音信号满足第一条件。
12.根据权利要求11所述的电子设备,其特征在于,当所述指令被所述设备执行时,使得所述电子设备具体执行以下步骤:
从所述至少两路麦克风输入的语音信号中截取具有第一时长的第一语音信号;
按照设定采样频率对所述第一语音信号采样;
基于采样信号计算所述至少两路麦克风输入的语音信号的语音能量。
13.根据权利要求12所述的电子设备,其特征在于,当所述指令被所述设备执行时,使得所述设备具体执行以下步骤:
计算采样信号包含的各个采样值的能量值,将所述各个采样值的能量值均值确定为所述至少两路麦克风输入的语音信号的语音能量。
14.根据权利要求9至13中任一项所述的电子设备,当所述指令被所述电子设备执行时,使得所述电子设备具体执行以下步骤:
根据所述语音信号之间的能量值差值判断所述至少两路麦克风输入的语音信号的语音能量是否满足所述第二条件;或者,
根据所述语音信号之间的能量值比值判断所述至少两路麦克风输入的语音信号之间的语音能量是否满足所述第二条件。
15.根据权利要求14所述的电子设备,其特征在于,当所述指令被所述电子设备执行时,使得所述设备具体执行以下步骤:
如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音信号之间的能量值差值均大于第二阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足所述第二条件。
16.根据权利要求14所述的设备,其特征在于,当所述指令被所述电子设备执行时,使得所述电子设备具体执行以下步骤:
如果所述至少两路麦克风中其中一路麦克风输入的语音信号与剩余其它路麦克风输入的语音之间的能量值比值均大于第三阈值,则确定所述至少两路麦克风输入的语音信号的语音能量满足所述第二条件。
17.一种计算机存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1至8中任一项所述的语音唤醒方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352298.8A CN113571053A (zh) | 2020-04-28 | 2020-04-28 | 语音唤醒方法和设备 |
US17/921,310 US20230315176A1 (en) | 2020-04-28 | 2021-04-12 | Voice wakeup method and device |
PCT/CN2021/086404 WO2021218600A1 (zh) | 2020-04-28 | 2021-04-12 | 语音唤醒方法和设备 |
EP21796516.9A EP4120266A4 (en) | 2020-04-28 | 2021-04-12 | Voice wake-up method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352298.8A CN113571053A (zh) | 2020-04-28 | 2020-04-28 | 语音唤醒方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113571053A true CN113571053A (zh) | 2021-10-29 |
Family
ID=78158240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010352298.8A Pending CN113571053A (zh) | 2020-04-28 | 2020-04-28 | 语音唤醒方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230315176A1 (zh) |
EP (1) | EP4120266A4 (zh) |
CN (1) | CN113571053A (zh) |
WO (1) | WO2021218600A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115588435A (zh) * | 2022-11-08 | 2023-01-10 | 荣耀终端有限公司 | 语音唤醒方法及电子设备 |
CN117116258A (zh) * | 2023-04-12 | 2023-11-24 | 荣耀终端有限公司 | 一种语音唤醒方法及电子设备 |
WO2023241473A1 (zh) * | 2022-06-13 | 2023-12-21 | 华为技术有限公司 | 处理语音数据的方法及终端设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114779656B (zh) * | 2022-04-29 | 2023-08-11 | 四川虹美智能科技有限公司 | 智能家电控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110288860A1 (en) * | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
US20150039310A1 (en) * | 2013-07-31 | 2015-02-05 | Motorola Mobility Llc | Method and Apparatus for Mitigating False Accepts of Trigger Phrases |
US20150142426A1 (en) * | 2012-08-07 | 2015-05-21 | Goertek, Inc. | Speech Enhancement Method And Device For Mobile Phones |
CN109493849A (zh) * | 2018-12-29 | 2019-03-19 | 联想(北京)有限公司 | 语音唤醒方法、装置及电子设备 |
WO2020051841A1 (en) * | 2018-09-13 | 2020-03-19 | Alibaba Group Holding Limited | Human-machine speech interaction apparatus and method of operating the same |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110058683A1 (en) * | 2009-09-04 | 2011-03-10 | Glenn Kosteva | Method & apparatus for selecting a microphone in a microphone array |
TWI474317B (zh) * | 2012-07-06 | 2015-02-21 | Realtek Semiconductor Corp | 訊號處理裝置以及訊號處理方法 |
CN102819009B (zh) * | 2012-08-10 | 2014-10-01 | 香港生产力促进局 | 用于汽车的驾驶者声源定位系统及方法 |
KR102468148B1 (ko) * | 2016-02-19 | 2022-11-21 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 음성 및 잡음 분류 방법 |
CN108073381A (zh) * | 2016-11-15 | 2018-05-25 | 腾讯科技(深圳)有限公司 | 一种对象控制方法、装置及终端设备 |
CN106775569B (zh) * | 2017-01-12 | 2020-02-11 | 环旭电子股份有限公司 | 装置位置提示系统与方法 |
US10366708B2 (en) * | 2017-03-20 | 2019-07-30 | Bose Corporation | Systems and methods of detecting speech activity of headphone user |
-
2020
- 2020-04-28 CN CN202010352298.8A patent/CN113571053A/zh active Pending
-
2021
- 2021-04-12 WO PCT/CN2021/086404 patent/WO2021218600A1/zh unknown
- 2021-04-12 EP EP21796516.9A patent/EP4120266A4/en active Pending
- 2021-04-12 US US17/921,310 patent/US20230315176A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110288860A1 (en) * | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
US20150142426A1 (en) * | 2012-08-07 | 2015-05-21 | Goertek, Inc. | Speech Enhancement Method And Device For Mobile Phones |
US20150039310A1 (en) * | 2013-07-31 | 2015-02-05 | Motorola Mobility Llc | Method and Apparatus for Mitigating False Accepts of Trigger Phrases |
WO2020051841A1 (en) * | 2018-09-13 | 2020-03-19 | Alibaba Group Holding Limited | Human-machine speech interaction apparatus and method of operating the same |
CN109493849A (zh) * | 2018-12-29 | 2019-03-19 | 联想(北京)有限公司 | 语音唤醒方法、装置及电子设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023241473A1 (zh) * | 2022-06-13 | 2023-12-21 | 华为技术有限公司 | 处理语音数据的方法及终端设备 |
CN115588435A (zh) * | 2022-11-08 | 2023-01-10 | 荣耀终端有限公司 | 语音唤醒方法及电子设备 |
CN117116258A (zh) * | 2023-04-12 | 2023-11-24 | 荣耀终端有限公司 | 一种语音唤醒方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP4120266A4 (en) | 2023-06-28 |
WO2021218600A1 (zh) | 2021-11-04 |
EP4120266A1 (en) | 2023-01-18 |
US20230315176A1 (en) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113571053A (zh) | 语音唤醒方法和设备 | |
KR20200027554A (ko) | 음성 인식 방법 및 장치, 그리고 저장 매체 | |
CN112397062A (zh) | 语音交互方法、装置、终端及存储介质 | |
CN108320751B (zh) | 一种语音交互方法、装置、设备和服务器 | |
CN104168353A (zh) | 蓝牙耳机及其语音交互控制方法 | |
CN107919138B (zh) | 一种语音中的情绪处理方法及移动终端 | |
EP4191579A1 (en) | Electronic device and speech recognition method therefor, and medium | |
US20220116758A1 (en) | Service invoking method and apparatus | |
CN115312068B (zh) | 语音控制方法、设备及存储介质 | |
CN111696562B (zh) | 语音唤醒方法、设备及存储介质 | |
CN110322880A (zh) | 车载终端设备以及唤醒其多个语音交互程序的方法 | |
CN101354886A (zh) | 语音识别装置 | |
CN114360527A (zh) | 车载语音交互方法、装置、设备及存储介质 | |
CN115472156A (zh) | 语音控制方法、装置、存储介质及电子设备 | |
CN113488042A (zh) | 一种语音控制方法及电子设备 | |
CN112259076A (zh) | 语音交互方法、装置、电子设备及计算机可读存储介质 | |
CN115132212A (zh) | 一种语音控制方法和装置 | |
CN114360546A (zh) | 电子设备及其唤醒方法 | |
CN113744736B (zh) | 命令词识别方法、装置、电子设备及存储介质 | |
CN109065042B (zh) | 一种电子设备及一种信息处理的方法 | |
CN111028846B (zh) | 免唤醒词注册的方法和装置 | |
CN115019806A (zh) | 声纹识别方法和装置 | |
CN116524919A (zh) | 设备唤醒方法、相关装置及通信系统 | |
CN114765026A (zh) | 一种语音控制方法、装置及系统 | |
CN114255763A (zh) | 基于多设备的语音处理方法、介质、电子设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |