CN111667843A - 终端设备的语音唤醒方法、系统、电子设备、存储介质 - Google Patents

终端设备的语音唤醒方法、系统、电子设备、存储介质 Download PDF

Info

Publication number
CN111667843A
CN111667843A CN201910165320.5A CN201910165320A CN111667843A CN 111667843 A CN111667843 A CN 111667843A CN 201910165320 A CN201910165320 A CN 201910165320A CN 111667843 A CN111667843 A CN 111667843A
Authority
CN
China
Prior art keywords
sample
word
audio signal
wake
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910165320.5A
Other languages
English (en)
Other versions
CN111667843B (zh
Inventor
白二伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Priority to CN201910165320.5A priority Critical patent/CN111667843B/zh
Publication of CN111667843A publication Critical patent/CN111667843A/zh
Application granted granted Critical
Publication of CN111667843B publication Critical patent/CN111667843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种终端设备的语音唤醒方法、系统、电子设备、存储介质。其中,语音唤醒方法包括:预设相对于所述终端设备的麦克风阵列的M个基准方向;利用所述麦克风阵列采集音频信号;将所述音频信号分解成与M个基准方向对应的M个波束信号;从M个波束信号中选择N个方向特征最强的波束信号作为候选信号;判断是否有至少一个候选信号的内容包括唤醒词,若是,则根据所述唤醒词唤醒所述终端设备。本发明并未采用声源定位算法,而是通过将采集到的音频信号分解为几个基准方向上的波束信号,进而根据各波束信号的方向特征来近似推断可能的声源方向,能够提高唤醒词的识别精度,极大限度地排除干扰信号对唤醒终端设备的影响。

Description

终端设备的语音唤醒方法、系统、电子设备、存储介质
技术领域
本发明涉及语音处理技术领域,尤其涉及一种终端设备的语音唤醒方法、系统、电子设备、存储介质。
背景技术
随着硬件技术的飞速发展,尤其是高性能低功耗芯片技术的不断进步,使得智能耳机、智能音箱等语音终端成为了人机交互的主要方式,而手机、电脑等终端相应地退化成了资讯展示的界面。其中,基于语音终端的语音唤醒技术的好坏直接影响到用户的体验。
语音唤醒技术通常包括两方面内容,其一,声源辨别;其二,语音识别。关于声源辨别,由于回声、混响及多声源的叠加等会对声源音频产生巨大的干扰,从而语音终端难以从中辨别出真正的声源,进而,也就难以识别出声源音频的内容。
当前,通常基于以下原理来实现声源定位进而辨别出声源:基于最大输出功率的可控波束形成技术、基于到达时间差技术及基于高分辨率谱估计的定位,然而,上述声源定位实现方法仍然难以抵抗混响、噪声等的影响,换言之,上述声源定位实现方法的定位精度不高,容易受到干扰。
发明内容
本发明实施例要解决的技术问题是为了克服现有技术中语音唤醒终端设备容易受到干扰的缺陷,提供一种终端设备的语音唤醒方法、系统、电子设备、存储介质。
本发明实施例是通过下述技术方案来解决上述技术问题:
一种终端设备的语音唤醒方法,其特点在于,所述语音唤醒方法包括:
预设相对于所述终端设备的麦克风阵列的M个基准方向;
利用所述麦克风阵列采集音频信号;
将所述音频信号分解成与M个基准方向对应的M个波束信号;
从M个波束信号中选择N个方向特征最强的波束信号作为候选信号;
判断是否有至少一个候选信号的内容包括唤醒词,若是,则根据所述唤醒词唤醒所述终端设备;
其中,M和N是正整数。
较佳地,所述判断是否有至少一个候选信号的内容包括唤醒词,若是,则根据所述唤醒词唤醒所述终端设备的步骤包括:
判断是否有至少一个候选信号的内容包括唤醒词,若是,则:
令初始值为0的计数值加1;
判断所述计数值是否达到计数阈值;
若达到所述计数阈值,则根据所述唤醒词唤醒所述终端设备;
若未达到所述计数阈值,则返回所述利用所述麦克风阵列采集音频信号的步骤;
若否,则将所述计数值清零,并返回所述利用所述麦克风阵列采集音频信号的步骤。
较佳地,在所述利用所述麦克风阵列采集音频信号的步骤之前,所述语音唤醒方法还包括:
利用所述麦克风阵列采集多个样本音频信号,其中,每一样本音频信号的声源方向已知且属于M个基准方向中的任意一个;
将所述样本音频信号分解成与M个基准方向对应的M个样本波束信号;
根据各样本音频信号分别构建第一训练数据集,所述第一训练数据集包括声源方向对应的样本波束信号以及表征所述声源方向的方向特征的样本方向数组,所述样本方向数组包括M个分别用于表征所述M个基准方向的元素;
根据所有第一训练数据集训练声源定位模型,所述声源定位模型用于根据输入的样本波束信号输出对应的样本方向数组;
所述从M个波束信号中选择N个方向特征最强的波束信号作为候选信号的步骤包括:
将M个波束信号依次输入所述声源定位模型,输出对应的方向数组,所述方向数组的M个元素分别用于表征所述M个波束信号的方向特征;
按照所述方向数组中元素的值从大到小的顺序选择N个波束信号作为候选信号。
较佳地,每一样本音频信号还标记有唤醒词,在所述利用所述麦克风阵列采集音频信号的步骤之前,所述语音唤醒方法还包括:
根据各样本音频信号分别构建第二训练数据集,所述第二训练数据集包括声源方向对应的样本波束信号以及样本识别数组,所述样本识别数组包括两个分别用于表征样本波束信号的内容包括所述唤醒词的概率以及不包括所述唤醒词的概率的元素;
根据所有第二训练数据集训练唤醒词识别模型,所述唤醒词识别模型用于根据输入的样本波束信号输出对应的样本识别数组;
所述判断是否有至少一个候选信号的内容包括唤醒词的步骤包括:
将N个候选信号依次输入所述唤醒词识别模型,分别输出对应的识别数组;
判断N个识别数组中表征包括所述唤醒词的概率的元素的最大值是否大于预设阈值;
若是,则确定有至少一个候选信号的内容包括唤醒词,并且最大值对应的候选信号所对应的基准方向是所述音频信号的声源方向;
若否,则确定候选信号的内容均不包括所述唤醒词。
较佳地,所述根据所有第一训练数据集训练声源定位模型的步骤包括:
利用卷积神经网络训练声源定位模型;
所述根据所有第二训练数据集训练唤醒词识别模型的步骤包括:
以样本波束信号在所述卷积神经网络中最后一个卷积层的数据为输入来训练唤醒词识别模型;
将N个候选信号依次输入所述唤醒词识别模型的步骤包括:
将N个候选信号在所述卷积神经网络中的最后一个卷积层的数据依次输入所述唤醒词识别模型。
较佳地,当判断所述计数值达到计数阈值时,所述根据所述唤醒词唤醒所述终端设备的步骤包括:
判断包括当前音频信号的连续计数阈值个音频信号的声源方向是否相同;
若是,则根据所述唤醒词唤醒所述终端设备。
较佳地,所述根据所有第二训练数据集训练唤醒词识别模型的步骤包括:
利用神经网络和连接时序分类训练唤醒词识别模型。
较佳地,所述利用所述麦克风阵列采集音频信号的步骤包括:
对所述音频信号进行回声消除处理。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特点在于,所述处理器执行所述计算机程序时实现上述任一种终端设备的语音唤醒方法。
一种计算机可读存储介质,其上存储有计算机程序,其特点在于,所述计算机程序被处理器执行时实现上述任一种终端设备的语音唤醒方法的步骤。
一种终端设备的语音唤醒系统,其特点在于,所述语音唤醒系统包括:
基准方向预设模块,用于预设相对于所述终端设备的麦克风阵列的M个基准方向;
音频信号采集模块,用于利用所述麦克风阵列采集音频信号;
音频信号分解模块,用于将所述音频信号分解成与M个基准方向对应的M个波束信号;
候选信号选择模块,用于从M个波束信号中选择N个方向特征最强的波束信号作为候选信号;
判断模块,用于判断是否有至少一个候选信号的内容包括唤醒词,若是,则调用唤醒模块;
所述唤醒模块用于根据所述唤醒词唤醒所述终端设备;
其中,M和N是正整数。
较佳地,所述判断模块包括:
第一判断单元,用于判断是否有至少一个候选信号的内容包括唤醒词;
若所述第一单元判断为是,则调用:
计数单元,用于令初始值为0的计数值加1;
第二判断单元,用于判断所述计数值是否达到计数阈值;
若所述第二判断单元判断为是,则调用所述唤醒模块;
若所述第二判断单元判断为否,则调用所述音频信号采集模块;
若所述第一单元判断为否,则调用清零单元,并调用所述音频信号采集模块;
所述清零单元用于将所述计数值清零。
较佳地,所述音频信号采集模块还用于利用所述麦克风阵列采集多个样本音频信号,其中,每一样本音频信号的声源方向已知且属于M个基准方向中的任意一个;
所述音频信号分解模块还用于将所述样本音频信号分解成与M个基准方向对应的M个样本波束信号;
所述语音唤醒系统还包括:
第一构建模块,用于根据各样本音频信号分别构建第一训练数据集,所述第一训练数据集包括声源方向对应的样本波束信号以及表征所述声源方向的方向特征的样本方向数组,所述样本方向数组包括M个分别用于表征所述M个基准方向的元素;
第一训练模块,用于根据所有第一训练数据集训练声源定位模型,所述声源定位模型用于根据输入的样本波束信号输出对应的样本方向数组;
所述候选信号选择模块包括:
方向特征获取单元,用于将M个波束信号依次输入所述声源定位模型,输出对应的方向数组,所述方向数组的M个元素分别用于表征所述M个波束信号的方向特征;
候选信号选择单元,用于按照所述方向数组中元素的值从大到小的顺序选择N个波束信号作为候选信号。
较佳地,每一样本音频信号还标记有唤醒词,所述语音唤醒系统还包括:
第二构建模块,用于根据各样本音频信号分别构建第二训练数据集,所述第二训练数据集包括声源方向对应的样本波束信号以及样本识别数组,所述样本识别数组包括两个分别用于表征样本波束信号的内容包括所述唤醒词的概率以及不包括所述唤醒词的概率的元素;
第二训练模块,用于根据所有第二训练数据集训练唤醒词识别模型,所述唤醒词识别模型用于根据输入的样本波束信号输出对应的样本识别数组;
所述第一判断单元包括:
唤醒词识别子单元,用于将N个候选信号依次输入所述唤醒词识别模型,分别输出对应的识别数组;
判断子单元,用于判断N个识别数组中表征包括所述唤醒词的概率的元素的最大值是否大于预设阈值;
若是,则调用第一确定子单元;若否,则调用第二确定子单元;
所述第一确定子单元用于确定有至少一个候选信号的内容包括唤醒词,并且最大值对应的候选信号所对应的基准方向是所述音频信号的声源方向;
所述第二确定子单元用于确定候选信号的内容均不包括所述唤醒词。
较佳地,所述第一训练模块具体用于利用卷积神经网络训练声源定位模型;
所述第二训练模块具体用于以样本波束信号在所述卷积神经网络中最后一个卷积层的数据为输入来训练唤醒词识别模型;
所述唤醒词识别子单元具体用于将N个候选信号在所述卷积神经网络中的最后一个卷积层的数据依次输入所述唤醒词识别模型。
较佳地,所述判断模块包括:
第三判断单元,用于在所述第二判断单元判断为是时,判断包括当前音频信号的连续计数阈值个音频信号的声源方向是否相同;
若是,则调用所述唤醒模块。
较佳地,所述第二训练模块具体用于利用神经网络和连接时序分类训练唤醒词识别模型。
较佳地,所述音频信号采集模块包括:
回声消除单元,用于对所述音频信号进行回声消除处理。
本发明实施例的积极进步效果在于:本发明实施例并未采用声源定位算法,而是通过将采集到的音频信号分解为几个基准方向上的波束信号,进而根据各波束信号的方向特征来近似推断可能的声源方向,能够提高唤醒词的识别精度,极大限度地排除干扰信号对唤醒终端设备的影响。
附图说明
图1为根据本发明实施例1终端设备的语音唤醒方法的流程图。
图2为根据本发明实施例1终端设备的语音唤醒方法中基准方向的示意图。
图3为根据本发明实施例1终端设备的语音唤醒方法中训练声源定位模型的流程图。
图4为根据本发明实施例1终端设备的语音唤醒方法中训练唤醒词识别模型的流程图。
图5为根据本发明实施例1终端设备的语音唤醒方法中步骤S105的流程图。
图6为根据本发明实施例2的电子设备的硬件结构示意图。
图7为根据本发明实施例4终端设备的语音唤醒系统的模块示意图。
图8为根据本发明实施例4终端设备的语音唤醒系统中判断模块15的模块示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供一种终端设备的语音唤醒方法,图1示出了本实施例的流程图。参照图1,本实施例的语音唤醒方法包括:
S101、预设相对于终端设备的麦克风阵列的M个基准方向。
具体地,在本实施例中,正整数M可以取值为8,如图2所示,可以麦克风阵列所在位置为中心点O,设置相对于中心点O均匀分布的8个基准方向,分别记为:D1、D2、D3、D4、D5、D6、D7、D8
S102、利用麦克风阵列采集音频信号。
在该步骤中,还可以采用例如语音自适应回声消除(AEC)算法对采集到的音频信号进行回声消除处理,以提高后续对音频信号处理的准确度。
S103、将音频信号分解成与M个基准方向对应的M个波束信号。
在本实施例中,可以基于MVDR(minimum variance distortionless response,最小方差无畸变失真响应)自适应波束形成算法,形成与8个基准方向对应的8个波束信号,分别记为:B1、B2、B3、B4、B5、B6、B7、B8,其中,波束信号BI对应于基准方向DI(I是在1至8之间取值的正整数)。
S104、从M个波束信号中选择N个方向特征最强的波束信号作为候选信号。
在本实施例中,可以事先(步骤S101和步骤S102之间)训练声源定位模型来获知各波束信号方向特征的强弱。具体地,参照图3,训练声源定位模型的步骤可以包括:
S201、利用麦克风阵列采集多个样本音频信号。
在该步骤中,每一样本音频信号的声源方向已知,并且已知的声源方向属于8个基准方向中的任意一个。具体地,可以分别在基准方向D1、D2、D3、D4、D5、D6、D7、D8上发出样本声源信号,麦克风阵列即可采集到源自各个基准方向的样本音频信号。在该步骤中,也可以对样本音频信号进行回声消除处理,来提高训练数据的准确度。
S202、将样本音频信号分解成与M个基准方向对应的M个样本波束信号。
在该步骤中,以源自基准方向D1的样本音频信号为例,该样本音频信号可以经由例如MVDR自适应波束形成算法形成与8个基准方向对应的8个样本波束信号:B1(D1)、B2(D1)、B3(D1)、B4(D1)、B5(D1)、B6(D1)、B7(D1)、B8(D1),其中,样本波束信号BI(D1)是源自基准方向D1的样本音频信号经分解后在基准方向DI上的样本波束信号。
S203、根据各样本音频信号分别构建第一训练数据集。
在该步骤中,第一训练数据集包括声源方向对应的样本波束信号以及表征声源方向的方向特征的样本方向数组。在本实施例中,样本方向数组可以包括8个分别用于表征8个基准方向的元素,记为:[P1、P2、P3、P4、P5、P6、P7、P8],其中,元素PI用于表征声源方向在基准方向DI的上的概率,元素PI的值越大表示声源方向在该基准方向上的方向特征越强,并且
Figure BDA0001986106610000091
PI=1。
以源自基准方向D1的样本音频信号为例,基准方向D1是声源方向,样本波束信号B1(D1)与基准方向D1对应,由于仅以样本波束信号B1(D1)而非整个样本音频信号作为输入,有样本方向数组[1、0、0、0、0、0、0、0],是以,该组第一训练数据集可以包括{B1(D1),[1、0、0、0、0、0、0、0]}。如此,构建多组第一训练数据集。
S204、根据所有第一训练数据集训练声源定位模型。
在本实施例中,声源定位模型用于根据输入的样本波束信号输出对应的样本方向数组。具体地,在本实施例中,可以利用卷积神经网络训练声源定位模型,例如,可以将样本波束信号依次输入第一卷积层、第二卷积层、全连接层之后,输出样本方向数组。
在训练出声源定位模型之后,步骤S104可以具体包括:
将M个波束信号依次输入声源定位模型,输出对应的方向数组;
按照方向数组中元素的值从大到小的顺序选择N个波束信号作为候选信号。
具体地,在本实施例中,将波束信号B1、B2、B3、B4、B5、B6、B7、B8分别输入上述声源定位模型,输出的表征8个波束信号方向特征的方向数组例如是[0.4、0.25、0.05、0.03、0、0.01、0.06、0.2],则音频信号的声源方向是基准方向D1的概率为0.4,是基准方向D2的概率为0.25,……。在本实施例中,正整数N可以取值为3,则根据上述方向数组可以选择波束信号B1、B2、B8为候选信号。如此,滤除了声源方向的方向特征不明显的若干波束信号,保留了声源方向的方向特征比较明显的波束信号作为候选信号。
S105、判断是否有至少一个候选信号的内容包括唤醒词;
若是,则转至步骤S106;若否,则返回步骤S102;
S106、根据唤醒词唤醒终端设备。
在本实施例中,每一样本音频信号还标记有唤醒词,在训练声源定位模型的基础上,还可以训练唤醒词识别模型来获知各波束信号的内容包括唤醒词的概率。具体地,参照图4,训练唤醒词识别模型的步骤可以包括:
S301、根据各样本音频信号分别构建第二训练数据集。
在该步骤中,第二训练数据集包括声源方向对应的样本波束信号以及样本识别数组。在本实施例中,样本识别数组可以包括2个元素,记为:[Q1、Q2],其中,元素Q1用于表征样本波束信号的内容包括唤醒词的概率,元素Q2用于表征样本波束信号的内容包括唤醒词的概率,并且Q1+Q2=1。
在本实施例中,例如唤醒词是“哈喽”,样本音频信号源自基准方向D1并且包括唤醒词“哈喽”,则第二训练数据集可以包括{B1(D1),[1、0]}。如此,构建多组第二训练数据集。
S302、根据所有第二训练数据集训练唤醒词识别模型。
在本实施例中,唤醒词识别模型用于根据输入的样本波束信号输出对应的样本识别数组。具体地,在本实施例中,可以利用神经网络(例如循环神经网络(RNN)、深度神经网络(DNN)、卷积循环神经网络(CRNN))和连接时序分类(CTC)训练唤醒词识别模型。
其中,为了降低数据维度,减小神经网络的计算量,可以不直接将样本波束信号输入神经网络,而是以样本波束信号在卷积神经网络中最后一个卷积层的数据作为神经网络的输入,例如,不直接以样本波束信号B1(D1)作为唤醒词识别模型的输入,而是以样本波束信号B1(D1)在上述第二卷积层的数据作为唤醒词识别模型的输入。
在本实施例中,参照图5,步骤S105可以具体包括:
S1051、判断是否有至少一个候选信号的内容包括唤醒词;
若是,则转至步骤S1052;若否,则转至步骤S1054;
S1052、令初始值为0的计数值加1;
S1053、判断计数值是否达到计数阈值;
若是,则执行步骤S106;若否,则返回步骤S102;
S1054、将计数值清零,并返回步骤S102。
在训练出唤醒词识别模型之后,步骤S1051可以具体包括:
将N个候选信号依次输入唤醒词识别模型,分别输出对应的识别数组;
判断N个识别数组中表征包括唤醒词的概率的元素的最大值是否大于预设阈值;
若是,则确定有至少一个候选信号的内容包括唤醒词,并且最大值对应的候选信号所对应的基准方向是音频信号的声源方向;
若否,则确定候选信号的内容均不包括唤醒词。
具体地,在本实施例中,例如,将候选信号B1输入上述唤醒词识别模型后,输出的识别数组是[0.8,0.2],则候选信号B1包括唤醒词“哈喽”的概率为0.8;将候选信号B2输入上述唤醒词识别模型后,输出的识别数组是[0.7,0.3],则候选信号B2包括唤醒词“哈喽”的概率为0.7;将候选信号B8输入上述唤醒词识别模型后,输出的识别数组是[0.6,0.4],则候选信号B8包括唤醒词“哈喽”的概率为0.6。其中,包括唤醒词“哈喽”的概率的最大值为0.8。相应地,可以上述候选信号在卷积神经网络中第二卷积层的数据作为上述唤醒词识别模型的输入。
在本实施例中,预设阈值可以在0和1之间取值。假设,在本实施例中,预设阈值取值为0.75,有包括唤醒词“哈喽”的最大概率0.8大于0.75,则可以确定有至少一个候选信号的内容包括唤醒词“哈喽”,并且最大概率0.8对应的候选信号B1所对应的基准方向D1是发出唤醒词“哈喽”的音频信号的声源方向。若在本实施例中预设阈值取值为0.85,有包括唤醒词“哈喽”的最大概率0.8小于0.85,则可以确定候选信号的内容均不包括唤醒词“哈喽”。
上述步骤S1051-S1054的设置,旨在对候选波束包括唤醒词的结果进行多次校验,以减少误唤醒,其中,计数阈值可以根据实际应用进行自定义设置,例如,在本实施例中,计数阈值可以取值为3。计数值达到计数阈值3,表示连续3次采集的音频信号均包括唤醒词。
在本实施例中,在计数值达到计数阈值的基础上,还可以做出进一步地校验,判断包括当前音频信号的连续计数阈值个音频信号的声源方向是否相同,若相同,则校验成功,否则,校验不成功。
具体地,在计数值累加的过程中,每次确定候选信号的内容包括唤醒词的同时,还确定一声源方向,也即,当计数值达到3时,对应有3个声源方向,当确定的3个声源方向为同一方向时,则校验成功,可以确定存在唤醒终端设备的音频信号,可以根据唤醒词唤醒终端设备。
在实施例中,并未采用声源定位算法,而是通过将采集到的音频信号分解为几个基准方向上的波束信号,进而根据各波束信号的方向特征来近似推断可能的声源方向,以提高唤醒词的识别精度,极大限度地排除干扰信号对唤醒终端设备的影响。
实施例2
本实施例提供一种电子设备,电子设备可以通过计算设备的形式表现(例如可以为服务器设备),包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中处理器执行计算机程序时可以实现实施例1提供的终端设备的语音唤醒方法。
图6示出了本实施例的硬件结构示意图,如图6所示,电子设备9具体包括:
至少一个处理器91、至少一个存储器92以及用于连接不同系统组件(包括处理器91和存储器92)的总线93,其中:
总线93包括数据总线、地址总线和控制总线。
存储器92包括易失性存储器,例如随机存取存储器(RAM)921和/或高速缓存存储器922,还可以进一步包括只读存储器(ROM)923。
存储器92还包括具有一组(至少一个)程序模块924的程序/实用工具925,这样的程序模块924包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
处理器91通过运行存储在存储器92中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1所提供的终端设备的语音唤醒方法。
电子设备9进一步可以与一个或多个外部设备94(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口95进行。并且,电子设备9还可以通过网络适配器96与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器96通过总线93与电子设备9的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备9使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
实施例3
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现实施例1提供的终端设备的语音唤醒方法的步骤。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行实现实施例1中的终端设备的语音唤醒方法的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,所述程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
实施例4
本实施例提供一种终端设备的语音唤醒系统,图7示出了本实施例的模块示意图。参照图7,本实施例的语音唤醒系统包括:
基准方向预设模块11,用于预设相对于终端设备的麦克风阵列的M个基准方向。
具体地,在本实施例中,正整数M可以取值为8,亦如图2所示,可以麦克风阵列所在位置为中心点O,设置相对于中心点O均匀分布的8个基准方向,分别记为:D1、D2、D3、D4、D5、D6、D7、D8
音频信号采集模块12,用于利用麦克风阵列采集音频信号。
在本实施例中,音频信号采集模块12还可以包括回声消除单元,该回声消除单元可以采用例如语音自适应回声消除(AEC)算法对采集到的音频信号进行回声消除处理,以提高后续对音频信号处理的准确度。
在本实施例中,音频信号采集模块12还用于利用麦克风阵列采集多个样本音频信号。其中,每一样本音频信号的声源方向已知,并且已知的声源方向属于8个基准方向中的任意一个。具体地,可以分别在基准方向D1、D2、D3、D4、D5、D6、D7、D8上发出样本声源信号,麦克风阵列即可采集到源自各个基准方向的样本音频信号。回声消除单元也可以对样本音频信号进行回声消除处理,来提高训练数据的准确度。
音频信号分解模块13,用于将音频信号分解成与M个基准方向对应的M个波束信号。
在本实施例中,可以基于MVDR(minimum variance distortionless response,最小方差无畸变失真响应)自适应波束形成算法,形成与8个基准方向对应的8个波束信号,分别记为:B1、B2、B3、B4、B5、B6、B7、B8,其中,波束信号BI对应于基准方向DI(I是在1至8之间取值的正整数)。
在本实施例中,音频信号分解模块13还用于将样本音频信号分解成与M个基准方向对应的M个样本波束信号。其中,以源自基准方向D1的样本音频信号为例,该样本音频信号可以经由例如MVDR自适应波束形成算法形成与8个基准方向对应的8个样本波束信号:B1(D1)、B2(D1)、B3(D1)、B4(D1)、B5(D1)、B6(D1)、B7(D1)、B8(D1),其中,样本波束信号BI(D1)是源自基准方向D1的样本音频信号经分解后在基准方向DI上的样本波束信号。
第一构建模块21,用于根据各样本音频信号分别构建第一训练数据集。
在本实施例中,第一训练数据集包括声源方向对应的样本波束信号以及表征声源方向的方向特征的样本方向数组。在本实施例中,样本方向数组可以包括8个分别用于表征8个基准方向的元素,记为:[P1、P2、P3、P4、P5、P6、P7、P8],其中,元素PI用于表征声源方向在基准方向DI的上的概率,元素PI的值越大表示声源方向在该基准方向上的方向特征越强,并且
Figure BDA0001986106610000151
PI=1。
以源自基准方向D1的样本音频信号为例,基准方向D1是声源方向,样本波束信号B1(D1)与基准方向D1对应,由于仅以样本波束信号B1(D1)而非整个样本音频信号作为输入,有样本方向数组[1、0、0、0、0、0、0、0],是以,该组第一训练数据集可以包括{B1(D1),[1、0、0、0、0、0、0、0]}。如此,构建多组第一训练数据集。
第一训练模块22,用于根据所有第一训练数据集训练声源定位模型。
在本实施例中,声源定位模型用于根据输入的样本波束信号输出对应的样本方向数组,来获知各波束信号方向特征的强弱。具体地,在本实施例中,可以利用卷积神经网络训练声源定位模型,例如,可以将样本波束信号依次输入第一卷积层、第二卷积层、全连接层之后,输出样本方向数组。
候选信号选择模块14,用于从M个波束信号中选择N个方向特征最强的波束信号作为候选信号。参见图7,候选信号选择模块14可以具体包括:
方向特征获取单元141,用于将M个波束信号依次输入声源定位模型,输出对应的方向数组;
候选信号选择单元142,用于按照方向数组中元素的值从大到小的顺序选择N个波束信号作为候选信号。
具体地,在本实施例中,方向特征获取单元141将波束信号B1、B2、B3、B4、B5、B6、B7、B8分别输入上述声源定位模型,输出的表征8个波束信号方向特征的方向数组例如是[0.4、0.25、0.05、0.03、0、0.01、0.06、0.2],则音频信号的声源方向是基准方向D1的概率为0.4,是基准方向D2的概率为0.25,……。在本实施例中,正整数N可以取值为3,则候选信号选择单元142根据上述方向数组可以选择波束信号B1、B2、B8为候选信号。如此,滤除了声源方向的方向特征不明显的若干波束信号,保留了声源方向的方向特征比较明显的波束信号作为候选信号。
第二构建模块31,用于根据各样本音频信号分别构建第二训练数据集。
在本实施例中,每一样本音频信号还标记有唤醒词,第二训练数据集包括声源方向对应的样本波束信号以及样本识别数组。在本实施例中,样本识别数组可以包括2个元素,记为:[Q1、Q2],其中,元素Q1用于表征样本波束信号的内容包括唤醒词的概率,元素Q2用于表征样本波束信号的内容包括唤醒词的概率,并且Q1+Q2=1。
在本实施例中,例如唤醒词是“哈喽”,样本音频信号源自基准方向D1并且包括唤醒词“哈喽”,则第二训练数据集可以包括{B1(D1),[1、0]}。如此,构建多组第二训练数据集。
第二训练模块32,用于根据所有第二训练数据集训练唤醒词识别模型。
在训练声源定位模型的基础上,本实施例还可以训练唤醒词识别模型来获知各波束信号的内容包括唤醒词的概率,其中,唤醒词识别模型用于根据输入的样本波束信号输出对应的样本识别数组。具体地,在本实施例中,可以利用神经网络(例如循环神经网络(RNN)、深度神经网络(DNN)、卷积循环神经网络(CRNN))和连接时序分类(CTC)训练唤醒词识别模型。
为了降低数据维度,减小神经网络的计算量,可以不直接将样本波束信号输入神经网络,而是以样本波束信号在卷积神经网络中最后一个卷积层的数据作为神经网络的输入,例如,不直接以样本波束信号B1(D1)作为唤醒词识别模型的输入,而是以样本波束信号B1(D1)在上述第二卷积层的数据作为唤醒词识别模型的输入。
判断模块15,用于判断是否有至少一个候选信号的内容包括唤醒词;
若是,则调用唤醒模块16;若否,则调用音频信号采集模块12;
唤醒模块16用于根据唤醒词唤醒终端设备。
参见图8,判断模块15可以具体包括:
第一判断单元151,用于判断是否有至少一个候选信号的内容包括唤醒词;
若是,则调用计数单元152;若否,则调用清零单元154,并调用音频信号采集模块12;
计数单元152,用于令初始值为0的计数值加1;
第二判断单元153,用于判断计数值是否达到计数阈值;
若是,则调用唤醒模块16;若否,则调用音频信号采集模块12;
清零单元154,用于将计数值清零。
参见图8,第一判断单元151可以具体包括:
唤醒词识别子单元1511,用于将N个候选信号依次输入唤醒词识别模型,分别输出对应的识别数组;
判断子单元1512,用于判断N个识别数组中表征包括唤醒词的概率的元素的最大值是否大于预设阈值;
若是,则调用第一确定子单元1513;若否,则调用第二确定子单元1514;
第一确定子单元1513,用于确定有至少一个候选信号的内容包括唤醒词,并且最大值对应的候选信号所对应的基准方向是音频信号的声源方向;
第二确定子单元1514,用于确定候选信号的内容均不包括唤醒词。
具体地,在本实施例中,例如,唤醒词识别子单元1511将候选信号B1输入上述唤醒词识别模型后,输出的识别数组是[0.8,0.2],则候选信号B1包括唤醒词“哈喽”的概率为0.8;将候选信号B2输入上述唤醒词识别模型后,输出的识别数组是[0.7,0.3],则候选信号B2包括唤醒词“哈喽”的概率为0.7;将候选信号B8输入上述唤醒词识别模型后,输出的识别数组是[0.6,0.4],则候选信号B8包括唤醒词“哈喽”的概率为0.6。其中,包括唤醒词“哈喽”的概率的最大值为0.8。相应地,可以上述候选信号在卷积神经网络中第二卷积层的数据作为上述唤醒词识别模型的输入。
在本实施例中,预设阈值可以在0和1之间取值。假设,在本实施例中,预设阈值取值为0.75,判断子单元1512判断包括唤醒词“哈喽”的最大概率0.8大于0.75,则可以调用第一确定子单元1513确定有至少一个候选信号的内容包括唤醒词“哈喽”,并且最大概率0.8对应的候选信号B1所对应的基准方向D1是发出唤醒词“哈喽”的音频信号的声源方向。若在本实施例中预设阈值取值为0.85,判断子单元1512判断包括唤醒词“哈喽”的最大概率0.8小于0.85,则可以调用第二确定子单元1514确定候选信号的内容均不包括唤醒词“哈喽”。
本实施例中,判断模块15各组成单元的设置,旨在对候选波束包括唤醒词的结果进行多次校验,以减少误唤醒,其中,计数阈值可以根据实际应用进行自定义设置,例如,在本实施例中,计数阈值可以取值为3。计数值达到计数阈值3,表示连续3次采集的音频信号均包括唤醒词。
在本实施例中,判断模块15还可以包括第三判断单元,用于在第二判断单元判断为是时,判断包括当前音频信号的连续计数阈值个音频信号的声源方向是否相同,以做出进一步地校验。其中,若第三判断单元判断为是,则校验成功,否则,校验不成功。
具体地,在计数值累加的过程中,第一确定子单元1513每次确定候选信号的内容包括唤醒词的同时,还确定一声源方向,也即,当计数值达到3时,对应有3个声源方向,当确定的3个声源方向为同一方向时,则校验成功,可以确定存在唤醒终端设备的音频信号,可以调用模型模块6根据唤醒词唤醒终端设备。
在本实施例中,并未采用声源定位算法,而是通过将采集到的音频信号分解为几个基准方向上的波束信号,进而根据各波束信号的方向特征来近似推断可能的声源方向,以提高唤醒词的识别精度,极大限度地排除干扰信号对唤醒终端设备的影响。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (18)

1.一种终端设备的语音唤醒方法,其特征在于,所述语音唤醒方法包括:
预设相对于所述终端设备的麦克风阵列的M个基准方向;
利用所述麦克风阵列采集音频信号;
将所述音频信号分解成与M个基准方向对应的M个波束信号;
从M个波束信号中选择N个方向特征最强的波束信号作为候选信号;
判断是否有至少一个候选信号的内容包括唤醒词,若是,则根据所述唤醒词唤醒所述终端设备;
其中,M和N是正整数。
2.如权利要求1所述的终端设备的语音唤醒方法,其特征在于,所述判断是否有至少一个候选信号的内容包括唤醒词,若是,则根据所述唤醒词唤醒所述终端设备的步骤包括:
判断是否有至少一个候选信号的内容包括唤醒词,若是,则:
令初始值为0的计数值加1;
判断所述计数值是否达到计数阈值;
若达到所述计数阈值,则根据所述唤醒词唤醒所述终端设备;
若未达到所述计数阈值,则返回所述利用所述麦克风阵列采集音频信号的步骤;
若否,则将所述计数值清零,并返回所述利用所述麦克风阵列采集音频信号的步骤。
3.如权利要求2所述的终端设备的语音唤醒方法,其特征在于,在所述利用所述麦克风阵列采集音频信号的步骤之前,所述语音唤醒方法还包括:
利用所述麦克风阵列采集多个样本音频信号,其中,每一样本音频信号的声源方向已知且属于M个基准方向中的任意一个;
将所述样本音频信号分解成与M个基准方向对应的M个样本波束信号;
根据各样本音频信号分别构建第一训练数据集,所述第一训练数据集包括声源方向对应的样本波束信号以及表征所述声源方向的方向特征的样本方向数组,所述样本方向数组包括M个分别用于表征所述M个基准方向的元素;
根据所有第一训练数据集训练声源定位模型,所述声源定位模型用于根据输入的样本波束信号输出对应的样本方向数组;
所述从M个波束信号中选择N个方向特征最强的波束信号作为候选信号的步骤包括:
将M个波束信号依次输入所述声源定位模型,输出对应的方向数组,所述方向数组的M个元素分别用于表征所述M个波束信号的方向特征;
按照所述方向数组中元素的值从大到小的顺序选择N个波束信号作为候选信号。
4.如权利要求3所述的终端设备的语音唤醒方法,其特征在于,每一样本音频信号还标记有唤醒词,在所述利用所述麦克风阵列采集音频信号的步骤之前,所述语音唤醒方法还包括:
根据各样本音频信号分别构建第二训练数据集,所述第二训练数据集包括声源方向对应的样本波束信号以及样本识别数组,所述样本识别数组包括两个分别用于表征样本波束信号的内容包括所述唤醒词的概率以及不包括所述唤醒词的概率的元素;
根据所有第二训练数据集训练唤醒词识别模型,所述唤醒词识别模型用于根据输入的样本波束信号输出对应的样本识别数组;
所述判断是否有至少一个候选信号的内容包括唤醒词的步骤包括:
将N个候选信号依次输入所述唤醒词识别模型,分别输出对应的识别数组;
判断N个识别数组中表征包括所述唤醒词的概率的元素的最大值是否大于预设阈值;
若是,则确定有至少一个候选信号的内容包括唤醒词,并且最大值对应的候选信号所对应的基准方向是所述音频信号的声源方向;
若否,则确定候选信号的内容均不包括所述唤醒词。
5.如权利要求4所述的终端设备的语音唤醒方法,其特征在于,所述根据所有第一训练数据集训练声源定位模型的步骤包括:
利用卷积神经网络训练声源定位模型;
所述根据所有第二训练数据集训练唤醒词识别模型的步骤包括:
以样本波束信号在所述卷积神经网络中最后一个卷积层的数据为输入来训练唤醒词识别模型;
将N个候选信号依次输入所述唤醒词识别模型的步骤包括:
将N个候选信号在所述卷积神经网络中的最后一个卷积层的数据依次输入所述唤醒词识别模型。
6.如权利要求4所述的终端设备的语音唤醒方法,其特征在于,当判断所述计数值达到计数阈值时,所述根据所述唤醒词唤醒所述终端设备的步骤包括:
判断包括当前音频信号的连续计数阈值个音频信号的声源方向是否相同;
若是,则根据所述唤醒词唤醒所述终端设备。
7.如权利要求4所述的终端设备的语音唤醒方法,其特征在于,所述根据所有第二训练数据集训练唤醒词识别模型的步骤包括:
利用神经网络和连接时序分类训练唤醒词识别模型。
8.如权利要求1所述的终端设备的语音唤醒方法,其特征在于,所述利用所述麦克风阵列采集音频信号的步骤包括:
对所述音频信号进行回声消除处理。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-8中任一项所述的终端设备的语音唤醒方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8中任一项所述的终端设备的语音唤醒方法的步骤。
11.一种终端设备的语音唤醒系统,其特征在于,所述语音唤醒系统包括:
基准方向预设模块,用于预设相对于所述终端设备的麦克风阵列的M个基准方向;
音频信号采集模块,用于利用所述麦克风阵列采集音频信号;
音频信号分解模块,用于将所述音频信号分解成与M个基准方向对应的M个波束信号;
候选信号选择模块,用于从M个波束信号中选择N个方向特征最强的波束信号作为候选信号;
判断模块,用于判断是否有至少一个候选信号的内容包括唤醒词,若是,则调用唤醒模块;
所述唤醒模块用于根据所述唤醒词唤醒所述终端设备;
其中,M和N是正整数。
12.如权利要求11所述的终端设备的语音唤醒系统,其特征在于,所述判断模块包括:
第一判断单元,用于判断是否有至少一个候选信号的内容包括唤醒词;
若所述第一单元判断为是,则调用:
计数单元,用于令初始值为0的计数值加1;
第二判断单元,用于判断所述计数值是否达到计数阈值;
若所述第二判断单元判断为是,则调用所述唤醒模块;
若所述第二判断单元判断为否,则调用所述音频信号采集模块;
若所述第一单元判断为否,则调用清零单元,并调用所述音频信号采集模块;
所述清零单元用于将所述计数值清零。
13.如权利要求12所述的终端设备的语音唤醒系统,其特征在于,所述音频信号采集模块还用于利用所述麦克风阵列采集多个样本音频信号,其中,每一样本音频信号的声源方向已知且属于M个基准方向中的任意一个;
所述音频信号分解模块还用于将所述样本音频信号分解成与M个基准方向对应的M个样本波束信号;
所述语音唤醒系统还包括:
第一构建模块,用于根据各样本音频信号分别构建第一训练数据集,所述第一训练数据集包括声源方向对应的样本波束信号以及表征所述声源方向的方向特征的样本方向数组,所述样本方向数组包括M个分别用于表征所述M个基准方向的元素;
第一训练模块,用于根据所有第一训练数据集训练声源定位模型,所述声源定位模型用于根据输入的样本波束信号输出对应的样本方向数组;
所述候选信号选择模块包括:
方向特征获取单元,用于将M个波束信号依次输入所述声源定位模型,输出对应的方向数组,所述方向数组的M个元素分别用于表征所述M个波束信号的方向特征;
候选信号选择单元,用于按照所述方向数组中元素的值从大到小的顺序选择N个波束信号作为候选信号。
14.如权利要求13所述的终端设备的语音唤醒系统,其特征在于,每一样本音频信号还标记有唤醒词,所述语音唤醒系统还包括:
第二构建模块,用于根据各样本音频信号分别构建第二训练数据集,所述第二训练数据集包括声源方向对应的样本波束信号以及样本识别数组,所述样本识别数组包括两个分别用于表征样本波束信号的内容包括所述唤醒词的概率以及不包括所述唤醒词的概率的元素;
第二训练模块,用于根据所有第二训练数据集训练唤醒词识别模型,所述唤醒词识别模型用于根据输入的样本波束信号输出对应的样本识别数组;
所述第一判断单元包括:
唤醒词识别子单元,用于将N个候选信号依次输入所述唤醒词识别模型,分别输出对应的识别数组;
判断子单元,用于判断N个识别数组中表征包括所述唤醒词的概率的元素的最大值是否大于预设阈值;
若是,则调用第一确定子单元;若否,则调用第二确定子单元;
所述第一确定子单元用于确定有至少一个候选信号的内容包括唤醒词,并且最大值对应的候选信号所对应的基准方向是所述音频信号的声源方向;
所述第二确定子单元用于确定候选信号的内容均不包括所述唤醒词。
15.如权利要求14所述的终端设备的语音唤醒系统,其特征在于,所述第一训练模块具体用于利用卷积神经网络训练声源定位模型;
所述第二训练模块具体用于以样本波束信号在所述卷积神经网络中最后一个卷积层的数据为输入来训练唤醒词识别模型;
所述唤醒词识别子单元具体用于将N个候选信号在所述卷积神经网络中的最后一个卷积层的数据依次输入所述唤醒词识别模型。
16.如权利要求14所述的终端设备的语音唤醒系统,其特征在于,所述判断模块包括:
第三判断单元,用于在所述第二判断单元判断为是时,判断包括当前音频信号的连续计数阈值个音频信号的声源方向是否相同;
若是,则调用所述唤醒模块。
17.如权利要求14所述的终端设备的语音唤醒系统,其特征在于,所述第二训练模块具体用于利用神经网络和连接时序分类训练唤醒词识别模型。
18.如权利要求11所述的终端设备的语音唤醒系统,其特征在于,所述音频信号采集模块包括:
回声消除单元,用于对所述音频信号进行回声消除处理。
CN201910165320.5A 2019-03-05 2019-03-05 终端设备的语音唤醒方法、系统、电子设备、存储介质 Active CN111667843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910165320.5A CN111667843B (zh) 2019-03-05 2019-03-05 终端设备的语音唤醒方法、系统、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910165320.5A CN111667843B (zh) 2019-03-05 2019-03-05 终端设备的语音唤醒方法、系统、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN111667843A true CN111667843A (zh) 2020-09-15
CN111667843B CN111667843B (zh) 2021-12-31

Family

ID=72381813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910165320.5A Active CN111667843B (zh) 2019-03-05 2019-03-05 终端设备的语音唤醒方法、系统、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN111667843B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112201236A (zh) * 2020-09-22 2021-01-08 北京小米松果电子有限公司 终端唤醒方法、装置及计算机可读存储介质
CN112799016A (zh) * 2020-12-24 2021-05-14 北京地平线信息技术有限公司 声源定位方法、装置、计算机可读存储介质和电子设备
CN113555033A (zh) * 2021-07-30 2021-10-26 乐鑫信息科技(上海)股份有限公司 语音交互系统的自动增益控制方法、装置及系统
WO2022156438A1 (zh) * 2021-01-20 2022-07-28 华为技术有限公司 一种唤醒方法及电子设备

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140029761A1 (en) * 2012-07-27 2014-01-30 Nokia Corporation Method and Apparatus for Microphone Beamforming
CN104936091A (zh) * 2015-05-14 2015-09-23 科大讯飞股份有限公司 基于圆形麦克风阵列的智能交互方法及系统
CN105556592A (zh) * 2013-06-27 2016-05-04 亚马逊技术股份有限公司 检测自我生成的唤醒声调
CN106611600A (zh) * 2016-12-02 2017-05-03 广州音书科技有限公司 用于远场拾音及移动充电的音频处理装置及系统
US9734822B1 (en) * 2015-06-01 2017-08-15 Amazon Technologies, Inc. Feedback based beamformed signal selection
US20170353789A1 (en) * 2016-06-01 2017-12-07 Google Inc. Sound source estimation using neural networks
CN107703486A (zh) * 2017-08-23 2018-02-16 南京邮电大学 一种基于卷积神经网络cnn的声源定位算法
US9972339B1 (en) * 2016-08-04 2018-05-15 Amazon Technologies, Inc. Neural network based beam selection
CN108351872A (zh) * 2015-09-21 2018-07-31 亚马逊技术股份有限公司 用于提供响应的设备选择
US10051366B1 (en) * 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
CN108536418A (zh) * 2018-03-26 2018-09-14 深圳市冠旭电子股份有限公司 一种无线音箱播放模式切换的方法、装置及无线音箱
CN108647556A (zh) * 2018-03-02 2018-10-12 重庆邮电大学 基于分频和深度神经网络的声源定位方法
CN108717178A (zh) * 2018-04-12 2018-10-30 福州瑞芯微电子股份有限公司 一种基于神经网络的声源定位方法和装置
CN109164415A (zh) * 2018-09-07 2019-01-08 东南大学 一种基于卷积神经网络的双耳声源定位方法
CN109272989A (zh) * 2018-08-29 2019-01-25 北京京东尚科信息技术有限公司 语音唤醒方法、装置和计算机可读存储介质
CN109270493A (zh) * 2018-10-16 2019-01-25 苏州思必驰信息科技有限公司 声源定位方法和装置
CN110556103A (zh) * 2018-05-31 2019-12-10 阿里巴巴集团控股有限公司 音频信号处理方法、装置、系统、设备和存储介质

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140029761A1 (en) * 2012-07-27 2014-01-30 Nokia Corporation Method and Apparatus for Microphone Beamforming
CN105556592A (zh) * 2013-06-27 2016-05-04 亚马逊技术股份有限公司 检测自我生成的唤醒声调
CN104936091A (zh) * 2015-05-14 2015-09-23 科大讯飞股份有限公司 基于圆形麦克风阵列的智能交互方法及系统
US9734822B1 (en) * 2015-06-01 2017-08-15 Amazon Technologies, Inc. Feedback based beamformed signal selection
CN108351872A (zh) * 2015-09-21 2018-07-31 亚马逊技术股份有限公司 用于提供响应的设备选择
US20170353789A1 (en) * 2016-06-01 2017-12-07 Google Inc. Sound source estimation using neural networks
US9972339B1 (en) * 2016-08-04 2018-05-15 Amazon Technologies, Inc. Neural network based beam selection
CN106611600A (zh) * 2016-12-02 2017-05-03 广州音书科技有限公司 用于远场拾音及移动充电的音频处理装置及系统
CN107703486A (zh) * 2017-08-23 2018-02-16 南京邮电大学 一种基于卷积神经网络cnn的声源定位算法
US10051366B1 (en) * 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
CN108647556A (zh) * 2018-03-02 2018-10-12 重庆邮电大学 基于分频和深度神经网络的声源定位方法
CN108536418A (zh) * 2018-03-26 2018-09-14 深圳市冠旭电子股份有限公司 一种无线音箱播放模式切换的方法、装置及无线音箱
CN108717178A (zh) * 2018-04-12 2018-10-30 福州瑞芯微电子股份有限公司 一种基于神经网络的声源定位方法和装置
CN110556103A (zh) * 2018-05-31 2019-12-10 阿里巴巴集团控股有限公司 音频信号处理方法、装置、系统、设备和存储介质
CN109272989A (zh) * 2018-08-29 2019-01-25 北京京东尚科信息技术有限公司 语音唤醒方法、装置和计算机可读存储介质
CN109164415A (zh) * 2018-09-07 2019-01-08 东南大学 一种基于卷积神经网络的双耳声源定位方法
CN109270493A (zh) * 2018-10-16 2019-01-25 苏州思必驰信息科技有限公司 声源定位方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIAOMENG ZHANG ET AL: "A New Regional Localization Method for Indoor Sound Source Based on Convolutional Neural Networks", 《IEEE》 *
李从清等: "声源定位分离技术在机器人领域的应用", 《电声技术》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112201236A (zh) * 2020-09-22 2021-01-08 北京小米松果电子有限公司 终端唤醒方法、装置及计算机可读存储介质
CN112201236B (zh) * 2020-09-22 2024-03-19 北京小米松果电子有限公司 终端唤醒方法、装置及计算机可读存储介质
CN112799016A (zh) * 2020-12-24 2021-05-14 北京地平线信息技术有限公司 声源定位方法、装置、计算机可读存储介质和电子设备
CN112799016B (zh) * 2020-12-24 2024-04-26 北京地平线信息技术有限公司 声源定位方法、装置、计算机可读存储介质和电子设备
WO2022156438A1 (zh) * 2021-01-20 2022-07-28 华为技术有限公司 一种唤醒方法及电子设备
CN113555033A (zh) * 2021-07-30 2021-10-26 乐鑫信息科技(上海)股份有限公司 语音交互系统的自动增益控制方法、装置及系统

Also Published As

Publication number Publication date
CN111667843B (zh) 2021-12-31

Similar Documents

Publication Publication Date Title
CN111667843B (zh) 终端设备的语音唤醒方法、系统、电子设备、存储介质
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
JP7434137B2 (ja) 音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体
CN109272989A (zh) 语音唤醒方法、装置和计算机可读存储介质
CN108735202A (zh) 用于小占用资源关键词检索的卷积递归神经网络
CN102956238B (zh) 用于在音频帧序列中检测重复模式的方法及设备
CN111312273A (zh) 混响消除方法、装置、计算机设备和存储介质
CN107240396B (zh) 说话人自适应方法、装置、设备及存储介质
CN110287303B (zh) 人机对话处理方法、装置、电子设备及存储介质
CN112037800A (zh) 声纹核身模型训练方法、装置、介质及电子设备
US20120053937A1 (en) Generalizing text content summary from speech content
CN111243604B (zh) 支持多唤醒词的说话人识别神经网络模型的训练方法、说话人识别方法及系统
CN112652306A (zh) 语音唤醒方法、装置、计算机设备和存储介质
CN113823313A (zh) 语音处理方法、装置、设备以及存储介质
CN112735466A (zh) 一种音频检测方法及装置
CN111739515A (zh) 语音识别方法、设备、电子设备和服务器、相关系统
CN113077803B (zh) 一种语音处理方法、装置、可读存储介质及电子设备
CN114429766A (zh) 调整播放音量的方法、装置、设备以及存储介质
CN111951791A (zh) 声纹识别模型训练方法、识别方法、电子设备及存储介质
CN114664288A (zh) 一种语音识别方法、装置、设备及可存储介质
CN112669837A (zh) 智能终端的唤醒方法、装置及电子设备
CN110941455A (zh) 主动唤醒方法、装置及电子设备
JP7371159B2 (ja) リマインドオーディオの生成方法、装置、電子機器及び記憶媒体
CN114512136B (zh) 模型训练、音频处理方法、装置、设备、存储介质及程序
CN115910047B (zh) 数据处理方法、模型训练方法、关键词检测方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant