CN102981615B - 手势识别装置及识别方法 - Google Patents
手势识别装置及识别方法 Download PDFInfo
- Publication number
- CN102981615B CN102981615B CN201210435804.5A CN201210435804A CN102981615B CN 102981615 B CN102981615 B CN 102981615B CN 201210435804 A CN201210435804 A CN 201210435804A CN 102981615 B CN102981615 B CN 102981615B
- Authority
- CN
- China
- Prior art keywords
- signal
- sound source
- gesture
- frequency
- shift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/039—Accessories therefor, e.g. mouse pads
- G06F3/0393—Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及了一种手势识别装置及识别方法,该装置包括:左声源和右声源,所述左声源和右声源水平向间隔设置,用于向手势探测区域发出声音信号;信号采集模块,所述信号采集模块置于所述左声源和右声源的连线的中垂线上,用于接收左声源和右声源发出的声音信号并将声音信号转化为音频信号;手势分析模块,接收并分析信号采集模块输出的音频信号,确定手势并输出指令。本发明提供的手势识别装置及识别方法,具有计算量小、误判率低、无需依赖光的特点,并且可以在个人电脑、笔记本电脑、平板电脑以及其它移动设备上通过扬声器和麦克风实现对电脑的非接触式指令输出。
Description
【技术领域】
本发明涉及手势识别领域,尤其涉及一种手势识别装置及识别方法。
【背景技术】
随着个人电子产品的不断发展,人与电子设备交互的方式也在不断变化,从一开始的键盘输入,到触摸输入,现在又出现了新的非接触式的手势识别人际交互模式。
目前流行的手势识别的方式有基于视频的手势识别以及基于语音的手势识别。基于视频的手势识别具有计算量大、误判率高、对光照有要求等缺点。而基于语音的手势识别通过捕获例如关键词的讲话过程获得的一组语音的信息,这样就要求人的发音准确性以及需要记住语音命令等缺陷。
因此,有必要提供一种新型的手势识别装置及识别方法。
【发明内容】
本发明的目的在于提供一种手势识别装置及识别方法,具有计算量小、误判率低、无需依赖光的特点,并且可以在个人电脑、笔记本电脑、平板电脑以及其它移动设备上通过扬声器和麦克风实现对电脑的非接触式指令输出。
一种手势识别装置,该装置包括:左声源和右声源,所述左声源和右声源水平向间隔设置,用于向手势探测区域发出声音信号;信号采集模块,所述信号采集模块置于所述左声源和右声源的连线的中垂线上,用于接收左声源和右声源发出的声音信号并将声音信号转化为音频信号,所述音频信号包括直接由左声源和右声源发出且不经过手势探测区域反射的基准信号和经过手势探测区域反射回来的频移信号;手势分析模块,接收信号采集模块输出的音频信号,对音频信号进行处理得到二值化的频移曲线,根据所述频移曲线得出手势的状态序列,将手势的状态序列与模板序列作比较,确定手势并输出指令。
优选的,所述左声源和右声源之间的间距为30~60cm。
优选的,所述手势探测区域位于左声源和右声源的前方,并且离左声源和右声源的距离为10~40cm。
一种手势识别方法,该方法包括如下步骤:S1,左声源和右声源分别向手势探测区域发出声音信号;S2,信号采集模块接收左声源和右声源发出的声音信号并将声音信号转化为音频信号,所述音频信号包括直接由左声源和右声源发出且不经过手势探测区域反射的基准信号和经过手势探测区域反射回来的频移信号;S3,手势分析模块接收并分析信号采集模块输出的音频信号,确定手势并输出指令,其具体步骤下:S31,对音频信号进行加窗处理,汉明窗的系数公式为:
其中,所述N=L-1,L为汉明窗长度,汉明窗长度与FFT的长度一致;S32,将音频信号从时域转化为频域,分离音频信号中的基准信号和频移信号,并提取频移信号;S33,将频移信号除以基准信号的幅值,得到归一化的频移信号;S34,分别对音频信号的蓝移与红移的能量求和,所述蓝移或红移能量和的公式为:
其中,M为FFT长度的一半,Ak为蓝移或红移频带内的每一个频点的信号幅值,然后将某一段时间内的频移定义为蓝移能量与红移能量之差,记作:
S=Eb-Er
其中,Eb为蓝移能量,Er为红移能量,把所有时间段的频移连起来,从而得到频移曲线;S35,选取合适的阀值,将频移曲线简化为+1、0、-1的三值曲线,从而得到二值化后的频移曲线,进一步可以得出手势的状态序列;S36,将得到的状态序列与手势库中的模板序列作比较,从而完成手势识别过程,并输出指令。
优选的,所述左声源和右声源输出的声音信号都为单频信号,其频率范围为18kHz~22kHz。
优选的,所述左声源和右声源分别输出的声音信号的频率之差不小于1000Hz。
优选的,在步骤S3中,所述汉明窗的长度L的取值范围为4096~8192。
优选的,在步骤S34中,在对音频信号的蓝移与红移的能量求和时,需要预先设定基准频率的带宽Bc和频移频率的带宽Bs。
优选的,在步骤S35中,正阀值的取值范围为0.00005~0.0005,负阀值的取值范围为-0.00005~-0.0005。
本发明的有益效果在于:本发明提供的提供一种手势识别装置及识别方法,具有计算量小、误判率低、无需依赖光的特点,并且可以在个人电脑、笔记本电脑、平板电脑以及其它移动设备上通过扬声器和麦克风实现对电脑的非接触式指令输出。
【附图说明】
图1是本发明手势识别装置的实施例图;
图2是本发明手势识别方法的流程图;
图3是本发明手势识别方法中的经过FFT得到的频谱信息图;
图4是本发明手势识别方法中的频移能量求和图;
图5是本发明手势识别方法中的频移曲线图;
图6是本发明手势识别方法中的二值化频移曲线图;
图7是本发明手势识别方法中的手势定义图;
图8是本发明手势识别方法中的各手势的特征状态模板序列库图。
【具体实施方式】
下面结合附图和实施方式对本发明作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明提供的手势识别装置及识别方法是基于声学的,即由声音的多普勒效应来实现的,因此需要利用设备的声学器件来实现。设备中的扬声器作为声源,麦克风作为信号采集模块,当用户在设备前方的手势探测区域内完成特定的手势时,本手势识别装置及识别方法可以探测到用户的手势,并向设备发送特定的用户指定。本发明实现的原理在于:因为不同的手势会产生不同的多普勒效应,从而产生独特的频率偏移,从这种偏移中提取不同的特征值,就可以识别出各种手势。
多普勒效应的原理是主要内容为:声源辐射的声音波长因为波源和观测者的相对运动而产生变化。在运动的波源前面,波被压缩,波长变得较短,频率变得较高,即蓝移(BlueShift);当运动在波源后面时,会产生相反的效应。波长变得较长,频率变得较低,即红移(RedShift)。波源的速度越高,所产生的效应越大。根据波红(蓝)移的程度,可以计算出波源与观测者相对运动的速度。
根据上述原理,本发明的提供了一种手势识别装置,其具体结构如图1所示(本实施例为笔记本电脑),包括左声源11、右声源12、位于所述左声源11和右声源12的连线的中垂线上的信号采集模块13、以及手势分析模块(位于笔记本电脑内部,未标记),实际上,在电子设备中,可以将扬声器作为左声源11和右声源12,麦克风作为信号采集模块13。左声源和右声源还可以安置在笔记本的显示器两边,就如1中的左声源11’和右声源12’。
左声源11和右声源12水平向间隔设置,间隔距离为30~60cm,用于向手势探测区域发出声音信号。手势探测区域位于左声源11和右声源12的前方,并且离左声源11和右声源12的距离为10~40cm。由左声源11和右声源12发出的一部分声音信号(又称为基准信号)不经过手势探测区域反射就被信号采集模块13接收;还有一部分声音信号经过手势探测区域反射回来被信号采集模块13接收,即为频移信号,信号采集模块13将接收到的声音信号转化为音频信号。
手势分析模块,接收信号采集模块13输出的音频信号,对音频信号进行处理得到二值化的频移曲线,根据所述频移曲线得出手势的状态序列,将手势的状态序列与模板序列作比较,确定手势并输出指令。
左声源11和右声源12发出不同频率的声音信号,该声音信号为单频信号,经过手势探测区域中的手的反射被信号采集模块13接收。优选的,该声音信号的频率范围为18kHz~22kHz,频率之差不小于1000Hz,这样,可以保证声音信号的频率不在可听频率范围内,左声源11发出的声音信号和右声源12发出的声音信号也不会形成干扰。
实际上,本发明提供的手势识别装置还可以应用于个人台式电脑、平板电脑以及其它移动音频设备。
本发明还提供了一种基于上述如图1所示的手势识别装置的手势识别方法,结合图1和图2所示,该方法包括如下步骤:
S1,左声源11和右声源12分别向手势探测区域发出声音信号;
S2,信号采集模块13接收左声源11和右声源12发出的声音信号并将声音信号转化为音频信号,所述音频信号包括直接由左声源11和右声源12发出且不经过手势探测区域反射的基准信号和经过手势探测区域反射回来的频移信号;
S3,手势分析模块接收并分析信号采集模块13输出的音频信号,确定手势并输出指令,其具体步骤如下:
S31,对音频信号进行加窗处理,汉明窗的系数公式为:
其中,所述N=L-1,L为汉明窗长度,汉明窗长度与FFT的长度一致;
S32,将音频信号从时域转化为频域,分离音频信号中的基准信号和频移信号,并提取频移信号;
S33,将频移信号除以基准信号的幅值,得到归一化的频移信号;
S34,分别对音频信号的蓝移与红移的能量求和,所述蓝移或红移能量和的公式为:
其中,M为FFT长度的一半,Ak为蓝移或红移频带内的每一个频点的信号幅值,然后将某一段时间内的频移定义为蓝移能量与红移能量之差,记作:
S=Eb-Er
其中,Eb为蓝移能量,Er为红移能量,把所有时间段的频移连起来,从而得到频移曲线;
S35,选取合适的阀值,将频移曲线简化为+1、0、-1的三值曲线,从而得到二值化后的频移曲线,进一步可以得出手势的状态序列;
S36,将得到的状态序列与手势库中的模板序列作比较,从而完成手势识别过程,并输出指令。
在步骤S1中,所述左声源11和右声源12输出的声音信号都为单频信号,其频率范围为18kHz~22kHz,并且所述左声源11和右声源12分别输出的声音信号的频率之差不小于1000Hz,这样,分别由左声源11和右声源12发出的声音信号的频域不会互相干扰,在信号处理阶段,需要一个信号采集模块13便可以同时处理左声源11和右声源12输出的声音信号。
在步骤S3中,因为L越大,则计算量越大,同时会使后面频移能量不够平滑,容易产生误判;L越小,则所得的频移能量不够精确,也容易产生误判,所以,在本发明中,所述汉明窗的长度L的优选取值范围为4096~8192。
在步骤S32中,如图3所示,经过FFT得到的频谱信息。
在步骤S33中,因为左声源11和右声源12发出的声音信号的频率不一样,所以,信号采集模块13接收并转化后的音频信号的频率也不一样,该音频信号中的基准信号的幅度也会产生差异,因为对同一手势的频移信号强度也不一致。因此需要将频移信号除以基准信号的幅值,以得到归一化的频移信号,使得后续的二值化处理更加准确。
在步骤S34中,为了得到频移去现,先对音频信号的蓝移与红移的能量求和,蓝移即大于基准信号的频率的频谱部分,红移即小于基准信号的频率的频谱部分。在实际操作中,需要预先设定基准频率的带宽Bc和频移频率的带宽Bs,如图3、图4和图5所示,举实施例说明如下:
首先,我们约定LSP代表左声源,RSP代表右声源,ShiftPower代表频移能量,Time代表时间,同时我们对于不同的手势作出约定,并将手势定义如图7所示。
假设左声源发出的声音信号频率(即基准信号频率)为19kHz(定义为左路频移),右声源发出的声音信号频率(即基准信号频率)为20kHz(定义为右路频移),分别记为FI和Fh。实际操作中,需要预先设定基准信号频率的带宽Bc和频移信号频率带宽Bs,我们选取Bc取值为120Hz左右,Bs的取值为1000Hz左右。
在Bc之外,而在Bs之内的频谱即认定为频移信号。高频部分为蓝移,低频部分为红移。我们将蓝移部分的能量和视为蓝移能量,将红移部分的能量和视为红移能量。
经过FFT之后,可以得到频谱上的各个频率点的幅值为:Ak,k的范围为[0,M-1],M为FFT长度的一半。每个频率点的频率值为fk=k/N*Fs,频率点的频率间隔为Fs/N,Fs为采样率。
设两个基准信号的频率分别为Fl、Fh,
在图中Fl的红移部分的频率范围为[Fl-Bs/2,Fl-Bc/2],蓝移部分的频率范围为[Fl+Bs/2,Fl+Bc/2]。
Ak是幅值,频移能量和公式就是:k的取值范围由频移部分的频率范围决定,即k的范围为[0,M-1],M为FFT长度的一半。
以图中的Fl的红移部分的频移能量为例:k的取值范围为:[(Fl-Bs/2)*N/Fs,(Fl-Bc/2)*N/Fs],(对边界进行取整)。
对蓝移部分和Fh的频移能量,同理可以得出。
当产生蓝移时,蓝移能量是一个较大的值,而红移能量几乎为零;当产生红移时,红移能量是一个较大的值,而蓝移能量几乎为零。
基于以上分析将某一时间段的频移定义为蓝移能量与红移能量之差,记作:
S=Eb-Er
S代表蓝移能量与红移能量之差,Eb为蓝移能量,Er为红移能量。把所有时间段的频移连起来,便可得到一条频移曲线,正如图5所示。
如图6所示,在步骤S35中,将曲线与正阀值比较,大于正阀值的部分记为+1;与负阀值比较,小于负阀值的部分记为-1;其它部分记为0,这样就可以得到二值化后的频移曲线,进一步得到状态序列,然后将状态序列与如图8所示的各手势的特征状态模板序列库作比较,从而可以判断手势,然后向设备输出指令。其中,正阀值的取值范围为0.00005~0.0005,负阀值的取值范围为-0.00005~-0.0005。
本发明提供的提供一种手势识别装置及识别方法,具有计算量小、误判率低、无需依赖光的特点,并且可以在个人电脑、笔记本电脑、平板电脑以及其它移动设备上通过扬声器和麦克风实现对电脑的非接触式指令输出。
以上所述的仅是本发明的较佳实施方式,在此应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
Claims (9)
1.一种手势识别装置,其特征在于,该装置包括:
左声源和右声源,所述左声源和右声源水平向间隔设置,用于向手势探测区域发出声音信号;
信号采集模块,所述信号采集模块置于所述左声源和右声源的连线的中垂线上,用于接收左声源和右声源发出的声音信号并将声音信号转化为音频信号,所述音频信号包括直接由左声源和右声源发出且不经过手势探测区域反射的基准信号和经过手势探测区域反射回来的频移信号;
手势分析模块,接收信号采集模块输出的音频信号,对音频信号进行处理得到二值化的频移曲线,根据所述频移曲线得出手势的状态序列,将手势的状态序列与模板序列作比较,确定手势并输出指令。
2.根据权利要求1所述的手势识别装置,其特征在于:所述左声源和右声源之间的间距为30~60cm。
3.根据权利要求1或2所述的手势识别装置,其特征在于:所述手势探测区域位于左声源和右声源的前方,并且离左声源和右声源的距离为10~40cm。
4.一种手势识别方法,其特征在于,该方法包括如下步骤:
S1,左声源和右声源分别向手势探测区域发出声音信号;
S2,信号采集模块接收左声源和右声源发出的声音信号并将声音信号转化为音频信号,所述音频信号包括直接由左声源和右声源发出且不经过手势探测区域反射的基准信号和经过手势探测区域反射回来的频移信号;
S3,手势分析模块接收并分析信号采集模块输出的音频信号,确定手势并输出指令,其具体步骤如下:
S31,对音频信号进行加窗处理,汉明窗的系数公式为:
其中,所述N=L-1,L为汉明窗长度,汉明窗长度与FFT的长度一致;
S32,将音频信号从时域转化为频域,分离音频信号中的基准信号和频移信号,并提取频移信号;
S33,将频移信号除以基准信号的幅值,得到归一化的频移信号;
S34,分别对音频信号的蓝移与红移的能量求和,所述蓝移或红移能量和的公式为:
其中,M为FFT长度的一半,Ak为蓝移或红移频带内的每一个频点的信号幅值,然后将某一段时间内的频移定义为蓝移能量与红移能量之差,记作:
S=Eb-Er
其中,Eb为蓝移能量,Er为红移能量,把所有时间段的频移连起来,从而得到频移曲线;
S35,选取合适的阀值,将频移曲线简化为+1、0、-1的三值曲线,从而得到二值化后的频移曲线,进一步可以得出手势的状态序列;
S36,将得到的状态序列与手势库中的模板序列作比较,从而完成手势识别过程,并输出指令。
5.根据权利要求4所述的手势识别方法,其特征在于:所述左声源和右声源输出的声音信号都为单频信号,其频率范围为18kHz~22kHz。
6.根据权利要求5所述的手势识别方法,其特征在于:所述左声源和右声源分别输出的声音信号的频率之差不小于1000Hz。
7.根据权利要求4所述的手势识别方法,其特征在于:在步骤S3中,所述汉明窗的长度L的取值范围为4096~8192。
8.根据权利要求4所述的手势识别方法,其特征在于:在步骤S34中,在对音频信号的蓝移与红移的能量求和时,需要预先设定基准频率的带宽Bc和频移频率的带宽Bs。
9.根据权利要求4所述的手势识别方法,其特征在于:在步骤S35中,正阀值的取值范围为0.00005~0.0005,负阀值的取值范围为-0.00005~-0.0005。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210435804.5A CN102981615B (zh) | 2012-11-05 | 2012-11-05 | 手势识别装置及识别方法 |
US14/070,638 US9176589B2 (en) | 2012-11-05 | 2013-11-04 | Gesture recognition apparatus and method of gesture recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210435804.5A CN102981615B (zh) | 2012-11-05 | 2012-11-05 | 手势识别装置及识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102981615A CN102981615A (zh) | 2013-03-20 |
CN102981615B true CN102981615B (zh) | 2015-11-25 |
Family
ID=47855734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210435804.5A Expired - Fee Related CN102981615B (zh) | 2012-11-05 | 2012-11-05 | 手势识别装置及识别方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9176589B2 (zh) |
CN (1) | CN102981615B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2816536B1 (de) * | 2013-06-18 | 2016-05-18 | Wincor Nixdorf International GmbH | Leergutrücknahmeautomat |
CN103399634B (zh) * | 2013-07-22 | 2016-02-24 | 瑞声科技(南京)有限公司 | 手势识别系统及识别方法 |
CN103680501B (zh) * | 2013-12-23 | 2016-09-14 | 惠州Tcl移动通信有限公司 | 根据声音变化规律进行手势识别的方法、系统及手机 |
CN105094298B (zh) * | 2014-05-13 | 2018-06-26 | 华为技术有限公司 | 终端以及基于该终端的手势识别方法 |
CN106296890B (zh) * | 2016-07-22 | 2019-06-04 | 北京小米移动软件有限公司 | 移动终端的解锁方法、装置和移动终端 |
CN106843457B (zh) * | 2016-12-09 | 2020-06-09 | 瑞声声学科技(深圳)有限公司 | 手势识别系统及采用该系统的手势识别方法 |
CN107450724A (zh) * | 2017-07-31 | 2017-12-08 | 武汉大学 | 一种基于双声道音频多普勒效应的手势识别方法及系统 |
TWI632504B (zh) * | 2017-08-18 | 2018-08-11 | 威聯通科技股份有限公司 | 揮舞動作偵測方法及電子裝置 |
CN107894830B (zh) * | 2017-10-12 | 2019-07-26 | 深圳大学 | 一种基于声学感知的交互输入方法、系统及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101236250A (zh) * | 2007-01-30 | 2008-08-06 | 富士通株式会社 | 声音判定方法和声音判定装置 |
CN101742114A (zh) * | 2009-12-31 | 2010-06-16 | 上海量科电子科技有限公司 | 通过手势识别来决定拍摄操作的方法及装置 |
CN102301315A (zh) * | 2009-01-30 | 2011-12-28 | 微软公司 | 姿势识别器系统架构 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7970147B2 (en) * | 2004-04-07 | 2011-06-28 | Sony Computer Entertainment Inc. | Video game controller with noise canceling logic |
US20100202656A1 (en) * | 2009-02-09 | 2010-08-12 | Bhiksha Raj Ramakrishnan | Ultrasonic Doppler System and Method for Gesture Recognition |
US8749485B2 (en) * | 2011-12-20 | 2014-06-10 | Microsoft Corporation | User control gesture detection |
-
2012
- 2012-11-05 CN CN201210435804.5A patent/CN102981615B/zh not_active Expired - Fee Related
-
2013
- 2013-11-04 US US14/070,638 patent/US9176589B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101236250A (zh) * | 2007-01-30 | 2008-08-06 | 富士通株式会社 | 声音判定方法和声音判定装置 |
CN102301315A (zh) * | 2009-01-30 | 2011-12-28 | 微软公司 | 姿势识别器系统架构 |
CN101742114A (zh) * | 2009-12-31 | 2010-06-16 | 上海量科电子科技有限公司 | 通过手势识别来决定拍摄操作的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20140125582A1 (en) | 2014-05-08 |
US9176589B2 (en) | 2015-11-03 |
CN102981615A (zh) | 2013-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102981615B (zh) | 手势识别装置及识别方法 | |
CN105744434B (zh) | 一种基于手势识别的智能音箱控制方法及系统 | |
Wang et al. | Robust environmental sound recognition for home automation | |
CN102163427B (zh) | 一种基于环境模型的音频异常事件检测方法 | |
CN106782563B (zh) | 一种智能家居语音交互系统 | |
CN102298443B (zh) | 结合视频通道的智能家居语音控制系统及其控制方法 | |
CN103440862B (zh) | 一种语音与音乐合成的方法、装置以及设备 | |
CN107393555B (zh) | 一种低信噪比异常声音信号的检测系统及检测方法 | |
CN109036467B (zh) | 基于tf-lstm的cffd提取方法、语音情感识别方法及系统 | |
CN101494049A (zh) | 一种用于音频监控系统中的音频特征参数的提取方法 | |
CN102405463A (zh) | 利用多模态信息的用户意图推理装置及方法 | |
CN102005070A (zh) | 一种语音识别门禁系统 | |
Beltrán et al. | Scalable identification of mixed environmental sounds, recorded from heterogeneous sources | |
CN107274911A (zh) | 一种基于声音特征的相似度分析方法 | |
CN104409073A (zh) | 一种变电设备声音与语音的识别方法 | |
CN106205606A (zh) | 一种基于语音识别的动态定位监控方法及系统 | |
CN103871417A (zh) | 一种移动手机特定连续语音过滤方法及过滤装置 | |
CN105096946A (zh) | 基于语音激活检测的唤醒装置及方法 | |
Ying et al. | Characteristics of human auditory model based on compensation of glottal features in speech emotion recognition | |
CN109754817A (zh) | 信号处理方法及终端设备 | |
CN105118356A (zh) | 一种手语语音转换方法及装置 | |
Liu et al. | Environmental sound classification based on stacked concatenated DNN using aggregated features | |
CN101894566A (zh) | 一种基于共振峰频率的汉语普通话复韵母可视化方法 | |
CN107393539A (zh) | 一种声音密码控制方法 | |
CN116416996A (zh) | 一种基于毫米波雷达的多模态语音识别系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151125 Termination date: 20211105 |
|
CF01 | Termination of patent right due to non-payment of annual fee |