CN112447191A - 信号处理装置以及信号处理方法 - Google Patents
信号处理装置以及信号处理方法 Download PDFInfo
- Publication number
- CN112447191A CN112447191A CN202010126904.4A CN202010126904A CN112447191A CN 112447191 A CN112447191 A CN 112447191A CN 202010126904 A CN202010126904 A CN 202010126904A CN 112447191 A CN112447191 A CN 112447191A
- Authority
- CN
- China
- Prior art keywords
- unit
- detection signal
- correlation matrix
- spatial correlation
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims abstract description 101
- 238000001514 detection method Methods 0.000 claims abstract description 100
- 238000004364 calculation method Methods 0.000 claims abstract description 46
- 238000006243 chemical reaction Methods 0.000 claims abstract description 15
- 238000001228 spectrum Methods 0.000 claims description 91
- 238000001914 filtration Methods 0.000 claims description 18
- 230000014509 gene expression Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000004378 air conditioning Methods 0.000 description 17
- 230000015654 memory Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 108091006146 Channels Proteins 0.000 description 7
- 238000000034 method Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000037433 frameshift Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Otolaryngology (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
一种信号处理装置以及信号处理方法。本发明的实施方式涉及信号处理装置以及信号处理方法。提供一种能够有效强调目标声音的信号处理装置以及信号处理方法。一实施方式的信号处理装置具备变换部、第1算出部、第2算出部、以及空间滤波部。变换部将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号。第1算出部基于第2检测信号算出第1空间相关矩阵。第2算出部基于将第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵。空间滤波部基于第1空间相关矩阵以及第2空间相关矩阵生成空间滤波,利用空间滤波对第2检测信号进行滤波。
Description
关联申请
本申请以日本专利申请2019-158133(申请日:8/30/2019)为在先申请,享受该在先申请的优先权。本申请通过参照该在先申请而包含该申请的全部内容。
技术领域
本发明的实施方式涉及信号处理装置以及信号处理方法。
背景技术
为了在噪声环境下正确识别用户说话的声音,开发了一种抑制噪声并强调声音的信号处理技术。
发明内容
本发明要解决的问题是,提供一种能够有效强调目标声音的信号处理装置以及信号处理方法。
一实施方式的信号处理装置具备:变换部、第1算出部、第2算出部、以及空间滤波部。变换部,将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号;第1算出部,基于所述第2检测信号算出第1空间相关矩阵;第2算出部,基于将所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵;空间滤波部,基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波,利用所述空间滤波对所述第2检测信号进行滤波。
根据上述构成的信号处理装置,能够有效强调目标声音。
附图说明
图1是表示包含第1实施方式的信号处理装置的遥控装置的框图。
图2是表示图1所示的遥控装置的外观的立体图。
图3是表示图1所示的声音强调部的构成例的框图。
图4是表示图3所示的波谱强调部的构成例的框图。
图5是表示图1所示的声音强调部的工作例的流程图。
图6是表示第2实施方式的波谱强调部的构成的一例的框图。
图7是表示第2实施方式的波谱强调部的构成的其他例的框图。
图8是表示具备第3实施方式的信号处理装置的遥控装置的框图。
图9是表示图8所示的遥控装置的外观的立体图。
图10是表示具备第4实施方式的信号处理装置的遥控装置的框图。
图11是表示图10所示的声音强调部的构成例的框图。
图12是表示图11所示的波谱强调部的构成例的框图。
图13是表示一实施方式的信号处理装置的硬件构成例的框图。
具体实施方式
以下,参照附图说明实施方式。实施方式涉及从由多个麦克风(microphone)收集到的音响信号生成对目标声音进行了强调后的音响信号的信号处理装置。作为非限定的例子,信号处理装置搭载于用于操作家电产品的遥控装置。在此将说明的实施方式中,信号处理装置搭载于空调的遥控装置。该遥控装置对“开关接通”、“温度提高”等的预先登记过的语句(以后,称为命令字或关键字)的发声进行反应而操作空调。
(第1实施方式)
图1是示意性表示具备第1实施方式的信号处理装置的遥控装置100的框图,图2是示意性表示遥控装置100的外观的立体图。
如图1所示,遥控装置100是为了远程操作空调200而使用的电子设备。遥控装置100识别用户说话的声音,将与该声音相应的控制信号向空调200进行无线发送。例如,用户说出“开关接通”时,遥控装置100将指示启动的控制信号向空调200发送。空调200按照从遥控装置100接收到的控制信号而工作。
遥控装置100具备:多个麦克风(在该例中为4个麦克风101~104)、声音强调部105、声音识别部106、以及通信部107。声音强调部105相当于第1实施方式的信号处理装置。信号处理装置还可以包含声音强调部105以外的至少1个要素(例如声音识别部106)。
麦克风101~104检测声音并生成检测信号(音响信号)。在用户说出了命令字的情况下,各检测信号包含:包含噪声的第1部分、接续于第1部分的、包含噪声以及命令字发声的第2部分、接续于第2部分的、包含噪声的第3部分。如图2所示,麦克风101~104彼此分离而配置于遥控装置100的框体110的一面上。由此,包含4个麦克风101~104的集音部输出通过在不同位置检测声音而得到的检测信号集(set)。此外,麦克风的数量以及配置不限定于图2所示的例子。
再参照图1,声音强调部105从麦克风101~104接收检测信号。声音强调部105对接收到的检测信号进行声音强调处理,输出强调声音信号。声音强调处理表示抑制噪声并强调目标声音(具体而言是命令字发声)的信号处理。声音强调部105的详情参照图3以及图4稍后说明。
声音识别部106从声音强调部105接收强调声音信号。声音识别部106对接收到的强调声音信号,进行预先登记过的1个或多个命令字的检测。例如,声音识别部106对接收到的强调声音信号进行声音识别,判定在声音识别的结果中是否包含命令字。声音识别部106在检测出预先登记过的命令字中的任一个的情况下,输出作为识别所检测出的命令字的识别信息的命令字ID。
通信部107从声音识别部106接收命令字ID。通信部107生成与接收到的命令字ID相应的控制信号,例如使用红外线,将控制信号向空调200发送。
图3是示意性表示声音强调部105的构成的一例的框图。如图3所示,声音强调部105具备:变换部301、强调部303、以及逆短时傅立叶变换部305。
变换部301从与麦克风101~104对应的4个信道(channel)接收检测信号。变换部301通过对所接收到的检测信号分别独立地进行短时傅立叶变换而向时频域变换,输出频谱Xm(f,n)。在此,f表示频段(frequency bin)的编号,n表示帧(frame)的编号,m表示麦克风或信道的编号。
具体而言、变换部301包含与各个麦克风101~104对应的短时傅立叶变换部302。各短时傅立叶变换部302对从麦克风101~104中的对应的麦克风接收到的检测信号进行短时傅立叶变换。例如,麦克风101所对应的短时傅立叶变换部302对来自麦克风101的检测信号适用窗函数而生成多个帧,对各帧进行傅立叶变换,输出频谱X1(f,n)。例如,在将采样频率设为16kHz、帧长(窗函数长)设为256样本(sample)、帧移位(frame shift)设为128样本的情况下,各帧的频谱考虑低域与高域的对称性而具有0≦f≦128的范围的129点的复数数值。与麦克风101相关的第n帧的频谱X1(f,n)具有X1(0,n)、X1(1,n)、···、X1(128,n)。
将4信道的频谱汇总得到的4维向量如下表示。
X(f,n)=[X1(f,n),X2(f,n),X3(f,n),X4(f,n)]T
在此,T表示矩阵的转置。以后,将4信道的频谱X1(f,n)、X2(f,n)、X3(f,n)、X4(f,n)标记为频谱X(f,n)。
强调部303从变换部301接收频谱X(f,n)。强调部303按帧以及按频段(即按时间频率点)对频谱X(f,n)进行波谱强调(Spectral enhancement),输出强调声音的频谱。波谱强调表示对命令字发声的波谱进行强调,抑制噪声的波谱的信号处理。波谱强调的详情参照图4稍后说明。
具体而言、强调部303包含频段各自所对应的波谱强调部304。各波谱强调部304从变换部301接收频谱X(i,n),按帧,对接收到的频谱X(i,n)进行波谱强调。在此,i表示从0到128的整数。
逆短时傅立叶变换部305从波谱强调部304接收强调声音的频谱。逆短时傅立叶变换部305对所接收到的强调声音的频谱进行逆短时傅立叶变换,输出强调声音信号。逆短时傅立叶变换包含逆傅立叶变换处理以及波形重叠处理。
此外,也可以设为不具有逆短时傅立叶变换部305的构成,使得将从波谱强调部304输出的强调声音的频谱由声音识别部106接收。通过这样构成,有时能够省略逆短时傅立叶变换部305的处理和由声音识别部106进行的短时傅立叶变换处理,具有能削减计算量的效果。
图4是示意性表示波谱强调部304的构成例的框图。图4所示的波谱强调部304相当于图3所示的各波谱强调部304。
波谱强调部304具备延迟部401、空间相关算出部402、空间相关算出部403、以及空间滤波部404。在波谱强调部304中,来自变换部301的频谱X(f,n)被提供给空间相关算出部402以及空间滤波部404,并且经由延迟部401被提供给空间相关算出部403。
延迟部401使频谱X(f,n)延迟预定的时间。延迟时间被设定为,作为应强调的声音的命令字发声的持续长度大致成为延迟时间以下即可。假定为,在命令字为“开关接通”等的短语句的情况下,命令字发声的持续长度为1秒以下。该情况下,延迟时间例如被设定为1秒。1秒的延迟时间等于125(=16000×1/128)的延迟帧数。即,延迟部401对与125帧相应的数据进行缓冲(buffering),输出频谱X(f,n-125)。
空间相关算出部402基于从变换部301接收到的频谱X(f,n)算出空间相关矩阵。空间相关矩阵是表示信道间的空间相关性的信息。例如,空间相关算出部402根据频谱X(f,n)算出由以下(1)式表示的空间相关矩阵Φs(f,n)。
在此,ws(t)表示示出按帧的权重的窗函数,τs表示窗函数ws(t)的长度,H表示共轭转置。ws(t)以及τs设定为满足以下(2)式即可。
在此,d表示延迟帧数。在一例中,τs=100、ws(t)=1。在其他例中,τs=∞、ws(t)=αs t,在此,αs在0<αs<1的范围内被设定为充分小的值。该情况下,空间相关矩阵Φs(f,n)能够使用以下(3)式表示的递归公式以很少的计算量算出。
Φs(f,n)=αsΦs(f,n-1)+(1-αs)X(f,n)X(f,n)H (3)
空间相关算出部403基于从延迟部401接收到的频谱X(f,n-d)算出空间相关矩阵。例如,空间相关算出部403使用频谱X(f,n-d)算出由以下(4)式表示的空间相关矩阵ΦN(f,n)。
在此,wN(t)表示示出按帧的权重的窗函数,τN表示窗函数wN(t)的长度。在一例中,τN=200、wN(t)=1。在其他例中,τN=∞、wN(t)=αN t,在此,αN在0<αN<1的范围内被设定为充分小的值。该情况下,空间相关矩阵ΦN(f,n)能够使用以下(5)式表示的递归公式以很少的计算量算出。
ΦN(f,n)=αNΦN(f,n-1)+(1-αN)X(f,n-d)X(f,n-d)H (5)
空间滤波部404基于由空间相关算出部402算出的空间相关矩阵Φs(f,n)和由空间相关算出部403算出的空间相关矩阵ΦN(f,n)生成空间滤波,用所生成的空间滤波对来自变换部301的频谱X(f,n)进行滤波(filtering)而生成强调声音的频谱。在此,将空间滤波如下所示用4维向量表示。
F(∫,n)-[F1(∫,τt),F2(f,τt),F3(f,τt),F4(f,τt)]T
该情况下,空间滤波部404例如按照以下(6)式,算出表示强调声音的波谱的输出Y(f,n)。
Y(f,n)=F(f,n)HX(f,n) (6)
在一例中,空间滤波F(f,n)如以下(7)式所示,作为信噪比最大化波束成形(beamformer)FSNR(f,n)与后滤波(Post-filter)w(f,n)之积而被求出。
F(f,n)=w(f,n)FSNR(f,n) (7)
信噪比最大化波束成形FSNR(f,n)是将空间相关矩阵Φs(f,n)视作声音(信号)的空间相关矩阵、将空间相关矩阵ΦN(f,n)视作噪声的空间相关矩阵、将声音与噪声的功率(power)比进行最大化的波束成形,作为与矩阵ΦN -1(f,n)Φs(f,n)的最大固有值对应的固有向量而被求出。
ポス卜滤波w(f,n)通过调整各频段的功率来改善音质。例如,ポス卜滤波w(f,n)使用以下(8)式而被求出。
此外,也可以使得:取代信噪比最大化波束成形,使用基于空间相关矩阵Φs(f,n)以及ΦN(f,n)求出的其他波束成形。例如,也可以使用最小方差无失真响应波束成形。在将空间相关矩阵Φs(f,n)的最大固有值所对应的固有向量设为导向向量(steering vector)h(f,n)时,基于最小方差无失真响应波束成形的空间滤波能够使用以下(9)式求出。
在第1实施方式中,基于命令字发声的持续长度为1秒以下这一假定,在当前时刻观测着目标声音的情况下,当前时刻的1秒前以前推定为噪声被观测,用上述的方法推定声音的空间相关矩阵以及噪声的空间相关矩阵。因此,基于声音的空间相关矩阵以及噪声的空间相关矩阵而得到的空间滤波通过强调命令字发声的到来方向,抑制噪声的到来方向进行工作,以使得强调命令字发声。该工作原理由于与噪声的音响的特征无关,所以即使噪声源包含电视的声音这样的声音也具有效果。
图5是示意性表示声音强调部105的工作例的流程图。在图5的步骤S501中,声音强调部105作为变换部301进行工作,将在不同的位置检测检测声音而得到的第1检测信号向时频域变换而得到第2检测信号。第2检测信号各自具有第1检测信号的时间频率成分。具体而言、第1检测信号对应于从4个麦克风101~104输出的检测信号,第2检测信号对应于表示为频谱X(f,n)的4信道的频谱。
声音强调部105按帧以及按频段进行步骤S502~S505所示的处理。
在步骤S502中,声音强调部105作为空间相关算出部402进行工作,基于到第1时刻为止的第2检测信号算出第1空间相关矩阵。第1时刻是与作为处理对象的第n帧对应的时刻。例如,声音强调部105按照上述(1)式或(3)式算出空间相关矩阵Φs(f,n)。根据(1)式,空间相关矩阵Φs(f,n)基于第(n-τs+1)帧到第n帧的频谱X(f,n-τs+1)、X(f,n-τs+2)、···、X(f,n)而被算出。
声音强调部105也可以算出空间相关矩阵Φs(f,n),以使得从第2时刻到第1时刻的第2检测信号的贡献比到第2时刻的第2检测信号的贡献大。在此,第2时刻是比第1时刻提前了延迟时间的时刻,是与第(n-d+1)帧对应的时刻。从第2时刻到第1时刻的第2检测信号的贡献比到第2时刻为止的第2检测信号的贡献大这一条件,能够通过使用满足上述(2)式的窗函数ws(t)以及窗函数长τs而实现。
在步骤S503中,声音强调部105作为延迟部401以及空间相关算出部403进行工作,基于使第2检测信号延迟了延迟时间而得到的第3检测信号算出第2空间相关矩阵。具体而言,声音强调部105基于到第2时刻为止的第2检测信号算出第2空间相关矩阵。例如,声音强调部105按照上述(4)式或(5)式算出空间相关矩阵ΦN(f,n)。根据(4)式,空间相关矩阵ΦN(f,n)基于从第(n-d-τN+1)帧到第(n-d)帧为止的频谱X(f,n-d-τN+1)、X(f,n-d-τN+2)、···、X(f,n-d)而被算出。
在步骤S504中,声音强调部105作为空间滤波部404进行工作,基于通过步骤S502、S503算出的第1以及第2空间相关矩阵生成空间滤波。例如,声音强调部105算出将空间相关矩阵Φs(f,n)设为信号的空间相关矩阵、将空间相关矩阵ΦN(f,n)设为噪声的空间相关矩阵而得到的信噪比最大化波束成形FSNR(f,n),按照上述(7)式,基于所生成的信噪比最大化波束成形FSNR(f,n)算出空间滤波F(f,n)。
在步骤S505中,声音强调部105作为空间滤波部404进行工作,使用所生成的空间滤波对第2检测信号进行滤波。例如,声音强调部105按照上述(6)式,将空间滤波F(f,n)适用于频谱X(f,n),由此得到频谱值Y(f,n)。
在步骤S506中,声音强调部105作为逆短时傅立叶变换部305进行工作,将按帧以及按频段得到的频谱值向时域变换。
这样一来,声音强调部105根据通过麦克风101~104得到的检测信号,生成噪声得到了抑制、命令字发声被强调了的音响信号。
以上,第1实施方式的信号处理装置构成为,将持续的声源视为噪声,对新的声源的开头部分进行强调。由此,能够以低运算量求出强调短发声的波束成形。其结果,能够得到即使在运算性能低的终端也可实时(real time)进行工作这一效果。进而,在应抑制的噪声包含声音的情况下,也能够抑制噪声。由此,第1实施方式的信号处理装置能够有效强调目标声音。
(第2实施方式)
第2实施方式中,波谱强调部的构成与第1实施方式不同,波谱强调部以外的要素与第1实施方式相同。因此,省略波谱强调部以外的要素的说明。在第2实施方式中,空间相关矩阵Φs(f,n)通过对频谱X(f,n)乘以掩码(mask)而被求出。掩码是表示各时间频率点上的目标信号占检测信号的比例、即、各时间帧以及各频段的频谱包含应强调的声音的比例。若能够适当推定掩码,则能够从空间相关矩阵Φs(f,n)中去除噪声成分,能期待空间滤波的性能改善。
图6是示意性表示第2实施方式的波谱强调部的构成例的框图。在图6中,对与图4中示出的要素同样的要素标注同样的标号,且省略针对这些要素的说明。
图6所示的波谱强调部600具备:掩码推定部601、空间相关算出部602、延迟部401、空间相关算出部403以及空间滤波部404。
掩码推定部601基于频谱X(f,n)推定掩码M(f,n)。掩码M(f,n)是满足0≤M(f,n)≤1的标量(Scalar)值。掩码M(f,n)能够使用将频谱X(f,n)的绝对值(振幅波谱)作为输入的神经网络而推定。首先,根据与各麦克风对应的振幅波谱|Xm(f,n)|推定掩码Mm(f,n),作为掩码Mm(f,n)的中位数(median)而求出掩码M(f,n)。
推定掩码Mm(f,n)的神经网络的输入向量v(n)以及输出向量u(n)例如分别由以下(10)式以及(11)式定义。
v(n)=[log|Xm(0,n)|,…,log|Xm(128,n)|,log|Xm(0,n-1)|,…,log|Xm(128,n-1)|] (10)
u(n)=[Mm(0,n),Mm(1,n),,…Mm(128,n)] (11)
神经网络的构造,是输入层的节点数是258、输出层的节点数是129、3层的中间层各自的节点数是200的全耦合网络,且将Sigmoid函数作为激活函数而使用。
神经网络的学习能够使用包含噪声重叠声音和掩码的正确值的数据来作为教师数据而实施。就与某噪声重叠声音对应的掩码的正确值而言,可以准备清晰的(clean)声音数据和噪声数据,通过使用了清晰的声音数据和噪声数据的模拟(Simulation)而求出。作为损耗函数,可以使用交叉熵(Cross entropy)。为了网络的最佳化,可以使用概率梯度下降法等的任意的方法。
空间相关算出部602基于频谱X(f,n)以及掩码M(f,n),算出空间相关矩阵Φs(f,n)。例如,空间相关算出部602按照以下(12)式算出空间相关矩阵Φs(f,n)。
具备上述构成的波谱强调部600能够抑制当前时刻的检测信号的噪声波谱而算出空间相关矩阵Φs(f,n)。由此,能够求出更加准确地强调声音的空间滤波。其结果,信噪比(SNR)得到改善。
图7是示意性表示第2实施方式的波谱强调部的其他构成例的框图。在图7中对与图4以及图6示出的要素同样的要素标注同样的标号,省略针对这些要素的说明。图6所示的波谱强调部600基于声音和噪声的波谱的不同使用神经网络推定出了掩码,但是图7所示的波谱强调部700基于声音和噪声的到来方向的不同来推定掩码。
图7所示的波谱强调部700具备掩码推定部701、空间相关算出部602、延迟部401、空间相关算出部403以及空间滤波部404。
掩码推定部601基于频谱X(f,n)以及空间相关矩阵ΦN(f,n)推定掩码M(f,n)。空间相关矩阵ΦN(f,n)能够基于声音和噪声的到来方向的不同来推定掩码。
在将噪声源以平均0的高斯分布进行模型化时,噪声的频谱能够利用将空间相关矩阵ΦN(f,n)视作协方差矩阵的多维复数高斯分布进行模型化。概率密度函数pN(X(f,n))用以下(13)式被提供。
在此,M表示麦克风的个数,C表示常数。另一方面,关于应强调的声音,由于没有关于协方差矩阵的信息,所以设定单位矩阵来作为初始值,进行与(14)式同样的式变形,得到表示概率密度函数ps(X(f,n))的(15)式。
掩码M(f,n)能够按以下(16)式而求出。
空间相关算出部602按照上述(12)式,使用通过掩码推定部601推定出的掩码M(f,n),算出空间相关矩阵Φs(f,n)。空间滤波部404能够基于所算出的空间相关矩阵Φs(f,n)生成空间滤波。
此外,也可以使得,使用所算出的空间相关矩阵Φs(f,n)更新概率密度函数ps(X(f,n))以及掩码M(f,n)。空间相关算出部602例如通过以下(17)式,再次算出概率密度函数ps(X(f,n))。
空间相关算出部602使用所算出的概率密度函数ps(X(f,n))按照上述(16)式再次算出掩码。这样的掩码的更新也可以反复进行预定次数。
以上,第2实施方式的信号处理装置基于声音和噪声的波谱或到来方向的不同推定掩码,使用所推定出的掩码算出信号的空间相关矩阵。由此,能够更加准确地求出强调声音的空间滤波。由此,第2实施方式的信号处理装置能够更有效地强调目标声音。
(第3实施方式)
第3实施方式的信号处理装置相当于将设定延迟时间的设定部追加至第1实施方式的信号处理装置而得到的装置。
图8是示意性表示具备第3实施方式的信号处理装置的遥控装置800的框图,图9是示意性表示遥控装置800的外观的立体图。在图8以及图9中,对与图1以及图2示出的要素同样的要素标注同样的符号,且省略针对这些的要素的说明。
如图8所示,遥控装置800具备:麦克风101~104、声音强调部105、声音识别部106、通信部107、以及设定部801。设定部801设定在声音强调部105内的延迟部401中使用的延迟帧数(延迟时间)。
如图9所示,在遥控装置800设置有开关901。开关901在“Single”和“Multi”之间进行切换。在开关901位于“Single”侧的情况下,遥控装置800进行与第1实施方式的遥控装置100相同的工作。在第1实施方式中,作为命令字,设定“开关接通”、“温度提高”等的语句。在导入了空调以外的能够操作声音的其他设备的情况下,可能发生遥控装置为了对用于操作其他设备的用户发声进行反应而操作空调的情况。
遥控装置800具有如下功能,即,在开关901被切换至“Multi”侧的情况下,命令字被切换为“空调开关接通”、“空调温度提高”等在开头插入了“空调”的语句。这能够通过切换声音识别部106所存储着的命令字的列表而实现。另外,由于通过向命令字追加“空调”而命令字发声的持续长度变长,所以设定部801延长由延迟部401使用的延迟帧数。例如,在开关901位于“Multi”侧的情况下,设定部801将延迟时间设定为2秒,即,将延迟帧数设定为250。
以上,第3实施方式的信号处理装置构成为能够变更延迟时间。由此,能够将信号处理装置适用于能够切换长度不同的命令字的声音操作设备(例如遥控)。
此外,也可以使用与开关901分开单独设置的多级开关等要素来有级地调整延迟时间。通过精细调整延迟时间,能够使得与用户的说话速度相配合地提高识别性能。
(第4实施方式)
第4实施方式涉及在第3实施方式中说明过的开关被切换至“Multi”侧时的工作的变形例。在第3实施方式中,在开关被切换至“Multi”侧的情况下,向全部命令字的开头插入“空调”。在第4实施方式中,在开关被切换至“Multi”侧的情况下,追加“空调”这1个命令字。
图10是示意性表示具备第4实施方式的信号处理装置的遥控装置1000的框图。在图10中,对与图1所示的要素同样的要素标注同样的标号,且省略对这些要素的说明。如图10所示,遥控装置1000具备:麦克风101~104、声音强调部1001、声音识别部1002、以及通信部107。
当开关被切换至“Multi”侧时,声音强调部1001进行与第1实施方式的声音强调部105同样的工作,声音识别部1002向等待作为命令字之一的“空调”的状态转移。声音识别部1002在检测出命令字“空调”的情况下,将检测出命令字“空调”这一情况通知声音强调部1001,之后紧接着转移至等待“空调”以外的命令字的状态。声音识别部1002在检测出“空调”以外的命令字中的任一个的情况下,输出识别所检测出的命令字的命令字ID,返回至等待命令字“空调”的状态。另外,声音识别部1002在从状态转移起经过预定时间为止都没有检测出“空调”以外的命令字中的任何一个的情况下,返回至等待命令字“空调”的状态。
图11是示意性表示声音强调部1001的构成例的框图。在图11中,将与图3示出的要素同样的要素标注同样的标号,且省略对这些要素的说明。如图11所示,声音强调部1001具备:变换部301、强调部1101、以及逆短时傅立叶变换部305。
强调部1101从变换部301接收频谱X(f,n)。强调部1101按帧以及按频段对频谱X(f,n)进行波谱强调。具体而言、强调部1101包含与129个频段中的每一个对应的129个波谱强调部1102。各波谱强调部1102从变换部301接收频谱X(f,n),对接收到的频谱X(f,n)进行波谱强调。波谱强调部1102从声音识别部1002接收表示检测出命令字“空调”这一情况的通知。针对各波谱强调部1102的详情,参照图12稍后说明。
图12示意性示出波谱强调部1102的构成例。图12所示的波谱强调部1102相当于图11所示的各个波谱强调部1102。在图12中,对与图4示出的要素同样的要素标注同样的标号,且省略对这些要素的说明。
如图12所示,波谱强调部1102具备:延迟部401、空间相关算出部402、空间相关算出部403、空间滤波部1201、以及空间滤波系数存储部1202。
空间滤波部1201与在第1实施方式中说明过的空间滤波部404同样地生成空间滤波(filter),使形成空间滤波的系数存储于空间滤波系数存储部1202。空间滤波系数存储部1202针对从当前的帧到预定时间前的帧存储空间滤波系数。
空间滤波部1201在接收来自声音识别部1002的通知时,停止空间滤波的更新,从空间滤波系数存储部1202读出与预定时间(例如0.3秒)前的帧相关的空间滤波系数。空间滤波部1201将所读出的空间滤波系数设置(set)到空间滤波。空间滤波部1201在声音识别部1002处于等待“空调”以外的命令字的状态期间,对空间滤波进行固定而进行滤波(filtering)。
在命令字“空调”被检测出时,由于“空调”的发声已经结束,所以例如,通过利用0.3秒左右过去的空间滤波,能够利用“空调”发声中的稳定了的空间滤波。
在第4实施方式中,由于等待“空调”这1个语句,所以与第3实施方式比较,误工作减少。进而,由于命令字说话的持续长度被抑制得短,所以即使是不稳定的噪声也能进行比较的稳健的工作。由于紧接着“空调”的命令字部分也持续声音强调的效果,所以具有提高识别的精度这一效果。
此外,也可以取代空间滤波系数,预先存储空间相关算出部402、403的输出或频谱等的信息,空间滤波部1201基于该信息重新生成空间滤波。通过利用过去的适当的区间的数据生成空间滤波,能够进一步提高声音强调的效果。
关于各实施方式,上述的处理能通过通用处理器等的处理电路(processingcircuitry)而实现。
图13是表示一实施方式的计算机1300的硬件构成的一例的框图。如图13所示,计算机1300作为硬件而具备:CPU(Central Processing Unit)1301、RAM(Random AccessMemory)1302、程序存储器1303、辅助存储装置1304、输入输出接口1305、以及总线1306。CPU1301经由总线1306与RAM1302、程序存储器1303、辅助存储装置1304、以及输入输出接口1305通信。
CPU1301是通用处理器的一例。RAM1302作为工作(working)存储器供CPU1301使用。RAM1302包括SDRAM(Synchronous Dynamic Random Access Memory:同步动态存储器)等的易失性存储器。程序存储器1303存储包含信号处理程序的各种程序。作为程序存储器1303,例如,使用ROM(Read-Only Memory)、辅助存储装置1304的一部分、或它们的组合。辅助存储装置1304对数据进行非暂时性存储。辅助存储装置1304包含硬盘驱动器(HDD)或固态驱动器(SSD)等的非易失性存储器。
输入输出接口1305是用于与其他设备连接的接口。输入输出接口1305例如被使用于与麦克风101~104以及通信部107的连接。
存储于程序存储器1303的各程序包含计算机可执行命令。在程序(计算机可执行命令)通过CPU1301而被执行时,使CPU1301执行预定的处理。例如,信号处理程序在通过CPU1301而被执行时,使CPU1301执行关于声音强调部以及声音识别部而说明过的一系列处理。
程序也可以在存储于由计算机可读取的存储介质的状态下被提供给计算机1300。该情况下,例如,计算机1300还具备从存储介质读出数据的驱动器(未图示),从存储介质取得程序。存储介质例包含磁盘、光盘(CD-ROM、CD-R、DVD-ROM、DVD-R等)、磁光盘(MO等)、半导体存储器。另外,也可以使得,将程序保存于通信网络上的服务器,计算机1300使用输入输出接口1305从服务器下载程序。
在实施方式中所说明的处理不限于通过CPU1301等的通用硬件处理器执行程序而进行,也可以通过ASIC(Application Specific Integrated Circuit:专用集成电路)等的专用硬件处理器进行。处理电路这一语句包含至少1个通用硬件处理器、至少1个专用硬件处理器、或至少1个通用硬件处理器与至少1个专用硬件处理器的组合。在图13所示的例子中,CPU1301、RAM1302、以及程序存储器1303相当于处理电路。
在以上说明过的至少一个实施方式的信号处理装置中,将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号,基于第2检测信号算出第1空间相关矩阵,基于使第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵,基于第1空间相关矩阵以及第2空间相关矩阵生成空间滤波,利用空间滤波对第2检测信号进行滤波。由此,能够有效强调目标声音。
对本发明的几个实施方式进行了说明,但是这些实施方式是作为例子而提示的,并不意在限定发明的范围。这些新的实施方式能够以其他各种方式实施,在不脱离发明的要旨的范围内,能够进行各种省略、置换、变更。这些实施方式及其变形包含在发明的范围和要旨中,并且包含在权利要求的范围所记载的发明和与其均等的范围内。
此外,上述的实施方式能够汇总为以下的技术方案。
技术方案1
一种信号处理装置,具备:变换部,将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号;第1算出部,基于所述第2检测信号算出第1空间相关矩阵;第2算出部,基于将所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵;以及空间滤波部,基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波,利用所述空间滤波对所述第2检测信号进行滤波。
技术方案2
在上述技术方案1中,所述第1算出部使用到第1时刻为止的所述第2检测信号,算出所述第1空间相关矩阵,以使得,从第2时刻到所述第1时刻为止的所述第2检测信号的贡献比到所述第2时刻为止的所述第2检测信号的贡献大,所述第2时刻是比所述第1时刻提前了所述预定的时间的时刻。
技术方案3
在上述技术方案1或2中,信号处理装置还具备掩码推定部,所述掩码推定部基于所述第2检测信号,推定表示各时间频率点上的目标信号占第1检测信号的比例的掩码,所述第1算出部基于所述第2检测信号和所述掩码算出所述第1空间相关矩阵。
技术方案4
在上述技术方案3中,所述掩码推定部基于所述第2检测信号和所述第2空间相关矩阵推定噪声与目标信号的到来方向的不同,由此推定所述掩码。
技术方案5
在上述技术方案3中,所述掩码推定部基于所述第2检测信号推定噪声与目标信号的波谱的不同,由此推定所述掩码。
技术方案6
在上述技术方案1至5中的任一个中,信号处理装置还具备设定部,所述设定部设定所述预定的时间。
技术方案7
在上述技术方案1至6中的任一个中,所述空间滤波是将所述第1空间相关矩阵设为信号的空间相关矩阵、将所述第2空间相关矩阵设为噪声的空间相关矩阵而得到的信噪比最大化波束成形。
技术方案8
在上述技术方案1至7中的任一个中,信号处理装置,还具备:声音识别部,对所述空间滤波部的输出,进行预先登记了的关键字的检测;和
存储部,存储与形成所述空间滤波的空间滤波系数、所述第1空间相关矩阵、以及所述第2空间相关矩阵中的至少1个相关的信息,所述空间滤波部在所述声音识别部检测出所述关键字的情况下,基于存储于所述存储部的所述信息生成所述空间滤波。
技术方案9
一种信号处理方法,是通过信号处理装置执行的信号处理方法,包括:将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号,基于所述第2检测信号算出第1空间相关矩阵,基于使所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵,基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波,利用所述空间滤波对所述第2检测信号进行滤波。
技术方案10
一种存储介质,存储用于使计算机作为以下单元发挥功能的程序,将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号的单元;基于所述第2检测信号算出第1空间相关矩阵的单元;基于使所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵的单元;基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波的单元;以及利用所述空间滤波对所述第2检测信号进行滤波的单元。
标号说明
100…遥控装置、101~104…麦克风、101…麦克风、105…声音强调部、106…声音识别部、107…通信部、110…框体、200…空调、301…变换部、302…短时傅立叶变换部、303…强调部、304…波谱强调部、305…逆短时傅立叶变换部、401…延迟部、402…空间相关算出部、403…空间相关算出部、404…空间滤波部、600…波谱强调部、601…掩码推定部、602…空间相关算出部、700…波谱强调部、701…掩码推定部、800…遥控装置、801…设定部、901…开关、1000…遥控装置、1001…声音强调部、1002…声音识别部、1101…强调部、1102…波谱强调部、1201…空间滤波部、1202…空间滤波系数存储部、1300…计算机、1301…CPU、1302…RAM、1303…程序存储器、1304…辅助存储装置、1305…输入输出接口、1306…总线。
Claims (10)
1.一种信号处理装置,具备:
变换部,将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号;
第1算出部,基于所述第2检测信号算出第1空间相关矩阵;
第2算出部,基于将所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵;以及
空间滤波部,基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波,利用所述空间滤波对所述第2检测信号进行滤波。
2.根据权利要求1所述的信号处理装置,
所述第1算出部使用到第1时刻为止的所述第2检测信号,算出所述第1空间相关矩阵,以使得,从第2时刻到所述第1时刻为止的所述第2检测信号的贡献比到所述第2时刻为止的所述第2检测信号的贡献大,所述第2时刻是比所述第1时刻提前了所述预定的时间的时刻。
3.根据权利要求1或2所述的信号处理装置,
还具备掩码推定部,所述掩码推定部基于所述第2检测信号,推定表示各时间频率点上的目标信号占第1检测信号的比例的掩码,
所述第1算出部基于所述第2检测信号和所述掩码算出所述第1空间相关矩阵。
4.根据权利要求3所述的信号处理装置,
所述掩码推定部基于所述第2检测信号和所述第2空间相关矩阵推定噪声与目标信号的到来方向的不同,由此推定所述掩码。
5.根据权利要求3所述的信号处理装置,
所述掩码推定部基于所述第2检测信号推定噪声与目标信号的波谱的不同,由此推定所述掩码。
6.根据权利要求1至5中任一项所述的信号处理装置,
还具备设定部,所述设定部设定所述预定的时间。
7.根据权利要求1至6中任一项所述的信号处理装置,
所述空间滤波是将所述第1空间相关矩阵设为信号的空间相关矩阵、将所述第2空间相关矩阵设为噪声的空间相关矩阵而得到的信噪比最大化波束成形。
8.根据权利要求1至7中任一项所述的信号处理装置,还具备:
声音识别部,对所述空间滤波部的输出,进行预先登记了的关键字的检测;和
存储部,存储与形成所述空间滤波的空间滤波系数、所述第1空间相关矩阵、以及所述第2空间相关矩阵中的至少1个相关的信息,
所述空间滤波部在所述声音识别部检测出所述关键字的情况下,基于存储于所述存储部的所述信息生成所述空间滤波。
9.一种信号处理方法,是通过信号处理装置执行的信号处理方法,包括:
将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号,
基于所述第2检测信号算出第1空间相关矩阵,
基于使所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵,
基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波,
利用所述空间滤波对所述第2检测信号进行滤波。
10.一种存储介质,存储用于使计算机作为以下单元发挥功能的程序:
将通过在不同的位置检测声音而得到的第1检测信号向时频域变换而得到第2检测信号的单元;
基于所述第2检测信号算出第1空间相关矩阵的单元;
基于使所述第2检测信号延迟了预定的时间而得到的第3检测信号算出第2空间相关矩阵的单元;
基于所述第1空间相关矩阵以及所述第2空间相关矩阵生成空间滤波的单元;以及
利用所述空间滤波对所述第2检测信号进行滤波的单元。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-158133 | 2019-08-30 | ||
JP2019158133A JP7191793B2 (ja) | 2019-08-30 | 2019-08-30 | 信号処理装置、信号処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112447191A true CN112447191A (zh) | 2021-03-05 |
CN112447191B CN112447191B (zh) | 2024-03-12 |
Family
ID=74680355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010126904.4A Active CN112447191B (zh) | 2019-08-30 | 2020-02-28 | 信号处理装置以及信号处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11395061B2 (zh) |
JP (1) | JP7191793B2 (zh) |
CN (1) | CN112447191B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114089141A (zh) * | 2022-01-24 | 2022-02-25 | 杭州兆华电子股份有限公司 | 一种局部放电检测方法及局部放电检测装置 |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9820039B2 (en) | 2016-02-22 | 2017-11-14 | Sonos, Inc. | Default playback devices |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
JP7191793B2 (ja) * | 2019-08-30 | 2022-12-19 | 株式会社東芝 | 信号処理装置、信号処理方法、及びプログラム |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11798533B2 (en) * | 2021-04-02 | 2023-10-24 | Google Llc | Context aware beamforming of audio data |
CN113270108B (zh) * | 2021-04-27 | 2024-04-02 | 维沃移动通信有限公司 | 语音活动检测方法、装置、电子设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140072142A1 (en) * | 2012-09-13 | 2014-03-13 | Honda Motor Co., Ltd. | Sound direction estimation device, sound processing system, sound direction estimation method, and sound direction estimation program |
US20180047407A1 (en) * | 2015-03-23 | 2018-02-15 | Sony Corporation | Sound source separation apparatus and method, and program |
CN108292508A (zh) * | 2015-12-02 | 2018-07-17 | 日本电信电话株式会社 | 空间相关矩阵估计装置、空间相关矩阵估计方法和空间相关矩阵估计程序 |
CN108540898A (zh) * | 2017-03-03 | 2018-09-14 | 松下电器(美国)知识产权公司 | 声源探测装置及方法、记录有声源探测程序的记录介质 |
JP2019045576A (ja) * | 2017-08-30 | 2019-03-22 | 日本電信電話株式会社 | 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1941411B1 (en) * | 2005-09-30 | 2011-09-14 | iRobot Corporation | Companion robot for personal interaction |
WO2007129731A1 (ja) * | 2006-05-10 | 2007-11-15 | Honda Motor Co., Ltd. | 音源追跡システム、方法、およびロボット |
US8525868B2 (en) * | 2011-01-13 | 2013-09-03 | Qualcomm Incorporated | Variable beamforming with a mobile platform |
JP5691804B2 (ja) * | 2011-04-28 | 2015-04-01 | 富士通株式会社 | マイクロホンアレイ装置及び音信号処理プログラム |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
JP6261043B2 (ja) * | 2013-08-30 | 2018-01-17 | 本田技研工業株式会社 | 音声処理装置、音声処理方法、及び音声処理プログラム |
JP6260504B2 (ja) * | 2014-02-27 | 2018-01-17 | 株式会社Jvcケンウッド | オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム |
US9516412B2 (en) * | 2014-03-28 | 2016-12-06 | Panasonic Intellectual Property Management Co., Ltd. | Directivity control apparatus, directivity control method, storage medium and directivity control system |
EP2933067B1 (en) * | 2014-04-17 | 2019-09-18 | Softbank Robotics Europe | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method |
US9838646B2 (en) * | 2015-09-24 | 2017-12-05 | Cisco Technology, Inc. | Attenuation of loudspeaker in microphone array |
US9621984B1 (en) * | 2015-10-14 | 2017-04-11 | Amazon Technologies, Inc. | Methods to process direction data of an audio input device using azimuth values |
CN107121669B (zh) * | 2016-02-25 | 2021-08-20 | 松下电器(美国)知识产权公司 | 声源探测装置、声源探测方法及非瞬时性记录介质 |
CN111081231B (zh) * | 2016-03-23 | 2023-09-05 | 谷歌有限责任公司 | 用于多声道语音识别的自适应音频增强 |
US10375498B2 (en) * | 2016-11-16 | 2019-08-06 | Dts, Inc. | Graphical user interface for calibrating a surround sound system |
JP6636973B2 (ja) | 2017-03-01 | 2020-01-29 | 日本電信電話株式会社 | マスク推定装置、マスク推定方法およびマスク推定プログラム |
US11151992B2 (en) * | 2017-04-06 | 2021-10-19 | AIBrain Corporation | Context aware interactive robot |
JP6686977B2 (ja) * | 2017-06-23 | 2020-04-22 | カシオ計算機株式会社 | 音源分離情報検出装置、ロボット、音源分離情報検出方法及びプログラム |
US10649060B2 (en) * | 2017-07-24 | 2020-05-12 | Microsoft Technology Licensing, Llc | Sound source localization confidence estimation using machine learning |
US10839822B2 (en) * | 2017-11-06 | 2020-11-17 | Microsoft Technology Licensing, Llc | Multi-channel speech separation |
JP6991041B2 (ja) * | 2017-11-21 | 2022-01-12 | ヤフー株式会社 | 生成装置、生成方法、および生成プログラム |
US10885907B2 (en) * | 2018-02-14 | 2021-01-05 | Cirrus Logic, Inc. | Noise reduction system and method for audio device with multiple microphones |
US10524051B2 (en) * | 2018-03-29 | 2019-12-31 | Panasonic Corporation | Sound source direction estimation device, sound source direction estimation method, and recording medium therefor |
JP6587199B1 (ja) * | 2018-07-03 | 2019-10-09 | パナソニックIpマネジメント株式会社 | 推定装置および推定方法 |
JP7027283B2 (ja) * | 2018-08-31 | 2022-03-01 | 本田技研工業株式会社 | 伝達関数生成装置、伝達関数生成方法、およびプログラム |
US10629226B1 (en) * | 2018-10-29 | 2020-04-21 | Bestechnic (Shanghai) Co., Ltd. | Acoustic signal processing with voice activity detector having processor in an idle state |
KR102174598B1 (ko) * | 2019-01-14 | 2020-11-05 | 한국과학기술원 | 회절 인지를 통한 비가시선 음원 위치 추적 방법 및 시스템 |
CN110072177B (zh) * | 2019-04-30 | 2022-04-08 | 北京小米智能科技有限公司 | 空间划分信息获取方法、装置及存储介质 |
JP7191793B2 (ja) * | 2019-08-30 | 2022-12-19 | 株式会社東芝 | 信号処理装置、信号処理方法、及びプログラム |
-
2019
- 2019-08-30 JP JP2019158133A patent/JP7191793B2/ja active Active
-
2020
- 2020-02-20 US US16/795,799 patent/US11395061B2/en active Active
- 2020-02-28 CN CN202010126904.4A patent/CN112447191B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140072142A1 (en) * | 2012-09-13 | 2014-03-13 | Honda Motor Co., Ltd. | Sound direction estimation device, sound processing system, sound direction estimation method, and sound direction estimation program |
US20180047407A1 (en) * | 2015-03-23 | 2018-02-15 | Sony Corporation | Sound source separation apparatus and method, and program |
CN108292508A (zh) * | 2015-12-02 | 2018-07-17 | 日本电信电话株式会社 | 空间相关矩阵估计装置、空间相关矩阵估计方法和空间相关矩阵估计程序 |
CN108540898A (zh) * | 2017-03-03 | 2018-09-14 | 松下电器(美国)知识产权公司 | 声源探测装置及方法、记录有声源探测程序的记录介质 |
JP2019045576A (ja) * | 2017-08-30 | 2019-03-22 | 日本電信電話株式会社 | 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114089141A (zh) * | 2022-01-24 | 2022-02-25 | 杭州兆华电子股份有限公司 | 一种局部放电检测方法及局部放电检测装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2021036297A (ja) | 2021-03-04 |
CN112447191B (zh) | 2024-03-12 |
US11395061B2 (en) | 2022-07-19 |
US20210067867A1 (en) | 2021-03-04 |
JP7191793B2 (ja) | 2022-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112447191A (zh) | 信号处理装置以及信号处理方法 | |
US11894010B2 (en) | Signal processing apparatus, signal processing method, and program | |
JP6169910B2 (ja) | 音声処理装置 | |
DK1760696T3 (en) | Method and apparatus for improved estimation of non-stationary noise to highlight speech | |
US8867755B2 (en) | Sound source separation apparatus and sound source separation method | |
US20170140771A1 (en) | Information processing apparatus, information processing method, and computer program product | |
US9336777B2 (en) | Speech processing device, speech processing method, and speech processing program | |
JP6077957B2 (ja) | 音声処理装置、音声処理方法、及び音声処理プログラム | |
JP2005249816A (ja) | 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム | |
JP5566846B2 (ja) | ノイズパワー推定装置及びノイズパワー推定方法並びに音声認識装置及び音声認識方法 | |
JP2011215317A (ja) | 信号処理装置、および信号処理方法、並びにプログラム | |
JP4705414B2 (ja) | 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体 | |
US7120580B2 (en) | Method and apparatus for recognizing speech in a noisy environment | |
JP4858663B2 (ja) | 音声認識方法及び音声認識装置 | |
KR101802444B1 (ko) | 독립 벡터 분석 및 반향 필터 재추정을 이용한 베이시안 특징 향상에 의한 강인한 음성 인식 장치 및 방법 | |
JP6448567B2 (ja) | 音響信号解析装置、音響信号解析方法、及びプログラム | |
JP2021152623A (ja) | 信号処理装置、信号処理方法およびプログラム | |
JP6142402B2 (ja) | 音響信号解析装置、方法、及びプログラム | |
JP5740362B2 (ja) | 雑音抑圧装置、方法、及びプログラム | |
CN110675890B (zh) | 声音信号处理装置以及声音信号处理方法 | |
JP2005521091A (ja) | 音声相関構造に基づくブラインド伝送路推定方法および装置 | |
JP4242320B2 (ja) | 音声認識方法、その装置およびプログラム、その記録媒体 | |
KR101647059B1 (ko) | 독립 벡터 분석 및 모델 기반 특징 향상을 이용한 강인한 음성 인식 방법 | |
WO2022190615A1 (ja) | 信号処理装置および方法、並びにプログラム | |
Kouhi-Jelehkaran et al. | Phone-based filter parameter optimization of filter and sum robust speech recognition using likelihood maximization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |