JP6840302B2 - Information processing equipment, programs and information processing methods - Google Patents
Information processing equipment, programs and information processing methods Download PDFInfo
- Publication number
- JP6840302B2 JP6840302B2 JP2020557460A JP2020557460A JP6840302B2 JP 6840302 B2 JP6840302 B2 JP 6840302B2 JP 2020557460 A JP2020557460 A JP 2020557460A JP 2020557460 A JP2020557460 A JP 2020557460A JP 6840302 B2 JP6840302 B2 JP 6840302B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- time
- microphone
- observation
- spectral component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 25
- 238000003672 processing method Methods 0.000 title claims description 10
- 230000003595 spectral effect Effects 0.000 claims description 168
- 238000006243 chemical reaction Methods 0.000 claims description 91
- 238000004364 calculation method Methods 0.000 claims description 89
- 238000001228 spectrum Methods 0.000 claims description 85
- 230000000873 masking effect Effects 0.000 claims description 80
- 238000012937 correction Methods 0.000 claims description 62
- 238000001914 filtration Methods 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 20
- 238000005314 correlation function Methods 0.000 claims description 18
- 238000000926 separation method Methods 0.000 description 46
- 230000002159 abnormal effect Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000012806 monitoring device Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 102220515664 Zinc finger protein Helios_S13D_mutation Human genes 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 102220515663 Zinc finger protein Helios_S13A_mutation Human genes 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 102200012170 rs10084168 Human genes 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/18—Methods or devices for transmitting, conducting or directing sound
- G10K11/26—Sound-focusing or directing, e.g. scanning
- G10K11/34—Sound-focusing or directing, e.g. scanning using electrical steering of transducer arrays, e.g. beam steering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Otolaryngology (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing device, a program, and an information processing method.
近年のデジタル信号処理技術の進展に伴い、自動車内又は家庭のリビングでの音声認識によるハンズフリー音声操作、又は、手ぶらで電話するためのハンズフリー通話が広く普及している。また、機械の発する異常音又は人の悲鳴等の音を捉えて検知する異常音監視システムも開発されてきている。 With the development of digital signal processing technology in recent years, hands-free voice operation by voice recognition in an automobile or in a living room at home, or hands-free calling for making an empty-handed call has become widespread. Further, an abnormal sound monitoring system has been developed that catches and detects an abnormal sound emitted by a machine or a sound such as a human scream.
これらハンズフリー音声操作システム、ハンズフリー通話システム又は異常音監視システムは、走行する自動車内、工場内、オフィス、又は、家庭のリビング等の様々な雑音環境下において、音声又は異常音等の目的音を収集するためにマイクロホンが設置される。しかしながら、そのようなマイクロホンは、目的音だけでなく、その目的音以外の周囲雑音及び他の音声(以下、妨害音と称する)を収集してしまう。 These hands-free voice operation system, hands-free call system or abnormal sound monitoring system are intended sounds such as voice or abnormal sound in various noise environments such as in a moving car, in a factory, in an office, or in a living room at home. A microphone is installed to collect. However, such a microphone collects not only the target sound but also ambient noise other than the target sound and other sounds (hereinafter referred to as disturbing sounds).
音声から個別に目的音を取り出す方法として、例えば、複数のマイクロホンを用いる場合、信号処理により目的音方向に指向性を向けたり、あるいは妨害音に死角を向けたりするようなビームフォーミングによる方法、又は、独立成分分析により混合行列を推定する方法等がある。但し、ビームフォーミングは、ノイズの抑圧には優れているが、音声の分離にはあまり有効でなく、独立成分分析は、残響又は騒音の影響で性能が低下する問題がある。更に、一般に実環境においては、妨害音の騒音源の数も1つとは限らず、マイクロホン数より多くの音源を分離するのに対応困難であるという制約がある。 As a method of extracting the target sound individually from the sound, for example, when using a plurality of microphones, a method by beamforming such that directivity is directed toward the target sound by signal processing or a blind spot is directed to the disturbing sound, or , There is a method of estimating the mixing matrix by independent component analysis. However, although beamforming is excellent in suppressing noise, it is not very effective in separating speech, and independent component analysis has a problem that its performance deteriorates due to the influence of reverberation or noise. Further, generally, in a real environment, the number of noise sources of disturbing sound is not limited to one, and there is a restriction that it is difficult to separate more sound sources than the number of microphones.
これらに対し、目的音信号と妨害音信号とが時間周波数領域上で互いに重ならないというスパース性の仮定の下で、目的音以外の周波数成分をマスクして音源信号を分離する、バイナリマスキングと呼ばれる方法が提案されている。バイナリマスキングは、実装が容易で方向性を有する妨害音を抑圧するのに有効な方法である。 On the other hand, under the assumption of sparseness that the target sound signal and the interfering sound signal do not overlap each other in the time frequency domain, the sound source signal is separated by masking the frequency components other than the target sound, which is called binary masking. A method has been proposed. Binary masking is an effective method for suppressing disturbing sounds that are easy to implement and have directionality.
このバイナリマスキングに基づく方法として、特許文献1に開示されている技術がある。特許文献1には、パワースペクトルの振幅差を意図的に生じさせることで、スパース性が保証されない混合音声に対するバイナリマスキングの精度を高める方法が開示されている。
As a method based on this binary masking, there is a technique disclosed in
しかしながら、従来の方法では、主マイク入力信号と副マイク入力信号のパワースペクトル間に意図的にパワー差を生じさせるため、マスク係数に誤差が生ずる問題がある。 However, in the conventional method, since a power difference is intentionally generated between the power spectra of the main microphone input signal and the sub microphone input signal, there is a problem that an error occurs in the mask coefficient.
本発明の1又は複数の態様は、かかる問題を解決するためになされたもので、高品質な目的信号を容易に得ることができるようにすることを目的とする。 One or more aspects of the present invention have been made to solve such problems, and an object of the present invention is to make it possible to easily obtain a high-quality target signal.
本発明の第1の態様に係る情報処理装置は、第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成するアナログ/デジタル変換部と、前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部と、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部と、前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部と、前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部と、を備え、前記マスク生成部は、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、前記第1のスペクトル成分の内、前記第1の範囲から到来する音のスペクトル成分の量の、前記第2の範囲から到来する音のスペクトル成分の量に対する比率を算出する発話量比算出部と、前記比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えることを特徴とする。
本発明の第2の態様に係る情報処理装置は、第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成するアナログ/デジタル変換部と、前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部と、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部と、前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部と、前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部と、を備え、前記マスク生成部は、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、前記第1のスペクトル成分の内、前記第1の範囲から到来している音のスペクトル成分の量の、前記第2の範囲から到来している音のスペクトル成分の量に対する比率を、時間の経過とともに順次算出し、過去に算出された前記比率を用いて最後に算出された前記比率を平滑化する発話量比算出部と、前記平滑化された比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えることを特徴とする。
The information processing device according to the first aspect of the present invention is based on an observed sound including a target sound arriving from the first direction and a disturbing sound arriving from a second direction different from the first direction. Upon receiving the input of the first observed analog signal generated by the first microphone and the second observed analog signal generated by the second microphone based on the observed sound, the first observed analog signal An analog / digital conversion unit that generates a first observed digital signal and a second observed digital signal by converting each of the first observed analog signal and the second observed analog signal into a digital signal, the first observed digital signal, and the above. A time / frequency conversion unit that generates a first spectrum component and a second spectrum component by converting each of the second observation digital signals into a signal in the frequency region, the first spectrum component, and the first spectrum component. Using the intercorrelation function of the spectral components of 2, the observed sound differs from the first direction due to the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone. The spectrum component is separated by masking the first spectrum component with the mask generation unit for calculating the filtering coefficient for masking the spectrum component of the sound coming from the direction using the filtering coefficient. The mask generation unit includes a masking filter unit and a time / frequency inverse conversion unit that generates an output digital signal by converting the separated spectral components into signals in the time region. The mask generation unit is the first Using the mutual correlation function of the spectral component and the second spectral component, the first time difference between the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone, and From the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first range of the observed sound including the first direction. Distinguishing between the sound arriving from the sound and the sound arriving from the second range including the second direction and not overlapping the first range, the spectral component of the sound arriving from the first range is determined. A mask coefficient calculation unit that calculates a mask coefficient for separating from the spectrum component of the sound coming from the second range, and a spectrum component of the sound coming from the first range among the first spectrum components. Speech volume ratio calculation unit that calculates the ratio of the amount to the amount of the spectral component of the sound coming from the second range. The gain calculation unit that calculates the correction gain for correcting the mask coefficient and the mask coefficient are corrected by the correction gain so that the higher the ratio, the lower the strength at which the masking is performed. It is characterized by including a mask correction unit for calculating the filtering coefficient.
The information processing device according to the second aspect of the present invention is based on an observed sound including a target sound arriving from the first direction and a disturbing sound arriving from a second direction different from the first direction. Upon receiving the input of the first observed analog signal generated by the first microphone and the second observed analog signal generated by the second microphone based on the observed sound, the first observed analog signal An analog / digital conversion unit that generates a first observed digital signal and a second observed digital signal by converting each of the first observed analog signal and the second observed analog signal into a digital signal, the first observed digital signal, and the above. A time / frequency conversion unit that generates a first spectrum component and a second spectrum component by converting each of the second observation digital signals into a signal in the frequency region, the first spectrum component, and the first spectrum component. Using the intercorrelation function of the spectral components of 2, the observed sound differs from the first direction due to the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone. The spectrum component is separated by masking the first spectrum component with the mask generation unit for calculating the filtering coefficient for masking the spectrum component of the sound coming from the direction using the filtering coefficient. The mask generation unit includes a masking filter unit and a time / frequency inverse conversion unit that generates an output digital signal by converting the separated spectral components into signals in the time region. The mask generation unit is the first Using the mutual correlation function of the spectral component and the second spectral component, the first time difference between the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone, and From the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first range of the observed sound including the first direction. Distinguishing between the sound arriving from the sound and the sound arriving from the second range including the second direction and not overlapping the first range, the spectral component of the sound arriving from the first range is determined. A mask coefficient calculation unit that calculates a mask coefficient for separating from the spectrum component of the sound coming from the second range, and a spectrum of the sound coming from the first range of the first spectrum components. The ratio of the amount of component to the amount of spectral component of the sound coming from the second range is defined as the passage of time. Both are sequentially calculated, and the speech volume ratio calculation unit that smoothes the last calculated ratio using the previously calculated ratio, and the higher the smoothed ratio, the stronger the masking is performed. It is provided with a gain calculation unit for calculating a correction gain for correcting the mask coefficient so as to be low, and a mask correction unit for calculating the filtering coefficient by correcting the mask coefficient with the correction gain. It is characterized by.
本発明の第1の態様に係るプログラムは、コンピュータを、第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成するアナログ/デジタル変換部、前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部と、前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部、及び、前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部、として機能させ、前記マスク生成部は、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、前記第1のスペクトル成分の内、前記第1の範囲から到来する音のスペクトル成分の量の、前記第2の範囲から到来する音のスペクトル成分の量に対する比率を算出する発話量比算出部と、前記比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えることを特徴とする。
本発明の第2の態様に係るプログラムは、コンピュータを、第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成するアナログ/デジタル変換部、前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部、前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部、及び、前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部、として機能させ、前記マスク生成部は、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、前記第1のスペクトル成分の内、前記第1の範囲から到来している音のスペクトル成分の量の、前記第2の範囲から到来している音のスペクトル成分の量に対する比率を、時間の経過とともに順次算出し、過去に算出された前記比率を用いて最後に算出された前記比率を平滑化する発話量比算出部と、前記平滑化された比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えることを特徴とする。
The program according to the first aspect of the present invention makes a computer an observation sound including a target sound arriving from the first direction and a disturbing sound arriving from a second direction different from the first direction. Based on the input of the first observed analog signal generated by the first microphone and the second observed analog signal generated by the second microphone based on the observed sound, the first observed analog is received. An analog / digital conversion unit that generates a first observed digital signal and a second observed digital signal by converting each of the signal and the second observed analog signal into a digital signal, the first observed digital signal, and the above. A time / frequency converter that generates a first spectral component and a second spectral component by converting each of the second observed digital signals into a signal in the frequency region, the first spectral component, and the second. Using the mutual correlation function of the spectral components of, the direction different from the first direction due to the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone. A mask generation unit that calculates a filtering coefficient for masking the spectral component of the sound coming from the sound, and a masking that separates the spectral component by masking the first spectral component using the filtering coefficient. The filter unit and the separated spectral components are converted into signals in the time region to function as a time / frequency inverse conversion unit that generates an output digital signal, and the mask generation unit is the first mask generation unit. Using the mutual correlation function of the spectral component and the second spectral component, the first time difference between the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone, and From the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first range of the observed sound including the first direction. Distinguishing between the sound arriving from the sound and the sound arriving from the second range including the second direction and not overlapping the first range, the spectral component of the sound arriving from the first range is determined. A mask coefficient calculation unit that calculates a mask coefficient for separating from the spectrum component of the sound coming from the second range, and a spectrum component of the sound coming from the first range among the first spectrum components. Calculate the ratio of the quantity to the quantity of the spectral component of the sound coming from the second range. The utterance amount ratio calculation unit to be output, the gain calculation unit to calculate the correction gain for correcting the mask coefficient so that the higher the ratio, the lower the strength at which the masking is performed, and the mask coefficient are described. It is characterized by including a mask correction unit for calculating the filtering coefficient by correcting with a correction gain.
The program according to the second aspect of the present invention makes a computer an observation sound including a target sound arriving from the first direction and a disturbing sound arriving from a second direction different from the first direction. Based on the input of the first observed analog signal generated by the first microphone and the second observed analog signal generated by the second microphone based on the observed sound, the first observed analog is received. An analog / digital conversion unit that generates a first observed digital signal and a second observed digital signal by converting each of the signal and the second observed analog signal into a digital signal, the first observed digital signal, and the above. A time / frequency converter that generates a first spectral component and a second spectral component by converting each of the second observed digital signals into a signal in the frequency region, the first spectral component, and the second. Using the mutual correlation function of the spectral components of, the direction different from the first direction due to the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone. A mask generation unit that calculates a filtering coefficient for masking the spectral component of the sound coming from the sound, and a masking filter that separates the spectral component by masking the first spectral component using the filtering coefficient. The unit and the separated spectrum component are converted into a signal in the time region to function as a time / frequency inverse conversion unit that generates an output digital signal, and the mask generation unit is the first spectrum. Using the intercorrelation function of the components and the second spectral component, the first time difference between the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone, and From the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, from the first range including the first direction of the observed sound. Distinguishing between the incoming sound and the sound arriving from the second range including the second direction and not overlapping the first range, the spectral component of the sound arriving from the first range is defined as described above. A mask coefficient calculation unit that calculates a mask coefficient for separating from a sound spectrum component arriving from the second range, and a spectrum component of the sound arriving from the first range among the first spectrum components. The ratio of the amount of to the amount of the spectral component of the sound coming from the second range. The speech volume ratio calculation unit that calculates the rate sequentially with the passage of time and smoothes the last calculated ratio using the ratio calculated in the past, and the higher the smoothed ratio, the more the said. A gain calculation unit that calculates a correction gain for correcting the mask coefficient so that the intensity at which masking is performed becomes low, and a mask correction that calculates the filtering coefficient by correcting the mask coefficient with the correction gain. It is characterized by having a section and.
本発明の第1の態様に係る情報処理方法は、第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成し、前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成し、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出し、前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離し、前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する情報処理方法であって、前記フィルタリング係数を算出する際に、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出し、前記第1のスペクトル成分の内、前記第1の範囲から到来する音のスペクトル成分の量の、前記第2の範囲から到来する音のスペクトル成分の量に対する比率を算出し、前記比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出し、前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出することを特徴とする。
本発明の第2の態様に係る情報処理方法は、第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成し、前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成し、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出し、前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離し、前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する情報処理方法であって、前記フィルタリング係数を算出する際に、前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出し、前記第1のスペクトル成分の内、前記第1の範囲から到来している音のスペクトル成分の量の、前記第2の範囲から到来している音のスペクトル成分の量に対する比率を、時間の経過とともに順次算出し、過去に算出された前記比率を用いて最後に算出された前記比率を平滑化し、前記平滑化された比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出し、前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出することを特徴とする。
The information processing method according to the first aspect of the present invention is based on an observed sound including a target sound arriving from the first direction and a disturbing sound arriving from a second direction different from the first direction. Upon receiving the input of the first observed analog signal generated by the first microphone and the second observed analog signal generated by the second microphone based on the observed sound, the first observed analog signal By converting each of the second observation analog signal into a digital signal, the first observation digital signal and the second observation digital signal are generated, and the first observation digital signal and the second observation digital signal are generated. By converting each of the above into a signal in the frequency region, a first spectrum component and a second spectrum component are generated, and the mutual correlation function of the first spectrum component and the second spectrum component is used. To mask the spectral component of the sound arriving from a direction different from the first direction due to the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone. By calculating the filtering coefficient of the above and masking the first spectral component with the filtering coefficient, the spectral component is separated and the separated spectral component is converted into a signal in the time region. Therefore, in the information processing method for generating the output digital signal, when the filtering coefficient is calculated, the target sound is generated by using the mutual correlation function of the first spectrum component and the second spectrum component. , The first time difference between the time when the first microphone arrives and the time when the second microphone arrives, the time when the disturbing sound arrives at the first microphone, and the second microphone. From the second time difference from the time when the sound arrives at, the sound coming from the first range including the first direction and the sound including the second direction among the observed sounds, the first range includes the second direction. Calculate the mask coefficient for separating the spectral component of the sound arriving from the first range from the spectral component of the sound arriving from the second range, distinguishing the sound arriving from the second range that does not overlap. Then, among the first spectral components, the ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range is calculated, and the ratio is The correction gain for correcting the mask coefficient is calculated so that the higher the value, the lower the strength at which the masking is performed. The filtering coefficient is calculated by modifying the mask coefficient with the correction gain .
The information processing method according to the second aspect of the present invention is based on an observed sound including a target sound arriving from the first direction and a disturbing sound arriving from a second direction different from the first direction. Upon receiving the input of the first observed analog signal generated by the first microphone and the second observed analog signal generated by the second microphone based on the observed sound, the first observed analog signal By converting each of the second observation analog signal into a digital signal, the first observation digital signal and the second observation digital signal are generated, and the first observation digital signal and the second observation digital signal are generated. By converting each of the above into a signal in the frequency region, a first spectrum component and a second spectrum component are generated, and the mutual correlation function of the first spectrum component and the second spectrum component is used. To mask the spectral component of the sound arriving from a direction different from the first direction due to the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone. By calculating the filtering coefficient of the above and masking the first spectral component with the filtering coefficient, the spectral component is separated and the separated spectral component is converted into a signal in the time region. Therefore, in the information processing method for generating the output digital signal, when the filtering coefficient is calculated, the target sound is generated by using the mutual correlation function of the first spectrum component and the second spectrum component. , The first time difference between the time when the first microphone arrives and the time when the second microphone arrives, the time when the disturbing sound arrives at the first microphone, and the second microphone. From the second time difference from the time when the sound arrives at, the sound coming from the first range including the first direction and the sound including the second direction among the observed sounds, the first range includes the second direction. Calculate the mask coefficient for separating the spectral component of the sound arriving from the first range from the spectral component of the sound arriving from the second range, distinguishing the sound arriving from the second range that does not overlap. Then, among the first spectral components, the ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range is set for time. The last calculated ratio was smoothed using the ratio calculated in the past, and the smoothed ratio was calculated sequentially with the progress of the above. The correction gain for correcting the mask coefficient is calculated so that the higher the ratio, the lower the intensity at which the masking is performed, and the filtering coefficient is calculated by correcting the mask coefficient with the correction gain. It is characterized by that.
本発明の1又は複数の態様によれば、高品質な目的信号を容易に得ることができる。 According to one or more aspects of the present invention, a high quality target signal can be easily obtained.
実施の形態1.
図1は、実施の形態1に係る情報処理装置としての音源分離装置100の構成を概略的に示すブロック図である。
音源分離装置100は、アナログ/デジタル変換部(以下、A/D変換部という)103と、時間/周波数変換部(以下、T/F変換部という)104と、マスク生成部105と、マスキングフィルタ部110と、時間/周波数逆変換部(以下、T/F逆変換部という)111と、デジタル/アナログ変換部(以下、D/A変換部という)112とを備える。
音源分離装置100は、第1のマイクロホン101及び第2のマイクロホン102に接続されている。
FIG. 1 is a block diagram schematically showing a configuration of a sound
The sound
The sound
図2は、マスク生成部105の内部構成を概略的に示すブロック図である。
マスク生成部105は、マスク係数算出部106と、発話量比算出部107と、ゲイン算出部108と、マスク修正部109とを備える。
以下、図1及び図2に基づいて、実施の形態1の音源分離装置100の構成及びその動作原理を説明する。音源分離装置100は、第1のマイクロホン101及び第2のマイクロホン102で取得された時間領域の信号から生成された、周波数領域における信号に基づいて、マスキングフィルタを形成し、それを第1のマイクロホン101で取得された信号に対応する周波数領域の信号に掛けることで、妨害音が除去された目的音の出力信号を得る構成となっている。FIG. 2 is a block diagram schematically showing the internal configuration of the mask generation unit 105.
The mask generation unit 105 includes a mask
Hereinafter, the configuration of the sound
ここで、第1のマイクロホン101で取得された第1の観測アナログ信号を第1のチャンネルCh1ともいい、第2のマイクロホン102で取得された第2の観測アナログ信号を第2のチャンネルCh2ともいう。
また、以降の説明を簡単にするため、図3に示されているように、第1のマイクロホン101と、第2のマイクロホン102とは、同一水平面に位置し、かつ、それらの位置は既知であり、かつ、時間で変化しないものとする。さらに、目的音及び妨害音が到来し得る方向範囲についても時間で変化しないものとする。なお、目的音が到来する方向を第1の方向ともいい、妨害音が到来する方向を第2の方向ともいう。
ここでは、目的音及び妨害音は、それぞれ別の単一話者による音声であるものとして説明する。Here, the first observed analog signal acquired by the
Further, for simplification of the following description, as shown in FIG. 3, the
Here, the target sound and the disturbing sound will be described as being sounds by different single speakers.
第1のマイクロホン101は、観測音を電気信号に変換することで、第1の観測アナログ信号を生成する。第1の観測アナログ信号は、A/D変換部103に与えられる。
第2のマイクロホン102は、観測音を電気信号に変換することで、第2の観測アナログ信号を生成する。第2の観測アナログ信号は、A/D変換部103に与えられる。The
The
A/D変換部103は、第1のマイクロホン101から与えられた第1の観測アナログ信号及び第2のマイクロホン102から与えられた第2の観測アナログ信号のそれぞれに対して、アナログ/デジタル変換(以下、A/D変換という)を行うことで、それぞれをデジタル信号に変換し、第1の観測デジタル信号及び第2の観測デジタル信号を生成する。
The A /
例えば、A/D変換部103は、第1のマイクロホン101から与えられた第1の観測アナログ信号に対して、予め定められたサンプリング周波数でサンプリングして、フレーム単位で分割されたデジタル信号に変換することで、第1の観測デジタル信号を生成する。同様に、A/D変換部103は、第2のマイクロホン102から与えられた第2の観測アナログ信号に対して、予め定められたサンプリング周波数でサンプリングして、フレーム単位で分割されたデジタル信号に変換することで、第2の観測デジタル信号を生成する。ここで、サンプリング周波数は、例えば、16kHzであり、フレーム単位は、例えば、16msである。
For example, the A /
なお、サンプル番号tに対応するフレーム間隔における第1の観測アナログ信号から生成された第1の観測デジタル信号を、符号x1(t)で表し、サンプル番号tに対応するフレーム間隔における第2の観測アナログ信号から生成された第2の観測デジタル信号を、符号x2(t)で表す。
第1の観測デジタル信号x1(t)及び第2の観測デジタル信号x2(t)は、T/F変換部104に与えられる。The first observation digital signal generated from the first observation analog signal at the frame interval corresponding to the sample number t is represented by the code x 1 (t), and the second observation digital signal at the frame interval corresponding to the sample number t is represented by the reference numeral x 1 (t). The second observed digital signal generated from the observed analog signal is represented by the code x 2 (t).
The first observed digital signal x 1 (t) and the second observed digital signal x 2 (t) are given to the T /
T/F変換部104は、第1の観測デジタル信号x1(t)及び第2の観測デジタル信号x2(t)を受けて、時間領域の第1の観測デジタル信号x1(t)及び第2の観測デジタル信号x2(t)を、周波数領域の第1の短時間スペクトル成分X1(ω,τ)及び第2の短時間スペクトル成分X2(ω,τ)に変換する。但し、ωは、離散周波数であるスペクトル番号、τは、フレーム番号を表す。The T /
具体的には、T/F変換部104は、第1の観測デジタル信号x1(t)に対して、例えば、512点の高速フーリエ変換を行うことで、第1の短時間スペクトル成分X1(ω,τ)を生成する。同様に、T/F変換部104は、第2の観測デジタル信号x2(t)から、第2の短時間スペクトル成分X2(ω,τ)を生成する。
なお、以下では、特に断わりのない限り、現フレームの短時間スペクトル成分は、単にスペクトル成分としてその記載を省略する。Specifically, the T /
In the following, unless otherwise specified, the short-time spectral component of the current frame is simply omitted from the description as a spectral component.
マスク生成部105は、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)を受けて、目的音を分離するためのマスキングを行うフィルタリング係数である時間周波数フィルタ係数bmod(ω,τ)を算出する。例えば、マスク生成部105は、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)の相互相関関数を用いて、観測音が、第1のマイクロホン101に到来する時間と、第2のマイクロホン102に到来する時間との時間差により、目的音が到来する第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出する。The mask generation unit 105 receives the first spectral component X 1 (ω, τ) and the second spectral component X 2 (ω, τ), and is a filtering coefficient that performs masking for separating the target sound. Calculate the frequency filter coefficient b mod (ω, τ). For example, the mask generation unit 105 uses the cross-correlation function of the first spectral component X 1 (ω, τ) and the second spectral component X 2 (ω, τ) to make the observed sound the
時間周波数フィルタ係数bmod(ω,τ)を求めるにあたり、図3に示されているように、第1のマイクロホン101及び第2のマイクロホン102が設けられている水平面において、第1のマイクロホン101の垂直方向V1及び第2のマイクロホン102の垂直方向V2に対して、予め定められた角度θに含まれる方向から、目的音が到来するものとする。なお、妨害音は、第1のマイクロホン101の垂直方向V1及び第2のマイクロホン102の垂直方向V2に対して、目的音とは反対の側から到来するものとする。In determining the time-frequency filter coefficient b mod (ω, τ), as shown in FIG. 3, in the horizontal plane provided with the
ここで、第1のマイクロホン101の垂直方向V1及び第2のマイクロホン102の垂直方向V2は、第1のマイクロホン101及び第2のマイクロホン102を結ぶ直線に対して、垂直になっているものとする。なお、第1のマイクロホン101の垂直方向V1及び第2のマイクロホン102の垂直方向V2は、予め定められている基準方向であって、必ずしも垂直方向である必要はない。
また、第1のマイクロホン101と第2のマイクロホン102との間隔は、間隔dとなっているものとする。Here, the vertical direction V 2 of the vertical V 1 and
Further, it is assumed that the distance between the
第1のマイクロホン101及び第2のマイクロホン102で集音された音声が、目的音か妨害音かを判別するには、第1のマイクロホン101及び第2のマイクロホン102からの信号を用いて音声到来方向が所望の範囲であるかどうかを推定する必要がある。ここで、第1のマイクロホン101及び第2のマイクロホン102からの信号間に生じる時間差は、角度θによって決まるため、この時間差を利用することで到来方向の推定が可能となる。以下、図2及び図3を用いて説明する。
In order to determine whether the sound collected by the
マスク係数算出部106は、まず、下記の式(1)に示すように、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)の相互相関関数からクロススペクトルD(ω,τ)を算出する。そして、マスク係数算出部106は、算出されたクロススペクトルD(ω,τ)を、発話量比算出部107に与える。
次に、マスク係数算出部106は、クロススペクトルD(ω,τ)のフェイズΘD(ω,τ)を、下記の式(2)を用いて求める。
上記の式(2)で得られたフェイズΘD(ω,τ)は、第1のチャンネルCh1及び第2のチャンネルCh2のそれぞれのスペクトル成分毎の位相角を意味し、これを離散周波数ωで除算したものは、2つの信号間の時間遅れを表す。すなわち、第1のチャンネルCh1及び第2のチャンネルCh2の時間差δ(ω,τ)は、下記の式(3)のように表すことができる。
次に、音声が角度θの方向から到来するときに観測される時間差の理論値δθは、間隔dを使って、下記の式(4)のように表すことができる。但し、cは音速である。
ここで、θ>θthを満たすθの集合を、所望の方向範囲とするならば、理論的な時間差δθ_thと、観測アナログ信号の時間差δ(ω,τ)との大小を比較することで、音声が所望の方向範囲から到来しているかどうかを推定することができる。
そのため、目的音を分離するためのマスキングを行うマスク係数b(ω,τ)は、下記の式(5)のように表すことができる。
Therefore, the mask coefficient b (ω, τ) for masking to separate the target sound can be expressed by the following equation (5).
言い換えると、マスク係数算出部106は、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)の相互相関関数を用いて、目的音が、第1のマイクロホン101に到来する時間と、第2のマイクロホン102に到来する時間との第1の時間差、及び、妨害音が第1のマイクロホン101に到来する時間と、第2のマイクロホン102に到来する時間との第2の時間差から、観測音の内、目的音が到来する第1の方向を含む第1の範囲から到来する音と、妨害音が到来する第2の方向を含む第2の範囲から到来する音とを区別して、第1の範囲に含まれる方向から到来する音のスペクトル成分を、第2の範囲に含まれる方向から到来する音のスペクトル成分から分離するためのマスク係数を算出する。In other words, the mask
式(5)で示されるマスク係数b(ω,τ)は、目的音と推定される場合には1、妨害音と推定される場合にはMとなる。ここで、M=0とする場合には、1又は0の二値(バイナリ)とするマスク係数となるため、そのようなマスク係数を有するフィルタは、バイナリマスクと呼ばれる。なお、フィルタ係数として、二値以外の小数が用いられてもよく、この場合のフィルタは、ソフトマスクとも呼ばれる。但し、フィルタ係数は、目的音及び妨害音のいずれも1未満の値となる。本実施の形態では、例えば、M=0.5を用いるものとする。
マスク係数算出部106は、マスク係数b(ω,τ)を、マスク修正部109に与える。The mask coefficient b (ω, τ) represented by the equation (5) is 1 when it is presumed to be the target sound and M when it is presumed to be a disturbing sound. Here, when M = 0, the mask coefficient is a binary of 1 or 0, so a filter having such a mask coefficient is called a binary mask. A decimal number other than binary may be used as the filter coefficient, and the filter in this case is also called a soft mask. However, the filter coefficient is a value less than 1 for both the target sound and the disturbing sound. In this embodiment, for example, M = 0.5 is used.
The mask
発話量比算出部107は、第1のチャンネルCh1の第1のスペクトル成分X1(ω,τ)と、第2のチャンネルCh2の第2のスペクトル成分X2(ω,τ)と、クロススペクトルD(ω,τ)とを受け、目的音話者の発話量と妨害音話者の発話量との比率である発話量比を算出する。言い換えると、発話量比は、第1のスペクトル成分X1(ω,τ)の内、目的音が到来する第1の方向を含む第1の範囲から到来する音のスペクトル成分の量の、妨害音が到来する第2の方向を含む第2の範囲から到来する音のスペクトル成分の量に対する比率である。The utterance ratio calculation unit 107 cross-spectrums the first spectral component X 1 (ω, τ) of the
まず、発話量比算出部107は、第1のチャンネルCh1の第1のスペクトル成分X1(ω,τ)から、第1のチャンネルCh1の第1のパワースペクトルP1(ω,τ)を、下記の式(6)から求める。
続いて、発話量比算出部107は、上記の式(1)に示されているクロススペクトルD(ω,τ)の虚数部Q(ω,τ)の符号により、対象となる音声の観測アナログ信号が、目的音側から到来しているのか、妨害音側から到来しているのかを判定する。そして、発話量比算出部107は、下記の式(7)に示されているように、符号の判定結果に従って第1のチャンネルCh1の第1のパワースペクトルP1(ω,τ)を加算し、目的音話者の発話量sTgt(τ)、及び、妨害音話者の発話量sInt(τ)をそれぞれ求める。
そして、発話量比算出部107は、得られた2つの発話量sTgt(τ)及びsInt(τ)から、下記の式(8)により、発話量比SR(τ)を得る。
図4(A)〜(C)は、目的音話者と妨害音話者が発話した場合の発話量比SR(τ)を説明するためのグラフである。
図4(A)は、第1のマイクロホン101で取得された観測アナログ信号の時間波形の一例を示すグラフである。
図4(B)は、目的音話者と妨害音話者との発話量の時間変動の一例を示すグラフである。
図4(C)は、目的音話者の発話量と、妨害音話者の発話量とから得られた発話量比SR(τ)の時間変動の一例を示すグラフである。4 (A) to 4 (C) are graphs for explaining the utterance amount ratio SR (τ) when the target speaker and the disturbing speaker speak.
FIG. 4A is a graph showing an example of the time waveform of the observed analog signal acquired by the
FIG. 4B is a graph showing an example of time variation in the amount of speech between the target sound speaker and the disturbing sound speaker.
FIG. 4C is a graph showing an example of time variation of the utterance amount ratio SR (τ) obtained from the utterance amount of the target sound speaker and the utterance amount of the disturbing sound speaker.
図4(C)に示されているように、SR(τ)<0.3を満たすフレームの場合は、妨害音のみの可能性が高い一方、SR(τ)>0.5を満たすフレームの場合は、目的音のみの可能性が高いことが分かる。
また、0.3≦SR(τ)≦0.5の場合は、目的音も妨害音も両方存在する場合とみなすことができる。As shown in FIG. 4C, in the case of a frame satisfying SR (τ) <0.3, there is a high possibility of only disturbing sound, while a frame satisfying SR (τ)> 0.5. In that case, it can be seen that there is a high possibility that only the target sound is used.
Further, when 0.3 ≦ SR (τ) ≦ 0.5, it can be considered that both the target sound and the disturbing sound are present.
よって、上記の式(8)で得られた発話量比SR(τ)を用い、観測アナログ信号の様態に応じたマスキングの強度の制御を行うことで、分離精度が高く歪みも少ない目的音の分離が可能である。より具体的には、例えば、発話量比SR(τ)が小さいフレームでは、マスキングのフィルタ係数の数値を大きくすることで強く妨害音を抑圧して分離性能を高め、発話量比SR(τ)が大きいフレームでは、マスキングのフィルタ係数の数値を小さくすることで目的音の歪みを小さくする制御が可能である。 Therefore, by using the utterance ratio SR (τ) obtained by the above equation (8) and controlling the masking intensity according to the mode of the observed analog signal, the target sound with high separation accuracy and little distortion can be obtained. Separation is possible. More specifically, for example, in a frame having a small utterance ratio SR (τ), increasing the value of the masking filter coefficient strongly suppresses disturbing sounds to improve the separation performance, and the utterance ratio SR (τ). In a frame with a large value, it is possible to control the distortion of the target sound by reducing the value of the masking filter coefficient.
図2に戻り、ゲイン算出部108は、上記の式(8)で得られた発話量比SR(τ)を用いて、上記の式(5)のマスク係数b(ω,τ)中の定数Mを修正する修正ゲインg(ω,τ)を、下記の式(9)により計算する。
そして、目的音の可能性が高い場合は、上記の式(5)中のMが大きくなるように、言い換えるならば、マスクの抑圧量が小さくなるように制御される。但し、修正後のMは、1以下の値に制限される。
一方、妨害音の可能性が高い場合には、上述の式(5)中のMが更に小さくなるように、言い換えると、妨害音の抑圧量が更に大きくなるように制御されることとなる。
即ち、ゲイン算出部108は、発話量比が高いほど、マスキングが行われる強度が低くなるように、マスク係数を修正するための修正ゲインを算出する。Then, when the possibility of the target sound is high, it is controlled so that M in the above equation (5) becomes large, in other words, the amount of suppression of the mask becomes small. However, the modified M is limited to a value of 1 or less.
On the other hand, when the possibility of the disturbing sound is high, it is controlled so that M in the above equation (5) becomes smaller, in other words, the suppression amount of the disturbing sound becomes larger.
That is, the
この修正ゲインの算出にあたっては、単純な観測アナログ信号のパワー計算から求められる発話量比と、発話量比の比較による条件式のみで済むため計算コストが低くて済み、効率的にマスク係数を修正することが可能である。 In calculating this correction gain, the calculation cost is low because only the conditional expression obtained by comparing the utterance amount ratio and the utterance amount ratio obtained from the power calculation of the simple observation analog signal is required, and the mask coefficient is efficiently corrected. It is possible to do.
また、K(ω)は1以下の正の数で表現される周波数補正係数であり、下記の式(10)で示されるように、周波数が高くなるに従って値が大きくなるように設定される。
なお、式(10)の周波数補正係数は、周波数が高くなるに従って値が大きくなるように補正しているが、式(10)の周波数補正係数は、このような例に限定されるものではなく、観測アナログ信号の特性に応じて適宜変更することが可能である。例えば、音源分離の対象とする音響信号が音声の場合、音声において重要な周波数帯域成分であるフォルマントの抑圧を弱くするように補正が行われるとともに、それ以外の帯域成分の抑圧を強くするように補正が行われてもよい。これにより、音声に対するマスク制御の精度が向上するので、目的音を効率良く分離することが可能となる。
また、音源分離の対象が機械の異常音であれば、その音響信号の周波数特性に応じて式(10)の周波数補正係数を変更することで、異常音を効率良く分離することが可能となる。The frequency correction coefficient of the equation (10) is corrected so that the value increases as the frequency increases, but the frequency correction coefficient of the equation (10) is not limited to such an example. , It can be changed as appropriate according to the characteristics of the observed analog signal. For example, when the acoustic signal to be separated from the sound source is speech, correction is performed so as to weaken the suppression of formants, which are important frequency band components in speech, and to strengthen the suppression of other band components. Corrections may be made. As a result, the accuracy of mask control for voice is improved, so that the target sound can be efficiently separated.
Further, if the target of sound source separation is an abnormal sound of a machine, the abnormal sound can be efficiently separated by changing the frequency correction coefficient of the equation (10) according to the frequency characteristic of the acoustic signal. ..
このように周波数により補正することによる更なる効果としては、観測騒音に環境騒音が混入している場合では、目的とする音声又は異常音以外の音響信号(例えば、騒音又は音楽等)へのマスキングによる影響が少なくなるため、環境騒音に対する不必要なマスキングにより生じる不快な人工的雑音(ミュージカルトーン)が少なくなり、人工的雑音による音声認識装置又は異常音監視装置の誤動作が減少し、ハンズフリー通話時の不快な雑音が減少する副次的効果も奏する。 As a further effect of correcting by frequency in this way, when environmental noise is mixed in the observed noise, masking to acoustic signals (for example, noise or music) other than the target voice or abnormal sound is masked. Since the influence of noise is reduced, unpleasant artificial noise (musical tone) caused by unnecessary masking against environmental noise is reduced, malfunction of the voice recognition device or abnormal sound monitoring device due to artificial noise is reduced, and hands-free calling is performed. It also has the side effect of reducing the unpleasant noise of time.
なお、上記した修正ゲインの各定数値又は発話量比SR(τ)の定数閾値については、式(9)の場合に限定されることはなく、目的音又は妨害音の様態に合わせて適宜調整することができる。また、修正ゲインを決定する条件も式(9)のように3段階に限らず、更に多い段階で設定されてもよい。 The constant value of each of the above-mentioned correction gains or the constant threshold value of the utterance volume ratio SR (τ) is not limited to the case of the equation (9), and is appropriately adjusted according to the mode of the target sound or the disturbing sound. can do. Further, the condition for determining the correction gain is not limited to the three stages as in the equation (9), and may be set in more stages.
マスク修正部109は、下記の式(11)に示すように、上記の式(5)で得られたマスク係数b(ω,τ)に対して、式(9)で得られた修正ゲインg(ω,τ)を用いて修正し、時間周波数フィルタ係数bmod(ω,τ)を得る。
図1に戻り、マスキングフィルタ部110は、下記の式(12)で示されているように、第1のマイクロホン101側の第1のスペクトル成分X1(ω,τ)に、上記の式(11)で得られた時間周波数フィルタ係数bmod(ω,τ)を乗算し、スペクトル成分Y(ω,τ)を算出する。そして、マスキングフィルタ部110は、算出されたスペクトル成分Y(ω,τ)をT/F逆変換部111に送る。ここで分離されたスペクトル成分Y(ω,τ)を目的スペクトル成分ともいう。目的スペクトル成分は、目的音を含むスペクトル成分である。
T/F逆変換部111は、スペクトル成分Y(ω,τ)に対し、例えば、逆高速フーリエ変換を行い、出力デジタル信号y(t)を算出する。T/F逆変換部111は、算出された出力デジタル信号y(t)をD/A変換部112に与える。
The T / F
D/A変換部112は、出力デジタル信号y(t)をアナログ信号に変換することで、出力信号を生成する。生成された出力信号は、例えば、音声認識装置、ハンズフリー通話装置又は異常音監視装置等の外部機器へ出力される。
The D /
図5(A)及び(B)は、実施の形態1における効果を説明するためのグラフである。
図5(A)は、図4(A)と同様に、第1のマイクロホン101で取得された観測アナログ信号の時間波形の一例を示すグラフである。
図5(B)は、D/A変換部112から出力される出力信号の時間変動の一例を示すグラフである。
図5(A)及び(B)から明らかなように、出力信号からは妨害音が殆ど除去されて目的音のみが分離されていることが分かる。5 (A) and 5 (B) are graphs for explaining the effect in the first embodiment.
FIG. 5A is a graph showing an example of the time waveform of the observation analog signal acquired by the
FIG. 5B is a graph showing an example of time variation of the output signal output from the D /
As is clear from FIGS. 5A and 5B, it can be seen that most of the disturbing sound is removed from the output signal and only the target sound is separated.
上記の音源分離装置100のハードウェア構成は、タブレットタイプの可搬型コンピュータ、又は、カーナビゲーションシステム等の機器組み込み用途のマイクロコンピュータ等の、CPU(Central Processing Unit)内蔵のコンピュータで実現可能である。あるいは、上記の音源分離装置100のハードウェア構成は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、又は、FPGA(Field−Programmable Gate Array)等のLSI(Large Scale Integrated circuit)により実現されてもよい。
The hardware configuration of the sound
図6は、DSP、ASIC又はFPGA等のLSIを用いて構成される音源分離装置100のハードウェア構成例を示すブロック図である。
FIG. 6 is a block diagram showing a hardware configuration example of the sound
図6の例では、音源分離装置100は、信号入出力部131、信号処理回路132、記録媒体133及びバス等の信号路134により構成されている。
信号入出力部131は、マイクロホン回路140及び外部装置141との接続機能を実現するインタフェース回路である。マイクロホン回路140は、第1のマイクロホン101及び第2のマイクロホン102に対応し、例えば、音響振動を捉えて電気信号へ変換する装置等を使用することができる。In the example of FIG. 6, the sound
The signal input /
図1に示されている、T/F変換部104、マスク生成部105、マスキングフィルタ部110及びT/F逆変換部111の各機能は、信号処理回路132及び記録媒体133で実現することができる。
また、図1のA/D変換部103及びD/A変換部112は、信号入出力部131により実現することができる。Each function of the T /
Further, the A /
記録媒体133は、信号処理回路132の各種設定データ及び信号データ等の各種データを蓄積するために使用される。記録媒体133としては、例えば、SDRAM(Synchronous Dynamic Random Access Memory)等の揮発性メモリ、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の不揮発性メモリを使用することができる。記録媒体133には、音源分離処理の初期状態、各種設定データ、制御用の定数データ等を記憶しておくことができる。
The
信号処理回路132で音源分離処理が行われた出力デジタル信号は、信号入出力部131から外部装置141に送出されるが、この外部装置141としては、例えば、音声認識装置、ハンズフリー通話装置又は異常音監視装置が相当する。
The output digital signal subjected to the sound source separation processing in the
図7は、コンピュータ等の演算装置を用いて構成される音源分離装置100のハードウェア構成例を示すブロック図である。
図7の例では、音源分離装置100は、信号入出力部131、CPU135を内蔵するプロセッサ136、メモリ137、記録媒体138及びバス等の信号路134により構成されている。
信号入出力部131は、マイクロホン回路140及び外部装置141との接続機能を実現するインタフェース回路である。FIG. 7 is a block diagram showing a hardware configuration example of the sound
In the example of FIG. 7, the sound
The signal input /
メモリ137は、音源分離処理を実現するための各種プログラムを記憶するプログラムメモリ、プロセッサ136がデータ処理を行う際に使用するワークメモリ、及び、信号データを展開するメモリ等として使用するROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶手段である。 The memory 137 is a ROM (Read Only) used as a program memory for storing various programs for realizing sound source separation processing, a work memory used when the processor 136 performs data processing, a memory for expanding signal data, and the like. It is a storage means such as Memory) and RAM (Random Access Memory).
T/F変換部104、マスク生成部105、マスキングフィルタ部110及びT/F逆変換部111の各機能は、プロセッサ136、メモリ137及び記録媒体138で実現することができる。
また、A/D変換部103及びD/A変換部112は、信号入出力部131で実現することができる。The functions of the T /
Further, the A /
記録媒体138は、プロセッサ136の各種設定データ及び信号データ等の各種データを蓄積するために使用される。記録媒体138としては、たとえば、SDRAM等の揮発性メモリ、HDD又はSSD等の不揮発性メモリを使用することが可能である。OS(Operating System)を含むプログラム、各種設定データ、及び、音響信号データ等の各種データを蓄積することができる。なお、この記録媒体138に、メモリ137内のデータを蓄積しておくこともできる。 The recording medium 138 is used to store various data such as various setting data and signal data of the processor 136. As the recording medium 138, for example, a volatile memory such as SDRAM or a non-volatile memory such as an HDD or SSD can be used. It is possible to store various data such as a program including an OS (Operating System), various setting data, and acoustic signal data. The data in the memory 137 can also be stored in the recording medium 138.
プロセッサ136は、メモリ137を作業用メモリとして使用し、メモリ137から読み出されたコンピュータプログラムに従って動作することにより、T/F変換部104、マスク生成部105、マスキングフィルタ部110及びT/F逆変換部111として機能することができる。
The processor 136 uses the memory 137 as a working memory and operates according to the computer program read from the memory 137, thereby causing the T /
プロセッサ136で音源分離処理が行われて生成された出力信号は、信号入出力部131から外部装置141に送出されるが、この外部装置141としては、例えば、音声認識装置、ハンズフリー通話装置又は異常音監視装置が相当する。
The output signal generated by performing the sound source separation processing by the processor 136 is sent from the signal input /
プロセッサ136が実行されるプログラムは、ソフトウェアプログラムを実行するコンピュータ内部の記憶装置に記憶していても良いし、CD−ROM等の記憶媒体にて配布される形式でもよい。また、LAN(Local Area Network)等の無線又は有線のネットワークを通じて、他のコンピュータからプログラムを取得することも可能である。このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。 The program in which the processor 136 is executed may be stored in a storage device inside a computer that executes the software program, or may be distributed in a storage medium such as a CD-ROM. It is also possible to acquire a program from another computer through a wireless or wired network such as LAN (Local Area Network). Such a program may be provided, for example, as a program product.
さらに、マイクロホン回路140及び外部装置141に関しても、アナログ信号とデジタル信号との変換等を介せずに、無線又は有線ネットワークを通じて、各種データをデジタル信号のまま送受信しても構わない。
Further, with respect to the
また、プロセッサ136で実行されるプログラムは、外部装置141で実行されるプログラム、例えば、コンピュータを、音声認識装置、ハンズフリー通話装置又は異常音監視装置として機能させるために実行されるプログラムとソフトウェア上で結合され、同一のコンピュータで動作させることも可能であり、又は、複数のコンピュータ上で分散して動作させることも可能である。
The program executed by the processor 136 is a program executed by the
なお、外部装置141が音源分離装置100を含んでいてもよい。即ち、音源分離装置100を含む形で、音声認識装置、ハンズフリー通話装置又は異常音監視装置が構成されてもよい。
The
次に、実施の形態1に係る音源分離装置100の動作について説明する。
図8は、音源分離装置100の動作を示すフローチャートである。
まず、A/D変換部103は、第1のマイクロホン101及び第2のマイクロホン102のそれぞれから入力された、第1の観測アナログ信号及び第2の観測アナログ信号のそれぞれを、予め定められたフレーム間隔で取り込み、それぞれをA/D変換することで、第1の観測デジタル信号x1(t)及び第2の観測デジタル信号x2(t)を生成して、それらをT/F変換部104に与える(S10)。
そして、A/D変換部103からの出力は、サンプル番号tが予め定められた値Tよりも小さい場合(S11でNo)には、繰り返し行われる。Next, the operation of the sound
FIG. 8 is a flowchart showing the operation of the sound
First, the A /
Then, the output from the A /
ステップS12では、T/F変換部104は、第1の観測デジタル信号x1(t)及び第2の観測デジタル信号x2(t)のそれぞれに対して、例えば、512点の高速フーリエ変換を行い、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)を算出する。そして、T/F変換部104は、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)をマスク生成部105に与え、第1のスペクトル成分X1(ω,τ)をマスキングフィルタ部110に与える。In step S12, the T /
マスク生成部105は、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)から、目的音を分離するためのマスキングを行う時間周波数フィルタ係数bmod(ω,τ)を算出する(S13)。以下、ステップS13A〜S13Dにより、ステップS13での詳細な処理を説明する。Mask generator 105, the first spectral component X 1 (omega, tau) and a second spectral component X 2 (omega, tau) from the time-frequency filter coefficient b mod performing masking for separating the target sound ( ω, τ) is calculated (S13). Hereinafter, detailed processing in step S13 will be described in accordance with steps S13A to S13D.
ステップS13Aでは、マスク係数算出部106は、第1のスペクトル成分X1(ω,τ)及び第2のスペクトル成分X2(ω,τ)の相互相関関数から、クロススペクトルD(ω,τ)を算出するとともに、得られたクロススペクトルD(ω,τ)に基づいて、マスク係数b(ω,τ)を算出する。マスク係数算出部106は、クロススペクトルD(ω,τ)を発話量比算出部107に与え、マスク係数b(ω,τ)をマスク修正部109に与える。そして、処理は、ステップS13Bに進む。In step S13A, the mask
ステップS13Bでは、発話量比算出部107は、第1のスペクトル成分X1(ω,τ)、第2のスペクトル成分X2(ω,τ)及びクロススペクトルD(ω,τ)から、目的音話者の発話量と、妨害音話者の発話量との間の比率である発話量比SR(τ)を算出する。発話量比算出部107は、発話量比SR(τ)をゲイン算出部108に与える。そして、処理はステップS13Cに進む。In step S13B, the utterance ratio calculation unit 107 starts with the target sound from the first spectral component X 1 (ω, τ), the second spectral component X 2 (ω, τ), and the cross spectrum D (ω, τ). The utterance volume ratio SR (τ), which is the ratio between the utterance volume of the speaker and the utterance volume of the disturbing sound speaker, is calculated. The utterance amount ratio calculation unit 107 gives the utterance amount ratio SR (τ) to the
ステップS13Cでは、ゲイン算出部108は、発話量比SR(τ)を用いて、マスク係数b(ω,τ)を修正するための修正ゲインg(ω,τ)を計算する。ゲイン算出部108は、修正ゲインg(ω,τ)をマスク修正部109に与える。そして、処理はステップS13Dに進む。
In step S13C, the
ステップS13Dでは、マスク修正部109は、マスク係数b(ω,τ)を、修正ゲインg(ω,τ)を用いて修正し、時間周波数フィルタ係数bmod(ω,τ)を得る。そして、マスク修正部109は、時間周波数フィルタ係数bmod(ω,τ)を、マスキングフィルタ部110に与える。In step S13D, the
マスキングフィルタ部110は、第1のスペクトル成分X1(ω,τ)に、時間周波数フィルタ係数bmod(ω,τ)を乗算し、出力デジタル信号y(t)のスペクトル成分Y(ω,τ)を算出する(S14)。そして、マスキングフィルタ部110は、スペクトル成分Y(ω,τ)をT/F逆変換部111に与える。The masking filter unit 110 multiplies the first spectral component X 1 (ω, τ) by the time-frequency filter coefficient b mod (ω, τ), and the spectral component Y (ω, τ) of the output digital signal y (t). ) Is calculated (S14). Then, the masking
T/F逆変換部111は、スペクトル成分Y(ω,τ)に対して逆高速フーリエ変換を行うことで、スペクトル成分Y(ω,τ)を時間領域の出力デジタル信号y(t)に変換する(S15)。
The T / F
D/A変換部112は、出力デジタル信号y(t)を、D/A変換することで、アナログ信号である出力信号に変換して、外部に出力する(S16)。
そして、D/A変換部112からの出力は、サンプル番号tが予め定められた値Tより小さい場合(S17でYes)には、繰り返し行われる。The D /
Then, the output from the D /
次に、音源分離処理が続行される場合(S18でYes)には、処理はステップS10に戻る。一方、音源分離処理が続行されない場合(S18でNo)には、音源分離処理は終了する。 Next, when the sound source separation process is continued (Yes in S18), the process returns to step S10. On the other hand, if the sound source separation process is not continued (No in S18), the sound source separation process ends.
以上のように、実施の形態1の音源分離装置100で、低い計算コストで分離性能の高いマスキングフィルタを作成することができる。このため、目的音を的確に取得することができ、高精度の音声認識装置、高品質なハンズフリー通話装置及び検出精度の高い異常音監視装置を提供することが可能となる。
As described above, the sound
実施の形態2.
実施の形態1では、音声による構成を例示したが、妨害音となる音声以外の雑音が存在する場合にも適用することができる実施の形態を、実施の形態2として説明する。Embodiment 2.
In the first embodiment, the configuration by voice is illustrated, but the embodiment that can be applied even when there is noise other than the voice that becomes the disturbing sound will be described as the second embodiment.
図9は、実施の形態2に係る音源分離装置200を含む情報処理システム250の構成を概略的に示すブロック図である。ここで示す情報処理システム250は、カーナビゲーションシステムの一例であり、走行中の自動車内での運転席に着座する話者と、助手席に着座する話者とが発話する場合を示している。実施の形態2では、運転席に着座する話者を目的音話者とし、助手席に着座する話者を妨害音話者として、説明する。
FIG. 9 is a block diagram schematically showing the configuration of the information processing system 250 including the sound
図9に示されているように、情報処理システム250は、第1のマイクロホン101と、第2のマイクロホン102と、音源分離装置200と、外部装置141とを備える。
実施の形態2における第1のマイクロホン101及び第2のマイクロホン102は、実施の形態1における第1のマイクロホン101及び第2のマイクロホン102と同様である。また、外部装置141は、図6又は図7を用いて説明した外部装置141と同様である。As shown in FIG. 9, the information processing system 250 includes a
The
実施の形態2における入力としては、第1のマイクロホン101及び第2のマイクロホン102を通じて取り込まれた目的音話者及び妨害音話者の音声の他、自動車走行騒音等の騒音、ハンズフリー通話時におけるスピーカより送出された遠端側話者の受話音声、カーナビゲーションが送出する案内音声、又は、カーオーディオの音楽等が回り込む音響エコー等である。目的音話者及び妨害音話者の音声以外の音声を雑音とする。また、雑音の信号を雑音信号とする。そして、実施の形態2では、目的音が到来する第1の方向を含む第1の範囲及び妨害音が到来する第2の方向を含む第2の範囲には含まれない方向から到来する音のスペクトル成分を除外して、発話量比を算出することで、雑音の影響を除外している。
The inputs in the second embodiment include the sounds of the target sound speaker and the disturbing sound speaker captured through the
外部装置141は、上述のように、例えば、音声認識装置、ハンズフリー通話装置又は異常音監視装置である。外部装置141では、例えば、音声認識処理、ハンズフリー通話処理又は異常音検出処理を行って、それぞれの処理に応じた出力結果を得る。
As described above, the
音源分離装置200は、A/D変換部103と、T/F変換部104と、マスク生成部205と、マスキングフィルタ部110と、T/F逆変換部111とを備える。
実施の形態2に係る音源分離装置200のA/D変換部103、T/F変換部104、マスキングフィルタ部110及びT/F逆変換部111は、実施の形態1の音源分離装置100のA/D変換部103、T/F変換部104、マスキングフィルタ部110及びT/F逆変換部111と同様である。
但し、実施の形態2に係る音源分離装置200では、T/F逆変換部111で生成された出力デジタル信号y(t)が外部装置141に与えられる。The sound
The A /
However, in the sound
図2に示されているように、マスク生成部205は、マスク係数算出部106と、発話量比算出部207と、ゲイン算出部108と、マスク修正部109とを備える。
実施の形態2におけるマスク生成部205のマスク係数算出部106、ゲイン算出部108及びマスク修正部109は、実施の形態1におけるマスク生成部105のマスク係数算出部106、ゲイン算出部108及びマスク修正部109と同様である。As shown in FIG. 2, the
The mask
発話量比算出部207は、実施の形態1で述べた式(7)を変形した式(13)を用いることで、発話量比SR(τ)の計算から妨害音信号を除外する。
実施の形態1では、式(1)のクロススペクトルD(ω,τ)の虚数部Q(ω,τ)の符号により、目的音の到来方向を判別していたが、式(13)のように、条件式において、到来方向の角度を意味する、第1のチャンネルCh1及び第2のチャンネルCh2の時間差δ(ω,τ)を組み合わせることで、発話量の計算から目的音話者と妨害音話者以外の雑音の影響を除外することができる。
δθDTは、観測アナログ信号の到来時間差が極めて小さく、到来方向が目的音方向なのか妨害音方向なのか判別が難しい場合、あるいは正面方向から騒音が到来している場合を想定し、それらの場合を発話量の計算から除外するための閾値である。
δθDNは、目的音及び妨害音の想定する到来方向から外れている可能性が高い場合、言い換えれば、観測アナログ信号が、例えば窓から混入する風きり音等の方向性雑音、又は、スピーカから放出される音楽等の可能性が高い場合において、そのような場合を発話量の計算から除外するための閾値である。The utterance ratio calculation unit 207 excludes the disturbing sound signal from the calculation of the utterance ratio SR (τ) by using the equation (13) which is a modification of the equation (7) described in the first embodiment.
In the first embodiment, the arrival direction of the target sound is determined by the sign of the imaginary part Q (ω, τ) of the cross spectrum D (ω, τ) of the equation (1). In addition, in the conditional expression, by combining the time difference δ (ω, τ) between the first channel Ch1 and the second channel Ch2, which means the angle in the arrival direction, the target sound speaker and the disturbing sound are calculated from the calculation of the utterance amount. The influence of noise other than the speaker can be excluded.
δ θDT assumes the case where the arrival time difference of the observed analog signal is extremely small and it is difficult to determine whether the arrival direction is the target sound direction or the disturbing sound direction, or the noise is coming from the front direction. Is a threshold value for excluding from the calculation of the amount of speech.
When there is a high possibility that δ θDN deviates from the expected arrival direction of the target sound and the disturbing sound, in other words, the observed analog signal is directional noise such as wind noise mixed from the window, or from the speaker. This is a threshold value for excluding such cases from the calculation of the amount of speech when there is a high possibility that the music will be released.
図10は、式(13)における目的音及び妨害音以外の雑音の影響を除外する方法の一例を示す模式図である。
図10の例は、第1のチャンネルCh1を基準に除外範囲を記載している。
図10のように、発話量の計算において除外範囲を設定することで、目的音及び妨害音以外の雑音の影響を除外することができるので、発話量比の計算精度が向上し、更に品質の高い音源分離装置を構成することが可能となる。FIG. 10 is a schematic diagram showing an example of a method for excluding the influence of noise other than the target sound and the disturbing sound in the equation (13).
In the example of FIG. 10, the exclusion range is described with reference to the first channel Ch1.
As shown in FIG. 10, by setting the exclusion range in the calculation of the utterance amount, the influence of noise other than the target sound and the disturbing sound can be excluded, so that the calculation accuracy of the utterance amount ratio is improved and the quality is further improved. It is possible to configure a high sound source separation device.
実施の形態2に係る音源分離装置200は、以上のように構成されているため、様々な騒音条件であっても、低い計算コストで分離性能の高いマスキングフィルタを作成できる。このため、自動車内の騒音下でも目的音を的確に取得することができるので、高精度の音声認識装置、高品質なハンズフリー通話装置、又は、自動車内の異常音を検知する異常音監視装置を提供することが可能となる。
Since the sound
実施の形態3.
実施の形態1及び2では、発話量比の計算に現フレーム情報だけを使用しているが、実施の形態はこのような例に限定されるものではなく、過去のフレーム情報を用いて計算することも可能である。Embodiment 3.
In the first and second embodiments, only the current frame information is used for the calculation of the utterance volume ratio, but the embodiment is not limited to such an example, and the calculation is performed using the past frame information. It is also possible.
図1に示されているように、実施の形態3に係る音源分離装置300は、A/D変換部103と、T/F変換部104と、マスク生成部305と、マスキングフィルタ部110と、T/F逆変換部111と、D/A変換部112とを備える。
実施の形態3に係る音源分離装置300のA/D変換部103、T/F変換部104、マスキングフィルタ部110、T/F逆変換部111及びD/A変換部112は、実施の形態1に係る音源分離装置100のA/D変換部103、T/F変換部104、マスキングフィルタ部110、T/F逆変換部111及びD/A変換部112と同様である。As shown in FIG. 1, the sound source separation device 300 according to the third embodiment includes an A /
The A /
図2に示されているように、実施の形態3におけるマスク生成部305は、マスク係数算出部106と、発話量比算出部307と、ゲイン算出部108と、マスク修正部109とを備える。
実施の形態3におけるマスク生成部305のマスク係数算出部106、ゲイン算出部108及びマスク修正部109は、実施の形態1におけるマスク生成部105のマスク係数算出部106、ゲイン算出部108及びマスク修正部109と同様である。As shown in FIG. 2, the mask generation unit 305 in the third embodiment includes a mask
The mask
発話量比算出部307は、上記の式(8)を用いて発話量比SR(τ)を算出し、さらに、下記の式(14)を用いて、算出されたSR(τ)を、1フレーム前の発話量比SR(τ−1)で平滑化する。
このように発話量比の計算において、過去に算出された発話量比を用いて、最後に算出された発話量比を平滑化することで、観測アナログ信号に騒音が混入した場合でも、安定して発話量比の計算を行うことが可能となり、更に精度の高い音源分離が可能となる。 In this way, in the calculation of the utterance volume ratio, by using the utterance volume ratio calculated in the past and smoothing the utterance volume ratio calculated last, it is stable even if noise is mixed in the observed analog signal. This makes it possible to calculate the utterance volume ratio, and even more accurate sound source separation becomes possible.
さらに、実施の形態2では、発話量比算出部207は、式(13)を用いて、各信号の発話量を計算しているが、変形例として、発話量比算出部207は、この計算を所定のフレーム区間に拡張すること、言い換えると、予め定められたフレーム区間のパワースペクトルの積分値を計算することで、所定のフレーム区間での目的音と妨害音の占有率、具体的には、どちらが長く発話しているか、あるいは、どちらが大きな音量であるかを分析することが可能である。よって、目的音と妨害音とのダブルトーク時において、どちらの音声が支配的かを判定することが可能となり、より精度の高い音源分離が可能となる。 Further, in the second embodiment, the utterance amount ratio calculation unit 207 calculates the utterance amount of each signal by using the equation (13), but as a modification, the utterance amount ratio calculation unit 207 calculates this calculation. In other words, by calculating the integral value of the power spectrum of the predetermined frame section, the occupancy rate of the target sound and the disturbing sound in the predetermined frame section, specifically, , It is possible to analyze which is speaking longer or which is louder. Therefore, it is possible to determine which voice is dominant at the time of double talk between the target sound and the disturbing sound, and it is possible to separate the sound source with higher accuracy.
上述の実施の形態2において、情報処理システム250がカーナビゲーションシステムの一例である場合について説明したが、実施の形態2は、これに限定されるものではない。例えば、情報処理システム250は、一般家庭内又はオフィス内に設置されるスマートスピーカ又はテレビ等の遠隔音声認識システム、TV会議システムの拡声通話システム、ロボットの音声認識対話システム、又は、工場の異常音監視システム等にも適用可能である。このような場合にも、これらの音響的環境で生ずる雑音又は音響エコーについても、実施の形態2にて述べた効果を同様に奏する。 Although the case where the information processing system 250 is an example of the car navigation system has been described in the above-described second embodiment, the second embodiment is not limited to this. For example, the information processing system 250 is a remote voice recognition system such as a smart speaker or a television installed in a general home or office, a loudspeaker communication system of a TV conference system, a voice recognition dialogue system of a robot, or an abnormal sound of a factory. It can also be applied to monitoring systems and the like. Even in such a case, the effects described in the second embodiment can be similarly obtained with respect to the noise or acoustic echo generated in these acoustic environments.
また、以上に記載された実施の形態1〜3では、入力信号の周波数帯域幅を16kHzとしているが、実施の形態1〜3は、このような例に限定されない。例えば、実施の形態1〜3は、24kHz等の更に広帯域の音響信号についても適用可能である。 Further, in the above-described first to third embodiments, the frequency bandwidth of the input signal is set to 16 kHz, but the first to third embodiments are not limited to such an example. For example, the first to third embodiments can be applied to a wider band acoustic signal such as 24 kHz.
上記以外にも、実施の形態1〜3は、任意の構成要素の変形、又は、任意の構成要素の省略が可能である。 In addition to the above, in the first to third embodiments, any component can be modified or any component can be omitted.
以上のように、実施の形態1〜3に係る音源分離装置100〜300は、低い計算コストで高品質な音源分離が可能なため、音声認識システム、音声通信システム又は異常音監視システムのいずれかに導入することができる。これにより、カーナビゲーション又はテレビ等の遠隔音声認識システムの認識率向上、携帯電話又はインターフォン等のハンズフリー通話システム、TV会議システム又は異常音監視システム等の品質改善に供することができる。
As described above, since the sound
100,200,300 音源分離装置、 101 第1のマイクロホン、 102 第2のマイクロホン、 103 A/D変換部、 104 T/F変換部、 105,205,305 マスク生成部、 106 マスク係数算出部、 107,207,307 発話量比算出部、 108 ゲイン算出部、 109 マスク修正部、 110 マスキングフィルタ部、 111 T/F逆変換部、 112 D/A変換部、 250 情報処理システム。 100, 200, 300 sound source separator, 101 first microphone, 102 second microphone, 103 A / D conversion unit, 104 T / F conversion unit, 105, 205, 305 mask generation unit, 106 mask coefficient calculation unit, 107, 207, 307 Speech ratio calculation unit, 108 gain calculation unit, 109 mask correction unit, 110 masking filter unit, 111 T / F inverse conversion unit, 112 D / A conversion unit, 250 information processing system.
Claims (7)
前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部と、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部と、
前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部と、
前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部と、を備え、
前記マスク生成部は、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、
前記第1のスペクトル成分の内、前記第1の範囲から到来する音のスペクトル成分の量の、前記第2の範囲から到来する音のスペクトル成分の量に対する比率を算出する発話量比算出部と、
前記比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、
前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えること
を特徴とする情報処理装置。 The first observation analog generated by the first microphone based on the observation sound including the target sound arriving from the first direction and the disturbing sound arriving from the second direction different from the first direction. Upon receiving the signal and the input of the second observation analog signal generated by the second microphone based on the observation sound, each of the first observation analog signal and the second observation analog signal is converted into a digital signal. By doing so, the analog / digital conversion unit that generates the first observation digital signal and the second observation digital signal,
A time / frequency conversion unit that generates a first spectral component and a second spectral component by converting each of the first observed digital signal and the second observed digital signal into a signal in the frequency domain.
Using the cross-correlation function of the first spectral component and the second spectral component, the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone , A mask generation unit that calculates a filtering coefficient for masking the spectral components of sound coming from a direction different from the first direction.
A masking filter unit that separates spectral components by masking the first spectral component using the filtering coefficient.
A time / frequency inverse conversion unit that generates an output digital signal by converting the separated spectral components into a signal in the time domain is provided .
The mask generator
Using the intercorrelation function of the first spectral component and the second spectral component, the first of the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone. From the time difference between the above and the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first direction of the observed sound is included. A sound arriving from the first range is distinguished from a sound arriving from the second range including the second direction and not overlapping the first range. A mask coefficient calculation unit that calculates a mask coefficient for separating the spectrum component from the spectrum component of the sound coming from the second range, and a mask coefficient calculation unit.
With the utterance amount ratio calculation unit that calculates the ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range among the first spectral components. ,
A gain calculation unit that calculates a correction gain for correcting the mask coefficient so that the higher the ratio, the lower the strength at which the masking is performed.
An information processing apparatus including a mask correction unit that calculates the filtering coefficient by correcting the mask coefficient with the correction gain.
前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部と、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部と、
前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部と、
前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部と、を備え、
前記マスク生成部は、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、
前記第1のスペクトル成分の内、前記第1の範囲から到来している音のスペクトル成分の量の、前記第2の範囲から到来している音のスペクトル成分の量に対する比率を、時間の経過とともに順次算出し、過去に算出された前記比率を用いて最後に算出された前記比率を平滑化する発話量比算出部と、
前記平滑化された比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、
前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えること
を特徴とする情報処理装置。 The first observation analog generated by the first microphone based on the observation sound including the target sound arriving from the first direction and the disturbing sound arriving from the second direction different from the first direction. Upon receiving the signal and the input of the second observation analog signal generated by the second microphone based on the observation sound, each of the first observation analog signal and the second observation analog signal is converted into a digital signal. By doing so, the analog / digital conversion unit that generates the first observation digital signal and the second observation digital signal,
A time / frequency conversion unit that generates a first spectral component and a second spectral component by converting each of the first observed digital signal and the second observed digital signal into a signal in the frequency domain.
Using the cross-correlation function of the first spectral component and the second spectral component, the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone , A mask generation unit that calculates a filtering coefficient for masking the spectral components of sound coming from a direction different from the first direction.
A masking filter unit that separates spectral components by masking the first spectral component using the filtering coefficient.
A time / frequency inverse conversion unit that generates an output digital signal by converting the separated spectral components into a signal in the time domain is provided.
The mask generator
Using the intercorrelation function of the first spectral component and the second spectral component, the first of the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone. From the time difference between the above and the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first direction of the observed sound is included. A sound arriving from the first range is distinguished from a sound arriving from the second range including the second direction and not overlapping the first range. A mask coefficient calculation unit that calculates a mask coefficient for separating the spectrum component from the spectrum component of the sound coming from the second range, and a mask coefficient calculation unit.
The ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range of the first spectral components over time. And a speech volume ratio calculation unit that smoothes the last calculated ratio using the ratio calculated in the past.
A gain calculation unit that calculates a correction gain for correcting the mask coefficient so that the higher the smoothed ratio is, the lower the strength at which the masking is performed.
An information processing apparatus including a mask correction unit that calculates the filtering coefficient by correcting the mask coefficient with the correction gain.
を特徴とする請求項1又は2に記載の情報処理装置。 The utterance amount ratio calculating unit, by excluding the spectral components of the sound coming from the first range and the second direction which is not included in the scope, claim 1, characterized in that calculating the ratio Or the information processing apparatus according to 2.
第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成するアナログ/デジタル変換部、
前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部と、
前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部、及び、
前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部、として機能させ、
前記マスク生成部は、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、
前記第1のスペクトル成分の内、前記第1の範囲から到来する音のスペクトル成分の量の、前記第2の範囲から到来する音のスペクトル成分の量に対する比率を算出する発話量比算出部と、
前記比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、
前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えること
を特徴とするプログラム。 Computer,
The first observation analog generated by the first microphone based on the observation sound including the target sound arriving from the first direction and the disturbing sound arriving from the second direction different from the first direction. Upon receiving the signal and the input of the second observation analog signal generated by the second microphone based on the observation sound, each of the first observation analog signal and the second observation analog signal is converted into a digital signal. By doing so, the analog / digital conversion unit that generates the first observation digital signal and the second observation digital signal,
A time / frequency conversion unit that generates a first spectral component and a second spectral component by converting each of the first observed digital signal and the second observed digital signal into a signal in the frequency domain.
Using the cross-correlation function of the first spectral component and the second spectral component, the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone , A mask generation unit that calculates a filtering coefficient for masking the spectral components of sound coming from a direction different from the first direction.
A masking filter unit that separates spectral components by masking the first spectral component using the filtering coefficient, and
By converting the separated spectral components into signals in the time domain, it functions as a time / frequency inverse conversion unit that generates an output digital signal .
The mask generator
Using the intercorrelation function of the first spectral component and the second spectral component, the first of the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone. From the time difference between the above and the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first direction of the observed sound is included. A sound arriving from the first range is distinguished from a sound arriving from the second range including the second direction and not overlapping the first range. A mask coefficient calculation unit that calculates a mask coefficient for separating the spectrum component from the spectrum component of the sound coming from the second range, and a mask coefficient calculation unit.
With the utterance amount ratio calculation unit that calculates the ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range among the first spectral components. ,
A gain calculation unit that calculates a correction gain for correcting the mask coefficient so that the higher the ratio, the lower the strength at which the masking is performed.
A program including a mask correction unit for calculating the filtering coefficient by correcting the mask coefficient with the correction gain.
第1の方向から到来する目的音と、前記第1の方向とは異なる第2の方向から到来する妨害音と、を含む観測音に基づいて第1のマイクロホンで生成された第1の観測アナログ信号、及び、前記観測音に基づいて第2のマイクロホンで生成された第2の観測アナログ信号の入力を受けて、第1の観測アナログ信号及び第2の観測アナログ信号の各々をデジタル信号に変換することで、第1の観測デジタル信号及び第2の観測デジタル信号を生成するアナログ/デジタル変換部、
前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成する時間/周波数変換部、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出するマスク生成部、
前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離するマスキングフィルタ部、及び、
前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する時間/周波数逆変換部、として機能させ、
前記マスク生成部は、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出するマスク係数算出部と、
前記第1のスペクトル成分の内、前記第1の範囲から到来している音のスペクトル成分の量の、前記第2の範囲から到来している音のスペクトル成分の量に対する比率を、時間の経過とともに順次算出し、過去に算出された前記比率を用いて最後に算出された前記比率を平滑化する発話量比算出部と、
前記平滑化された比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出するゲイン算出部と、
前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出するマスク修正部と、を備えること
を特徴とするプログラム。 Computer,
The first observation analog generated by the first microphone based on the observation sound including the target sound arriving from the first direction and the disturbing sound arriving from the second direction different from the first direction. Upon receiving the signal and the input of the second observation analog signal generated by the second microphone based on the observation sound, each of the first observation analog signal and the second observation analog signal is converted into a digital signal. By doing so, the analog / digital conversion unit that generates the first observation digital signal and the second observation digital signal,
A time / frequency conversion unit that generates a first spectral component and a second spectral component by converting each of the first observed digital signal and the second observed digital signal into a signal in the frequency domain.
Using the cross-correlation function of the first spectral component and the second spectral component, the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone , A mask generator that calculates a filtering coefficient for masking the spectral components of sound coming from a direction different from the first direction.
A masking filter unit that separates spectral components by masking the first spectral component using the filtering coefficient, and
By converting the separated spectral components into signals in the time domain, it functions as a time / frequency inverse conversion unit that generates an output digital signal .
The mask generator
Using the intercorrelation function of the first spectral component and the second spectral component, the first of the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone. From the time difference between the above and the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first direction of the observed sound is included. A sound arriving from the first range is distinguished from a sound arriving from the second range including the second direction and not overlapping the first range. A mask coefficient calculation unit that calculates a mask coefficient for separating the spectrum component from the spectrum component of the sound coming from the second range, and a mask coefficient calculation unit.
The ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range of the first spectral components over time. And a speech volume ratio calculation unit that smoothes the last calculated ratio using the ratio calculated in the past.
A gain calculation unit that calculates a correction gain for correcting the mask coefficient so that the higher the smoothed ratio is, the lower the strength at which the masking is performed.
A program including a mask correction unit for calculating the filtering coefficient by correcting the mask coefficient with the correction gain.
前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成し、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出し、
前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離し、
前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する情報処理方法であって、
前記フィルタリング係数を算出する際に、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出し、
前記第1のスペクトル成分の内、前記第1の範囲から到来する音のスペクトル成分の量の、前記第2の範囲から到来する音のスペクトル成分の量に対する比率を算出し、
前記比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出し、
前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出すること
を特徴とする情報処理方法。 The first observation analog generated by the first microphone based on the observation sound including the target sound arriving from the first direction and the disturbing sound arriving from the second direction different from the first direction. Upon receiving the signal and the input of the second observation analog signal generated by the second microphone based on the observation sound, each of the first observation analog signal and the second observation analog signal is converted into a digital signal. By doing so, the first observation digital signal and the second observation digital signal are generated.
By converting each of the first observation digital signal and the second observation digital signal into a signal in the frequency domain, a first spectrum component and a second spectrum component are generated.
Using the cross-correlation function of the first spectral component and the second spectral component, the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone , Calculate the filtering coefficient for masking the spectral components of the sound coming from a direction different from the first direction.
By masking the first spectral component using the filtering coefficient, the spectral component is separated.
An information processing method that generates an output digital signal by converting the separated spectral components into signals in the time domain.
When calculating the filtering coefficient,
Using the intercorrelation function of the first spectral component and the second spectral component, the first of the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone. From the time difference between the above and the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first direction of the observed sound is included. A sound arriving from the first range is distinguished from a sound arriving from the second range including the second direction and not overlapping the first range. A mask coefficient for separating the spectrum component from the spectrum component of the sound arriving from the second range is calculated.
Among the first spectral components, the ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range was calculated.
The correction gain for correcting the mask coefficient is calculated so that the higher the ratio, the lower the strength at which the masking is performed.
An information processing method characterized in that the filtering coefficient is calculated by modifying the mask coefficient with the correction gain.
前記第1の観測デジタル信号及び前記第2の観測デジタル信号の各々を、周波数領域の信号に変換することで、第1のスペクトル成分及び第2のスペクトル成分を生成し、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記観測音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との時間差により、前記第1の方向とは異なる方向から到来する音のスペクトル成分をマスキングするためのフィルタリング係数を算出し、
前記第1のスペクトル成分に対して、前記フィルタリング係数を用いてマスキングを行うことで、スペクトル成分を分離し、
前記分離されたスペクトル成分を、時間領域の信号に変換することで、出力デジタル信号を生成する情報処理方法であって、
前記フィルタリング係数を算出する際に、
前記第1のスペクトル成分及び前記第2のスペクトル成分の相互相関関数を用いて、前記目的音が、前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第1の時間差、及び、前記妨害音が前記第1のマイクロホンに到来する時間と、前記第2のマイクロホンに到来する時間との第2の時間差から、前記観測音の内、前記第1の方向を含む第1の範囲から到来する音と、前記第2の方向を含み、前記第1の範囲とは重ならない第2の範囲から到来する音とを区別して、前記第1の範囲から到来する音のスペクトル成分を、前記第2の範囲から到来する音のスペクトル成分から分離するためのマスク係数を算出し、
前記第1のスペクトル成分の内、前記第1の範囲から到来している音のスペクトル成分の量の、前記第2の範囲から到来している音のスペクトル成分の量に対する比率を、時間の経過とともに順次算出し、過去に算出された前記比率を用いて最後に算出された前記比率を平滑化し、
前記平滑化された比率が高いほど、前記マスキングが行われる強度が低くなるように、前記マスク係数を修正するための修正ゲインを算出し、
前記マスク係数を前記修正ゲインで修正することで、前記フィルタリング係数を算出すること
を特徴とする情報処理方法。 The first observation analog generated by the first microphone based on the observation sound including the target sound arriving from the first direction and the disturbing sound arriving from the second direction different from the first direction. Upon receiving the signal and the input of the second observation analog signal generated by the second microphone based on the observation sound, each of the first observation analog signal and the second observation analog signal is converted into a digital signal. By doing so, the first observation digital signal and the second observation digital signal are generated.
By converting each of the first observation digital signal and the second observation digital signal into a signal in the frequency domain, a first spectrum component and a second spectrum component are generated.
Using the cross-correlation function of the first spectral component and the second spectral component, the time difference between the time when the observed sound arrives at the first microphone and the time when the observed sound arrives at the second microphone , Calculate the filtering coefficient for masking the spectral components of the sound coming from a direction different from the first direction.
By masking the first spectral component using the filtering coefficient, the spectral component is separated.
An information processing method that generates an output digital signal by converting the separated spectral components into signals in the time domain.
When calculating the filtering coefficient,
Using the intercorrelation function of the first spectral component and the second spectral component, the first of the time when the target sound arrives at the first microphone and the time when the target sound arrives at the second microphone. From the time difference between the above and the second time difference between the time when the disturbing sound arrives at the first microphone and the time when the disturbing sound arrives at the second microphone, the first direction of the observed sound is included. A sound arriving from the first range is distinguished from a sound arriving from the second range including the second direction and not overlapping the first range. A mask coefficient for separating the spectrum component from the spectrum component of the sound arriving from the second range is calculated.
The ratio of the amount of the spectral component of the sound coming from the first range to the amount of the spectral component of the sound coming from the second range of the first spectral components over time. And smooth the last calculated ratio using the previously calculated ratio.
The correction gain for correcting the mask coefficient was calculated so that the higher the smoothed ratio, the lower the intensity at which the masking was performed.
An information processing method characterized in that the filtering coefficient is calculated by modifying the mask coefficient with the correction gain.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/043747 WO2020110228A1 (en) | 2018-11-28 | 2018-11-28 | Information processing device, program and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6840302B2 true JP6840302B2 (en) | 2021-03-10 |
JPWO2020110228A1 JPWO2020110228A1 (en) | 2021-03-11 |
Family
ID=70854207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020557460A Active JP6840302B2 (en) | 2018-11-28 | 2018-11-28 | Information processing equipment, programs and information processing methods |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6840302B2 (en) |
WO (1) | WO2020110228A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7109349B2 (en) * | 2018-12-04 | 2022-07-29 | 富士通株式会社 | Speech detection program, speech detection method, and speech detection device |
WO2022244173A1 (en) * | 2021-05-20 | 2022-11-24 | 三菱電機株式会社 | Sound collection device, sound collection method, and sound collection program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4247037B2 (en) * | 2003-01-29 | 2009-04-02 | 株式会社東芝 | Audio signal processing method, apparatus and program |
JP4906908B2 (en) * | 2009-11-30 | 2012-03-28 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Objective speech extraction method, objective speech extraction apparatus, and objective speech extraction program |
JP5817366B2 (en) * | 2011-09-12 | 2015-11-18 | 沖電気工業株式会社 | Audio signal processing apparatus, method and program |
JP5692006B2 (en) * | 2011-11-02 | 2015-04-01 | トヨタ自動車株式会社 | Sound source estimation apparatus, method, program, and moving object |
-
2018
- 2018-11-28 JP JP2020557460A patent/JP6840302B2/en active Active
- 2018-11-28 WO PCT/JP2018/043747 patent/WO2020110228A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2020110228A1 (en) | 2021-03-11 |
WO2020110228A1 (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10650796B2 (en) | Single-channel, binaural and multi-channel dereverberation | |
JP5007442B2 (en) | System and method using level differences between microphones for speech improvement | |
EP2773137B1 (en) | Microphone sensitivity difference correction device | |
JP6279181B2 (en) | Acoustic signal enhancement device | |
WO2015196729A1 (en) | Microphone array speech enhancement method and device | |
JP5834088B2 (en) | Dynamic microphone signal mixer | |
JP2013524267A (en) | Spatial audio processor and method for providing spatial parameters based on an acoustic input signal | |
US20130016854A1 (en) | Microphone array processing system | |
JP6545419B2 (en) | Acoustic signal processing device, acoustic signal processing method, and hands-free communication device | |
JP2008507720A (en) | Audio signal echo cancellation | |
US9532138B1 (en) | Systems and methods for suppressing audio noise in a communication system | |
EP1913591B1 (en) | Enhancement of speech intelligibility in a mobile communication device by controlling the operation of a vibrator in dependance of the background noise | |
JP6840302B2 (en) | Information processing equipment, programs and information processing methods | |
JP4448464B2 (en) | Noise reduction method, apparatus, program, and recording medium | |
US11380312B1 (en) | Residual echo suppression for keyword detection | |
Jin et al. | Multi-channel noise reduction for hands-free voice communication on mobile phones | |
JP2012189906A (en) | Voice discrimination device, voice discrimination method and voice discrimination program | |
JPWO2015114674A1 (en) | Sound collector, input signal correction method for sound collector, and mobile device information system | |
US11386911B1 (en) | Dereverberation and noise reduction | |
US11984132B2 (en) | Noise suppression device, noise suppression method, and storage medium storing noise suppression program | |
JP5105336B2 (en) | Sound source separation apparatus, program and method | |
US10887709B1 (en) | Aligned beam merger | |
JP6631127B2 (en) | Voice determination device, method and program, and voice processing device | |
JP6361360B2 (en) | Reverberation judgment device and program | |
Gong et al. | Noise power spectral density matrix estimation based on modified IMCRA |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201203 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201203 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6840302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |