JPWO2007018293A1 - 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム - Google Patents
音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム Download PDFInfo
- Publication number
- JPWO2007018293A1 JPWO2007018293A1 JP2007529641A JP2007529641A JPWO2007018293A1 JP WO2007018293 A1 JPWO2007018293 A1 JP WO2007018293A1 JP 2007529641 A JP2007529641 A JP 2007529641A JP 2007529641 A JP2007529641 A JP 2007529641A JP WO2007018293 A1 JPWO2007018293 A1 JP WO2007018293A1
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- sound
- microphones
- microphone
- beamformer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 124
- 238000001228 spectrum Methods 0.000 claims abstract description 128
- 238000012545 processing Methods 0.000 claims abstract description 73
- 238000000605 extraction Methods 0.000 claims abstract description 60
- 238000004364 calculation method Methods 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 42
- 238000003860 storage Methods 0.000 claims description 11
- 230000007704 transition Effects 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 abstract description 34
- 238000010183 spectrum analysis Methods 0.000 abstract description 17
- 239000000284 extract Substances 0.000 abstract description 4
- 230000003044 adaptive effect Effects 0.000 description 24
- 230000003595 spectral effect Effects 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000003672 processing method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 230000002238 attenuated effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000001629 suppression Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/13—Acoustic transducers and sound field adaptation in vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Otolaryngology (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
Description
これらの処理が特に必要となる例として、例えば自動車環境下が挙げられる。自動車環境下において、携帯電話の普及により運転中の携帯電話を使用しての通話は車内に離れて設置されたマイクを使用するのが一般的あり、通話品質を著しく劣化させている。また、自動車環境下で運転中に音声認識を行う場合も同様の状況で発話するため、音声認識性能を劣化させる原因になっている。現在の音声認識技術の進歩により、定常雑音に対する音声認識率の劣化の問題に対して、劣化した性能のかなりの部分を回復することが可能となっている。しかし、現状の音声認識技術で対応が難しいものとして、複数発話者の同時発話時の認識性能の劣化の問題がある。現在の音声認識の技術では同時に発話された二人の混合音声を認識する技術が低いため、音声認識装置使用時には発話者以外の同乗者は発話を制限され、同乗者の行動を制限する状況が発生している。これらの音源分離の手法として独立主成分分析法などを使用する方法もあるが、演算量、音源数の変動などの問題があり実用化されていない。
一般に複数のマイクロホンを使用する場合、低コストなマイクロホンほどその感度特性のバラつきが大きく約±3dB程度各周波数特性にバラつきがあると言われている。これらの特性のバラつきがマイクロホンアレイ技術の中でも遅延和アレイなどの加算型アレイ処理ではマイクロホンアレイ性能が設計通りの特性が実現できないだけであるが、適応アレイなどのいわゆる減算型アレイでは一つのマイクを使用する場合より特に1kHZ以下程度の低域において性能を悪化させる場合がある。
従来、少数のマイクロホン数で大きな効果が得られる適応ビームフォーマ処理技術を利用したマイクロホンアレイに関しては、例えば非特許文献1や、非特許文献2に述べられているように、一般化サイドローブキャンセラ(GSC)、フロスト型ビームフォーマおよび参照信号法など、種々の方法が知られている。
[特許文献1]特開平5−131866号公報
[特許文献2]特開2002−99297号公報
[特許文献3]特開2003−153372号公報
[特許文献4]特開2004−343700号公報
[特許文献5]特開2004−289762号公報
[特許文献6]特開2001−100800号公報
[特許文献7]特開2000−47699号公報
[非特許文献1]電子情報通信学会編「音響システムとデジタル処理」
[非特許文献2]HAykin著、“ADAptive Filter Theory(PrentiCe HAll)”
この特許文献6、7に記載されているような適応ビームフォーマとスペクトルサブトラクションを組み合わせた技術において、マイクロホンの素子感度のバラつきが存在する場合、適応フィルタ部の入力信号として目的音を抑圧した参照信号を作成する必要があるが、目的音を十分に抑圧することが出来ず、適応フィルタ部の参照信号と目的信号双方に目的音が含まれるため、適応フィルタ処理を施した結果目的音が歪み音質が劣化する。同様の現象は、初期反射の大きな閉空間でも参照信号中に目的音信号が漏れてしまい発生する。
これを解決するために、マイクロホンの素子感度補正をするために製品組み立て時にバラつきを測定し補正データを作成して使用時に補正を行ったり、使用時に特定方向からの基準信号を利用してマイクロホンの素子感度の個体差、周囲温度や部品の経年変化による逐次変化を測定し補正する方法があるが、製造コストの増加や、基準信号をいつ再生させるか、あるいは収録した信号が本当に基準信号のみかどうかをどうやって判断するかなどの問題がある。
同様の問題はエコーキャンセラでも発生し、遠端信号から近端信号に混入したエコーを推定する適応フィルタにおいて、遠端、近端とも同時に2人の人が発話をした場合、いわゆるダブルトーク状態が発生しエコーキャンセラの動作が著しく劣化する。このため、ダブルトーク状態を如何に正確に検出し、適応フィルタのパラメータ推定を停止させたり推定速度も遅くしたりするかが重要な性能維持の条件となっている。
また、自動車の走行雑音など大きな拡散性雑音などが発生する状況においては拡散性雑音の影響で適応フィルタの推定精度が劣化するため、結果として、適応フィルタの推定したフィルタパラメータを使用した話者方向、特定雑音方向の到来方向推定精度が劣化し、システム全体の性能が劣化すると言う問題がある。
本発明は上記問題点に鑑みてなされたものであり、マイクロホン素子の感度のばらつきに影響を受けることなく、複数の音源から発せられた音源信号が混合された混合音の中から、目的音源からの音源信号を分離することを可能とする音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラムを提供することを目的とする。
[課題を解決するための手段]
上記課題を解決するために、請求項1に記載の発明は、互いに離して配置された少なくとも2つのマイクロホンに対して複数の音源から発せられた音源信号が混合された混合音を入力し、該混合音から目的音源からの音源信号を分離する音源分離装置において、前記マイクロホンからの出力信号に対して第1の係数を用いた演算を行うことにより、所定の方向から到来する音源信号を減衰させるための第1のビームフォーマ処理を行い、かつ、前記マイクロホンからの出力信号に対して、前記第1の係数と周波数領域で複素共役の関係にある第2の係数を用いた演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して前記所定の方向と対称な方向から到来する音源信号を減衰させるための第2のビームフォーマ処理を行うビームフォーマ手段と、前記ビームフォ−マ手段により得られた音源信号各々についてのパワースペクトル情報を計算するパワー計算手段と、前記パワー計算手段により計算されたパワースペクトル情報同士の差分に基づいて、目的とする音源のスペクトル情報を抽出する目的音スペクトル抽出手段とを備えることを特徴とする音源分離装置を提供する。
請求項2に記載の発明は、請求項1に記載の音源分離装置において、前記ビームフォーマ手段は、互いに離して配置された3つのマイクロホンのうち、何れか2つのマイクロホンの組合せ及び他の2つのマイクロホンの組合せ各々について、前記第1のビームフォーマ処理及び前記第2のビームフォーマ処理を行うことを特徴とする。
請求項3に記載の発明は、請求項1又は2に記載の音源分離装置において、マイクロホンからの出力信号に対して遅延を与える指向性制御手段をさらに備えることを特徴とする。
この発明によれば、遅延を与えることで指向特性を最適な状態に補正することができ、音源の分離性能を向上させることができる。
この発明によれば、仮想的に3つのマイクロホンからの出力信号を生成することができるため、2つのマイクロホンのみを用いて、2つのマイクロホンを結ぶ直線の垂線方向から到来する音源信号を分離抽出することが可能となる。
この発明によれば、音源の高い分離性能が得られるように遅延操作を行うことが可能となる。
この発明によれば、スペクトルサブトラクション処理を行うことにより到来方向不明の定常雑音や拡散性の雑音などを除去することが可能となる。
この発明によれば、ミュージカルノイズのような聴感上不快な雑音の発生を低減することが可能となる。
請求項8に記載の発明は、請求項1から7の何れか1項に記載の音源分離装置により分離された音源信号の音声認識を行う音声認識手段を備えた音声認識装置を提供する。
請求項9に記載の発明は、請求項8に記載の音声認識装置において、車両の運転席側から発せられる語彙の候補の一覧である運転席側認識語彙リスト及び助手席側から発せられる語彙の候補の一覧である助手席側認識語彙リストを記憶する認識語彙リスト記憶手段をさらに備え、前記音声認識手段は、前記認識語彙リスト記憶手段に記憶されている運転席側認識語彙リスト及び助手席側認識語彙リストに基づいて、前記音源分離装置により分離された音源信号の音声認識処理を行うことを特徴とする。
請求項10に記載の発明は、請求項8又は9に記載の音声認識装置において、現在の車両の状態を管理する状態遷移手段と、車両の状態に応じた助手席側及び運転席側における有効な語彙リストを記憶する有効語彙リスト記憶手段と、前記状態遷移手段で管理されている現在の車両の状態と、前記有効語彙リスト記憶手段に記憶されている語彙リストとに基づいて、前記音声認識手段により認識された語彙が有効か否かを判断し、該判断結果に応じて制御を行う制御手段とをさらに備えることを特徴とする。
請求項11に記載の発明は、請求項1から7の何れか1項に記載の音源分離装置を備えた携帯電話機を提供する。
請求項12に記載の発明は、互いに離して配置された少なくとも2つのマイクロホンに対して、複数の音源から発せられた音源信号を入力する音源信号受信ステップと、前記マイクロホンからの出力信号に対して、周波数領域で複素共役の関係にある2つの重み係数各々を用いて演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して対称な所定の方向から到来する音源信号を各々減衰させるための第1のビームフォ−マ処理及び第2のビームフォーマ処理を行うビームフォーマ処理ステップと、前記ビームフォ−マ処理ステップにおいて得られた音源信号各々についてパワースペクトル情報を算出するパワー計算ステップと、前記パワー計算ステップにおいて計算されたパワースペクトル情報同士の差分に基づいて、目的音源のスペクトル情報を抽出する目的音スペクトル抽出ステップとを備えることを特徴とする音源分離方法を提供する。
[発明の効果]
本発明によれば、周波数領域で複素共役の関係にある2つの重み係数各々を用いて演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して対称な所定の方向から到来する音源信号を各々減衰させるための第1のビームフォーマ処理及び第2のビームフォーマ処理を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して対称な方向から到来する音源信号を各々減衰させ、前記第1のビームフォ−マ処理及び前記第2のビームフォ−マ処理により得られた音源信号各々についてのパワースペクトル情報同士の差分に基づいて目的音源のスペクトル情報を抽出することで、指向特性がマイクロホン素子の感度に影響を受けないという性質を実現することができ、マイクロホン素子の感度のばらつきに影響を受けることなく、複数の音源から発せられた音源信号が混合された混合音の中から、目的音源からの音源信号を分離することが可能となる。
[第1実施形態]
図1は、本発明の第1実施形態に係る音源分離システムの基本的構成を示す図である。このシステムは、2つのマイクロホン(以下「マイク」という)10、11と、音源分離装置1とで構成されている。この音源分離装置1は、図示せぬ、全体を制御し演算処理を実行するCPUと、ROM、RAM、ハードディスク装置等の記憶装置を含むハードウェアと、記憶装置に記憶されたプログラム、データ等を含むソフトウェアとを備えている。これらのハードウェア及びソフトウェアによって、図1に示す機能ブロックが実現される。
まず、図3を参照して、ビームフォーマ部3の構成を説明する。図3では、スペクトル分析部20、スペクトル分析部21で周波数成分毎に分解された信号x1(ω)、x2(ω)を入力として、乗算器100a、100b、100c、100dにて、フィルタの重み係数w1(ω)、w2(ω)、w1 *(ω)、w2 *(ω)(*は複素共役の関係にあることを示す)と乗算をそれぞれ行い、加加算器100e、100fにて2つの乗算結果を加算し、その出力としてフィルタリング処理結果ds1(ω)、ds2(ω)を出力する。このように、ビームフォーマ部3は、複素共役フィルタ係数を使用することにより、マイク10、11間を結ぶ直線の垂線を中心として対称な位置に死角を形成している。
[パワー計算部]
次に、図4を参照して、パワー計算部40、41について説明する。パワー計算部40、41は、ビームフォーマ30、ビームフォーマ31からの出力ds1(ω)、ds2(ω)を、以下の計算式により、パワー計算部40、パワー計算部41にてパワースペクトル情報ps1(ω)、ps2(ω)に変換する。
ps1(ω)=[Re(ds1(ω))]2+[Im(ds1(ω))]2
ps2(ω)=[Re(ds2(ω))]2+[Im(ds2(ω))]2
次に、図5を参照して、目的音スペクトル抽出部50、51に関して説明すると、パワー計算部40、41の出力ps1(ω)、ps2(ω)は、目的音スペクトル抽出部50、51の2つの入力として使用される。目的音スペクトル抽出部50、51は、2つのビームフォーマ30、31出力のパワースペクトル情報を入力として、出力として左右の目的音をそれぞれ出力するが、内部的には差分計算部500、510と係数変換部501、511で構成される。
差分計算部500は、減算器500aにてビームフォーマ30のパワースペクトル情報からビームフォーマ31のパワースペクトル情報の減算を行い、同様に、差分計算部510は、減算器501aにてビームフォーマ31のパワースペクトル情報からビームフォーマ30のパワースペクトル情報の減算を行い、その結果をそれぞれ、係数変換部501、係数変換部511へ入力する。係数変換部501、係数変換部511は、それぞれ左右の音を分離するためのブロックであり、それぞれ、値が特定のしきい値以上の値を、目的とする方向からの信号としてスペクトル情報を出力する。ここで、しきい値の値は一般的には“0”であるが、使用環境に応じて最適値を実測より求め別々に設定しても良い。
次に、図1を参照して、音源分離装置システム全体の動作を説明する。
まず、2つの無指向性あるいは指向性のマイク10、11を互いに数cm程度離して設置し、2つの音源から発せられた信号をマイク10、マイク11で受信する。このとき、各マイク10、11で受信された2つの音源信号が重畳された信号は、スペクトル分析部20、スペクトル分析部21で周波数分析が行われる。ここでは、一般的には高速フーリエ変換などの手法が用いられるが、フィルタバンクなどの周波数分析手法でも良い。周波数分析処理は10msec程度の固定周期毎に行われる。
周波数分析された2つの信号は、マイク10、11を結ぶ直線への垂線に対して対称に死角が形成されたビームフォーマ30、ビームフォーマ31にてフィルタリングされ、特定方向からの信号が減衰させられる。しかし、ここでは特定の音源到来方向を正確に推測し、正確に推測された音源方向に死角を向けることを目的とはしていない。この2チャンネルの入力を使用したフィルタリングは各周波数成分毎に行われ、ビームフォーマ30、ビームフォーマ31の出力はパワー計算部40、パワー計算部41にてスペクトルパワー情報に変換されると同時に、ビームフォーマ30、ビームフォーマ31の出力から位相抽出部60、位相抽出部61にて位相情報Φ1、Φ2が抽出される。次に、パワー計算部40、パワー計算部41にてスペクトルパワー情報に変換されたビームフォーマ30、ビームフォーマ31の出力は、目的音スペクトル抽出部50、目的音スペクトル抽出部51に送られ、目的音スペクトル抽出部50にて右方向(0〜90°)から来た音源信号のパワースペクトル情報が抽出され、目的音スペクトル抽出部51にて左方向(−90°〜0)から来た音源信号のパワースペクトル情報が抽出される。
[死角制御型ビームフォーマの設計例]
次に、ビームフォーマ部3中のビームフォーマ30、ビームフォーマ31において、2つのマイク10、11を結ぶ直線の垂線に対して対称な位置に死角を形成することで、指向特性(指向性)がマイク素子の感度の影響を受けないことについて証明する。
死角制御型ビームフォーマの出力信号をS(f)=[s1(f)、s2(f)]’、観測信号をX(f)=[x1(f)、x2(f)]’としたとき、ある周波数fにおける死角制御型ビームフォーマの重み係数ベクトルW(f、θ1、θ2)=[w1(f)、w2(f)]’は以下の計算で求めることが出来る(ただし、’ は転置操作を示す)。
次に、パワー計算部40、41、目的音スペクトル抽出部50、51において指向特性の導出を行う。指向特性の計算のため、重みベクトルW、及び、方位ベクトルVを以下の式で定義する。
このとき音源がマイクに対して十分離れている場合、すなわち平面波の場合は、方位ベクトルは、
図8は、死角を前記垂線から±45°方向に形成する際に、ビームフォーマ30、31のゲインを維持する拘束条件を垂線に対称な位置(±45°)に指定して設計した場合の差分結果の指向特性例である。図8から分かるように、0°方向を境界として、右方向(マイク10、11から音源R1、R2の方向を見た場合の右方向、以下同様)(0〜90°)から来た音源信号は正の値をとり、左方向(−90°〜0)から来た音源信号は負の値をとる。これにより、各周波数成分において左右どちらの方向から到来したのかを判断することが出来る。
以上述べてきたように、ビームフォーマ30、ビームフォーマ31の乗算器で使用する重み係数をそれぞれ複素共役の関係として上記の処理を行うことで、マイクの素子感度によりアレイマイクの指向特性が影響を受けないことを示すために、マイクの素子感度差αを0db、+6db、−6dbと変動させて指向特性の計算を行った例を図9に示す。同図にはマイク10、11を結ぶ直線への垂線に対して対称な方向の指向特性が示されていないが、当該指向特性は図9に示した特性と対称な特性を持つ。図9を見て分かるように、ゲインの変動がある場合、アレイマイクの出力レベルの変動は発生するが、指向特性は変動を受けない。これにより、安価なマイクを使用しマイクの素子感度にばらつきがある場合でも安定した指向特性を実現することが可能となる。また、図中に示した指向特性は死角を±45°方向に作成したものであるが、同図から分かるように指向特性に幅があるため、死角を実際の目的音源に対して正確に作成する必要はない。また、マイクの素子感度差αを0db、+6db、−6dbと変動させた場合のビームフォーマ単体の指向特性を図10に示すが、同図よりマイクの素子感度が6db異なると特定の方向に死角を形成するというビームフォーマに望まれている所望の動作を殆ど行えないことがわかる。一方、本発明の特徴として最も注目すべき点として、図10に示すような指向特性が発生するような指向特性の劣化したビームフォーマを使用しても、結果として得られる指向特性はマイクの素子感度が均一な場合と同一であることである。
特定方向にビームフォーマで鋭い死角を形成する手法は少数のマイクでも理論上実現可能であるため、測定した信号はSN比を上げるために使用されたり、適応フィルタとして頻繁に使用される一般化サイドローブキャンセラの参照信号生成部であるブロッキングマトリックス部分に使用されるが、上述したマイクの素子感度差により設計どおりの性能で死角を生成することが出来ず、量産を目的とした場合、実環境で所定の性能が実現出来ない大きな要因の一つになっている。
また、住宅内で音声認識を行う状況で一番頻繁に発生するであろう環境として、テレビその他被制御機器に向かって音声コマンドを使用することが考えられる。この場合、テレビその他被制御機器のスピーカは被制御機器側から発話者側に向かって設置してあり、スピーカから音声が流れていたりさまざまなガイダンスが流れている状況で、発話者は音声でマイク装置に制御コマンドを入力したい場合がある。この場合、何らかの手段でスピーカの音声がマイク装置に回り込む量を減衰させる必要があるが、音源分離装置1を使用することで容易に被制御機器からの音声と発話者からの音声を分離することができ、音声認識性能が向上する。
次に、評価実験結果について説明する。従来、自動車内での機器制御その他の目的で音声認識が使用されている。従来においては、エアコンの送風音、ロードノイズ、エンジン音などの雑音を低減する技術は確立されているが、音声などの影響を受けない音声認識技術は確立されていない。これらのことを踏まえ、以下の点を実現可能とする音声認識技術を提供することが重要となる。(1)運転席に居る運転者が発した音声、及び、助手席に居る助手席者が発した音声(以下「運転席と助手席の音声」という)の分離、(2)ヘッドポジションの移動を許容可能、(3)広いビーム幅と分離性能の両立、(4)少数マイクでの機能提供、(5)音声認識使用時、運転者又は助手席者に黙っていることを課さない
評価実験の条件を図15に、音源分離後の音声認識実験結果を図16に示す。図16(a)に示すように、車内での2話者発話時(車内同時発話)においては、1チャンネルマイクのみを使用した従来法1における未処理時には29%(停車時)、27%(60km/h走行時)であったが、本音源分離手法を適応することにより、78%(停車時)、78%(60km/h走行時)と改善された。また、図16(b)に示すように、助手席側の音声を運転席側の音声と誤って音声認識結果を出してしまった、あるいは運転席側の音声を助手席側の音声と誤って音声認識結果を出してしまった割合を評価すると、従来の1チャンネルマイクのみ使用時(車内1人発話)では、全発話の93%(リジェクション性能7%)について何らかの音声認識結果が出力されてしまったが、本手法を適応した場合は、何らかの音声認識結果が出力されたのは0%(リジェクション率100%)であった。 また、2マイクを使用した従来例として“雑音成分抑圧処理装置および雑音成分抑圧処理方法(特許第3484112 号)”を従来法2として停止状態での性能比較を行った。従来法2は目的音、雑音到来方向を推定しながら適応ビームフォーミング処理を行い目的音および雑音を強調し、目的音が強調された信号から雑音が強調された信号を周波数領域でスペクトルサブトラクションする方式であるが、到来方向推定エラーの影響を省くため目的音、雑音とも到来方向を既知(固定方向から到来するもの)とし、適応ビームフォーマ部の最適値を求めた後に、目的音(発話者1)、雑音(発話者2)を同時に再生し目的音声を抽出する処理をおこなった。(図16(a)参照のこと)
次に、第2実施形態について説明する。図17には、第2実施形態に係る音源分離システムの構成を示す。上述した第1実施形態においては、マイク10、11からの入力を、まずスペクトル分析部20、スペクトル分析部21にて周波数成分に変換したが、本実施形態においては、まず時間領域にてビームフォーマ80及びビームフォーマ81にて死角を生成して特定の到来方向からの信号を減衰させた信号を生成し、その後、スペクトル分析部20及びスペクトル分析部21にて周波数成分に変換している。なお、図17では、図1と同一の機能を持つものには同一の番号がつけてある。ビームフォーマ80、ビームフォーマ81の構成は図18に示すようなFIRフィルタなどの形式で構成されたフィルタ処理を実行することで実現される。このとき、FIRフィルタの係数は、図3で示した周波数領域での複素共役の関係にある重み係数を、時間領域のフィルタ係数に変換することで求めることができる。
次に、第3実施形態について説明する。図19及び図20は、第3実施形態に係る音源分離システムの構成を示す図である。上述したように、図1及び図17に示す目的音スペクトル抽出部50、目的音スペクトル抽出部51は、図5で示した構成にて実現されており、実験により求めた最適なしきい値を使用して音源分離処理を行う構成となっている。一方、図8に示したように、目的音スペクトル抽出部50、51中の差分計算部500、510の出力であるdri(ω)(i=1、2)は正面0°を中心として点対称な関係になっていることが分かる。これより、目的音スペクトル抽出部50、51中の係数変換部501、511においてしきい値を“0”とすると差分計算部500、510の符号のみを見ておくことで、正の時に右方向(0〜90°)から来た音源信号のパワースペクトル情報として抽出され、負のときに左方向(−90°〜0)から来た音源信号のパワースペクトル情報として抽出される。このため、図1及び図17で示した全体構成は、図19及び図20に示すように簡略化することが可能となる。図19及び図20中の目的音スペクトル抽出部90は、図21に示す構成で実現される。
なお、図19に示す音源分離システムと図20に示す音源分離システムとは、ビームフォーマ処理を周波数領域で行うか時間領域で行うかの違いが構成として異なっている。図19ではビームフォーマ処理を周波数領域で行っており、図20では時間領域で行っている。
次に、第4実施形態について説明する。図22は、第4実施形態に係る音源分離システムの構成を示す図である。同図に示すスペクトルサブトラクション部100、101が、目的音スペクトル抽出部50、目的音スペクトル抽出部51で抽出した各目的音に重畳している到来方向不明の定常雑音や拡散性の雑音などを除去するためのスペクトルサブトラクション処理を行う。このような構成は、会議室中の空調やプロジェクタなどのファンの音などが存在する環境における使用でも有効であるが、自動車内での使用時に特に有効である。自動車内において運転者と助手席に同乗者とが搭乗している場合など、例えば運転席と助手席の音声は、前述の方式を使用することで別々に取り出すことが可能である。しかし、エアコンの送風音、ロードノイズ、風きり音など、到来方向が不明なものや拡散性の雑音は前述の方法では除去することが出来ない。これらの雑音の影響は、処理の後段にスペクトルサブトラクション処理を入れることで除去することが可能である。スペクトルサブトラクション処理は、1つのマイクの入力信号を使用して発話区間検出を行い、無発話区間で雑音スペクトルを推定し、発話区間でその前に推定した雑音成分をスケーリングして減算するタイプと、雑音が優位に収録された信号と音声が優位に収録された信号を用いて、音声が優位に収録された信号から雑音が優位に収録された信号のスペクトルをスケーリングして差分するタイプとがある。音声認識の場合、1マイク方式を基本にした処理で十分なことが多いが、本実施形態においてもこれを採用しており、本実施形態に係る音源分離システムは、第1実施形態に係る音源分離システムに対して、発話区間検出部110とスペクトルサブトラクション部100、101をあらたに追加することで対応している。
[第5実施形態]
次に、第5実施形態について説明する。図23には、第5実施形態に係る音源分離システムの構成を示す。本実施形態においては、分離したい2つの目的音源R1、R2が2つのマイク10、11を結ぶ直線への垂線に対して対称といえる位置から大きく外れている場合の対策が示されている。本実施形態では、この対策のために2つの目的音源R1、R2のおおまかな位置を検出するための到来方向推定部120と、到来方向推定部120が推定した2つの目的音源R1、R2のおおよその音源到来方向情報を使用し、指向性制御部140において分離したい2つの目的音源R1、R2が仮想的に出来るだけ2つのマイク10、11を結ぶ直線への垂線に対して対称となるように、片方のマイク入力に遅延操作を与える。
なお、片方のマイク入力に遅延を与えるのではなく、双方のマイク入力にそれぞれ半分ずつの遅延を与え全体として同量の遅延操作を実現しても良い。つまり、片方のマイクで取得した信号に遅延量τdを与えるのではなく、片方のマイクで取得した信号に遅延量τd/2、もう片方のマイクで取得した信号に遅延量−τd/2を与えることで、全体の遅延差がτdになるようにしてもよい。
次に、第6実施形態について説明する。図26は、第6実施形態に係る音源分離システムの構成を示す図である。本実施形態に係る音源分離システムは聴感を重視するための構成となっており、自動車内でのハンズフリー通話などへの応用を考慮している。自動車内において運転者と助手席の同乗者とが搭乗している場合などは、例えば運転席と助手席の音声は前述の方式を使用することで別々に取り出すことが可能であるが、エアコンの送風音、ロードノイズ、風きり音など到来方向が不明なものや拡散性の雑音は前述の方法では除去することが出来ない。これらの場合、第4実施形態で述べた様に、処理の後段にスペクトルサブトラクション処理を入れることでこれらの雑音の影響を除去することが可能であり、音声認識などの聴感上の音質を問題としない用途には最適であるが、ハンズフリー通話装置用のマイクなどに使用した場合に、聴感上ミュージカルノイズと呼ばれる雑音の消し残りが問題になることがある。本発明においては、2つのマイク10、11を結ぶ直線への垂線を中心にして左右の音を分離するため、拡散性の雑音などその音の指向性が絶えず変動するような雑音の場合、左右の分離結果に不規則に振り分けられてしまい音質を劣化させる場合がある。
[第7実施形態]
次に、第7実施形態について説明する。図27は、第7実施形態に係る音源分離システムの構成を示す図である。この音源分離システムは、3つのマイク10、11、12を使用して3音源を分離する構成を示している。同図において、マイク10とマイク12、マイク10とマイク12を使用して、それぞれ2つのマイクを結ぶ直線への垂線を中心として左右の音源信号を分離し、2組のマイクの組を使用して分離された音源信号合計4つを使用して、目的音抽出部160にてマイク10、マイク11の正面方向近辺から到来する音源R3を最終的に分離する。
図29には単一指向性マイクの設置例を示すが、一般的にこのように指向性マイクを使用するとアレイマイクのビームフォーマ部において各マイク間の指向性のバラツキなどで設計時の性能が出ないことが起こるが、本方式でもともとマイクの素子感度バラつきに影響を受けないのと同様、指向特性のバラツキにも影響を受けない一定の性能を実現可能できる。
また、分離したい目的音源の位置が本手法で最適な分離性能が得られる位置より大きく外れている場合があるが、第5実施形態で説明したように、マイクから出力される入力信号に遅延を与え音源の到来方向を仮想的に変えることで、出来るだけ最適な分離性能が得られるように操作することが可能である。
[第8実施形態]
次に、第8実施形態について説明する。上述した実施形態においては、
(1)2つのマイクを使用してマイク間を結ぶ直線を中心として、左右からの音を分離する実施形態(2)3つのマイクを使用して正面からの音とその左右からの音を分離する実施形態 について説明したが、図34に示すように、2つのマイク10、11を使用して2つのマイク10、11を結ぶ直線の正面方向からの音を分離抽出したい場合がある。
[第9実施形態]
次に、第9実施形態について説明する。図40は、第9実施形態に係る車載機器制御用音声認識システムの構成を示す図である。本実施形態においては、自動車等の車両に設けられた車載機器制御用音声認識システムに本発明に係る音源分離装置1を応用した例を示している。本応用例では、運転席と助手席の音声を2つのマイク10、11で取得し、音源分離装置1で運転席と助手席の音声を分離し、分離した運転席と助手席の音声をそれぞれ発話区間検出、音声認識処理、音声認識結果と自動車走行状態やその他運転状態によって有効な認識結果のみを使用して、機器の制御、システムの応答などを行うことで、車載機器制御用音声認識システムの信頼性の向上と車載機器制御用音声認識システムの応答の自由性の拡張などを提供するものである。
制御部・状態遷移部200が備える状態遷移部201は、音声認識結果及び現在の状態に基づいて次の状態に遷移できるようになっている。制御部・状態遷移部200が備える制御部202では、状態遷移部201から得られる現在の状態と、音声認識部180、181からの音声認識結果とに基づいて、助手席側、運転席側それぞれに用意された助手席側有効語彙リスト210、運転席側有効語彙リスト211に基づいて、どの音声コマンドに応答(制御命令を出力)して良いかを調べる。同図に示す有効語彙リスト210、211においては、状態と音声コマンドの組合せに対して“○”が対応付けられている場合に、音声コマンドに応答可能なことを示している。例えば、運転席側においては、状態が“運転中”の場合に応答が許されている音声コマンドは“もっと”、“ライトつけて”、“すずしく”であり、また、“エアコン操作”、“CD”、“MD”は禁止されている。
以上の使用例によれば、運転席と助手席の同乗者とから同時に発話された音声を同時に認識することが可能になったり、どちらか1人が発話した場合でもそれが運転席側からの発話なのか助手席側からの発話なのかを確実に検出して認識することが可能となるため、同乗者の行動を制限せず、発話者とその発話者の音声コマンドに対する応答を個別に設計することが出来るようになる。
[第10実施形態]
次に、第10実施形態について説明する。図41には、本実施形態に係る携帯電話機300を示している。携帯電話機300には、マイク10、11及び図示せぬ音源分離装置が搭載されている。この携帯電話機300は、通常はテレビ電話用であるが、モードを切り替えて集音マイクとしても使用可能である。図41(a)はマイク10、11がテレビ電話用マイクとして動作している時の様子を示す図であり、図41(b)はマイク10、11が集音マイクとして動作している時の様子を示す図である。中規模の会議室などで、発表者がマイクを使うほど大規模な会議室でもなく、しかし、部屋が広く小さな声だと発表者の声が聞き取り難い場面で使用することができる。
[第11実施形態] 次に、第11実施形態について説明する。図42には抽出したい目的音がゾーンA(例えば運転席のゾーン)に存在し、それ以外の場所(ゾーンB,ゾーンC,ゾーンD)に妨害音が存在する状況下において、ゾーンAの目的音を抽出する例が示してある。本手法を使用したアレイマイク2001(例えば車室内で前方に配置(例えばルームミラーに設定))を使用した場合、ゾーンA/C(例えば運転席及びその後部座席のゾーン)とゾーンB/D(例えば助手席及びその後部座席のゾーン)に存在する音を分離することは可能であるがゾーンA(例えば運転席のゾーン)とゾーンC(例えばその後部座席のゾーン)とに存在する音を分離することは出来ない。しかし、本手法を使用したアレイマイク2002を同図に記載されるようにゾーンA/BとゾーンC/Dの境界の位置に配置することでゾーンA/BとゾーンC/Dに存在する音を分離することが可能となるためゾーンAの音のみを抽出することが可能となる。
[第12実施形態] 次に、第12実施形態について説明する。図43は、自動車などの環境下において音声認識により機器操作を行う状況を想定している。図44は、そのときの機器操作のガイダンス音声と発話者の音声との関係を示す。
この様な状況への対策として、一般的にはエコーキャンセラを使用しマイク10からの収録音に混在するガイダンス音声を適応的に推定し取り除くことで対応している。また別の対応策として、図45〜図48に示すように、周波数分析後のマイク10への1入力信号に関して、スペクトルサブトラクションを行ったり(図45、図46)、各周波数成分毎にガイダンス音声、発話者Aの音声のどちらが多く含まれるかを推定し発話者Aの音声のみが多く含まれる周波数成分のみを発話者Aの音声として取り出すことが行われている(図47、図48)。
図45における、ゲイン操作部1002は、スペクトルサブトラクションを行う際に使用するオーバーサブトラクションファクタを決定する部分であり、スピーカ15の音量に応じて1〜10程度のゲインのなかから選択され使用する。
図47における、閾値計算部1011は、ガイダンス音声の平均エネルギーを元に閾値thを決定する。
また、図47における、目的音声抽出部1012は、閾値計算部1011及びスペクトル分析部21の出力に基づいて、図48に示すような処理を行い、処理結果の信号を、時間波形変換部1004に出力する。なお、図48に示すthminは、同図に示すXFar(ω)が有効な入力であると判断するための閾値となる。
しかし、従来方においては図43のように、発話者Aのみが発話する状況においては上述のような構成により対応可能であるが、図49に示すように発話者A(例えば運転席の乗員)のみならず発話者B(例えば助手席の乗員)がいる場合に、図50に示すように、発話者Aのみならず発話者Bも何らかの発話をする場合が起こりえるが、この様な状況には対応することが出来ない。
具体的には、図51においてガイダンス音声は車内のスピーカ15から再生され、同時に発話者A,発話者Bとも発話している状況下において、マイク10およびマイク11には、ガイダンス音声、発話者Aの発話音声、発話者Bの発話音声が重畳されて入力されている。このとき、ガイダンス音声削除部1021およびガイダンス音声削除部1022では図45または図47に示した方法により、ガイダンス音声を除去し、結果として発話者Aの音声と発話者Bの音声の両者の音声が重畳された信号を結果として出力する。また、ここでは後処理として使用する本手法への入力時の計算の無駄を省くために、時間波形には戻さず、周波数成分のまま本手法(図1)へ入力する。後段の本手法においても入力として周波数成分情報が入力されるためスペクトル分析部の処理を省き、ビームフォーマ部へ直接入力を行い、本手法を適用し処理を行うことにより出力結果として、発話者Aの音声と発話者Bの音声を個別に得ることが可能となり、音声認識装置の信頼性、性能の向上とアプリケーションの自由度を大幅に拡大することが出来る。
加えて、マイク間隔を広げなくとも低域まで高い分離性能を確保できるため、実装スペースを削減することが可能であり、携帯機器などへの使用も可能となる。
なお、上述した実施形態においては、音源分離システムの各機能ブロックをプログラムで実現するとして説明したが、回路等を用いることによりハードウェアで実現することも可能である。
本発明は上記問題点に鑑みてなされたものであり、マイクロホン素子の感度のばらつきに影響を受けることなく、複数の音源から発せられた音源信号が混合された混合音の中から、目的音源からの音源信号を分離することを可能とする音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラムを提供することを目的とする。
[課題を解決するための手段]
上記課題を解決するために、請求項1に記載の発明は、互いに離して配置された少なくとも2つのマイクロホンに対して複数の音源から発せられた音源信号が混合された混合音を入力し、該混合音から目的音源からの音源信号を分離する音源分離装置において、前記2つのマイクロホンからの出力信号に対して第1の係数を用いた演算を行うことにより、所定の方向から到来する音源信号を減衰させるための第1のビームフォーマ処理を行い、かつ、前記2つのマイクロホンからの出力信号に対して、前記第1の係数と周波数領域で複素共役の関係にある第2の係数を用いた演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して前記所定の方向と対称な方向から到来する音源信号を減衰させるための第2のビームフォーマ処理を行うビームフォーマ手段と、前記ビームフォ−マ手段により得られた音源信号各々についてのパワースペクトル情報を計算するパワー計算手段と、前記パワー計算手段により計算されたパワースペクトル情報同士の差分に基づいて、目的とする音源のスペクトル情報を抽出する目的音スペクトル抽出手段とを備えることを特徴とする音源分離装置を提供する。
請求項3に記載の発明は、請求項1又は2に記載の音源分離装置において、前記2つのマイクロホンのうちの一方のマイクロホンからの出力信号に対して遅延を与え、仮想的に前記垂線を所定の角度だけ回転させる指向性制御手段をさらに備えることを特徴とする。
この発明によれば、遅延を与えることで指向特性を最適な状態に補正することができ、音源の分離性能を向上させることができる。
この発明によれば、仮想的に3つのマイクロホンからの出力信号を生成することができるため、2つのマイクロホンのみを用いて、2つのマイクロホンを結ぶ直線の垂線方向から到来する音源信号を分離抽出することが可能となる。
この発明によれば、スペクトルサブトラクション処理を行うことにより到来方向不明の定常雑音や拡散性の雑音などを除去することが可能となる。
請求項12に記載の発明は、互いに離して配置された少なくとも2つのマイクロホンに対して、複数の音源から発せられた音源信号を入力する音源信号受信ステップと、前記2つのマイクロホンからの出力信号に対して、周波数領域で複素共役の関係にある2つの重み係数各々を用いて演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して対称な所定の方向から到来する音源信号を各々減衰させるための第1のビームフォ−マ処理及び第2のビームフォーマ処理を行うビームフォーマ処理ステップと、前記ビームフォ−マ処理ステップにおいて得られた音源信号各々についてパワースペクトル情報を算出するパワー計算ステップと、前記パワー計算ステップにおいて計算されたパワースペクトル情報同士の差分に基づいて、目的音源のスペクトル情報を抽出する目的音スペクトル抽出ステップとを備えることを特徴とする音源分離方法を提供する。
本発明は上記問題点に鑑みてなされたものであり、マイクロホン素子の感度のばらつきに影響を受けることなく、複数の音源から発せられた音源信号が混合された混合音の中から、目的音源からの音源信号を分離することを可能とする音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラムを提供することを目的とする。
[課題を解決するための手段]
上記課題を解決するために、請求項1に記載の発明は、互いに離して配置された少なくとも2つのマイクロホンに対して複数の音源から発せられた音源信号が混合された混合音を入力し、該混合音から目的音源からの音源信号を分離する音源分離装置において、前記マイクロホンのうちの2つのマイクロホンからなるマイクロホン対からの出力信号に対して第1の係数を用いた周波数領域での積和演算を行うことにより、前記目的音源のおおまかな方向から到来する音源信号を減衰させるための第1のビームフォーマ処理を行い、かつ、前記出力信号に対して、前記第1の係数と周波数領域で複素共役の関係にある第2の係数を用いた周波数領域での積和演算を行うことにより、前記マイクロホン対を構成する2つのマイクロホンを結ぶ直線の垂線に対して前記おおまかな方向と対称な方向から到来する音源信号を減衰させるための第2のビームフォーマ処理を行うビームフォーマ手段と、前記ビームフォ−マ手段により得られた音源信号各々についてのパワースペクトル情報を計算するパワー計算手段と、前記パワー計算手段により計算されたパワースペクトル情報同士の差分を求め、所定の値を超えた当該差分値を目的音源のスペクトル情報として出力する目的音スペクトル抽出手段とを備えることを特徴とする音源分離装置を提供する。
請求項3に記載の発明は、請求項1又は2に記載の音源分離装置において、前記2つのマイクロホンのうちの一方のマイクロホンからの出力信号に対して遅延を与え、前記遅延に対応した角度だけ仮想的に前記垂線を回転させることにより目的音源方向を仮想的に補正する指向性制御手段をさらに備えることを特徴とする。
この発明によれば、遅延を与えることで指向特性を最適な状態に補正することができ、音源の分離性能を向上させることができる。
この発明によれば、仮想的に3つのマイクロホンからの出力信号を生成することができるため、2つのマイクロホンのみを用いて、2つのマイクロホンを結ぶ直線の垂線方向から到来する音源信号を分離抽出することが可能となる。
請求項12に記載の発明は、互いに離して配置された少なくとも2つのマイクロホンのうちの2つのマイクロホンからなるマイクロホン対に対して、複数の音源から発せられた音源信号を入力する音源信号受信ステップと、前記マイクロホン対を構成する2つのマイクロホンからの出力信号に対して、周波数領域で複素共役の関係にある2つの重み係数各々を用いて周波数領域での積和演算を行うことにより、前記マイクロホン対を構成する2つのマイクロホンを結ぶ直線の垂線に対して対称であり、スペクトル情報を得ようとする目的音源のおおまかな方向及び前記おおまかな方向と対称な方向から到来する音源信号を各々減衰させるための第1のビームフォ−マ処理及び第2のビームフォーマ処理を行うビームフォーマ処理ステップと、前記ビームフォ−マ処理ステップにおいて得られた音源信号各々についてパワースペクトル情報を算出するパワー計算ステップと、前記パワー計算ステップにおいて計算されたパワースペクトル情報同士の差分を求め、所定の値を超えた当該差分値を目的音源のスペクトル情報として出力する目的音スペクトル抽出ステップとを備えることを特徴とする音源分離方法を提供する。
[発明の効果]
本発明によれば、周波数領域で複素共役の関係にある2つの重み係数各々を用いて周波数領域での積和演算を行うことにより、マイクロホン対を構成する2つのマイクロホンを結ぶ直線の垂線に対して対称であり、スペクトル情報を得ようとする目的音源のおおまかな方向及び前記おおまかな方向と対称な方向から到来する音源信号を各々減衰させるための第1のビームフォーマ処理及び第2のビームフォーマ処理を行うことにより、前記マイクロホン対を構成する2つのマイクロホンを結ぶ直線の垂線に対して対称な方向から到来する音源信号を各々減衰させ、前記第1のビームフォ−マ処理及び前記第2のビームフォ−マ処理により得られた音源信号各々についてのパワースペクトル情報同士の差分を求め、所定の値を超えた当該差分値を目的音源のスペクトル情報として出力することで、指向特性がマイクロホン素子の感度に影響を受けないという性質を実現することができ、マイクロホン素子の感度のばらつきに影響を受けることなく、複数の音源から発せられた音源信号が混合された混合音の中から、目的音源からの音源信号を分離することが可能となる。
まず、図3を参照して、ビームフォーマ部3の構成を説明する。図3では、スペクトル分析部20、スペクトル分析部21で周波数成分毎に分解された信号x1(ω)、x2(ω)を入力として、乗算器100a、100b、100c、100dにて、フィルタの重み係数w1(ω)、w2(ω)、w1 *(ω)、w2 *(ω)(*は複素共役の関係にあることを示す)と乗算をそれぞれ行い、加算器100e、100fにて2つの乗算結果を加算し、その出力としてフィルタリング処理結果ds1(ω)、ds2(ω)を出力する。このように、ビームフォーマ部3は、複素共役フィルタ係数を使用することにより、マイク10、11間を結ぶ直線の垂線を中心として対称な位置に死角を形成している。
[パワー計算部]
次に、図4を参照して、パワー計算部40、41について説明する。パワー計算部40、41は、ビームフォーマ30、ビームフォーマ31からの出力ds1(ω)、ds2(ω)を、以下の計算式により、パワー計算部40、パワー計算部41にてパワースペクトル情報ps1(ω)、ps2(ω)に変換する。
ps1(ω)=[Re(ds1(ω))]2+[Im(ds1(ω))]2
ps2(ω)=[Re(ds2(ω))]2+[Im(ds2(ω))]2
次に、図5を参照して、目的音スペクトル抽出部50、51に関して説明すると、パワー計算部40、41の出力ps1(ω)、ps2(ω)は、目的音スペクトル抽出部50、51の2つの入力として使用される。目的音スペクトル抽出部50、51は、2つのビームフォーマ30、31出力のパワースペクトル情報を入力として、出力として左右の目的音をそれぞれ出力するが、内部的には差分計算部500、510と係数変換部501、511で構成される。
差分計算部500は、減算器500aにてビームフォーマ30のパワースペクトル情報からビームフォーマ31のパワースペクトル情報の減算を行い、同様に、差分計算部510は、減算器510aにてビームフォーマ31のパワースペクトル情報からビームフォーマ30のパワースペクトル情報の減算を行い、その結果をそれぞれ、係数変換部501、係数変換部511へ入力する。係数変換部501、係数変換部511は、それぞれ左右の音を分離するためのブロックであり、それぞれ、値が特定のしきい値以上の値を、目的とする方向からの信号としてスペクトル情報を出力する。ここで、しきい値の値は一般的には“0”であるが、使用環境に応じて最適値を実測より求め別々に設定しても良い。
Claims (13)
- 互いに離して配置された少なくとも2つのマイクロホンに対して複数の音源から発せられた音源信号が混合された混合音を入力し、該混合音から目的音源からの音源信号を分離する音源分離装置において、
前記マイクロホンからの出力信号に対して第1の係数を用いた演算を行うことにより、所定の方向から到来する音源信号を減衰させるための第1のビームフォーマ処理を行い、
かつ、
前記マイクロホンからの出力信号に対して、前記第1の係数と周波数領域で複素共役の関係にある第2の係数を用いた演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して前記所定の方向と対称な方向から到来する音源信号を減衰させるための第2のビームフォーマ処理を行うビームフォーマ手段と、
前記ビームフォ−マ手段により得られた音源信号各々についてのパワースペクトル情報を計算するパワー計算手段と、
前記パワー計算手段により計算されたパワースペクトル情報同士の差分に基づいて、目的音源のスペクトル情報を抽出する目的音スペクトル抽出手段と
を備えることを特徴とする音源分離装置。 - 前記ビームフォーマ手段は、
互いに離して配置された3つのマイクロホンのうち、何れか2つのマイクロホンの組合せ及び他の2つのマイクロホンの組合せ各々について、前記第1のビームフォーマ処理及び前記第2のビームフォーマ処理を行うことを特徴とする
請求項1に記載の音源分離装置。 - マイクロホンからの出力信号に対して遅延を与える指向性制御手段をさらに備えることを特徴とする
請求項1又は2に記載の音源分離装置。 - 前記指向性制御手段は、
2つのマイクロホンのうち少なくとも一方のマイクロホンからの出力信号に対して遅延を与えることにより、仮想的に3つのマイクロホンからの出力信号を生成することを特徴とする
請求項3に記載の音源分離装置。 - 前記音源信号が到来する方向を推定する到来方向推定手段をさらに備え、
前記指向性制御手段は、
前記到来方向推定手段により推定された到来方向に基づいて、2つの音源の位置が仮想的に2つのマイクロホンを結ぶ直線の垂線に対して対称となるように、該マイクロホンからの出力信号に対して遅延を与えることを特徴とする
請求項3又は4に記載の音源分離装置。 - 前記目的音抽出手段により抽出されたパワースペクトル情報に対して、スペクトルサブトラクション処理を行うスペクトルサブトラクション手段をさらに備えたことを特徴とする
請求項1から5の何れか1項に記載の音源分離装置。 - 前記ビームフォーマ手段による処理を行う前に、雑音を低減する処理を行う定常雑音低減手段をさらに備えることを特徴とする
請求項1から6の何れか1項に記載の音源分離装置。 - 請求項1から7の何れか1項に記載の音源分離装置により分離された音源信号の音声認識を行う音声認識手段を備えた音声認識装置。
- 車両の運転席側から発せられる語彙の候補の一覧である運転席側認識語彙リスト及び助手席側から発せられる語彙の候補の一覧である助手席側認識語彙リストを記憶する認識語彙リスト記憶手段をさらに備え、
前記音声認識手段は、
前記認識語彙リスト記憶手段に記憶されている運転席側認識語彙リスト及び助手席側認識語彙リストに基づいて、前記音源分離装置により分離された音源信号の音声認識処理を行うことを特徴とする
請求項8に記載の音声認識装置。 - 現在の車両の状態を管理する状態遷移手段と、
車両の状態に応じた助手席側及び運転席側における有効な語彙リストを記憶する有効語彙リスト記憶手段と、
前記状態遷移手段で管理されている現在の車両の状態と、前記有効語彙リスト記憶手段に記憶されている語彙リストとに基づいて、前記音声認識手段により認識された語彙が有効か否かを判断し、該判断結果に応じて制御を行う制御手段とをさらに備えることを特徴とする
請求項8又は9に記載の音声認識装置。 - 請求項1から7の何れか1項に記載の音源分離装置を備えた携帯電話機。
- 互いに離して配置された少なくとも2つのマイクロホンに対して、複数の音源から発せられた音源信号を入力する音源信号受信ステップと、
前記マイクロホンからの出力信号に対して、周波数領域で複素共役の関係にある2つの重み係数各々を用いて演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して対称な所定の方向から到来する音源信号を各々減衰させるための第1のビームフォ−マ処理及び第2のビームフォーマ処理を行うビームフォーマ処理ステップと、
前記ビームフォ−マ処理ステップにおいて得られた音源信号各々についてパワースペクトル情報を算出するパワー計算ステップと、
前記パワー計算ステップにおいて計算されたパワースペクトル情報同士の差分に基づいて、目的音源のスペクトル情報を抽出する目的音スペクトル抽出ステップと
を備えることを特徴とする音源分離方法。 - コンピュータに、
互いに離して配置された少なくとも2つのマイクロホンから、複数の音源から発せられた音源信号が混合された出力信号を取得する出力信号取得ステップと、
前記出力信号取得ステップにおいて取得された出力信号に対して、周波数領域で複素共役の関係にある2つの重み係数各々を用いて演算を行うことにより、2つのマイクロホンを結ぶ直線の垂線に対して対称な所定の方向から到来する音源信号を各々減衰させるための第1のビームフォ−マ処理及び第2のビームフォーマ処理を行うビームフォーマ処理ステップと、
前記ビームフォ−マ処理ステップにおいて得られた音源信号各々についてパワースペクトル情報を算出するパワー計算ステップと、
前記パワー計算ステップにおいて計算されたパワースペクトル情報同士の差分に基づいて、目的音源のスペクトル情報を抽出する目的音スペクトル抽出ステップと
を実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005233195 | 2005-08-11 | ||
JP2005233195 | 2005-08-11 | ||
PCT/JP2006/315953 WO2007018293A1 (ja) | 2005-08-11 | 2006-08-11 | 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4225430B2 JP4225430B2 (ja) | 2009-02-18 |
JPWO2007018293A1 true JPWO2007018293A1 (ja) | 2009-02-19 |
Family
ID=37727469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007529641A Expired - Fee Related JP4225430B2 (ja) | 2005-08-11 | 2006-08-11 | 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US8112272B2 (ja) |
EP (1) | EP1923866B1 (ja) |
JP (1) | JP4225430B2 (ja) |
KR (1) | KR100959983B1 (ja) |
CN (1) | CN101238511B (ja) |
WO (1) | WO2007018293A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013546247A (ja) * | 2010-10-29 | 2013-12-26 | マイティワークス | マルチビーム音響システム |
JP2015070315A (ja) * | 2013-09-26 | 2015-04-13 | 沖電気工業株式会社 | 音源分離装置、音源分離方法、及び音源分離プログラム |
JP2021007259A (ja) * | 2015-09-30 | 2021-01-21 | アップル インコーポレイテッドApple Inc. | インテリジェントなデバイス識別 |
Families Citing this family (197)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006037014A2 (en) | 2004-09-27 | 2006-04-06 | Nielsen Media Research, Inc. | Methods and apparatus for using location information to manage spillover in an audience monitoring system |
JP4873913B2 (ja) * | 2004-12-17 | 2012-02-08 | 学校法人早稲田大学 | 音源分離システムおよび音源分離方法、並びに音響信号取得装置 |
US8706482B2 (en) * | 2006-05-11 | 2014-04-22 | Nth Data Processing L.L.C. | Voice coder with multiple-microphone system and strategic microphone placement to deter obstruction for a digital communication device |
US9135797B2 (en) | 2006-12-28 | 2015-09-15 | International Business Machines Corporation | Audio detection using distributed mobile computing |
JP4897519B2 (ja) * | 2007-03-05 | 2012-03-14 | 株式会社神戸製鋼所 | 音源分離装置,音源分離プログラム及び音源分離方法 |
JP5034595B2 (ja) * | 2007-03-27 | 2012-09-26 | ソニー株式会社 | 音響再生装置および音響再生方法 |
JP4519900B2 (ja) * | 2007-04-26 | 2010-08-04 | 株式会社神戸製鋼所 | 目的音抽出装置,目的音抽出プログラム,目的音抽出方法 |
US20080267423A1 (en) * | 2007-04-26 | 2008-10-30 | Kabushiki Kaisha Kobe Seiko Sho | Object sound extraction apparatus and object sound extraction method |
JP2008288785A (ja) * | 2007-05-16 | 2008-11-27 | Yamaha Corp | テレビ会議装置 |
JP4867804B2 (ja) * | 2007-06-12 | 2012-02-01 | ヤマハ株式会社 | 音声認識装置及び会議システム |
JP4493690B2 (ja) * | 2007-11-30 | 2010-06-30 | 株式会社神戸製鋼所 | 目的音抽出装置,目的音抽出プログラム,目的音抽出方法 |
US8249867B2 (en) * | 2007-12-11 | 2012-08-21 | Electronics And Telecommunications Research Institute | Microphone array based speech recognition system and target speech extracting method of the system |
DE102008004674A1 (de) * | 2007-12-17 | 2009-06-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Signalaufnahme mit variabler Richtcharakteristik |
US8144896B2 (en) * | 2008-02-22 | 2012-03-27 | Microsoft Corporation | Speech separation with microphone arrays |
KR101470528B1 (ko) * | 2008-06-09 | 2014-12-15 | 삼성전자주식회사 | 적응 빔포밍을 위한 사용자 방향의 소리 검출 기반의 적응모드 제어 장치 및 방법 |
EP2146519B1 (en) * | 2008-07-16 | 2012-06-06 | Nuance Communications, Inc. | Beamforming pre-processing for speaker localization |
JP5339501B2 (ja) * | 2008-07-23 | 2013-11-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 音声収集方法、システム及びプログラム |
JP5270259B2 (ja) * | 2008-08-27 | 2013-08-21 | 村田機械株式会社 | 音声認識装置 |
US8073634B2 (en) * | 2008-09-22 | 2011-12-06 | University Of Ottawa | Method to extract target signals of a known type from raw data containing an unknown number of target signals, interference, and noise |
US8401178B2 (en) * | 2008-09-30 | 2013-03-19 | Apple Inc. | Multiple microphone switching and configuration |
JP4816711B2 (ja) * | 2008-11-04 | 2011-11-16 | ソニー株式会社 | 通話音声処理装置および通話音声処理方法 |
JP5377518B2 (ja) * | 2009-01-06 | 2013-12-25 | 三菱電機株式会社 | 雑音除去装置及び雑音除去プログラム |
JP5376635B2 (ja) * | 2009-01-07 | 2013-12-25 | 国立大学法人 奈良先端科学技術大学院大学 | 雑音抑圧処理選択装置,雑音抑圧装置およびプログラム |
JP2010193323A (ja) * | 2009-02-19 | 2010-09-02 | Casio Hitachi Mobile Communications Co Ltd | 録音装置、再生装置、録音方法、再生方法、及びコンピュータプログラム |
JP5289128B2 (ja) * | 2009-03-25 | 2013-09-11 | 株式会社東芝 | 信号処理方法、装置及びプログラム |
JP5240026B2 (ja) * | 2009-04-09 | 2013-07-17 | ヤマハ株式会社 | マイクロホンアレイにおけるマイクロホンの感度を補正する装置、この装置を含んだマイクロホンアレイシステム、およびプログラム |
EP2249334A1 (en) * | 2009-05-08 | 2010-11-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio format transcoder |
JP5272920B2 (ja) * | 2009-06-23 | 2013-08-28 | 富士通株式会社 | 信号処理装置、信号処理方法、および信号処理プログラム |
KR101581885B1 (ko) * | 2009-08-26 | 2016-01-04 | 삼성전자주식회사 | 복소 스펙트럼 잡음 제거 장치 및 방법 |
US8340943B2 (en) * | 2009-08-28 | 2012-12-25 | Electronics And Telecommunications Research Institute | Method and system for separating musical sound source |
KR101253610B1 (ko) | 2009-09-28 | 2013-04-11 | 한국전자통신연구원 | 사용자 음성을 이용한 위치 추적 장치 및 그 방법 |
KR101612704B1 (ko) * | 2009-10-30 | 2016-04-18 | 삼성전자 주식회사 | 다중음원 위치 추적장치 및 그 방법 |
EP2339574B1 (en) * | 2009-11-20 | 2013-03-13 | Nxp B.V. | Speech detector |
JP2011107603A (ja) * | 2009-11-20 | 2011-06-02 | Sony Corp | 音声認識装置、および音声認識方法、並びにプログラム |
JP5170465B2 (ja) * | 2009-12-11 | 2013-03-27 | 沖電気工業株式会社 | 音源分離装置、方法及びプログラム |
JP4986248B2 (ja) * | 2009-12-11 | 2012-07-25 | 沖電気工業株式会社 | 音源分離装置、方法及びプログラム |
JP5493850B2 (ja) * | 2009-12-28 | 2014-05-14 | 富士通株式会社 | 信号処理装置、マイクロホン・アレイ装置、信号処理方法、および信号処理プログラム |
KR101670313B1 (ko) | 2010-01-28 | 2016-10-28 | 삼성전자주식회사 | 음원 분리를 위해 자동적으로 문턱치를 선택하는 신호 분리 시스템 및 방법 |
US9025415B2 (en) * | 2010-02-23 | 2015-05-05 | Koninklijke Philips N.V. | Audio source localization |
US8538035B2 (en) | 2010-04-29 | 2013-09-17 | Audience, Inc. | Multi-microphone robust noise suppression |
US8473287B2 (en) | 2010-04-19 | 2013-06-25 | Audience, Inc. | Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system |
US8712069B1 (en) * | 2010-04-19 | 2014-04-29 | Audience, Inc. | Selection of system parameters based on non-acoustic sensor information |
US8958572B1 (en) * | 2010-04-19 | 2015-02-17 | Audience, Inc. | Adaptive noise cancellation for multi-microphone systems |
US8781137B1 (en) | 2010-04-27 | 2014-07-15 | Audience, Inc. | Wind noise detection and suppression |
US9203489B2 (en) | 2010-05-05 | 2015-12-01 | Google Technology Holdings LLC | Method and precoder information feedback in multi-antenna wireless communication systems |
US8447596B2 (en) | 2010-07-12 | 2013-05-21 | Audience, Inc. | Monaural noise suppression based on computational auditory scene analysis |
US8433076B2 (en) * | 2010-07-26 | 2013-04-30 | Motorola Mobility Llc | Electronic apparatus for generating beamformed audio signals with steerable nulls |
EP2600344B1 (en) * | 2010-07-26 | 2015-02-18 | Panasonic Corporation | Multi-input noise suppresion device, multi-input noise suppression method, program, and integrated circuit |
US9772815B1 (en) | 2013-11-14 | 2017-09-26 | Knowles Electronics, Llc | Personalized operation of a mobile device using acoustic and non-acoustic information |
BR112012031656A2 (pt) | 2010-08-25 | 2016-11-08 | Asahi Chemical Ind | dispositivo, e método de separação de fontes sonoras, e, programa |
US20120066162A1 (en) * | 2010-09-09 | 2012-03-15 | Texas Instruments Incorporated | System and Method for Training an Adaptive Filter in an Alternate Domain with Constraints |
KR20120031854A (ko) * | 2010-09-27 | 2012-04-04 | 한국전자통신연구원 | 시간 및 주파수 특징을 이용하는 음악 음원 분리 장치 및 방법 |
JP5857403B2 (ja) | 2010-12-17 | 2016-02-10 | 富士通株式会社 | 音声処理装置および音声処理プログラム |
EP2642768B1 (en) * | 2010-12-21 | 2018-03-14 | Nippon Telegraph And Telephone Corporation | Sound enhancement method, device, program, and recording medium |
US9299360B2 (en) * | 2011-01-13 | 2016-03-29 | Nec Corporation | Speech processing apparatus, control method thereof, storage medium storing control program thereof, and vehicle, information processing apparatus, and information processing system including the speech processing apparatus |
CN102595281B (zh) * | 2011-01-14 | 2016-04-13 | 通用汽车环球科技运作有限责任公司 | 统一标准的麦克风预处理系统和方法 |
US9357307B2 (en) | 2011-02-10 | 2016-05-31 | Dolby Laboratories Licensing Corporation | Multi-channel wind noise suppression system and method |
US9047867B2 (en) * | 2011-02-21 | 2015-06-02 | Adobe Systems Incorporated | Systems and methods for concurrent signal recognition |
WO2012145709A2 (en) * | 2011-04-20 | 2012-10-26 | Aurenta Inc. | A method for encoding multiple microphone signals into a source-separable audio signal for network transmission and an apparatus for directed source separation |
US9794678B2 (en) | 2011-05-13 | 2017-10-17 | Plantronics, Inc. | Psycho-acoustic noise suppression |
GB2491366A (en) * | 2011-05-31 | 2012-12-05 | Nokia Corp | A configurable microphone or loudspeaker apparatus |
JP6179081B2 (ja) * | 2011-09-15 | 2017-08-16 | 株式会社Jvcケンウッド | ノイズ低減装置、音声入力装置、無線通信装置、およびノイズ低減方法 |
JP6267860B2 (ja) * | 2011-11-28 | 2018-01-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声信号送信装置、音声信号受信装置及びその方法 |
US9459276B2 (en) | 2012-01-06 | 2016-10-04 | Sensor Platforms, Inc. | System and method for device self-calibration |
US8712076B2 (en) | 2012-02-08 | 2014-04-29 | Dolby Laboratories Licensing Corporation | Post-processing including median filtering of noise suppression gains |
US9173025B2 (en) | 2012-02-08 | 2015-10-27 | Dolby Laboratories Licensing Corporation | Combined suppression of noise, echo, and out-of-location signals |
US20130211828A1 (en) * | 2012-02-13 | 2013-08-15 | General Motors Llc | Speech processing responsive to active noise control microphones |
JP2015513704A (ja) * | 2012-03-16 | 2015-05-14 | ニュアンス コミュニケーションズ, インコーポレイテッド | ユーザ専用自動発話認識 |
US8725508B2 (en) * | 2012-03-27 | 2014-05-13 | Novospeech | Method and apparatus for element identification in a signal |
US8935164B2 (en) * | 2012-05-02 | 2015-01-13 | Gentex Corporation | Non-spatial speech detection system and method of using same |
US10075801B2 (en) * | 2012-07-13 | 2018-09-11 | Sony Corporation | Information processing system and storage medium |
US9131295B2 (en) | 2012-08-07 | 2015-09-08 | Microsoft Technology Licensing, Llc | Multi-microphone audio source separation based on combined statistical angle distributions |
US9269146B2 (en) | 2012-08-23 | 2016-02-23 | Microsoft Technology Licensing, Llc | Target object angle determination using multiple cameras |
US9078057B2 (en) * | 2012-11-01 | 2015-07-07 | Csr Technology Inc. | Adaptive microphone beamforming |
US9798799B2 (en) * | 2012-11-15 | 2017-10-24 | Sri International | Vehicle personal assistant that interprets spoken natural language input based upon vehicle context |
US9251804B2 (en) | 2012-11-21 | 2016-02-02 | Empire Technology Development Llc | Speech recognition |
WO2014081401A1 (en) * | 2012-11-22 | 2014-05-30 | Gedik, Osman Serdar | A system for measuring and evaluating preterm feeding maturation based on sucking and swallowing patterns |
US9726498B2 (en) | 2012-11-29 | 2017-08-08 | Sensor Platforms, Inc. | Combining monitoring sensor measurements and system signals to determine device context |
US9813262B2 (en) | 2012-12-03 | 2017-11-07 | Google Technology Holdings LLC | Method and apparatus for selectively transmitting data using spatial diversity |
US9591508B2 (en) | 2012-12-20 | 2017-03-07 | Google Technology Holdings LLC | Methods and apparatus for transmitting data between different peer-to-peer communication groups |
US9979531B2 (en) | 2013-01-03 | 2018-05-22 | Google Technology Holdings LLC | Method and apparatus for tuning a communication device for multi band operation |
US9460732B2 (en) | 2013-02-13 | 2016-10-04 | Analog Devices, Inc. | Signal source separation |
US9021516B2 (en) | 2013-03-01 | 2015-04-28 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by measuring a crest factor |
WO2014137341A1 (en) * | 2013-03-07 | 2014-09-12 | Nuance Communications, Inc. | Method for training an automatic speech recognition system |
US9118960B2 (en) | 2013-03-08 | 2015-08-25 | The Nielsen Company (Us), Llc | Methods and systems for reducing spillover by detecting signal distortion |
US10229697B2 (en) * | 2013-03-12 | 2019-03-12 | Google Technology Holdings LLC | Apparatus and method for beamforming to obtain voice and noise signals |
US9813808B1 (en) | 2013-03-14 | 2017-11-07 | Amazon Technologies, Inc. | Adaptive directional audio enhancement and selection |
US9191704B2 (en) | 2013-03-14 | 2015-11-17 | The Nielsen Company (Us), Llc | Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures |
US20140270241A1 (en) * | 2013-03-15 | 2014-09-18 | CSR Technology, Inc | Method, apparatus, and manufacture for two-microphone array speech enhancement for an automotive environment |
US9197930B2 (en) | 2013-03-15 | 2015-11-24 | The Nielsen Company (Us), Llc | Methods and apparatus to detect spillover in an audience monitoring system |
WO2014147442A1 (en) * | 2013-03-20 | 2014-09-25 | Nokia Corporation | Spatial audio apparatus |
JP2014219467A (ja) * | 2013-05-02 | 2014-11-20 | ソニー株式会社 | 音信号処理装置、および音信号処理方法、並びにプログラム |
US20180317019A1 (en) | 2013-05-23 | 2018-11-01 | Knowles Electronics, Llc | Acoustic activity detecting microphone |
US9747899B2 (en) | 2013-06-27 | 2017-08-29 | Amazon Technologies, Inc. | Detecting self-generated wake expressions |
US9640179B1 (en) * | 2013-06-27 | 2017-05-02 | Amazon Technologies, Inc. | Tailoring beamforming techniques to environments |
US9386542B2 (en) | 2013-09-19 | 2016-07-05 | Google Technology Holdings, LLC | Method and apparatus for estimating transmit power of a wireless device |
WO2015048070A1 (en) * | 2013-09-24 | 2015-04-02 | Analog Devices, Inc. | Time-frequency directional processing of audio signals |
US9420368B2 (en) | 2013-09-24 | 2016-08-16 | Analog Devices, Inc. | Time-frequency directional processing of audio signals |
WO2015065362A1 (en) * | 2013-10-30 | 2015-05-07 | Nuance Communications, Inc | Methods and apparatus for selective microphone signal combining |
US9532138B1 (en) * | 2013-11-05 | 2016-12-27 | Cirrus Logic, Inc. | Systems and methods for suppressing audio noise in a communication system |
US9497528B2 (en) * | 2013-11-07 | 2016-11-15 | Continental Automotive Systems, Inc. | Cotalker nulling based on multi super directional beamformer |
US9431013B2 (en) * | 2013-11-07 | 2016-08-30 | Continental Automotive Systems, Inc. | Co-talker nulling for automatic speech recognition systems |
US9781106B1 (en) | 2013-11-20 | 2017-10-03 | Knowles Electronics, Llc | Method for modeling user possession of mobile device for user authentication framework |
KR101491354B1 (ko) | 2013-11-25 | 2015-02-06 | 현대자동차주식회사 | 음성인식 장치 및 방법 |
US9549290B2 (en) | 2013-12-19 | 2017-01-17 | Google Technology Holdings LLC | Method and apparatus for determining direction information for a wireless device |
US9390712B2 (en) * | 2014-03-24 | 2016-07-12 | Microsoft Technology Licensing, Llc. | Mixed speech recognition |
US9500739B2 (en) | 2014-03-28 | 2016-11-22 | Knowles Electronics, Llc | Estimating and tracking multiple attributes of multiple objects from multi-sensor data |
WO2015157013A1 (en) * | 2014-04-11 | 2015-10-15 | Analog Devices, Inc. | Apparatus, systems and methods for providing blind source separation services |
CN103971681A (zh) * | 2014-04-24 | 2014-08-06 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及系统 |
US9491007B2 (en) | 2014-04-28 | 2016-11-08 | Google Technology Holdings LLC | Apparatus and method for antenna matching |
US9478847B2 (en) | 2014-06-02 | 2016-10-25 | Google Technology Holdings LLC | Antenna system and method of assembly for a wearable electronic device |
CN105244036A (zh) * | 2014-06-27 | 2016-01-13 | 中兴通讯股份有限公司 | 一种麦克风语音增强方法及装置 |
US10242690B2 (en) * | 2014-12-12 | 2019-03-26 | Nuance Communications, Inc. | System and method for speech enhancement using a coherent to diffuse sound ratio |
JP2016126022A (ja) * | 2014-12-26 | 2016-07-11 | アイシン精機株式会社 | 音声処理装置 |
WO2016112113A1 (en) | 2015-01-07 | 2016-07-14 | Knowles Electronics, Llc | Utilizing digital microphones for low power keyword detection and noise suppression |
JPWO2016132409A1 (ja) * | 2015-02-16 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 車載用音響処理装置 |
US10657958B2 (en) * | 2015-03-18 | 2020-05-19 | Sogang University Research Foundation | Online target-speech extraction method for robust automatic speech recognition |
US10991362B2 (en) * | 2015-03-18 | 2021-04-27 | Industry-University Cooperation Foundation Sogang University | Online target-speech extraction method based on auxiliary function for robust automatic speech recognition |
US11694707B2 (en) | 2015-03-18 | 2023-07-04 | Industry-University Cooperation Foundation Sogang University | Online target-speech extraction method based on auxiliary function for robust automatic speech recognition |
US10186277B2 (en) | 2015-03-19 | 2019-01-22 | Intel Corporation | Microphone array speech enhancement |
US9924224B2 (en) | 2015-04-03 | 2018-03-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine a state of a media presentation device |
CN104900237B (zh) * | 2015-04-24 | 2019-07-05 | 上海聚力传媒技术有限公司 | 一种用于对音频信息进行降噪处理的方法、装置和系统 |
US9554207B2 (en) | 2015-04-30 | 2017-01-24 | Shure Acquisition Holdings, Inc. | Offset cartridge microphones |
US9565493B2 (en) | 2015-04-30 | 2017-02-07 | Shure Acquisition Holdings, Inc. | Array microphone system and method of assembling the same |
JP6603919B2 (ja) * | 2015-06-18 | 2019-11-13 | 本田技研工業株式会社 | 音声認識装置、および音声認識方法 |
US9848222B2 (en) | 2015-07-15 | 2017-12-19 | The Nielsen Company (Us), Llc | Methods and apparatus to detect spillover |
JP6648377B2 (ja) * | 2015-09-28 | 2020-02-14 | 本田技研工業株式会社 | 音声処理装置及び音声処理方法 |
CN105590633A (zh) * | 2015-11-16 | 2016-05-18 | 福建省百利亨信息科技有限公司 | 一种用于歌曲评分的曲谱生成方法和设备 |
JP2017102085A (ja) * | 2015-12-04 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9747920B2 (en) * | 2015-12-17 | 2017-08-29 | Amazon Technologies, Inc. | Adaptive beamforming to create reference channels |
US9773495B2 (en) | 2016-01-25 | 2017-09-26 | Ford Global Technologies, Llc | System and method for personalized sound isolation in vehicle audio zones |
DE112016007079T5 (de) * | 2016-07-21 | 2019-04-04 | Mitsubishi Electric Corporation | Störgeräuschbeseitigungseinrichtung, echolöscheinrichtung, anormales-geräusch-detektionseinrichtung und störgeräuschbeseitigungsverfahren |
JP6729186B2 (ja) | 2016-08-30 | 2020-07-22 | 富士通株式会社 | 音声処理プログラム、音声処理方法及び音声処理装置 |
WO2018127447A1 (en) * | 2017-01-03 | 2018-07-12 | Koninklijke Philips N.V. | Method and apparatus for audio capture using beamforming |
WO2018127450A1 (en) * | 2017-01-03 | 2018-07-12 | Koninklijke Philips N.V. | Audio capture using beamforming |
US10367948B2 (en) | 2017-01-13 | 2019-07-30 | Shure Acquisition Holdings, Inc. | Post-mixing acoustic echo cancellation systems and methods |
CN110447238B (zh) | 2017-01-27 | 2021-12-03 | 舒尔获得控股公司 | 阵列麦克风模块及系统 |
US10085087B2 (en) * | 2017-02-17 | 2018-09-25 | Oki Electric Industry Co., Ltd. | Sound pick-up device, program, and method |
AU2017402614B2 (en) * | 2017-03-10 | 2022-03-31 | James Jordan Rosenberg | System and method for relative enhancement of vocal utterances in an acoustically cluttered environment |
CN106952653B (zh) * | 2017-03-15 | 2021-05-04 | 科大讯飞股份有限公司 | 噪声去除方法、装置和终端设备 |
CN107248413A (zh) * | 2017-03-19 | 2017-10-13 | 临境声学科技江苏有限公司 | 基于差分波束形成的隐声方法 |
JP6472824B2 (ja) * | 2017-03-21 | 2019-02-20 | 株式会社東芝 | 信号処理装置、信号処理方法および音声の対応づけ提示装置 |
EP3392882A1 (en) * | 2017-04-20 | 2018-10-24 | Thomson Licensing | Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium |
US10535360B1 (en) * | 2017-05-25 | 2020-01-14 | Tp Lab, Inc. | Phone stand using a plurality of directional speakers |
US11212608B2 (en) | 2017-08-10 | 2021-12-28 | Mitsubishi Electric Corporation | Noise elimination device and noise elimination method |
CN107301869B (zh) * | 2017-08-17 | 2021-01-29 | 珠海全志科技股份有限公司 | 麦克风阵列拾音方法、处理器及其存储介质 |
US20210098014A1 (en) * | 2017-09-07 | 2021-04-01 | Mitsubishi Electric Corporation | Noise elimination device and noise elimination method |
WO2019070722A1 (en) * | 2017-10-03 | 2019-04-11 | Bose Corporation | SPACE DIAGRAM DETECTOR |
CN107742522B (zh) * | 2017-10-23 | 2022-01-14 | 科大讯飞股份有限公司 | 基于麦克风阵列的目标语音获取方法及装置 |
KR102469753B1 (ko) * | 2017-11-30 | 2022-11-22 | 삼성전자주식회사 | 음원의 위치에 기초하여 서비스를 제공하는 방법 및 이를 위한 음성 인식 디바이스 |
US10522167B1 (en) * | 2018-02-13 | 2019-12-31 | Amazon Techonlogies, Inc. | Multichannel noise cancellation using deep neural network masking |
WO2019161196A2 (en) * | 2018-02-15 | 2019-08-22 | DMAI, Inc. | System and method for disambiguating a source of sound based on detected lip movement |
CN108621981A (zh) * | 2018-03-30 | 2018-10-09 | 斑马网络技术有限公司 | 基于座椅的语音识别系统及其识别方法 |
CN108674344B (zh) * | 2018-03-30 | 2024-04-02 | 斑马网络技术有限公司 | 基于方向盘的语音处理系统及其应用 |
CN108711434A (zh) * | 2018-04-04 | 2018-10-26 | 北京小米移动软件有限公司 | 车辆降噪方法及装置 |
CN112335261B (zh) | 2018-06-01 | 2023-07-18 | 舒尔获得控股公司 | 图案形成麦克风阵列 |
US11297423B2 (en) | 2018-06-15 | 2022-04-05 | Shure Acquisition Holdings, Inc. | Endfire linear array microphone |
CN108932949A (zh) * | 2018-09-05 | 2018-12-04 | 科大讯飞股份有限公司 | 一种参考信号获取方法及装置 |
WO2020061136A1 (en) * | 2018-09-18 | 2020-03-26 | Tactual Labs Co. | Biometric frequency |
WO2020061353A1 (en) | 2018-09-20 | 2020-03-26 | Shure Acquisition Holdings, Inc. | Adjustable lobe shape for array microphones |
US11109133B2 (en) | 2018-09-21 | 2021-08-31 | Shure Acquisition Holdings, Inc. | Array microphone module and system |
TWI719385B (zh) * | 2019-01-11 | 2021-02-21 | 緯創資通股份有限公司 | 電子裝置及其語音指令辨識方法 |
US20220091244A1 (en) * | 2019-01-18 | 2022-03-24 | University Of Washington | Systems, apparatuses, and methods for acoustic motion tracking |
JP7252779B2 (ja) * | 2019-02-21 | 2023-04-05 | 日清紡マイクロデバイス株式会社 | 雑音除去装置、雑音除去方法およびプログラム |
US11741529B2 (en) | 2019-02-26 | 2023-08-29 | Xenial, Inc. | System for eatery ordering with mobile interface and point-of-sale terminal |
US11049509B2 (en) | 2019-03-06 | 2021-06-29 | Plantronics, Inc. | Voice signal enhancement for head-worn audio devices |
JP6822505B2 (ja) * | 2019-03-20 | 2021-01-27 | 沖電気工業株式会社 | 収音装置、収音プログラム及び収音方法 |
US11558693B2 (en) | 2019-03-21 | 2023-01-17 | Shure Acquisition Holdings, Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality |
CN113841419A (zh) | 2019-03-21 | 2021-12-24 | 舒尔获得控股公司 | 天花板阵列麦克风的外壳及相关联设计特征 |
WO2020191380A1 (en) | 2019-03-21 | 2020-09-24 | Shure Acquisition Holdings,Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality |
CN111755021B (zh) * | 2019-04-01 | 2023-09-01 | 北京京东尚科信息技术有限公司 | 基于二元麦克风阵列的语音增强方法和装置 |
TWI715027B (zh) * | 2019-05-07 | 2021-01-01 | 宏碁股份有限公司 | 揚聲器調整方法與使用此方法的電子裝置 |
US10964305B2 (en) | 2019-05-20 | 2021-03-30 | Bose Corporation | Mitigating impact of double talk for residual echo suppressors |
CN114051738B (zh) | 2019-05-23 | 2024-10-01 | 舒尔获得控股公司 | 可操纵扬声器阵列、系统及其方法 |
US11302347B2 (en) | 2019-05-31 | 2022-04-12 | Shure Acquisition Holdings, Inc. | Low latency automixer integrated with voice and noise activity detection |
WO2020248235A1 (zh) * | 2019-06-14 | 2020-12-17 | 深圳市汇顶科技股份有限公司 | 差分波束形成方法及模块、信号处理方法及装置、芯片 |
CN112216303B (zh) * | 2019-07-11 | 2024-07-23 | 北京声智科技有限公司 | 一种语音处理方法、装置及电子设备 |
CN110364161A (zh) * | 2019-08-22 | 2019-10-22 | 北京小米智能科技有限公司 | 响应语音信号的方法、电子设备、介质及系统 |
WO2021041275A1 (en) | 2019-08-23 | 2021-03-04 | Shore Acquisition Holdings, Inc. | Two-dimensional microphone array with improved directivity |
CN112449236B (zh) * | 2019-08-28 | 2023-03-24 | 海信视像科技股份有限公司 | 一种音量调节的方法及显示装置 |
KR102305850B1 (ko) | 2019-08-30 | 2021-09-28 | 엘지전자 주식회사 | 차량 내에서 인공 지능 기반의 음성 분리 방법 및 장치 |
CN110631691B (zh) * | 2019-09-09 | 2021-06-11 | 国网湖南省电力有限公司 | 一种电力设备噪声分离效果验证方法、系统、分离设备及介质 |
US12028678B2 (en) | 2019-11-01 | 2024-07-02 | Shure Acquisition Holdings, Inc. | Proximity microphone |
CN110827849B (zh) * | 2019-11-11 | 2022-07-26 | 广州国音智能科技有限公司 | 数据建库的人声分离方法、装置、终端及可读存储介质 |
EP3823315B1 (en) * | 2019-11-18 | 2024-01-10 | Panasonic Intellectual Property Corporation of America | Sound pickup device, sound pickup method, and sound pickup program |
US11552611B2 (en) | 2020-02-07 | 2023-01-10 | Shure Acquisition Holdings, Inc. | System and method for automatic adjustment of reference gain |
US11410671B2 (en) * | 2020-02-21 | 2022-08-09 | Panasonic Intellectual Property Management Co., Ltd. | Speech processing device and speech processing meihod |
US11790900B2 (en) | 2020-04-06 | 2023-10-17 | Hi Auto LTD. | System and method for audio-visual multi-speaker speech separation with location-based selection |
WO2021243368A2 (en) | 2020-05-29 | 2021-12-02 | Shure Acquisition Holdings, Inc. | Transducer steering and configuration systems and methods using a local positioning system |
JP2022025908A (ja) | 2020-07-30 | 2022-02-10 | ヤマハ株式会社 | フィルタ処理方法、フィルタ処理装置、およびフィルタ処理プログラム |
CN112382306B (zh) * | 2020-12-02 | 2022-05-10 | 思必驰科技股份有限公司 | 分离说话人音频的方法及装置 |
CN112634931B (zh) * | 2020-12-22 | 2024-05-14 | 北京声智科技有限公司 | 语音增强方法及装置 |
EP4285605A1 (en) | 2021-01-28 | 2023-12-06 | Shure Acquisition Holdings, Inc. | Hybrid audio beamforming system |
US11438695B1 (en) * | 2021-03-17 | 2022-09-06 | GM Global Technology Operations LLC | Beamforming techniques for acoustic interference cancellation |
CN114724574B (zh) * | 2022-02-21 | 2024-07-05 | 大连理工大学 | 一种期望声源方向可调的双麦克风降噪方法 |
US11804207B1 (en) | 2022-04-28 | 2023-10-31 | Ford Global Technologies, Llc | Motor vehicle workspace with enhanced privacy |
US20240036654A1 (en) * | 2022-07-28 | 2024-02-01 | Dell Products L.P. | Information handling system keyboard microphone array for audio capture and quality presentation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001100800A (ja) * | 1999-09-27 | 2001-04-13 | Toshiba Corp | 雑音成分抑圧処理装置および雑音成分抑圧処理方法 |
JP2004187283A (ja) * | 2002-11-18 | 2004-07-02 | Matsushita Electric Ind Co Ltd | マイクロホン装置および再生装置 |
JP2004289762A (ja) * | 2003-01-29 | 2004-10-14 | Toshiba Corp | 音声信号処理方法と装置及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05131866A (ja) | 1991-11-13 | 1993-05-28 | Omron Corp | 車両用ヘツドアツプデイスプレイ |
US6420975B1 (en) * | 1999-08-25 | 2002-07-16 | Donnelly Corporation | Interior rearview mirror sound processing system |
JP4163294B2 (ja) | 1998-07-31 | 2008-10-08 | 株式会社東芝 | 雑音抑圧処理装置および雑音抑圧処理方法 |
DE19943875A1 (de) * | 1999-09-14 | 2001-03-15 | Thomson Brandt Gmbh | System zur Sprachsteuerung mit einem Mikrofonarray |
JP2002099297A (ja) | 2000-09-22 | 2002-04-05 | Tokai Rika Co Ltd | マイクロフォン装置 |
JP2003153372A (ja) | 2001-11-14 | 2003-05-23 | Matsushita Electric Ind Co Ltd | マイクロホン装置 |
KR20040035150A (ko) * | 2002-10-18 | 2004-04-29 | 현대모비스 주식회사 | 차량용 음성인식 장치의 작동방법 |
US7577262B2 (en) * | 2002-11-18 | 2009-08-18 | Panasonic Corporation | Microphone device and audio player |
EP1453348A1 (de) | 2003-02-25 | 2004-09-01 | AKG Acoustics GmbH | Selbstkalibrierung von Arraymikrofonen |
DE102004005998B3 (de) * | 2004-02-06 | 2005-05-25 | Ruwisch, Dietmar, Dr. | Verfahren und Vorrichtung zur Separierung von Schallsignalen |
WO2005125273A1 (ja) * | 2004-06-16 | 2005-12-29 | Matsushita Electric Industrial Co., Ltd. | ハウリング検出装置およびその方法 |
-
2006
- 2006-08-11 JP JP2007529641A patent/JP4225430B2/ja not_active Expired - Fee Related
- 2006-08-11 EP EP06782692.5A patent/EP1923866B1/en not_active Not-in-force
- 2006-08-11 US US11/990,200 patent/US8112272B2/en active Active
- 2006-08-11 KR KR1020077026955A patent/KR100959983B1/ko not_active IP Right Cessation
- 2006-08-11 WO PCT/JP2006/315953 patent/WO2007018293A1/ja active Application Filing
- 2006-08-11 CN CN2006800285029A patent/CN101238511B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001100800A (ja) * | 1999-09-27 | 2001-04-13 | Toshiba Corp | 雑音成分抑圧処理装置および雑音成分抑圧処理方法 |
JP2004187283A (ja) * | 2002-11-18 | 2004-07-02 | Matsushita Electric Ind Co Ltd | マイクロホン装置および再生装置 |
JP2004289762A (ja) * | 2003-01-29 | 2004-10-14 | Toshiba Corp | 音声信号処理方法と装置及びプログラム |
Non-Patent Citations (1)
Title |
---|
大橋靖明 他: ""空間的サブトラクションアレーを用いた雑音下でのハンズフリー音声認識"", 日本音響学会2004年秋季研究発表会講演論文集−I−, JPN6008021732, 21 September 2004 (2004-09-21), pages 5 - 6, ISSN: 0001169657 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013546247A (ja) * | 2010-10-29 | 2013-12-26 | マイティワークス | マルチビーム音響システム |
JP2015070315A (ja) * | 2013-09-26 | 2015-04-13 | 沖電気工業株式会社 | 音源分離装置、音源分離方法、及び音源分離プログラム |
JP2021007259A (ja) * | 2015-09-30 | 2021-01-21 | アップル インコーポレイテッドApple Inc. | インテリジェントなデバイス識別 |
Also Published As
Publication number | Publication date |
---|---|
EP1923866A4 (en) | 2010-01-06 |
US20090055170A1 (en) | 2009-02-26 |
EP1923866B1 (en) | 2014-01-01 |
WO2007018293A1 (ja) | 2007-02-15 |
KR20080009211A (ko) | 2008-01-25 |
JP4225430B2 (ja) | 2009-02-18 |
KR100959983B1 (ko) | 2010-05-27 |
CN101238511B (zh) | 2011-09-07 |
US8112272B2 (en) | 2012-02-07 |
EP1923866A1 (en) | 2008-05-21 |
CN101238511A (zh) | 2008-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4225430B2 (ja) | 音源分離装置、音声認識装置、携帯電話機、音源分離方法、及び、プログラム | |
KR101339592B1 (ko) | 음원 분리 장치, 음원 분리 방법, 및 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 | |
EP1879180B1 (en) | Reduction of background noise in hands-free systems | |
EP1718103B1 (en) | Compensation of reverberation and feedback | |
US8370140B2 (en) | Method of filtering non-steady lateral noise for a multi-microphone audio device, in particular a “hands-free” telephone device for a motor vehicle | |
EP1855457B1 (en) | Multi channel echo compensation using a decorrelation stage | |
JP4286637B2 (ja) | マイクロホン装置および再生装置 | |
KR101726737B1 (ko) | 다채널 음원 분리 장치 및 그 방법 | |
US10580428B2 (en) | Audio noise estimation and filtering | |
US9002027B2 (en) | Space-time noise reduction system for use in a vehicle and method of forming same | |
US11089404B2 (en) | Sound processing apparatus and sound processing method | |
Schmidt et al. | Signal processing for in-car communication systems | |
JP2002062348A (ja) | 信号処理装置及び信号処理方法 | |
US8712769B2 (en) | Apparatus and method for noise removal by spectral smoothing | |
US6563925B1 (en) | Method and apparatus for space-time echo cancellation | |
JP6854967B1 (ja) | 雑音抑圧装置、雑音抑圧方法、及び雑音抑圧プログラム | |
Saremi | Spatial audio signal processing for speech telecommunication inside vehicles | |
Martın-Donas et al. | A postfiltering approach for dual-microphone smartphones | |
CN111863017B (zh) | 一种基于双麦克风阵列的车内定向拾音方法及相关装置 | |
Li et al. | Multi-channel noise reduction in noisy environments | |
Qi | Real-time adaptive noise cancellation for automatic speech recognition in a car environment: a thesis presented in partial fulfillment of the requirements for the degree of Doctor of Philosophy in Computer Engineering at Massey University, School of Engineering and Advanced Technology, Auckland, New Zealand |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081119 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4225430 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131205 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |