JP4157581B2 - 音声認識装置 - Google Patents
音声認識装置 Download PDFInfo
- Publication number
- JP4157581B2 JP4157581B2 JP2006546764A JP2006546764A JP4157581B2 JP 4157581 B2 JP4157581 B2 JP 4157581B2 JP 2006546764 A JP2006546764 A JP 2006546764A JP 2006546764 A JP2006546764 A JP 2006546764A JP 4157581 B2 JP4157581 B2 JP 4157581B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- sound
- separating
- acoustic signal
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000926 separation method Methods 0.000 claims description 64
- 238000000034 method Methods 0.000 claims description 37
- 230000004807 localization Effects 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 description 23
- 238000012546 transfer Methods 0.000 description 20
- 238000000605 extraction Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Circuit For Audible Band Transducer (AREA)
Description
次に図面を参照して、この発明の実施の形態を説明する。図1は、本発明の一実施形態による音声認識装置10を含む音声認識システムを示す概略図である。
音源定位部21は、複数のマイク16より入力された音響信号から音源14の方向を定位する。また、音源14や装置10自体が移動している場合は、定位された音源14の位置を時間方向に追跡する。本実施形態では、音源14およびマイク16のエピポーラ幾何を利用した音源定位(2.1節)、散乱理論を利用した音源定位(2.2節)、および伝達関数を利用した音源定位(2.3節)のうち1つを適用する。なお、音源定位の処理は、ビームフォーミングなど、その他の公知の方法を用いてもよい。
この方法は、図3に示されるような、マイク16と音源14のエピポーラ幾何を利用して音源方向θsを算出する。図3では、マイク16aおよびマイク16b間の距離は2bであり、両マイク間の中点を原点とし、原点から垂直方向を正面としている。
2)得られたスペクトルを複数の周波数領域(サブバンド)に分割し、各サブバンドfiの位相差Δφ(fi)を、式(1)より求める。
3)エピポーラ幾何(図3)を利用して式(2)を導出する。
式(2)のθに−90度から+90度の範囲で例えば5度おきに代入して、図4に示すような周波数fiと位相差Δφとの関係を求める。図4に示す関係を用いて、Δφ(fi) にもっとも近いΔφ(θ, fi) のθを求め、このθをサブバンドfi の音源方向 θiとする。
4)各サブバンドの音源方向θiと周波数から、音源方向が近くかつ調音関係にあるものを選んでグループ化し、そのグループの音源方向θsとする。なお、複数のグループが選別された場合、複数の音源が存在すると考えられるので、それぞれの音源方向を求めても良い。あらかじめ音源の数が分かっている場合は、音源の数に対応したグループ数を選ぶのが望ましい。
この方法は、マイク16を設置する躯体12による散乱波を考慮して、音源方向θsを算出する。ここではマイク16を設置する躯体12をロボットの頭部とし、半径bの球と仮定する。また、頭部の中心を極座標(r, θ,φ)の原点とする。
2)得られたスペクトルを複数の周波数領域(サブバンド)に分割し、各サブバンドfiの位相差Δφ(fi) を、式(1)より求める。または、各サブバンドfi の音圧差Δρ(fi) を、式(3)より求める。
3)音源14の位置をr0 = (r0, 0, 0)、観測点(マイク16)の位置をr = (b, 0, 0)、音源と観測点の距離をR=|r0−r|とすると、ロボット頭部における直接音によるポテンシャルVi は、式(4)で定義される。
4)ロボット頭部における音源方向θからの直接音と散乱音によるポテンシャルS(θ, f) は、式(5)で定義される。
5)マイク16aの極座標を(b,π/2, 0)、マイク16bの極座標を(b,- π/2, 0)とすると、各マイクでのポテンシャルは、式(6)、(7) で表される。
S1(θ, f) = S(π/2 - θ, f) (6)
S2(θ, f) = S(-π/2 - θ, f) (7)
6)音源の方向θと、各サブバンドfi における位相差Δφ(θ, fi)、音圧差Δρ(θ, fi) は、それぞれ式(8)、(9) によって関係付けられる。
8)Δφ(θ, fi)またはΔρ(θ, fi)の中で、Δφ(fi)またはΔρ(fi)にもっとも近いθを、各サブバンドfiの音源方向θiとする。
9)各サブバンドの音源方向θiと周波数から、音源方向が近くかつ調音関係にあるものを選んでグループ化し、そのグループの音源方向θsとする。なお、複数のグループが選別された場合、複数の音源が存在すると考えられるので、それぞれの音源方向を求めても良い。あらかじめ音源の数が分かっている場合は、音源の数に対応したグループ数を選ぶのが望ましい。また、Δφ(fi)、Δρ(fi)の両方を使って音源方向θsを求めてもよい。
位相差や音圧差と周波数、音源方向を対応づけるのに一般的な方法は、伝達関数の測定である。伝達関数は、躯体12(たとえばロボット)に設置したマイク16a、16bで、さまざまな方向からのインパルス応答を測定して作成される。これを用いて音源方向を定位する。伝達関数を利用した音源定位は、以下の手順で実施される。
2)得られたスペクトルを複数の周波数領域(サブバンド)に分割し、各サブバンドfi の位相差Δφ(fi) を、式(1)より求める。または、各サブバンドfi の音圧差Δρ(fi) を、式(3)より求める。
3)適当な間隔(例えば5度間隔)で±90度の範囲で、インパルス応答を計測して伝達関数を取得する。方向θごとにインパルス応答をマイク16a、16bで測定してFFTなどの手法で周波数分析し、インパルス応答に対する各周波数fのスペクトル(伝達関数)Sp1(f)、Sp2(f) を求める。伝達関数Sp1(f)、Sp2(f)より、位相差Δφ(θ, f) および音圧差Δρ(θ, f) を以下の式(10)、式(11)を用いて求める。
4)図5または図6に示す関係を用いて、Δφ(fi) またはΔρ(fi) にもっとも近いθを求め、それを各サブバンドfi の音源方向θiとする。
5)各サブバンドの音源方向θiと周波数から、音源方向が近くかつ調音関係にあるものを選んでグループ化し、そのグループの音源方向θsとする。なお、複数のグループが選別された場合、複数の音源が存在すると考えられるので、それぞれの音源方向を求めても良い。また、Δφ(fi)、Δρ(fi)の両方を使って音源方向 θsを求めてもよい。
この方法は、マイク16a、16bの入力信号の相互相関から、音源14からマイク16aおよびマイク16bへの距離の差(図7のd)を求め、マイク間距離2bとの関係から音源方向θsを推定する。この方法は以下の手順で実施される。
2)得られた相互相関からピークを抽出する。抽出するピーク数は、あらかじめ音源数が分かっている場合は、音減数と同数を抽出するのが望ましい。抽出したピークの時間軸上での位置が、マイク16aおよびマイク16bへの信号の到達時間差を示す。
3)信号の到達時間差と音速より、音源14からマイク16a、16bまでの距離の違い(図7のd)を算出する。
4)図7に示すように、マイク間距離2bおよび音源からマイクへの距離の差dを用いて、式(12)から音源14の方向θsを求める。
θs = arcsin(d/2b) (13)
複数のピークを抽出した場合は、それぞれ音源方向θsを求める。
音源14または躯体12が移動する場合には、音源方向の追跡を行う。図8は、音源方向θsの時間変化を示す。追跡は、それまでの時刻で得られたθsの軌跡から予測される音源方向θpと、実際に得られたθsとを比較し、その差が予め定めたしきい値よりも小さい場合には、同一音源からの信号と判断し、しきい値よりも大きい場合は、同一音源からの信号ではないと判断して行う。予測には、カルマンフィルタや自己回帰予測、HMM等、既存の時系列信号予測手法を用いる。
音源分離部23は、音源定位部21で求められた音源14の方向情報θsを利用し、入力信号から音源信号を分離する。本実施形態では、前述のエピポーラ幾何、散乱理論、または伝達関数を利用して得られるマイク間位相差Δφまたはマイク間音圧差Δρと、人間の聴覚特性を模した通過幅関数と、を組み合わせた分離方法について述べる。しかし、音源分離部23で用いる手法は、ビームフォーミングやGSS(Geometric Source Separation、幾何学的信号源分離)など、音源方向を利用し、かつサブバンドごとに音源分離をする公知の手法を用いてもよい。音源分離が時間領域で行われる場合は、分離の後周波数領域に変換する。本実施形態では音源分離は以下の手順で実施される。
2)音源方向と通過幅の関係を示す通過幅関数を用いて、音源定位部21で得られた音源方向θsに対応する通過幅δ(θs)を求める。
通過幅関数は、音源方向に対する解像度が正面方向では高く周辺では低いという人の聴覚特性に基づき設計された関数であり、例えば図9に示すように正面方向の通過幅が狭く、周辺の通過幅が広くなっている。横軸は、躯体12の正面を0[deg]とした場合の水平角である。
3)得られたδ(θs)より、通過帯域の下限θl と上限θh (図8に例示)を、式(10)を用いて算出する。
5)各サブバンドのΔφ(fi) またはΔρ(fi) が、通過帯域内にあるかどうか調べ、通過帯域内のものを選択する(図11、図12)。一般に、低周波数の定位は位相差、高周波数の定位は音圧差を利用するほうが、分離精度が増すと言われているので、予め定めたしきい値(例えば1500[Hz])より小さいサブバンドは位相差 Δφを、大きいサブバンドは音圧差Δρを使って選択しても良い。
6)選択されたサブバンドのフラグを1に設定し、選択されなかったサブバンドのフラグを0に設定する。1のフラグがついたサブバンドが、音源信号として分離される。
2)メル周波数領域で等間隔に配置した三角窓(例えば24個)によりフィルタバンク分析を行う。
3)得られたメル周波数領域スペクトルの各サブバンドmj の位相差Δφ(mj) を式(1)(ただしfi→mj)より求める。またはマイク間音圧差Δρ(mj)を、式(3)(ただしfi→mj)より求める。
4)音源方向と通過幅の関係を示す通過幅関数(図9)を用いて、音源定位部21で得られた音源方向θsに対応する通過幅δ(θs)を求める。
5)得られたδ(θs)より、通過帯域の下限θlと上限 θhを、式(10)を用いて算出する。
6)θl、θhに対応する位相差Δφl、Δφhを、前述のエピポーラ幾何(式(2)および図4)、散乱理論(式(8))、伝達関数(図5)のいずれかを用いて推定する。または、θl、θhに対応する音圧差Δρl、Δρhを、前述の散乱理論(式(9))、伝達関数(図6)のいずれかを用いて推定する。
7)各メル周波数のΔφ(mj)またはΔρ(mj)が、通過帯域内にあるかどうか調べ、通過帯域内のものを選択する。一般に、低周波数の定位は位相差、高周波数の定位は音圧差を利用するほうが、分離精度が増すと言われているので、予め定めたしきい値(例えば1500[Hz])より小さいサブバンドは位相差Δφを、大きいサブバンドは音圧差Δρを使って選択しても良い。
8)選択されたメル周波数に1のフラグを設定し、選択されなかったメル周波数に0のフラグを設定する。1のフラグがついたメル周波数を分離された信号とする。
マスク生成部25は、音源分離部23の分離結果が信頼できるかどうかに応じて、マスクの値を生成する。本実施形態では、複数の音源分離方法からの情報を利用したマスク生成(4.1節)、通過幅関数を利用したマスク生成(4.2節)、複数音源の影響を考慮したマスク生成(4.3節)のいずれかを適用する。音源分離部23で設定されたフラグ(0または1)の信頼度を調べ、フラグの値と信頼度を考慮してマスクの値を設定する。マスクは0〜1の値をとり、1に近いほど信頼できるものとする。
ここでは、複数の音源分離方法による信号分離の結果を用いて、音源分離部 23の分離結果が信頼できるかどうかを確認し、マスクを生成する。この処理は以下の手順で実施される。
i) エピポーラ幾何に基づく位相差
ii) 散乱理論に基づく位相差
iii) 散乱理論に基づく音圧差
iv) 伝達関数に基づく位相差
v) 伝達関数に基づく音圧差
この方法では、音源方向θsと通過幅関数δ(θs)を利用し、音源方向との近さによってマスク値を生成する。つまり、音源方向に近いほど、音源分離部23で付された1のフラグは信頼でき、音源方向から遠いほど、音源分離部23で付された0のフラグは信頼できると考える。この処理は以下の手順で実施される。
ここでは、音源が複数ある場合に、2つ以上の音源の信号が含まれていると推定されるサブバンドの信頼性を下げるように、マスク値を生成する。
i) 2つ以上の音源の通過帯域(θl, θh)に含まれている
ii) その音源の通過帯域にも含まれていない
かどうか調べ、i)またはii)にあてはまるサブバンドには0、それ以外には1の仮マスクを生成する。
特徴抽出部27は、一般的に知られる手法を用いて、入力信号のスペクトルより特徴量を求める。この処理は以下の手順で実施される。
1)FFT等でスペクトルを求める。
2)メル周波数領域で等間隔に配置した三角窓(例えば24個)によりフィルタバンク分析を行う。
3)分析結果の対数をとり、メル周波数対数スペクトルを得る。
4)対数スペクトルを離散コサイン変換する。
5)ケプストラム係数の0次と高次(例えば13次から23次)の項を0にする。
6)ケプストラム平均除去を行う。
7)逆離散コサイン変換を行う。
本実施形態では、音声認識部29は、従来技術として知られるHMMによって音声認識を行う。
14 音源
16 マイク
21 音源定位部
23 音源分離部
25 マスク生成部
27 特徴抽出部
29 音声認識部
Claims (4)
- 外部から集音された音響信号から音声を認識するための音声認識装置であって、
前記音響信号を検出する少なくとも2つの音検出手段と、
前記音響信号に基づいて、音源の方向を求める音源定位手段と、
前記求められた音源の方向に基づいて音声を分離する第1の手段と、
前記音声を分離する第1の手段によって、前記分離の結果の信頼性に応じてマスクを生成する手段と、
前記音響信号の特徴量を抽出する手段と、
前記マスクを前記抽出された特徴量に適用して前記音響信号から音声を認識する手段と、
を備え、
前記マスクを生成する手段は、
音声を分離する第1の手段で用いられる音源分離手段とは異なる音源分離法を用いて、前記求められた音源の方向に基づいて、音響信号から音源に応じた音声を分離する第2の手段と、
前記音声を分離する第1の手段と前記音声を分離する第2の手段によってなされた分離の結果を比較する手段と、
比較の結果に応じて音声のサブバンドにマスクした値を割り当てる手段と、
を備える、音声認識装置。 - 前記第1の音声を分離する手段は、
音声の周波数サブバンドを定める手段を備え、
前記サブバンドの位相差および音圧差の一方または両方が通過帯域内である、
請求項1に記載の音声認識装置。 - 少なくとも2つの音検出によって集音された、音響信号を認識する方法であって、
前記音響信号に基づいて音源を定位し、前記音源の方向を求めるステップと、
前記求められた音源の方向に基づいて、音声を分離する第1のステップと、
前記音声を分離する方法によって、分離の結果の信頼性に応じてマスクを生成するステップと、
前記音響信号の特徴量を抽出するステップと、
前記マスクを前記抽出された特徴量に適用して、前記音響信号から音声を認識するステップと、
を含み、
前記マスクを生成するステップは、
音声を分離する第1のステップで用いられる音源分離手段とは異なる音源分離法を用いて、前記求められた音源の方向に基づいて、音響信号から音源に応じた音声を分離する第2のステップと、
前記音声を分離する第1のステップと前記音声を分離する第2のステップによってなされた分離の結果を比較するステップと、
比較の結果に応じて音声のサブバンドにマスクした値を割り当てるステップと、
を含む、音響信号を認識する方法。 - 前記音声を分離する第1のステップは、
音声の周波数サブバンドを定めるステップを含み、
前記サブバンドの位相差および音圧差の一方または両方が通過帯域内である、
請求項3に記載の音響信号を認識する方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US63335104P | 2004-12-03 | 2004-12-03 | |
US60/633,351 | 2004-12-03 | ||
PCT/JP2005/022601 WO2006059806A1 (ja) | 2004-12-03 | 2005-12-02 | 音声認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2006059806A1 JPWO2006059806A1 (ja) | 2008-06-05 |
JP4157581B2 true JP4157581B2 (ja) | 2008-10-01 |
Family
ID=36565223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006546764A Active JP4157581B2 (ja) | 2004-12-03 | 2005-12-02 | 音声認識装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8073690B2 (ja) |
EP (1) | EP1818909B1 (ja) |
JP (1) | JP4157581B2 (ja) |
WO (1) | WO2006059806A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016537622A (ja) * | 2013-10-01 | 2016-12-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 音源の位置を特定する方法、および当該方法を用いる人型ロボット |
US10390130B2 (en) | 2016-09-05 | 2019-08-20 | Honda Motor Co., Ltd. | Sound processing apparatus and sound processing method |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
JP4496186B2 (ja) * | 2006-01-23 | 2010-07-07 | 株式会社神戸製鋼所 | 音源分離装置、音源分離プログラム及び音源分離方法 |
WO2009093416A1 (ja) * | 2008-01-21 | 2009-07-30 | Panasonic Corporation | 音声信号処理装置および方法 |
KR101178801B1 (ko) * | 2008-12-09 | 2012-08-31 | 한국전자통신연구원 | 음원분리 및 음원식별을 이용한 음성인식 장치 및 방법 |
FR2950461B1 (fr) * | 2009-09-22 | 2011-10-21 | Parrot | Procede de filtrage optimise des bruits non stationnaires captes par un dispositif audio multi-microphone, notamment un dispositif telephonique "mains libres" pour vehicule automobile |
JP5622744B2 (ja) * | 2009-11-06 | 2014-11-12 | 株式会社東芝 | 音声認識装置 |
US8676581B2 (en) * | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
KR101670313B1 (ko) * | 2010-01-28 | 2016-10-28 | 삼성전자주식회사 | 음원 분리를 위해 자동적으로 문턱치를 선택하는 신호 분리 시스템 및 방법 |
JP5738020B2 (ja) * | 2010-03-11 | 2015-06-17 | 本田技研工業株式会社 | 音声認識装置及び音声認識方法 |
US20120045068A1 (en) * | 2010-08-20 | 2012-02-23 | Korea Institute Of Science And Technology | Self-fault detection system and method for microphone array and audio-based device |
JP5328744B2 (ja) * | 2010-10-15 | 2013-10-30 | 本田技研工業株式会社 | 音声認識装置及び音声認識方法 |
JP5692006B2 (ja) * | 2011-11-02 | 2015-04-01 | トヨタ自動車株式会社 | 音源推定装置、方法、プログラム、及び移動体 |
JP5810903B2 (ja) * | 2011-12-27 | 2015-11-11 | 富士通株式会社 | 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム |
JP5772723B2 (ja) * | 2012-05-31 | 2015-09-02 | ヤマハ株式会社 | 音響処理装置および分離マスク生成装置 |
US9210499B2 (en) * | 2012-12-13 | 2015-12-08 | Cisco Technology, Inc. | Spatial interference suppression using dual-microphone arrays |
US10311865B2 (en) | 2013-10-14 | 2019-06-04 | The Penn State Research Foundation | System and method for automated speech recognition |
US9911416B2 (en) * | 2015-03-27 | 2018-03-06 | Qualcomm Incorporated | Controlling electronic device based on direction of speech |
JP6543843B2 (ja) * | 2015-06-18 | 2019-07-17 | 本田技研工業株式会社 | 音源分離装置、および音源分離方法 |
JP6501260B2 (ja) * | 2015-08-20 | 2019-04-17 | 本田技研工業株式会社 | 音響処理装置及び音響処理方法 |
EP3157268B1 (en) * | 2015-10-12 | 2021-06-30 | Oticon A/s | A hearing device and a hearing system configured to localize a sound source |
JP6703460B2 (ja) * | 2016-08-25 | 2020-06-03 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及び音声処理プログラム |
CN107135443B (zh) * | 2017-03-29 | 2020-06-23 | 联想(北京)有限公司 | 一种信号处理方法及电子设备 |
CN110603587A (zh) | 2017-05-08 | 2019-12-20 | 索尼公司 | 信息处理设备 |
CN107644650B (zh) * | 2017-09-29 | 2020-06-05 | 山东大学 | 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统 |
JP7013789B2 (ja) * | 2017-10-23 | 2022-02-01 | 富士通株式会社 | 音声処理用コンピュータプログラム、音声処理装置及び音声処理方法 |
US11109164B2 (en) | 2017-10-31 | 2021-08-31 | Widex A/S | Method of operating a hearing aid system and a hearing aid system |
CN108520756B (zh) * | 2018-03-20 | 2020-09-01 | 北京时代拓灵科技有限公司 | 一种说话人语音分离的方法及装置 |
US11456003B2 (en) * | 2018-04-12 | 2022-09-27 | Nippon Telegraph And Telephone Corporation | Estimation device, learning device, estimation method, learning method, and recording medium |
JP7564117B2 (ja) * | 2019-03-10 | 2024-10-08 | カードーム テクノロジー リミテッド | キューのクラスター化を使用した音声強化 |
US11676598B2 (en) | 2020-05-08 | 2023-06-13 | Nuance Communications, Inc. | System and method for data augmentation for multi-microphone signal processing |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002072317A1 (fr) * | 2001-03-09 | 2002-09-19 | Japan Science And Technology Corporation | Systeme de robot audiovisuel |
-
2005
- 2005-12-02 JP JP2006546764A patent/JP4157581B2/ja active Active
- 2005-12-02 US US11/792,052 patent/US8073690B2/en active Active
- 2005-12-02 WO PCT/JP2005/022601 patent/WO2006059806A1/ja active Application Filing
- 2005-12-02 EP EP05814282A patent/EP1818909B1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016537622A (ja) * | 2013-10-01 | 2016-12-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | 音源の位置を特定する方法、および当該方法を用いる人型ロボット |
US10390130B2 (en) | 2016-09-05 | 2019-08-20 | Honda Motor Co., Ltd. | Sound processing apparatus and sound processing method |
Also Published As
Publication number | Publication date |
---|---|
EP1818909A1 (en) | 2007-08-15 |
JPWO2006059806A1 (ja) | 2008-06-05 |
WO2006059806A1 (ja) | 2006-06-08 |
EP1818909A4 (en) | 2009-10-28 |
US8073690B2 (en) | 2011-12-06 |
US20080167869A1 (en) | 2008-07-10 |
EP1818909B1 (en) | 2011-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4157581B2 (ja) | 音声認識装置 | |
US10901063B2 (en) | Localization algorithm for sound sources with known statistics | |
JP6526083B2 (ja) | 源信号分離のためのシステム及び方法 | |
JP4516527B2 (ja) | 音声認識装置 | |
Yegnanarayana et al. | Processing of reverberant speech for time-delay estimation | |
EP2162757B1 (en) | Joint position-pitch estimation of acoustic sources for their tracking and separation | |
Traa et al. | Blind multi-channel source separation by circular-linear statistical modeling of phase differences | |
Keronen et al. | Mask estimation and imputation methods for missing data speech recognition in a multisource reverberant environment | |
Astapov et al. | Directional Clustering with Polyharmonic Phase Estimation for Enhanced Speaker Localization | |
Venkatesan et al. | Deep recurrent neural networks based binaural speech segregation for the selection of closest target of interest | |
Vestman et al. | Time-varying autoregressions for speaker verification in reverberant conditions | |
Demir et al. | Improved microphone array design with statistical speaker verification | |
Llerena-Aguilar et al. | A new mixing matrix estimation method based on the geometrical analysis of the sound separation problem | |
Habib et al. | Auditory inspired methods for localization of multiple concurrent speakers | |
Chen et al. | Robust phase replication method for spatial aliasing problem in multiple sound sources localization | |
Venkatesan et al. | Analysis of monaural and binaural statistical properties for the estimation of distance of a target speaker | |
Segura Perales et al. | Speaker orientation estimation based on hybridation of GCC-PHAT and HLBR | |
Li et al. | Separation of Multiple Speech Sources in Reverberant Environments Based on Sparse Component Enhancement | |
Habib et al. | Improving Multiband Position-Pitch Algorithm for Localization and Tracking of Multiple Concurrent Speakers by Using a Frequency Selective Criterion. | |
Heckmann et al. | Pitch extraction in human-robot interaction | |
Vinaya et al. | Signal Reconstruction using Inter-microphone Time Difference for Bearing Fault Diagnosis | |
Kandia et al. | Improve the accuracy of TDOA measurement using the Teager-Kaiser Energy operator | |
Pathrose et al. | Enhancement of speech through source separation for conferencing systems. | |
Unnikrishnan | AUDIO SCENE SEGEMENTATION USING A MICROPHONE ARRAY AND AUDITORY FEATURES | |
Okuno et al. | Effects of increasing modalities in recognizing three simultaneous speeches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080708 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080711 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4157581 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130718 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140718 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |