JP6711789B2 - 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム - Google Patents

目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム Download PDF

Info

Publication number
JP6711789B2
JP6711789B2 JP2017165974A JP2017165974A JP6711789B2 JP 6711789 B2 JP6711789 B2 JP 6711789B2 JP 2017165974 A JP2017165974 A JP 2017165974A JP 2017165974 A JP2017165974 A JP 2017165974A JP 6711789 B2 JP6711789 B2 JP 6711789B2
Authority
JP
Japan
Prior art keywords
keyword
covariance matrix
section
time
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017165974A
Other languages
English (en)
Other versions
JP2019045576A (ja
Inventor
卓哉 樋口
卓哉 樋口
信貴 伊藤
信貴 伊藤
慶介 木下
慶介 木下
荒木 章子
章子 荒木
中谷 智広
智広 中谷
翔一郎 齊藤
翔一郎 齊藤
弘章 伊藤
弘章 伊藤
小林 和則
和則 小林
登 原田
登 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017165974A priority Critical patent/JP6711789B2/ja
Publication of JP2019045576A publication Critical patent/JP2019045576A/ja
Application granted granted Critical
Publication of JP6711789B2 publication Critical patent/JP6711789B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラムに関する。
目的話者が発した音声と背景雑音とが混在する状況において、複数のマイクロホンで収音された観測信号から、目的音声のみを抽出する方法は、従来から提案されている(例えば、非特許文献1を参照)。
ここで、図10を用いて、従来の目的音声抽出装置について説明する。図10は、従来の目的音声抽出装置の構成を示す図である。図10に示すように、目的音声抽出装置10aは、空間共分散計算部11a、雑音抑圧部13a及び記憶部14aを有する。
まず、空間共分散計算部11aは、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを表す時間周波数マスクを計算する。次に、空間共分散計算部11aは、時間周波数マスクを用いて、目的音声が優勢な時間周波数点の音響信号の特徴量を計算し、当該特徴量に基づき、目的音声と雑音の両方を含む音響信号の空間共分散行列である雑音下目的信号空間共分散行列を計算する。また、空間共分散計算部11aは、時間周波数マスクを用いて、雑音が優勢な時間周波数点の音響信号の特徴量を計算し、当該特徴量に基づき、雑音のみを含む音響信号の空間共分散行列である雑音空間共分散行列を計算する。
そして、雑音抑圧部13aは、音響信号と雑音下目的信号空間共分散行列と雑音空間共分散行列とを基に雑音抑圧フィルタを計算し、計算した雑音抑圧フィルタを観測信号に適用することで、目的音声を抽出する。
マスク計算の方法としては、音響信号の空間特徴量クラスタリングに基づく方法(例えば、非特許文献1を参照)、ディープニューラルネットワーク(DNN)に基づく方法(例えば、非特許文献2を参照)等が知られている。
Takuya Higuchi, Nobutaka Ito, Takuya Yoshioka, Tomohiro Nakatani, "Robust MVDR beamforming using time-frequency masks for online/offline ASR in noise,"ICASSP 2016, pp. 5210-5214, 2016. Jahn Heymann, Lukas Drude, Reinhold Haeb-Umbach, "Neural network based spectral mask estimation for acoustic beamforming," ICASSP 2016, pp. 196-200, 2016.
しかしながら、従来の目的音声抽出方法には、様々な背景雑音が混在する環境では、目的音声の抽出精度が低くなる場合があるという問題があった。例えば、音響信号の中に目的話者以外の話者が含まれていたり、TV等の音が含まれていたりする場合、従来の目的音声抽出方法では、どれが目的音声なのかを定めることができない場合がある。また、例えば、入力されてくる音響信号を逐次的に処理する場合、目的音声の開始時に、空間共分散行列の推定精度が低くなる場合がある。
さらに、上記の課題を回避するために、事前学習した雑音下目的信号空間共分散行列や雑音空間共分散行列を空間共分散の初期値として用いる方法が提案されている。しかし、この方法では、話者が話す位置をある程度、事前に、固定する必要がある。そのため、話者が自由な位置で話す場合、目的音声を抽出することは困難である。
上述した課題を解決し、目的を達成するために、本発明の目的音声抽出方法は、入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出工程と、前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算工程と、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧工程と、を含んだことを特徴とする。
本発明によれば、様々な背景雑音が混在する環境で、目的音声を精度よく抽出することができる。
図1は、第1の実施形態に係る目的音声抽出装置の構成の一例を示す図である。 図2は、第1の実施形態に係る目的音声抽出装置の処理の流れを示すフローチャートである。 図3は、第1の実施形態の変形例に係る目的音声抽出装置の処理の流れを示すフローチャートである。 図4は、第2の実施形態に係る目的音声抽出装置の構成の一例を示す図である。 図5は、第2の実施形態に係る目的音声抽出装置の処理の流れを示すフローチャートである。 図6は、第3の実施形態に係る目的音声抽出装置の構成の一例を示す図である。 図7は、第3の実施形態に係る目的音声抽出装置の処理の流れを示すフローチャートである。 図8は、第3の実施形態の変形例に係る目的音声抽出装置の処理の流れを示すフローチャートである。 図9は、目的音声抽出プログラムを実行するコンピュータの一例を示す図である。 図10は、従来の目的音声抽出装置を示す図である。
以下に、本願に係る目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラムの実施形態を図面に基づいて詳細に説明する。また、実施形態において、目的音声抽出方法及び目的音声抽出プログラムは、目的音声抽出装置によって実行されるものとする。
以下の説明では、目的音声と背景雑音とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の音響信号が目的音声抽出装置に入力されるものとする。
以下、実施形態では、各音響信号は、短時間フーリエ変換された信号xt,f (m)(t:時間番号、f:周波数番号、m:マイク番号)として表現されているものとして説明する。目的音声抽出装置は、他の時間周波数表現された信号でも同様に扱うことができ、また、音響信号が波形で与えられている場合であっても、適宜、周波数分析を行うことで、時間周波数表現された信号に変換して用いることができる。なお、ここに記載する実施形態により、本発明が限定されるものではない。
[第1の実施形態]
[第1の実施形態の構成]
第1の実施形態に係る目的音声抽出装置の構成、処理の流れ及び効果を説明する。まず、図1を用いて、第1の実施形態の構成について説明する。図1は、第1の実施形態に係る目的音声抽出装置の構成の一例を示す図である。図1に示すように、目的音声抽出装置10は、キーワード検出部11、空間共分散計算部12及び雑音抑圧部13を有する。
キーワード検出部11は、入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算する。キーワード検出部11は、入力されてくる音響信号中に、あらかじめ定められたキーワードが含まれているかどうかを監視し、キーワードを検出した場合に、キーワードが含まれる時間区間を求め、出力する。
キーワード検出部11は、キーワードの開始時刻と終了時刻を求め、開始時刻から終了時刻までの時間区間をキーワード区間とすることができる。例えば、キーワード検出部11は、キーワードが話され終わった終了時刻を検出し、終了時刻と、キーワードを話す時間としてあらかじめ定められた時間と、に基づいてキーワード区間を計算することができる。具体的には、キーワード検出部11は、キーワード終了時刻を求め、終了時刻からあらかじめ定められたキーワードの期待される時間長だけ時間をさかのぼってキーワード開始時刻と定めることができる。
また、キーワード検出部11は、キーワード区間の推定誤差を考慮して、求めたキーワード区間の前後の時間区間を含めてキーワード区間と定めてもよい。また、キーワード検出部11は、キーワードの検出方法としては、キーワード区間又はキーワード終了時刻を求めることができる方法であればどのような方法を用いてもよい。キーワードの検出方法として、従来より、様々な方法が提案されている。
空間共分散計算部12は、音響信号とキーワード区間を受け取る。そして、空間共分散計算部12は、キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する。雑音下目的信号空間共分散行列は、音声と雑音の両方を含む音響信号の空間共分散行列である。また、雑音空間共分散行列は、雑音のみを含む音響信号の空間共分散行列である。
いま、全マイクロホンからの音響信号を、各時間周波数点(t,f)ごとにまとめて、以下の(1)式のように、1つのベクトルで表現するものとする。
Figure 0006711789
ただし、'は、行列やベクトルの非共役転置を表すものとする。さらに、キーワード区間に含まれる時間番号の集合をTinと表記し、キーワード区間以外の時間区間に含まれる時間番号の集合をToutと表記することとする。また、Tin及びToutの要素の個数を、それぞれNin及びNoutと表記することとする。
ここで、Toutは、キーワード区間の前後の雑音のみが存在すると期待される時間区間を指す。例えば、Toutは、キーワード区間の直前の一定の時間区間(例えば、3秒)としてもよいし、キーワード区間の直後の一定の時間区間(例えば、1秒)としてもよい。また、Toutは、キーワード区間の直前の一定の時間区間とキーワード区間の直後の一定の時間区間とを合わせたものとしてもよい。すると、空間共分散計算部12は、雑音下目的信号空間共分散行列Φsと雑音空間共分散行列Φnを、それぞれ以下の(2−1)式及び(2−2)式のように求めることができる。
Figure 0006711789
ただし、Hは、行列やベクトルの共役転置を表す。また、t∈Tは、tが集合Tの要素であることを表す。
雑音抑圧部13は、入力された音響信号と雑音空間共分散行列と雑音下目的信号空間共分散行列とを受け取る。そして、雑音抑圧部13は、雑音下目的信号空間共分散行列及び雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に雑音抑圧フィルタを適用し、目的音声を抽出する。
雑音抑圧部13は、例えば、参考文献1(Nobutaka Ito, Shoko Araki, Marc Delcroix, Tomohiro Nakata, “PROBABILISTIC SPATIAL DICTIONARY BASED ONLINE ADAPTIVE BEAMFORMING FOR MEETING RECOGNITION IN NOISY AND REVERBERANT ENVIRONMENTS,”ICASSP 2017, pp. 681-685, 2017.)に記載の方法を用いて雑音抑圧フィルタを計算することができる。
雑音抑圧部13は、参考文献1に記載の方法を用いる場合、E()を、行列の最大固有値に対応する固有ベクトルを抽出する関数とすると、以下の(3−1)式及び(3−2)式のように雑音抑圧フィルタを計算することができる。
Figure 0006711789
ここで、hf=[hf (1),hf (2),…,hf (M)]は、話者からマイクロホンまでの音響伝達関数(目的音声のステアリングベクトル)に相当し、wf=[wf (1),wf (2),…,wf (M)]は、無歪応答最小分散フィルタに相当する。
また、雑音抑圧部13は、例えば、参考文献2(Shoko Araki, Hiroshi Sawada, Shoji Makino, “Blind speech separation in a meeting situation with maximum SNR beamformers,” ICASSP 2007, vol. I, pp. 41-44, 2007.)に記載の方法を用いて、以下の(4−1)式及び(4−2)式のように雑音抑圧フィルタを計算することができる。
Figure 0006711789
ここで、(5)式で表されるφxは、音響信号の空間共分散行列に相当し、例えば、(4−1)式及び(4−2)式より、(6)式のように求めることができる。また、ej=[0,…,0,1,0,…,0]’は、音声を抽出する対象となるマイクの番号に対応するj番目の要素だけが1で、それ以外の要素は0となるM次列ベクトルに相当する。
Figure 0006711789
Figure 0006711789
雑音抑圧部13は、雑音抑圧フィルタの計算方法として、上記以外にも、非特許文献1又は非特許文献2に記載の方法等、様々な方法を利用することができる。続いて、雑音抑圧部13は、計算した雑音抑圧フィルタを、例えば、以下の(7)式のように音響信号に適用することで目的音声を抽出する。
Figure 0006711789
なお、キーワード検出部11が受け取る音響信号、空間共分散計算部12が受け取る音響信号及び雑音抑圧部13が受け取る音響信号は、いずれも同じものであってもよいし、互いに異なるものであってもよい。
例えば、キーワード検出部11が第1の音響信号を基にキーワード区間を計算することができる。また、空間共分散計算部12は、第1の音響信号及びキーワード区間を基に雑音下目的信号空間共分散行列及び雑音空間共分散行列を計算することができる。このとき、雑音抑圧部13は、雑音下目的信号空間共分散行列及び雑音空間共分散行列を基に計算した雑音抑圧フィルタを、第1の音響信号とは異なる第2の音響信号に適用し目的音声を抽出することができる。
(変形例)
第1の実施形態の変形例について説明する。第1の実施形態の変形例において、空間共分散計算部12は、キーワード区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、時間周波数マスクを用いて、雑音下目的信号空間共分散行列及び雑音空間共分散行列を計算することができる。
ここで、時間周波数点(t,f)の時間周波数マスクをMt,fと表し、0<=Mt,f<=1であることとする。また、Mt,f=1は、目的音声が優勢であることを表し、Mt,f=0は雑音が優勢であることを表すこととする。また、時間周波数マスクを計算する方法としては、非特許文献1又は2に記載された方法や、参考文献1に記載された方法が知られている。
第1の実施形態の変形例では、空間共分散計算部12は、Toutで示されるキーワード区間以外の時間区間においては、常に、Mt,f=0であり、Tinで示されるキーワード区間では、何らかの時間周波数マスク計算方法により時間周波数マスクを計算するものとする。そして、空間共分散計算部12は、計算された時間周波数マスクに基づき、雑音下目的信号空間共分散行列、及び雑音空間共分散行列を、それぞれ以下の(8−1)式及び(8−2)式のように計算する。
Figure 0006711789
[第1の実施形態の処理]
ここで、図2を用いて、第1の実施形態に係る目的音声抽出装置の処理の流れを説明する。図2は、第1の実施形態に係る目的音声抽出装置の処理の流れを示すフローチャートである。
まず、図2に示すように、キーワード検出部11は、キーワードを検出するまで(ステップS101、No)、音響信号を監視する。ここで、キーワード検出部11は、キーワードを検出すると(ステップS101、Yes)、キーワード区間を計算する(ステップS102)。
空間共分散計算部12は、キーワード区間の音響信号を基に雑音下目的信号空間共分散行列を計算する(ステップS103)。次に、空間共分散計算部12は、キーワード区間以外の区間の音響信号を基に雑音空間共分散行列を計算する(ステップS104)。
そして、雑音抑圧部13は、雑音下目的信号空間共分散行列、及び雑音空間共分散行列を基に雑音抑圧フィルタを計算する(ステップS105)。ここで、雑音抑圧部13は、雑音抑圧フィルタを用いて音響信号から目的音声を抽出する(ステップS106)。
図3を用いて、第1の実施形態の変形例に係る目的音声抽出装置の処理の流れを説明する。図3は、第1の実施形態の変形例に係る目的音声抽出装置の処理の流れを示すフローチャートである。
まず、図3に示すように、キーワード検出部11は、キーワードを検出するまで(ステップS151、No)、音響信号を監視する。ここで、キーワード検出部11は、キーワードを検出すると(ステップS151、Yes)、キーワード区間を計算する(ステップS152)。
ここで、空間共分散計算部12は、キーワード区間の音響信号を基に時間周波数マスクを計算する(ステップS153)。そして、空間共分散計算部12は、時間周波数マスクを用いて、キーワード区間の音響信号を基に雑音下目的信号空間共分散行列を計算する(ステップS154)。さらに、空間共分散計算部12は、時間周波数マスクを用いて、キーワード区間及びキーワード区間以外の区間の音響信号を基に雑音空間共分散行列を計算する(ステップS155)。
そして、雑音抑圧部13は、雑音下目的信号空間共分散行列、及び雑音空間共分散行列を基に雑音抑圧フィルタを計算する(ステップS156)。ここで、雑音抑圧部13は、雑音抑圧フィルタを用いて音響信号から目的音声を抽出する(ステップS157)。
[第1の実施形態の効果]
ここで、キーワード検出部11によって計算されるキーワード区間、空間共分散計算部12によって計算される各空間共分散行列、雑音抑圧部13によって計算される雑音抑圧フィルタ及び時間周波数マスクは、いずれも推定値である。このため、本実施形態では、目的音声抽出装置10は、各空間共分散行列、雑音抑圧フィルタ及び雑音抑圧マスクの推定を行っていることになる。また、目的音声抽出装置10による各推定の推定精度が良くなるほど、目的音声抽出装置10による目的音声の抽出精度は良くなる。
第1の実施形態において、キーワード検出部11は、入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算する。また、空間共分散計算部12は、キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する。また、雑音抑圧部13は、雑音下目的信号空間共分散行列及び雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に雑音抑圧フィルタを適用し、目的音声を抽出する。このように、第1の実施形態によれば、様々な背景雑音が混在する環境であっても、キーワードを検出することにより、目的音声を発する話者の位置に関する雑音下目的信号空間共分散行列と雑音空間共分散行列を精度良く推定することができるため、当該話者の発する目的音声を精度良く抽出することができる。
キーワード検出部11は、キーワードが話され終わった終了時刻を検出し、終了時刻と、キーワードを話す時間としてあらかじめ定められた時間と、に基づいてキーワード区間を計算することができる。これにより、第1の実施形態では、キーワードの開始時刻を検出できない場合であっても、キーワード区間の計算を行うことが可能となる。
空間共分散計算部12は、キーワード区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、時間周波数マスクを用いて、雑音下目的信号空間共分散行列及び雑音空間共分散行列を計算することができる。このように、第1の実施形態の変形例では、キーワード区間中の雑音が優勢な時間周波数点を雑音空間共分散行列の計算に含め、同時間周波数点を雑音下目的信号空間共分散行列の計算から除外することができるため、より高精度に、各空間共分散行列を推定できるようになる。
[第2の実施形態]
[第2の実施形態の構成]
第2の実施形態に係る目的音声抽出装置の構成、処理の流れ及び効果を説明する。まず、図4を用いて、第2の実施形態の構成について説明する。図4は、第2の実施形態に係る目的音声抽出装置の構成の一例を示す図である。図4に示すように、目的音声抽出装置20は、キーワード検出部21、空間共分散計算部22、雑音抑圧部23及び記憶部24を有する。
キーワード検出部21は、第1の実施形態のキーワード検出部11と同様の処理を行う。つまり、キーワード検出部21は、入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算する。
空間共分散計算部22は、音響信号を所定の時間区間ごとに区切って得られる短時間音響信号のそれぞれに基づく空間共分散行列である短時間空間共分散行列をさらに計算し、計算した短時間空間共分散行列を記憶部24に格納する。空間共分散計算部22は、キーワード区間が計算されたか否かにかかわらず、一定の短時間区間ごとに短時間空間共分散行列Ψdを(9)式のように計算し、記憶部24に格納する。
Figure 0006711789
ここで、dは、短時間区間の番号、Tdは、短時間区間dに含まれる時間番号の集合、Ndは、短時間区間dに含まれる時間番号の数を表す。また、短時間区間は、例えば、数十〜数千ミリ秒程度の長さに相当する。
そして、空間共分散計算部22は、キーワード検出部21によってキーワード区間が計算された場合、記憶部24に記憶された短時間空間共分散行列のうち、キーワード区間を含む時間区間の短時間空間共分散行列を基に雑音下目的信号空間共分散行列を計算し、記憶部24に記憶された短時間空間共分散行列のうち、キーワード区間を含まない時間区間の短時間空間共分散行列を基に雑音空間共分散行列を計算する。
ここで、キーワード区間に対応する短時間区間番号の集合をDinと表記し、キーワード区間以外の短時間区間に対応する短時間区間番号の集合をDoutと表記することとする。また、Din及びDoutの要素の個数を、それぞれQin及びQoutと表記することとする。
ここで、Doutは、キーワード区間の前後の雑音のみが存在すると期待される時間区間に含まれる短時間区間の集合を指す。例えば、Doutは、キーワード区間の直前の一定の時間区間(例えば、3秒)に対応する短時間区間の集合としてもよいし、キーワード区間の直後の一定の時間区間(例えば、1秒)に対応する短時間区間としてもよい。また、Doutは、キーワード区間の直前の一定の時間区間とキーワード区間の直後の一定の時間区間とを合わせたものとしてもよい。すると、空間共分散計算部22は、雑音下目的信号空間共分散行列Φsと雑音空間共分散行列Φnを、それぞれ以下の(10−1)式及び(10−2)式のように求めることができる。
Figure 0006711789
なお、空間共分散計算部22は、(9)式の計算を、各時間tにおいてxt,fxt,f Hを逐次的に加算し、Ndで1度除算することで実現できる。このため、xt,fは、時間tにおける計算に用いられるだけであるため、目的音声抽出装置20は、時間t以外の時間にxt,fを記憶しておく必要がない。
また、(8−1)式及び(8−2)式の計算においては、キーワード区間及びその前後の数秒程度の時間区間に対応する短時間区間の短時間空間共分散Ψdのみがあれば必要十分であり、当該短時間区間より過去や未来の短時間空間共分散を記憶しておく必要がない。その結果、第2の実施形態では、雑音下目的信号空間共分散行列及び雑音空間共分散行列の計算に必要な記憶領域を削減することができる。
雑音抑圧部23は、第1の実施形態の雑音抑圧部13と同様の処理を行う。つまり、雑音抑圧部23は、入力された音響信号と雑音空間共分散行列と雑音下目的信号空間共分散行列とを受け取る。そして、雑音抑圧部13は、雑音下目的信号空間共分散行列及び雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に雑音抑圧フィルタを適用し、目的音声を抽出する。
また、前述の通り、空間共分散計算部22は、逐次的に雑音空間共分散行列及び雑音下目的信号空間共分散行列を計算することができる。このため、雑音抑圧部23は、雑音空間共分散行列及び雑音下目的信号空間共分散行列を逐次的に受け取り、さらに、(3−1)式及び(3−2)式により逐次的に雑音抑圧フィルタを計算することができる。また、この時、時間tにおける計算に用いられる音響信号はxt,fだけである。その結果、第2の実施形態では、雑音抑圧フィルタの計算に必要な記憶領域を削減することができる。
[第2の実施形態の処理]
ここで、図5を用いて、第2の実施形態に係る目的音声抽出装置の処理の流れを説明する。図5は、第2の実施形態に係る目的音声抽出装置の処理の流れを示すフローチャートである。
まず、図5に示すように、空間共分散計算部22は、音響信号を基に短時間空間共分散行列を計算し、記憶部24に格納する(ステップS201)。なお、空間共分散計算部22は、キーワード検出部21によってキーワードが検出されていない時間区間であっても、短時間空間共分散行列を計算し、記憶部24に格納する。
また、キーワード検出部21は、キーワードを検出するまで(ステップS202、No)、音響信号を監視する。ここで、キーワード検出部21は、キーワードを検出すると(ステップS202、Yes)、キーワード区間を計算する(ステップS203)。
空間共分散計算部22は、記憶部24から短時間空間共分散行列を読み込む(ステップS204)。そして、空間共分散計算部22は、キーワード区間の短時間空間共分散行列を基に雑音下目的信号空間共分散行列を計算する(ステップS205)。次に、空間共分散計算部22は、キーワード区間以外の区間の短時間空間共分散行列を基に雑音空間共分散行列を計算する(ステップS206)。
そして、雑音抑圧部23は、雑音下目的信号空間共分散行列、及び雑音空間共分散行列を基に雑音抑圧フィルタを計算する(ステップS207)。ここで、雑音抑圧部23は、雑音抑圧フィルタを用いて音響信号から目的音声を抽出する(ステップS208)。
[第2の実施形態の効果]
第2の実施形態において、空間共分散計算部22は、音響信号を所定の時間区間ごとに区切って得られる短時間音響信号のそれぞれに基づく空間共分散行列である短時間空間共分散行列をさらに計算し、計算した短時間空間共分散行列を記憶部に格納し、キーワード検出部によってキーワード区間が計算された場合、記憶部に記憶された短時間空間共分散行列のうち、キーワード区間を含む時間区間の短時間空間共分散行列を基に雑音下目的信号空間共分散行列を計算し、記憶部に記憶された短時間空間共分散行列のうち、キーワード区間を含まない時間区間の短時間空間共分散行列を基に雑音空間共分散行列を計算する。このように、第2の実施形態では、空間共分散行列の計算のために、キーワード区間とそれ以前の時間区間の音響信号を記憶しておく必要がなく、短時間空間共分散行列のみを記憶しておくことで、計算に必要な記憶領域を削減することができる。
[第3の実施形態]
[第3の実施形態の構成]
第3の実施形態に係る目的音声抽出装置の構成、処理の流れ及び効果を説明する。まず、図6を用いて、第3の実施形態の構成について説明する。図6は、第3の実施形態に係る目的音声抽出装置の構成の一例を示す図である。図6に示すように、目的音声抽出装置30は、キーワード検出部31、空間共分散計算部32、雑音抑圧部33及び音声区間検出部35を有する。
キーワード検出部31は、第1の実施形態のキーワード検出部11又は第2の実施形態のキーワード検出部21と同様の処理を行う。つまり、キーワード検出部31は、入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算する。
空間共分散計算部32は、第1の実施形態の空間共分散計算部12又は第2の実施形態の空間共分散計算部22と同様の処理に加え、雑音下目的信号空間共分散行列及び雑音空間共分散行列の更新処理を行う。
まず、空間共分散計算部32は、音響信号とキーワード区間を受け取る。そして、空間共分散計算部32は、キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する。このとき、空間共分散計算部32は、(2−1)式及び(2−2)式、又は(8−1)式及び(8−2)式、又は(10−1)式及び(10−2)式、により各空間共分散行列を計算する。
次に、空間共分散計算部32は、キーワード区間より後の時間区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、時間周波数マスクを用いて、雑音下目的信号空間共分散行列及び雑音空間共分散行列を更新する。
空間共分散計算部32は、第1の実施形態の変形例と同様の方法で時間周波数マスクを計算することができる。また、空間共分散計算部32は、時間周波数マスクと音響信号を基に、雑音下目的信号空間共分散行列Φsと雑音空間共分散行列Φnを更新する。
いま、キーワード区間終了後から、目的音声が終了するまでの時間区間に含まれる時間番号の集合をTafterと表す。すると、空間共分散計算部32は、(2−1)式及び(2−2)式で求めたΦsとΦnを、例えば、それぞれ以下の(11−1)式及び(11−2)式のように更新できる。
Figure 0006711789
また、空間共分散計算部32は、(8−1)式及び(8−2)式で求めたΦsとΦnを、例えば、それぞれ以下の(12−1)式及び(12−2)式のように更新できる。
Figure 0006711789
ここで、{Tin, Tafter}は、TinとTafterの和集合を表す。
また、空間共分散計算部32は、(10−1)式及び(10−2)式で求めたΦsとΦnを、例えば、それぞれ以下の(13−1)式及び(13−2)式のように更新できる。
Figure 0006711789
さらに、空間共分散計算部32は、非特許文献1に記載された方法に従って、逐次的に入力されてくる音響信号を受け取り、上記の(11−1)式及び(11−2)、(12−1)式及び(12−2)、又は(13−1)式及び(13−2)による雑音下目的信号空間共分散行列及び雑音空間共分散行列の更新を逐次的に行うことができる。
雑音抑圧部33は、第1の実施形態の雑音抑圧部13と同様の処理を行う。つまり、雑音抑圧部33は、入力された音響信号と雑音空間共分散行列と雑音下目的信号空間共分散行列とを受け取る。そして、雑音抑圧部33は、雑音下目的信号空間共分散行列及び雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に雑音抑圧フィルタを適用し、目的音声を抽出する。
ここで、空間共分散計算部32が雑音下目的信号空間共分散行列及び雑音空間共分散行列の更新を逐次的に行う場合、雑音抑圧部33は、(3−1)式及び(3−2)式により雑音抑圧フィルタを逐次的に更新することができ、さらに目的音声の抽出を逐次的に行うことができる。
(変形例)
第3の実施形態の変形例について説明する。第3の実施形態の変形例において、音声区間検出部35は、キーワード区間より後であって、目的音声が話されている時間区間である音声区間を検出する。このとき、空間共分散計算部32は、さらに、音声区間に関する情報を用いて、雑音下目的信号空間共分散行列及び雑音空間共分散行列を更新する。音声区間を検出する方法としては、従来より、様々な方法が知られており、音声区間検出部35は、そのいずれの方法を用いてもよい。
いま、音声区間検出部35により、音声が含まれていると判断された時間番号の集合をTonと表記し、音声が含まれていないと判断された時間番号の集合をToffと表記することとする。また、Toffに含まれる時間番号の個数をNoffと表記することとする。
また、空間共分散計算部32は、キーワード区間後の音響信号に対し、第3の実施形態と同様の方法で、各時間周波数点(t,f) における時間数周波数マスクMt,fを既に計算していることとする。すると、空間共分散計算部32は、(2−1)式及び(2−2)式で求めたΦsとΦnを、例えば、それぞれ以下の(14−1)式及び(14−2)式のように更新できる。
Figure 0006711789
また、空間共分散計算部32は、(8−1)式及び(8−2)式で求めたΦsとΦnを、例えば、それぞれ以下の(15−1)式及び(15−2)式のように更新できる。
Figure 0006711789
また、空間共分散計算部32は、(10−1)式及び(10−2)式で求めたΦsとΦnを、例えば、それぞれ以下の(16−1)式及び(16−2)式のように更新できる。
Figure 0006711789
また、第3の実施形態の変形例では、時間周波数マスクを求めない処理の構成を取ることもできる。これは、例えば、音声区間内で、時間周波数マスクを求める代わりに、すべての時間周波数点において音声が存在すると仮定することで実現できる。
具体的には、上記の更新式において、空間共分散計算部32は、常に、Mt,f=1とすることで、時間周波数マスクの推定を行わなくても、雑音下目的信号空間共分散行列と雑音空間共分散行列を更新することができる。
また、第3の実施形態と同様に、空間共分散計算部32が雑音下目的信号空間共分散行列及び雑音空間共分散行列の更新を逐次的に行う場合、雑音抑圧部33は、(3−1)式及び(3−2)式により雑音抑圧フィルタを逐次的に更新することができ、さらに目的音声の抽出を逐次的に行うことができる。
[第3の実施形態の処理]
ここで、図7を用いて、第3の実施形態に係る目的音声抽出装置の処理の流れを説明する。図7は、第3の実施形態に係る目的音声抽出装置の処理の流れを示すフローチャートである。
まず、図7に示すように、キーワード検出部31は、キーワードを検出するまで(ステップS301、No)、音響信号を監視する。ここで、キーワード検出部31は、キーワードを検出すると(ステップS301、Yes)、キーワード区間を計算する(ステップS302)。
空間共分散計算部32は、キーワード区間の音響信号を基に雑音下目的信号空間共分散行列を計算する(ステップS303)。次に、空間共分散計算部32は、キーワード区間以外の区間の音響信号を基に雑音空間共分散行列を計算する(ステップS304)。
そして、雑音抑圧部33は、雑音下目的信号空間共分散行列、及び雑音空間共分散行列を基に雑音抑圧フィルタを計算する(ステップS305)。ここで、雑音抑圧部33は、雑音抑圧フィルタを用いて音響信号から目的音声を抽出する(ステップS306)。
ここで、目的音声の抽出が続行されない場合(ステップS307、No)、目的音声抽出装置30は処理を終了する。一方、目的音声の抽出が続行される場合(ステップS307、Yes)、空間共分散計算部32は、キーワード区間の後の区間の音響信号を基に時間周波数マスクを計算する(ステップS308)。
ここで、目的音声抽出装置30は、目的音声の抽出を続行するか否かを、あらかじめ設定された条件によって判定することができる。例えば、目的音声抽出装置30は、目的音声の抽出が開始されて所定の長さの時間が経過したか否か、目的音声を抽出できない時間が所定の長さ以上継続したか否か、等によって目的音声の抽出を続行するか否かを判定することができる。
そして、空間共分散計算部32は、時間周波数マスクを用いて雑音下目的信号空間共分散行列、及び雑音空間共分散行列を更新する(ステップS309)さらに、目的音声抽出装置30は、ステップS305に処理を戻し、雑音抑圧フィルタの計算及び目的音声の抽出を行う。
ここで、図8を用いて、第3の実施形態の変形例に係る目的音声抽出装置の処理の流れを説明する。図8は、第3の実施形態の変形例に係る目的音声抽出装置の処理の流れを示すフローチャートである。
まず、図8に示すように、キーワード検出部31は、キーワードを検出するまで(ステップS351、No)、音響信号を監視する。ここで、キーワード検出部31は、キーワードを検出すると(ステップS351、Yes)、キーワード区間を計算する(ステップS352)。
空間共分散計算部32は、キーワード区間の音響信号を基に雑音下目的信号空間共分散行列を計算する(ステップS353)。次に、空間共分散計算部32は、キーワード区間以外の区間の音響信号を基に雑音空間共分散行列を計算する(ステップS354)。
そして、雑音抑圧部33は、雑音下目的信号空間共分散行列、及び雑音空間共分散行列を基に雑音抑圧フィルタを計算する(ステップS355)。ここで、雑音抑圧部33は、雑音抑圧フィルタを用いて音響信号から目的音声を抽出する(ステップS356)。
ここで、目的音声の抽出が続行されない場合(ステップS357、No)、目的音声抽出装置30は処理を終了する。一方、目的音声の抽出が続行される場合(ステップS357、Yes)、音声区間検出部35は、キーワード区間の後の音声区間を検出する(ステップS358)。そして、空間共分散計算部32は、音声区間の音響信号、及び音声区間以外の区間の音響信号を基に時間周波数マスクを計算する(ステップS359)。
そして、空間共分散計算部32は、時間周波数マスクを用いて雑音下目的信号空間共分散行列、及び雑音空間共分散行列を更新する(ステップS360)さらに、目的音声抽出装置30は、ステップS355に処理を戻し、雑音抑圧フィルタの計算及び目的音声の抽出を行う。
[第3の実施形態の効果]
第3の実施形態において、空間共分散計算部32は、キーワード区間より後の時間区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、時間周波数マスクを用いて、雑音下目的信号空間共分散行列及び雑音空間共分散行列を更新する。これにより、第3の実施形態では、キーワード区間後に、話者の位置が移動したり、背景雑音の性質が変化したりする場合でも、2つの空間共分散行列の変化を追跡することができるようになり、より精度良く目的音声の抽出が可能になる。
第3の実施形態の変形例において、音声区間検出部35は、キーワード区間より後であって、目的音声が話されている時間区間である音声区間を検出する。また、空間共分散計算部32は、さらに、音声区間に関する情報を用いて、雑音下目的信号空間共分散行列及び雑音空間共分散行列を更新する。これにより、第3の実施形態では、目的音声が含まれない時間区間に誤って目的音声が含まれると検出されるエラーを減少させることができ、2つの空間共分散行列の変化を、より精度良く追跡できるようになる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、目的音声抽出装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の目的音声の抽出を実行する目的音声抽出プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の目的音声抽出プログラムを情報処理装置に実行させることにより、情報処理装置を目的音声抽出装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、目的音声抽出装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の目的音声の抽出に関するサービスを提供する目的音声抽出サーバ装置として実装することもできる。例えば、目的音声抽出サーバ装置は、音響信号を入力とし、目的音声を出力とする目的音声抽出サービスを提供するサーバ装置として実装される。この場合、目的音声抽出サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の目的音声の抽出に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図9は、目的音声抽出プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、目的音声抽出装置の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、目的音声抽出装置における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10、20、30 目的音声抽出装置
11、21、31 キーワード検出部
12、22、32 空間共分散計算部
13、23、33 雑音抑圧部
24 記憶部
35 音声区間検出部

Claims (13)

  1. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出工程と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算工程と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧工程と、
    を含み、
    前記キーワード検出工程は、前記キーワードが話され終わった終了時刻を検出し、前記終了時刻と、前記キーワードを話す時間としてあらかじめ定められた時間と、に基づいて前記キーワード区間を計算することを特徴とする目的音声抽出方法。
  2. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出工程と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算工程と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧工程と、
    を含み、
    前記空間共分散計算工程は、音響信号を所定の時間区間ごとに区切って得られる短時間音響信号のそれぞれに基づく空間共分散行列である短時間空間共分散行列をさらに計算し、計算した前記短時間空間共分散行列を記憶部に格納し、前記キーワード検出工程によって前記キーワード区間が計算された場合、前記記憶部に記憶された前記短時間空間共分散行列のうち、前記キーワード区間を含む時間区間の短時間空間共分散行列を基に前記雑音下目的信号空間共分散行列を計算し、前記記憶部に記憶された前記短時間空間共分散行列のうち、前記キーワード区間を含まない時間区間の短時間空間共分散行列を基に前記雑音空間共分散行列を計算することを特徴とする目的音声抽出方法。
  3. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出工程と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算工程と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧工程と、
    を含み、
    前記空間共分散計算工程は、前記キーワード区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、前記時間周波数マスクを用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を計算することを特徴とする目的音声抽出方法。
  4. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出工程と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算工程と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧工程と、
    を含み、
    前記空間共分散計算工程は、前記キーワード区間より後の時間区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、前記時間周波数マスクを用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を更新することを特徴とする目的音声抽出方法。
  5. 前記キーワード区間より後であって、目的音声が話されている時間区間である音声区間を検出する音声区間検出工程をさらに含み、
    前記空間共分散計算工程は、さらに、前記音声区間に関する情報を用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を更新することを特徴とする請求項からのいずれか1項に記載の目的音声抽出方法。
  6. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出部と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算部と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧部と、
    を有し、
    前記キーワード検出部は、前記キーワードが話され終わった終了時刻を検出し、前記終了時刻と、前記キーワードを話す時間としてあらかじめ定められた時間と、に基づいて前記キーワード区間を計算することを特徴とする目的音声抽出装置。
  7. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出部と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算部と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧部と、
    を有し、
    前記空間共分散計算部は、音響信号を所定の時間区間ごとに区切って得られる短時間音響信号のそれぞれに基づく空間共分散行列である短時間空間共分散行列をさらに計算し、計算した前記短時間空間共分散行列を記憶部に格納し、前記キーワード検出部によって前記キーワード区間が計算された場合、前記記憶部に記憶された前記短時間空間共分散行列のうち、前記キーワード区間を含む時間区間の短時間空間共分散行列を基に前記雑音下目的信号空間共分散行列を計算し、前記記憶部に記憶された前記短時間空間共分散行列のうち、前記キーワード区間を含まない時間区間の短時間空間共分散行列を基に前記雑音空間共分散行列を計算することを特徴とする目的音声抽出装置。
  8. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出部と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算部と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧部と、
    を有し、
    前記空間共分散計算部は、前記キーワード区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、前記時間周波数マスクを用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を計算することを特徴とする目的音声抽出装置。
  9. 入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出部と、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算部と、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧部と、
    を有し、
    前記空間共分散計算部は、前記キーワード区間より後の時間区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、前記時間周波数マスクを用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を更新することを特徴とする目的音声抽出装置。
  10. コンピュータに、
    入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出ステップと、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算ステップと、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧ステップと、
    を実行させ、
    前記キーワード検出ステップは、前記キーワードが話され終わった終了時刻を検出し、前記終了時刻と、前記キーワードを話す時間としてあらかじめ定められた時間と、に基づいて前記キーワード区間を計算することを特徴とする目的音声抽出プログラム。
  11. コンピュータに、
    入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出ステップと、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算ステップと、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧ステップと、
    を実行させ、
    前記空間共分散計算ステップは、音響信号を所定の時間区間ごとに区切って得られる短時間音響信号のそれぞれに基づく空間共分散行列である短時間空間共分散行列をさらに計算し、計算した前記短時間空間共分散行列を記憶部に格納し、前記キーワード検出ステップによって前記キーワード区間が計算された場合、前記記憶部に記憶された前記短時間空間共分散行列のうち、前記キーワード区間を含む時間区間の短時間空間共分散行列を基に前記雑音下目的信号空間共分散行列を計算し、前記記憶部に記憶された前記短時間空間共分散行列のうち、前記キーワード区間を含まない時間区間の短時間空間共分散行列を基に前記雑音空間共分散行列を計算することを特徴とする目的音声抽出プログラム。
  12. コンピュータに、
    入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出ステップと、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算ステップと、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧ステップと、
    を実行させ、
    前記空間共分散計算ステップは、前記キーワード区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、前記時間周波数マスクを用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を計算することを特徴とする目的音声抽出プログラム。
  13. コンピュータに、
    入力された音響信号を基に、キーワードが話されたことを検出し、当該キーワードが話された時間区間であるキーワード区間を計算するキーワード検出ステップと、
    前記キーワード区間の音響信号に基づく空間共分散行列である雑音下目的信号空間共分散行列を計算し、前記キーワード区間以外の所定の時間区間の音響信号に基づく空間共分散行列である雑音空間共分散行列を計算する空間共分散計算ステップと、
    前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を基に雑音抑圧フィルタを計算し、入力された音響信号に前記雑音抑圧フィルタを適用し、目的音声を抽出する雑音抑圧ステップと、
    を実行させ、
    前記空間共分散計算ステップは、前記キーワード区間より後の時間区間の音響信号について、時間周波数点ごとに目的音声と雑音のどちらが優勢であるかを示す時間周波数マスクをさらに計算し、前記時間周波数マスクを用いて、前記雑音下目的信号空間共分散行列及び前記雑音空間共分散行列を更新することを特徴とする目的音声抽出プログラム。
JP2017165974A 2017-08-30 2017-08-30 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム Active JP6711789B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017165974A JP6711789B2 (ja) 2017-08-30 2017-08-30 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017165974A JP6711789B2 (ja) 2017-08-30 2017-08-30 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム

Publications (2)

Publication Number Publication Date
JP2019045576A JP2019045576A (ja) 2019-03-22
JP6711789B2 true JP6711789B2 (ja) 2020-06-17

Family

ID=65814251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017165974A Active JP6711789B2 (ja) 2017-08-30 2017-08-30 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム

Country Status (1)

Country Link
JP (1) JP6711789B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021118979A (ja) * 2018-03-23 2021-08-12 株式会社三共 遊技機

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108597507A (zh) 2018-03-14 2018-09-28 百度在线网络技术(北京)有限公司 远场语音功能实现方法、设备、系统及存储介质
JP7159928B2 (ja) * 2019-03-13 2022-10-25 日本電信電話株式会社 雑音空間共分散行列推定装置、雑音空間共分散行列推定方法、およびプログラム
JP7191793B2 (ja) * 2019-08-30 2022-12-19 株式会社東芝 信号処理装置、信号処理方法、及びプログラム
JP2023172553A (ja) * 2022-05-24 2023-12-06 株式会社東芝 音響信号処理装置、音響信号処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3910898B2 (ja) * 2002-09-17 2007-04-25 株式会社東芝 指向性設定装置、指向性設定方法及び指向性設定プログラム
JP2014145838A (ja) * 2013-01-28 2014-08-14 Honda Motor Co Ltd 音響処理装置及び音響処理方法
JP6584930B2 (ja) * 2015-11-17 2019-10-02 株式会社東芝 情報処理装置、情報処理方法およびプログラム
WO2017094862A1 (ja) * 2015-12-02 2017-06-08 日本電信電話株式会社 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021118979A (ja) * 2018-03-23 2021-08-12 株式会社三共 遊技機

Also Published As

Publication number Publication date
JP2019045576A (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
JP6711789B2 (ja) 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム
US11763834B2 (en) Mask calculation device, cluster weight learning device, mask calculation neural network learning device, mask calculation method, cluster weight learning method, and mask calculation neural network learning method
JP6434657B2 (ja) 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
CN106663446B (zh) 知晓用户环境的声学降噪
JP5662276B2 (ja) 音響信号処理装置および音響信号処理方法
JP2016057461A (ja) 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム
JP6077957B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
WO2020045313A1 (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
JP2006243290A (ja) 外乱成分抑圧装置、コンピュータプログラム、及び音声認識システム
JP2018141922A (ja) ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム
JP6985221B2 (ja) 音声認識装置及び音声認識方法
JP6711765B2 (ja) 形成装置、形成方法および形成プログラム
JP5994639B2 (ja) 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム
JP5974901B2 (ja) 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム
JPWO2018163279A1 (ja) 音声処理装置、音声処理方法、および音声処理プログラム
JP6724290B2 (ja) 音響処理装置、音響処理方法、及び、プログラム
JP7112348B2 (ja) 信号処理装置、信号処理方法及び信号処理プログラム
US11580967B2 (en) Speech feature extraction apparatus, speech feature extraction method, and computer-readable storage medium
Oh et al. Vocabulary optimization process using similar phoneme recognition and feature extraction
JP6636973B2 (ja) マスク推定装置、マスク推定方法およびマスク推定プログラム
Ming et al. An iterative longest matching segment approach to speech enhancement with additive noise and channel distortion
JP5752488B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP2021167850A (ja) 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラム
JP2016080767A (ja) 周波数成分抽出装置、周波数成分抽出方法及び周波数成分抽出プログラム
WO2022034675A1 (ja) 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法、および、学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R150 Certificate of patent or registration of utility model

Ref document number: 6711789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150