JP5662276B2 - 音響信号処理装置および音響信号処理方法 - Google Patents

音響信号処理装置および音響信号処理方法 Download PDF

Info

Publication number
JP5662276B2
JP5662276B2 JP2011172409A JP2011172409A JP5662276B2 JP 5662276 B2 JP5662276 B2 JP 5662276B2 JP 2011172409 A JP2011172409 A JP 2011172409A JP 2011172409 A JP2011172409 A JP 2011172409A JP 5662276 B2 JP5662276 B2 JP 5662276B2
Authority
JP
Japan
Prior art keywords
acoustic signal
signal
acoustic
basis matrix
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011172409A
Other languages
English (en)
Other versions
JP2013037152A (ja
Inventor
誠 広畑
誠 広畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011172409A priority Critical patent/JP5662276B2/ja
Priority to US13/420,912 priority patent/US9224392B2/en
Publication of JP2013037152A publication Critical patent/JP2013037152A/ja
Application granted granted Critical
Publication of JP5662276B2 publication Critical patent/JP5662276B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02163Only one microphone

Description

本発明の実施形態は、音響信号処理装置および音響信号処理方法に関する。
音声認識などにおいてマイクロホンで取得した音響信号には、ユーザの音声である音声信号だけでなく背景雑音や音楽などの非音声信号が含まれる。音声信号と非音声信号が混入した音響信号から所望の信号のみを抽出する技術が音源分離技術であり、その1つに非負行列因子分解を用いた方式がある。音響信号から音声信号を分離する場合、この方式ではまず、非音声信号を含む蓋然性が高い区間における音響信号のスペクトログラムから非音声信号の基底行列を作成する。次に、この非音声信号の基底行列を用いて、分離対象となる音響信号のスペクトログラムから音声信号の基底行列と係数行列を作成する。そして、この音声信号の基底行列と係数行列の積により、音声信号のスペクトログラムを推定する。最後に、推定された音声信号のスペクトログラムを時間信号に変換して、音響信号から音声信号を分離する。
しかしながら、この方式では、非音声信号の基底行列を求める際の音響信号に音声信号が混入していた場合、非音声信号の基底行列を正確に作成することができなかった。結果として、音声信号の分離性能が劣化するという問題があった。
特開2009−128906号公報
Eric Scheirer, Malcolm Slaney, "Construction and Evaluation of a Robust Multifeature Speech/Music Discriminator," Proc. Of ICASSP, April 1997, Vol 2, p.1331-1334.
発明が解決しようとする課題は、音声信号の分離性能を向上させる音響信号処理装置を実現することである。
実施形態の音響信号処理装置における尤度計算手段は、取得した音響信号から音声信号および非音声信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して音響信号に音声信号が含まれる尤もらしさを表す尤度を計算する。スペクトル抽出手段は、音響信号を周波数解析してスペクトル特徴を抽出する。第1基底行列作成手段は、スペクトル特徴を利用して、非音声信号の特徴を表す第1の基底行列を作成する。第2基底行列作成手段は、尤度を利用して、第1の基底行列において音声信号と関連性が高い成分を特定し、この成分を除外して第2の基底行列を作成する。スペクトル特徴推定手段は、スペクトル特徴を第2の基底行列を用いて非負行列因子分解することにより、音声信号のスペクトル特徴あるいは非音声信号のスペクトル特徴を推定する。
第1の実施形態の音響信号処理装置を示すブロック図。 実施形態の音響信号処理装置のハードウェア構成を示す図。 実施形態の第2基底行列作成部における処理内容を示す図。 実施形態のスペクトル推定部における処理内容を示す図。 実施形態の音響信号処理装置のフローチャート。 実施形態の第2基底行列作成部のフローチャート。 実施形態の音声信号のスペクトログラムの推定結果を示す図。
以下、本発明の実施形態について図面を参照しながら説明する。
(第1の実施形態)
第1の実施形態の音響信号処理装置は、音声信号および非音声信号を含んだ音響信号から音声信号を分離するものである。例えば、本実施形態の音響信号処理装置を音声認識の前処理として利用することにより、音声認識の認識性能を向上させることができる。
本実施形態の音響信号処理装置は、非負行列因子分解を用いた音源分離技術(特許文献1)であり、非音声信号が含まれる蓋然性が高い区間における音響信号のスペクトログラム(スペクトル特徴)から、非音声信号の特徴を表す第1の基底行列を作成する。そして、音声信号が含まれる尤もらしさを表す音声尤度を利用して、第1の基底行列から音声信号との関連性が高い成分を除外して第2の基底行列を作成する。この第2の基底行列を用いて音声信号の特徴を表す第3の基底行列と第1の係数行列を計算し、第3の基底行列と第1の係数行列の積により、音声信号のスペクトログラムを推定する。最後に、推定された音声信号のスペクトログラムを時間信号に変換することで、音響信号から音声信号を分離する。
このように、本実施形態の音響信号処理装置は、作成された非音声信号の第1の基底行列から音声信号との関連性が高い成分を除外した第2の基底行列を作成する。これにより、非音声信号の特徴を正確に表す基底行列を作成することができ、結果として、音声信号の分離性能を向上させることができる。
(全体のブロック構成)
図1は、第1の実施形態にかかる音響信号処理装置を示すブロック図である。本実施形態の音響信号処理装置は、音声信号と非音声信号を含んだ音響信号を取得する音響取得部101と、音響信号から音声信号および非音声信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して、音響信号に音声信号が含まれる尤もらしさを表す音声尤度と非音声信号が含まれる尤もらしさを表す非音声尤度を計算する尤度計算部102と、音声尤度と非音声尤度を利用して、音響信号の所定区間ごとに音声・非音声を判別する音声・非音声判別部103と、音響信号をフーリエ変換してスペクトログラムを抽出するスペクトル特徴抽出部104と、非音声信号と判別された区間の音響信号から抽出されたスペクトログラムを利用して、非音声信号の特徴を表す第1の基底行列を作成する第1基底行列作成部105と、音声尤度を利用して、第1の基底行列から音声信号との関連性が高い列ベクトルの成分を除外して第2の基底行列を作成する第2基底行列作成部106と、スペクトログラムを前記第2の基底行列を用いて非負行列因子分解することにより、音声信号の特徴を表す第3の基底行列および第1の係数行列を計算し、この第3の基底行列および第1の係数行列の積により、音響信号に含まれる音声信号のスペクトログラムを推定するスペクトル特徴推定部107と、推定された音声信号のスペクトログラムを逆フーリエ変換により時間信号に変換する逆変換部108とを備える。
(ハードウェア構成)
本実施形態の音響信号処理装置は、図2に示すような通常のコンピュータを利用したハードウェアで構成されており、装置全体を制御するCPU(Central Processing Unit)等の制御部201と、各種データや各種プログラムを記憶するROM(Read Only Memory)やRAM(Random Access Memory)等の記憶部202と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の外部記憶部203と、ユーザの指示入力を受け付けるキーボードやマウスなどの操作部204と、外部装置との通信を制御する通信部205と、ユーザの発声を取得するマイク206と、これらを接続するバス208とを備えている。
このようなハードウェア構成において、制御部201がROM等の記憶部202や外部記憶部203に記憶された各種プログラムを実行することにより以下の機能が実現される。
(各ブロックの機能)
音響取得部101は、マイク206に入力された音響信号を取得する。この音響信号には、ユーザの音声である音声信号だけでなく背景雑音や音楽などの非音声信号が含まれる。なお、本実施形態の音響信号は、16kHzでサンプリングされたデジタル信号であるとする。なお、音響取得部101は、マイク206ではなく、外部記憶部203や通信部205によって接続された外部装置から音響信号を取得してもよい。
尤度計算部102は、音響取得部101で取得された音響信号から、音声信号および非音声信号の特徴を表す音響特徴を抽出する。そして、この音響特徴を利用して、音響信号に音声信号が含まれる尤もらしさ(音声尤度)および非音声信号が含まれる尤もらしさ(非音声尤度)を計算する。具体的には、尤度計算部102は、音響信号を長さ25ms(400サンプル)、間隔8ms(128サンプル)のフレームに分割する。フレーム分割にはハミング窓を使用する。次に、各フレームから音響特徴を抽出する。音響特徴としては、各フレームの音響信号をフーリエ変換して得られるスペクトルだけでなく、LPCケプストラムやMFCC等のケプストラム系の特徴量を用いることができる。そして、抽出された音響特徴を予め学習した音声モデルおよび非音声モデルと照合して、各フレームの音声尤度および非音声尤度を計算する。
音声・非音声判別部103は、尤度計算部102で計算されたフレーム毎の音声尤度および非音声尤度を用いて、所定区間ごとに音声信号が音声であるか非音声であるかを判別する。本実施形態では、所定区間の長さを400ms(50フレーム分)に設定する。音声・非音声判別部103は、50フレーム分の音声尤度および非音声尤度の平均値を計算し、その大小を比較することで音声・非音声を判別する。この他にも、各平均値を予め設定した閾値と比較して音声・非音声を判別してもよい。また、非特許文献1に記載の方法を利用することもできる。
スペクトル特徴抽出部104は、音響信号を長さ25ms(400サンプル)、間隔8ms(128サンプル)のフレームに分割し、各フレームの音響信号をフーリエ変換(周波数解析)してスペクトルを抽出する。なお、本実施形態では、各フレームに対して112点の零詰めを行った後、512点の離散フーリエ変換を実行する。
第1基底行列作成部105は、スペクトル特徴抽出部104で抽出された複数フレームのスペクトル(スペクトログラム)を利用して、非音声信号の特徴を表す第1の基底行列Hを作成する。ここで本実施形態では、音声・非音声判別部103において非音声と判別された区間の音響信号から抽出されたスペクトログラムを利用して、第1の基底行列Hを作成する。
第1基底行列作成部105は、まず、T個のフレームから抽出した各F次元のスペクトルの全要素を格納した行数F、列数Tの行列Zを作成する。次に、この行列Zを、行数F・列数Dの第1の基底行列Hと、行数D・列数Tの係数行列Uの積で近似する。ここで、Dは基底の数を表し、経験的に32に設定する。第1の基底行列Hと係数行列Uの導出は、第1の基底行列Hと係数行列Uの積と行列Zの二乗誤差を基準とした反復法により行う。この際、第1の基底行列Hおよび係数行列Uの初期行列には、ランダム値を用いることができる。
第2基底行列作成部106は、尤度計算部102で計算された音声尤度を利用して、第1の基底行列Hから音声信号との関連性が高い列ベクトルの成分を除外した第2の基底行列Bを作成する。
図3を用いて、第2基底行列作成部106の動作を説明する。同図の301は、4個のフレームから抽出された各4次元のスペクトルの要素で構成される行列Zを、行数4・列数4の第1の基底行列Hと、行数4・列数4の係数行列Uの積で近似している。302は、行列Zの各フレーム(列ベクトル)に対応する音声尤度を表している。302の閾値は、音声信号を含むフレームを判別するための値であり、予め所定値を設定しておく。閾値と音声尤度の比較により、この例ではt番目のフレームの音響信号に音声信号が含まれると判別される。したがって、第2基底行列作成部106は、t番目のフレームに起因する成分を第1の基底行列Hから除外して第2の基底行列Bを作成する。
まず、第2基底行列作成部106は、係数行列Uの各行ごとに正規化処理を行い正規化後の係数行列U’を得る。正規化は、各列ベクトルの要素の大きさを比較するための処理であり、各行の要素を平均0・分散1になるよう実行する。次に、第2基底行列作成部106は、t番目のフレームに対応する係数行列U’の列ベクトルの中で最大の値を持つ要素を選択する。要素は、U’のX行Y列目のように特定する。この例では、2行3列目の要素303が最大となる。次に、第2基底行列作成部106は、第1の基底行列Hと係数行列Uの積において、係数行列UのX行Y列目の要素との積が計算されるX列目の列ベクトルを除外する。この例では、U’の2行3列目の要素が選択されていることから、第1の基底行列Hから2列目の列ベクトルを除外して第2の基底行列Bを作成する。
このように、本実施形態の音響信号処理装置は、第1の基底行列Hから音声信号との関連性が高い列ベクトルの成分を除外した第2の基底行列Bを作成する。これにより、非音声信号の特性を表す第2の基底行列Bを正確に作成することができる。
なお、第2基底行列作成部106は、複数の列ベクトルを除外して第2の基底行列Bを作成してもよい。また、列ベクトルを除外するのではなく、列ベクトルの要素の値を0または0に近い値に置き換えることもできる。また、作成された第2の基底行列Bを記憶部202や外部記憶部203に記憶しておき、記憶された第2の基底行列Bを再利用して他の音響信号に対する分離処理を実行してもよい。
本実施形態では音声尤度そのものを用いて音声信号との関連性が高い成分を特定したが、非音声尤度と音声尤度の比を用いてもよい。また、非音声尤度だけを用いて音声信号との関連性が高い成分を特定することもできる。例えば、非音声尤度が低いフレームを音声信号との関連性が高い成分とみなすことができる。
スペクトル特徴推定部107は、スペクトル特徴抽出部104で抽出されたスペクトル特徴を第2の基底行列Bを用いて非負行列因子分解することにより、音声信号の特徴を表す第3の基底行列Mおよび第1の係数行列Vを計算する。そして、この第3の基底行列Mと第1の係数行列Vの積を取ることにより、音響信号に含まれる音声信号のスペクトル特徴を推定する。
まず、スペクトル特徴推定部107は、図4の401に示すように、音声信号を分離する対象となる音響信号のスペクトログラムXを第2の基底行列Bを用いて非負行列因子分解する。第1の基底行列Hの導出と同様に、基底行列と係数行列の積とスペクトログラムXの二乗誤差を基準とした反復法を適用する。この際、基底行列の列数は第2の基底行列Bの列数D−1より大きい値E+D−1とし、基底行列のE列目以降の初期値は第2基底行列Bの要素とする。基底行列のE列目以降の要素は反復法の適用外とする。反復法を適用した結果、基底行列の1列目からE列目までの行列が第3の基底行列M、係数行列の1行目からE行目までの行列が第1の第1の係数行列V、E行目以降の行列が第2の係数行列Wとなる。
次に、スペクトル特徴推定部107は、この第3の基底行列Mと第1の係数行列Vの積を取ることにより、音響信号に含まれる音声信号のスペクトログラムを推定する(図4の402)。この他にも、非音声信号の特徴を表す第2の基底行列Bと第2の係数行列Wの積により、音響信号に含まれる非音声信号のスペクトログラムを推定することもできる。
また、スペクトル特徴推定部107は、第3の基底行列Mと第1の係数行列Vの積で推定した音声信号のスペクトログラムと、第2の基底行列Bと第2の係数行列Wの積で推定した非音声信号のスペクトログラムからスペクトログラムの要素ごとに音声信号に起因する成分の比率を算出し、分離対象となるスペクトログラムにこの比率をかけることで音声信号のスペクトログラムを推定してもよい。
逆変換部108は、推定された音声信号のスペクトログラムを離散逆フーリエ変換することにより時間信号に変換する。これにより、音響信号から音声信号を分離することができる。なお、分離された音声信号を後段の音声認識部(図示なし)に出力することにより、非音声信号の影響を取り除いた音声認識処理を実行できる。
(フローチャート: 全体処理)
図5のフローチャートを利用して、本実施形態にかかる音声信号処理装置の処理を説明する。まず、ステップS501では、音響取得部101は、分離対象となる音響信号を取得する。
ステップS502では、スペクトル特徴抽出部104は、フレームに分割した音響信号から離散フーリエ変換によりスペクトルを抽出する。フレームの間隔は8msとする。
ステップS503では、尤度計算部102は、音響信号からLPCケプストラムやMFCC等のケプストラム系の音響特徴を抽出する。そして、この音響特徴と予め学習した音声モデルおよび非音声モデルを照合して、音声尤度および非音声尤度を計算する。
ステップS504では、音声・非音声判別部103は、長さ400ms(50フレーム分)の所定区間ごとに音声・非音声を判別する。判別には、ステップS503で計算された音声尤度および非音声尤度を用いる。
ステップS505では、判別対象となった区間が最初の区間であるか否かに応じて処理を分岐する。最初の区間である場合は、非音声信号の基底行列は作成されていないため、ステップ504での判別結果によらずステップS507に移行する。最初の区間でない場合は、ステップS506に移行する。
ステップS506では、判別対象となった区間の判別結果に応じて処理を分岐する。判別結果が非音声である場合はステップS507へ、音声である場合はステップS509へ移行する。
ステップS507では、第1基底行列作成部105は、判別対象となった区間から抽出されたスペクトログラムを利用して、非音声信号の特徴を表す第1の基底行列Hおよび係数行列を作成する。
ステップS508では、第2基底行列作成部106は、ステップS503で計算された音声尤度を利用して、第1の基底行列Hから音声信号との関連性が高い列ベクトルの成分を除外した第2の基底行列Bを作成する。ステップS508の詳細は後述する。
ステップS509では、スペクトル特徴推定部107は、ステップS504で音声・非音声が判別された400ms(50フレーム)の区間から抽出されたスペクトログラムを第2の基底行列Bを用いて非負行列因子分解し、音声信号の特徴を表す第3の基底行列Mおよび第1の係数行列Vを計算する。
ステップS510では、スペクトル特徴推定部107は、第3の基底行列Mと第1の係数行列Vの積により、音声信号のスペクトログラムの推定値を得る。推定された音声スペクトログラムのフレーム数は50になる。
ステップS511では、逆変換部108は、ステップS510で推定された音声信号のスペクトログラムを離散逆フーリエ変換により時間信号に変換する。
ステップS512では、音響信号処理装置は、全ての区間について音声信号の分離処理が終了したか否かを判別する。終了していない場合はステップS504に移行して、次の400ms区間について音声・非音声を判別する。
(フローチャート: 第2基底行列作成部)
図6のフローチャートを利用して、第2の基底行列Bを作成する図5のステップS508の詳細を説明する。まず、ステップS601では、第2基底行列作成部106は、係数行列Uの各行ごとに正規化を実行することにより係数行列U’を得る。
ステップS602では、第2基底行列作成部106は、正規化された係数行列U’の各列ベクトルに対応する音声尤度を取得する。
ステップS603では、第2基底行列作成部106は、音声尤度と予め設定した閾値を比較する。
ステップS604では、第2基底行列作成部106は、閾値を超えた音声尤度に対応づけられた係数行列U’の列ベクトルを選択する。音声尤度が閾値を超えるフレームが複数ある場合は、列ベクトルも複数選択する。
ステップS605では、第2基底行列作成部106は、ステップS604で選択された各列ベクトルにおいて最大の値を示す要素を選択する。要素は、係数行列U’のX行Y列目のように選択する。列ベクトルが複数ある場合は、選択される要素も複数になる。
ステップS606では、第2基底行列作成部106は、第1の基底行列Hと係数行列Uの積において、係数行列UのX行Y列目の要素との積が計算されるX列目の列ベクトルを第1の基底行列Hから除外する。以上の処理により、第2基底行列作成部106は、音声信号の影響を取り除いた第2の基底行列Bを作成できる。
図7に、本実施形態の音響信号装置で推定された音声スペクトルの例を示す。同図の701は、音声信号と非音声信号が混ざり合った音響信号のスペクトログラムを示している。このスペクトログラムでは、黒色が音声信号の成分を灰色が非音声信号の成分をそれぞれ表している。推定された音声信号のスペクトログラムにおいて、黒色の表示が残り、灰色の表示が白色に変換されることが理想的な結果である。
702および703は、非音声と判別された区間705のスペクトログラムから作成された非音声信号の基底行列を用いて推定された音声信号のスペクトログラムを示している。702は第1の基底行列Hを用いた非負行列因子分解により音声信号のスペクトログラムを推定しており、703は第2の基底行列Bを用いた非負行列因子分解により音声信号のスペクトログラムを推定している。一方、704は、各フレームにおける音声尤度が低くかつ705より短い区間である706のスペクトログラムから作成された非音声信号の基底行列を用いて推定された音声信号のスペクトログラムを示している。図7の各スペクトログラムを比較すると、702および704は音声信号の成分を表す黒色の部分が削除されている。702は705の区間に含まれる音響信号の影響により、704は区間706が十分な長さを有していないことにより、非音声信号の基底行列の作成精度が低下したものと考えられる。一方、本実施形態の音響信号処理装置を用いた703のスペクトログラムは、音声信号の成分を残した上で非音声信号の成分を除去しており、より理想的な推定結果を示していることが分かる。
(効果)
このように、本実施形態の音響信号処理装置は、作成された非音声信号の第1の基底行列から音声信号との関連性が高い成分を除外することで第2の基底行列を作成する。これにより、非音声信号の基底行列を正確に作成することができ、結果として、音声信号の分離性能を向上させることができる。
(変形例)
本実施形態の音響信号処理装置では、音声信号と非音声信号の分離を対象としていたが、他の信号の分離に応用することもできる。例えば、音楽信号と非音楽信号の分離も同様な方法で実現することができる。
また、尤度計算部102がスペクトル特徴を用いて尤度を計算する場合は、スペクトル特徴抽出部104で抽出されたスペクトル特徴を用いてもよい。この場合、尤度計算部102は、スペクトル特徴抽出部104で抽出されたスペクトル特徴を音響特徴として利用することができる。
また、図7のステップS507およびS508では、ステップS506において非音声と判別されるたびに非音声信号の基底行列を作成したが、対象となる区間の1つ前の区間までに非音声信号の基底行列が既に作成されている場合は、ステップS507およびS508をスキップして既に作成された非音声信号の基底行列を用いて音声信号のスペクトログラムを推定することもできる。
また、本実施形態の音響信号処理装置は、音声・非音声判別部103で非音声と判別された区間のスペクトログラムから非音声信号の基底行列を作成したが、音響信号の先頭400msの区間のスペクトログラムから非音声信号の基底行列を作成することもできる。この区間に音声信号が含まれていたとしても、第2基底行列作成部106によって音声信号の成分が除外されるため、作成される非音声信号の基底行列の精度を保つことができる。
なお、以上説明した本実施形態における一部機能もしくは全ての機能は、ソフトウェア処理により実現可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
101 響取得部
102 尤度計算部
103 音声・非音声判別部
104 スペクトル特徴抽出部
105 第1基底行列作成部
106 第2基底行列作成部
107 スペクトル特徴推定部
108 逆変換部
201 制御部
202 記憶部
203 外部記憶部
204 操作部
205 通信部
206 マイク
208 バス
301 非負行列因子分解
302 音声尤度
303 最大値を示す要素
401 非負行列因子分解
402 音声信号のスペクトログラム
701 音響信号のスペクトログラム
702〜704 推定された音声信号のスペクトログラム
705 非音声信号と判別された区間
706 音声尤度が低い区間

Claims (10)

  1. 音声信号と非音声信号を含んだ音響信号を取得する音響取得手段と、
    前記音響信号から前記音声信号および前記非音声信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して前記音響信号に前記音声信号が含まれる尤もらしさを表す尤度を計算する尤度計算手段と、
    前記音響信号を周波数解析してスペクトル特徴を抽出するスペクトル特徴抽出手段と、
    前記スペクトル特徴を利用して、前記非音声信号の特徴を表す第1の基底行列を作成する第1基底行列作成手段と、
    前記尤度を利用して、前記第1の基底行列において前記音声信号との関連性が高い成分を特定し、この成分を除外して第2の基底行列を作成する第2基底行列作成手段と、
    前記スペクトル特徴を前記第2の基底行列を用いて非負行列因子分解することにより、前記音声信号のスペクトル特徴あるいは前記非音声信号のスペクトル特徴を推定するスペクトル特徴推定手段と、
    を備えた音響信号処理装置。
  2. 前記スペクトル特徴推定手段が、前記第2の基底行列を用いた非負行列因子分解により、前記音声信号の特徴を表す第3の基底行列および第1の係数行列を作成し、この第3の基底行列と第1の係数行列の積により、前記音響信号に含まれる音声信号のスペクトル特徴を推定する請求項1記載の音響信号処理装置。
  3. 前記第2基底行列作成手段が、前記第1の基底行列から前記音声信号との関連性が高い列ベクトルを除外して前記第2の基底行列を作成する請求項1乃至請求項2記載の音響信号処理装置。
  4. 前記第2基底行列作成手段が、前記第1の基底行列から前記音声信号との関連性が高い列ベクトルの値を0に置き換えて前記第2の基底行列を作成する請求項1乃至請求項2記載の音響信号処理装置。
  5. 前記第2基底行列作成手段が、前記尤度と所定の閾値を比較することにより前記第1の基底行列において前記音声信号との関連性が高い成分を特定する請求項1から請求項4の何れか1項に記載の音響信号処理装置。
  6. 前記音響信号から前記音声信号および前記非音声信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して前記音響信号が音声信号であるか非音声信号であるかを判別する音声・非音声判別手段を更に備え、
    前記第1基底行列作成手段が、前記音声・非音声判別手段で非音声信号であると判別された前記音響信号のスペクトル特徴を利用して、前記非音声信号の特徴を表す第1の基底行列を作成する請求項1から請求項5の何れか1項に記載の音響信号処理装置。
  7. 前記スペクトル特徴推定手段が、前記第2の基底行列を用いた非負行列因子分解により、非音声信号の特徴を表す第2の係数行列を作成し、前記第2の基底行列とこの第2の係数行列の積により、前記音響信号に含まれる非音声信号のスペクトル特徴を推定する請求項1から請求項6の何れか1項に記載の音響信号処理装置。
  8. 前記スペクトル特徴推定手段で推定されたスペクトル特徴を時間信号に変換する逆変換手段を更に備える請求項1から請求項7の何れか1項に記載の音響信号処理装置。
  9. 第1の音響信号および前記第1の音響信号とは異なる第2の音響信号を含んだ第3の音響信号を取得する音響取得手段と、
    前記第3の音響信号から前記第1の音響信号および前記第2の音響信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して前記第3の音響信号に前記第1の音響信号が含まれる尤もらしさを表す尤度を計算する尤度計算手段と、
    前記第3の音響信号を周波数解析してスペクトル特徴を抽出するスペクトル特徴抽出手段と、
    前記スペクトル特徴を利用して、前記第2の音響信号の特徴を表す第1の基底行列を作成する第1基底行列作成手段と、
    前記尤度を利用して、前記第1の基底行列において前記第1の音響信号との関連性が高い成分を特定し、この成分を除外して第2の基底行列を作成する第2基底行列作成手段と、
    前記スペクトル特徴を前記第2の基底行列を用いて非負行列因子分解することにより、前記第1の音響信号のスペクトル特徴あるいは前記第2の音響信号のスペクトル特徴を推定するスペクトル特徴推定手段と、
    を備えた音響信号処理装置。
  10. 第1の音響信号および前記第1の音響信号とは異なる第2の音響信号を含んだ第3の音響信号を取得するステップと、
    前記第3の音響信号から前記第1の音響信号および前記第2の音響信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して前記第3の音響信号に前記第1の音響信号が含まれる尤もらしさを表す尤度を計算するステップと、
    前記第3の音響信号を周波数解析してスペクトル特徴を抽出するステップと、
    前記スペクトル特徴を利用して、前記第2の音響信号の特徴を表す第1の基底行列を作成するステップと、
    前記尤度を利用して、前記第1の基底行列において前記第1の音響信号との関連性が高い成分を特定し、この成分を除外して第2の基底行列を作成するステップと、
    前記スペクトル特徴を前記第2の基底行列を用いて非負行列因子分解することにより、前記第1の音響信号のスペクトル特徴あるいは前記第2の音響信号のスペクトル特徴を推定するステップと、
    を備えた音響信号処理方法。
JP2011172409A 2011-08-05 2011-08-05 音響信号処理装置および音響信号処理方法 Active JP5662276B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011172409A JP5662276B2 (ja) 2011-08-05 2011-08-05 音響信号処理装置および音響信号処理方法
US13/420,912 US9224392B2 (en) 2011-08-05 2012-03-15 Audio signal processing apparatus and audio signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011172409A JP5662276B2 (ja) 2011-08-05 2011-08-05 音響信号処理装置および音響信号処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014245910A Division JP2015064602A (ja) 2014-12-04 2014-12-04 音響信号処理装置、音響信号処理方法および音響信号処理プログラム

Publications (2)

Publication Number Publication Date
JP2013037152A JP2013037152A (ja) 2013-02-21
JP5662276B2 true JP5662276B2 (ja) 2015-01-28

Family

ID=47627520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011172409A Active JP5662276B2 (ja) 2011-08-05 2011-08-05 音響信号処理装置および音響信号処理方法

Country Status (2)

Country Link
US (1) US9224392B2 (ja)
JP (1) JP5662276B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064602A (ja) * 2014-12-04 2015-04-09 株式会社東芝 音響信号処理装置、音響信号処理方法および音響信号処理プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080449A1 (ja) * 2011-12-02 2013-06-06 パナソニック株式会社 音声処理装置、方法、プログラムおよび集積回路
JP6054142B2 (ja) 2012-10-31 2016-12-27 株式会社東芝 信号処理装置、方法およびプログラム
JP6203003B2 (ja) 2012-12-20 2017-09-27 株式会社東芝 信号処理装置、信号処理方法およびプログラム
JP6299140B2 (ja) * 2013-10-17 2018-03-28 ヤマハ株式会社 音響処理装置および音響処理方法
JP6334895B2 (ja) * 2013-11-15 2018-05-30 キヤノン株式会社 信号処理装置及びその制御方法、プログラム
JP2015118361A (ja) * 2013-11-15 2015-06-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6371516B2 (ja) * 2013-11-15 2018-08-08 キヤノン株式会社 音響信号処理装置および方法
WO2015097818A1 (ja) 2013-12-26 2015-07-02 株式会社 東芝 テレビシステムとサーバ装置及びテレビ装置
JP6039108B2 (ja) 2013-12-26 2016-12-07 株式会社東芝 電子機器、制御方法およびプログラム
JP6143887B2 (ja) 2013-12-26 2017-06-07 株式会社東芝 方法、電子機器およびプログラム
JP6482173B2 (ja) * 2014-01-20 2019-03-13 キヤノン株式会社 音響信号処理装置およびその方法
JP6274872B2 (ja) * 2014-01-21 2018-02-07 キヤノン株式会社 音処理装置、音処理方法
US10013975B2 (en) * 2014-02-27 2018-07-03 Qualcomm Incorporated Systems and methods for speaker dictionary based speech modeling
US9978394B1 (en) * 2014-03-11 2018-05-22 QoSound, Inc. Noise suppressor
US9830929B1 (en) 2014-06-29 2017-11-28 Google Inc. Accurate extraction of chroma vectors from an audio signal
JP6501259B2 (ja) * 2015-08-04 2019-04-17 本田技研工業株式会社 音声処理装置及び音声処理方法
JP6559576B2 (ja) 2016-01-05 2019-08-14 株式会社東芝 雑音抑圧装置、雑音抑圧方法及びプログラム
JP6521886B2 (ja) * 2016-02-23 2019-05-29 日本電信電話株式会社 信号解析装置、方法、及びプログラム
IL263655B2 (en) * 2016-06-14 2023-03-01 Netzer Omry Automatic speech recognition
JP6791816B2 (ja) * 2017-07-21 2020-11-25 株式会社デンソーアイティーラボラトリ 音声区間検出装置、音声区間検出方法、およびプログラム
US10580427B2 (en) 2017-10-30 2020-03-03 Starkey Laboratories, Inc. Ear-worn electronic device incorporating annoyance model driven selective active noise control
CN110619885B (zh) * 2019-08-15 2022-02-11 西北工业大学 基于深度完全卷积神经网络的生成对抗网络语音增强方法
CN113053409B (zh) * 2021-03-12 2024-04-12 科大讯飞股份有限公司 音频测评方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3040499B2 (ja) 1991-01-22 2000-05-15 旭硝子株式会社 液晶表示素子の製造方法
US7415392B2 (en) * 2004-03-12 2008-08-19 Mitsubishi Electric Research Laboratories, Inc. System for separating multiple sound sources from monophonic input with non-negative matrix factor deconvolution
JP4313728B2 (ja) 2004-06-17 2009-08-12 日本電信電話株式会社 音声認識方法、その装置およびプログラム、その記録媒体
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
US8346692B2 (en) * 2005-12-23 2013-01-01 Societe De Commercialisation Des Produits De La Recherche Appliquee-Socpra-Sciences Et Genie S.E.C. Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
US20080071540A1 (en) * 2006-09-13 2008-03-20 Honda Motor Co., Ltd. Speech recognition method for robot under motor noise thereof
US8015003B2 (en) 2007-11-19 2011-09-06 Mitsubishi Electric Research Laboratories, Inc. Denoising acoustic signals using constrained non-negative matrix factorization
US8223988B2 (en) * 2008-01-29 2012-07-17 Qualcomm Incorporated Enhanced blind source separation algorithm for highly correlated mixtures
US8577677B2 (en) * 2008-07-21 2013-11-05 Samsung Electronics Co., Ltd. Sound source separation method and system using beamforming technique
US20100174389A1 (en) * 2009-01-06 2010-07-08 Audionamix Automatic audio source separation with joint spectral shape, expansion coefficients and musical state estimation
KR20100111499A (ko) * 2009-04-07 2010-10-15 삼성전자주식회사 목적음 추출 장치 및 방법
US8080724B2 (en) * 2009-09-14 2011-12-20 Electronics And Telecommunications Research Institute Method and system for separating musical sound source without using sound source database
US20110078224A1 (en) 2009-09-30 2011-03-31 Wilson Kevin W Nonlinear Dimensionality Reduction of Spectrograms
JP5407723B2 (ja) * 2009-10-07 2014-02-05 株式会社デンソーアイティーラボラトリ 認識装置、認識方法及びプログラム
JP5580585B2 (ja) * 2009-12-25 2014-08-27 日本電信電話株式会社 信号分析装置、信号分析方法及び信号分析プログラム
US8577678B2 (en) * 2010-03-11 2013-11-05 Honda Motor Co., Ltd. Speech recognition system and speech recognizing method
US9049532B2 (en) * 2010-10-19 2015-06-02 Electronics And Telecommunications Research Instittute Apparatus and method for separating sound source
US8874441B2 (en) * 2011-01-19 2014-10-28 Broadcom Corporation Noise suppression using multiple sensors of a communication device
JP2012163918A (ja) * 2011-02-09 2012-08-30 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
JP2013171089A (ja) * 2012-02-17 2013-09-02 Toshiba Corp 音声補正装置、方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064602A (ja) * 2014-12-04 2015-04-09 株式会社東芝 音響信号処理装置、音響信号処理方法および音響信号処理プログラム

Also Published As

Publication number Publication date
US20130035933A1 (en) 2013-02-07
JP2013037152A (ja) 2013-02-21
US9224392B2 (en) 2015-12-29

Similar Documents

Publication Publication Date Title
JP5662276B2 (ja) 音響信号処理装置および音響信号処理方法
US20110125496A1 (en) Speech recognition device, speech recognition method, and program
TW514867B (en) Method and apparatus for constructing voice templates for a speaker-independent voice recognition system
US9478232B2 (en) Signal processing apparatus, signal processing method and computer program product for separating acoustic signals
JP6908045B2 (ja) 音声処理装置、音声処理方法、およびプログラム
JP6501259B2 (ja) 音声処理装置及び音声処理方法
JP2017520784A (ja) オンザフライの音源分離の方法及びシステム
KR101616112B1 (ko) 음성 특징 벡터를 이용한 화자 분리 시스템 및 방법
US9437208B2 (en) General sound decomposition models
US9460714B2 (en) Speech processing apparatus and method
JP7176627B2 (ja) 信号抽出システム、信号抽出学習方法および信号抽出学習プログラム
Ismail et al. Mfcc-vq approach for qalqalahtajweed rule checking
WO2013030134A1 (en) Method and apparatus for acoustic source separation
CN108369803B (zh) 用于形成基于声门脉冲模型的参数语音合成系统的激励信号的方法
CN111292763A (zh) 重音检测方法及装置、非瞬时性存储介质
JPWO2018163279A1 (ja) 音声処理装置、音声処理方法、および音声処理プログラム
US11580989B2 (en) Training method of a speaker identification model based on a first language and a second language
JP6487650B2 (ja) 音声認識装置及びプログラム
JP6724290B2 (ja) 音響処理装置、音響処理方法、及び、プログラム
US11580967B2 (en) Speech feature extraction apparatus, speech feature extraction method, and computer-readable storage medium
KR100766170B1 (ko) 다중 레벨 양자화를 이용한 음악 요약 장치 및 방법
JP2015064602A (ja) 音響信号処理装置、音響信号処理方法および音響信号処理プログラム
KR20170124854A (ko) 음성/비음성 구간 검출 장치 및 방법
CN111243618A (zh) 用于确定音频中的特定人声片段的方法、装置和电子设备
WO2020195924A1 (ja) 信号処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141204

R151 Written notification of patent or utility model registration

Ref document number: 5662276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350