JP2019074625A - 音源分離方法および音源分離装置 - Google Patents

音源分離方法および音源分離装置 Download PDF

Info

Publication number
JP2019074625A
JP2019074625A JP2017200108A JP2017200108A JP2019074625A JP 2019074625 A JP2019074625 A JP 2019074625A JP 2017200108 A JP2017200108 A JP 2017200108A JP 2017200108 A JP2017200108 A JP 2017200108A JP 2019074625 A JP2019074625 A JP 2019074625A
Authority
JP
Japan
Prior art keywords
sound source
source separation
modeled
band
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017200108A
Other languages
English (en)
Other versions
JP6976804B2 (ja
Inventor
林太郎 池下
Rintaro Ikeshita
林太郎 池下
洋平 川口
Yohei Kawaguchi
洋平 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017200108A priority Critical patent/JP6976804B2/ja
Priority to US16/118,986 priority patent/US10720174B2/en
Publication of JP2019074625A publication Critical patent/JP2019074625A/ja
Application granted granted Critical
Publication of JP6976804B2 publication Critical patent/JP6976804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】高い分離性能を有する音源分離方法を提供する。【解決手段】処理装置,記憶装置,入力装置,出力装置を備える情報処理装置により,モデル化された音源分布を用いて,入力装置から入力される音声信号の音源分離を行う音源分離方法である。この方法では,モデルが従う条件として,各音源は互いに独立であり,各音源の有するパワーを帯域分割された周波数帯域ごとにモデル化し,異なる周波数帯域間のパワーの関係については非負値行列分解によってモデル化し,音源の分割された成分は複素正規分布に従う,ことを特徴とする。【選択図】 図2

Description

本発明は,音源分離に係わる技術に関するものである。
ブラインド音源分離技術とは,複数音源が混合した観測信号のみから,音源の混合過程などの情報が未知の状況で,混合前の個々の元信号を推定する信号処理技術のことである。近年,マイクロホン数が音源数以上の条件で音源分離を行う,優決定ブラインド音源分離技術の研究が盛んに進められている。
従来から知られる「独立成分分析」は,環境に存在する音源が互いに統計的に独立であると仮定して音源分離を行う手法である。一般に,独立成分分析では,マイク観測信号を時間周波数領域に変換して,分離信号が統計的に独立になるように周波数帯域ごとに分離フィルタを推定する。分離フィルタの推定を周波数帯域ごとに行うために,独立成分分析では,最終的な音源分離結果を得るために,各周波数帯域の分離結果を音源の順番に並び替える必要がある。この問題はパーミュテーション問題と呼ばれ,解決が容易でない問題として知られている。
パーミュテーション問題を回避できる手法として,「独立ベクトル分析」が注目されている。独立ベクトル分析では,各音源に対して,音源の時間周波数成分を全周波数帯域に渡って束ねた音源ベクトルを考え,音源ベクトルが互いに独立になるように分離フィルタを推定する(特許文献1)。独立ベクトル分析では,一般に,音源ベクトルが球面対称な確率分布に従うことを仮定するため,音源の有する周波数方向の構造をモデル化せずに音源分離を行っていた。
「独立低ランク行列分析」は,独立ベクトル分析における音源ベクトルを,非負値行列分解(NMF: Nonnegative Matrix Factorization)でモデル化して音源分離を行う手法である(非特許文献1)。独立低ランク行列分析は,独立ベクトル分析と同様に,パーミュテーション問題を回避できる手法である。さらに,音源ベクトルをNMFでモデル化することで,音源の有する周波数方向の構造を利用して音源分離を行うことができる。
特開2014−41308号公報
D. Kitamura, N. Ono, H. Sawada, H. Kameoka, and H. Saruwatari, "Determined Blind Source Separation Unifying Independent Vector Analysis and Nonnegative Matrix Factorization," IEEE/ACM Transactions on Ausio, Speech, and Language Processing, vol. 24, no.9, pp. 1626−1641, September, 2016.
特許文献1の独立ベクトル分析は,音響信号の有する周波数方向の構造を無視しているため,精度上の制約があった。非特許文献1の独立低ランク行列分析は,音源ベクトルをNMFでモデル化することで,音声信号に顕著な周波数成分の共起情報を利用して音源分離を行うことができる。しかしながら,NMFによるモデル化では,音声信号などが有する近傍の周波数間の強い高次相関を利用することができないため,周波数成分の共起だけでは捉えられない音声信号などに対して,音源分離性能が低いという問題があった。
本発明の一側面は,処理装置,記憶装置,入力装置,出力装置を備える情報処理装置により,モデル化された音源分布を用いて,入力装置から入力される音声信号の音源分離を行う音源分離方法である。この方法では,モデルが従う条件として,各音源は互いに独立であり,各音源の有するパワーを帯域分割された周波数帯域ごとにモデル化し,異なる周波数帯域間のパワーの関係については非負値行列分解によってモデル化し,音源の分割された成分は複素正規分布に従う,ことを特徴とする。
本発明の他の一側面は,処理装置,記憶装置,入力装置,出力装置を備え,モデル化された音源分布を用いて,入力装置から入力される音声信号の音源分離を行う音源分離装置である。この装置では,モデルが従う条件として,各音源は互いに独立であり,各音源の有するパワーを帯域分割された周波数帯域ごとにモデル化し,異なる周波数帯域間のパワーの関係については非負値行列分解によってモデル化し,音源の分割された成分は複素正規分布に従う,ことを特徴とする。
本発明によれば,高い分離性能を有する音源分離方法を提供することができる。
比較例の概念フロー図。 基本的な実施例の概念フロー図。 周波数帯域を音声信号の特徴に合わせて分割する処理の概念図。 発展的な実施例の概念フロー図。 第一実施形態による音源分離装置の機能構成を例示するブロック図。 実施例のハードウェアのブロック図。 第一実施形態による音源分離装置の処理フローを例示する流れ図。 第二実施形態による音源分離装置の機能構成を例示する流れ図。 第二実施形態による音源分離装置の処理フローを例示する流れ図。
実施の形態について,図面を用いて詳細に説明する。ただし,本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で,その具体的構成を変更し得ることは当業者であれば容易に理解される。
以下に説明する発明の構成において,同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い,重複する説明は省略することがある。
同一あるいは同様な機能を有する要素が複数ある場合には,同一の符号に異なる添字を付して説明する場合がある。ただし,複数の要素を区別する必要がない場合には,添字を省略して説明する場合がある。
本明細書等における「第1」,「第2」,「第3」などの表記は,構成要素を識別するために付するものであり,必ずしも,数,順序,もしくはその内容を限定するものではない。また,構成要素の識別のための番号は文脈毎に用いられ,一つの文脈で用いた番号が,他の文脈で必ずしも同一の構成を示すとは限らない。また,ある番号で識別された構成要素が,他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。
詳細な説明の前に,本実施例の特徴を非特許文献1の独立低ランク行列分析と比較して説明する。
図1は独立低ランク行列分析を用いた音源分離を説明するために,本発明者らが作成した比較例の概念フロー図である。音源分離装置では,通常複数のマイクロホンで観測された信号を,例えばフーリエ変換により時間と周波数の領域の信号に変換する(処理S1001)。このような信号は,例えば時間と周波数の2軸を定義した平面上で,音のパワー(単位時間あたりの音のエネルギー)の大きな領域を濃く(または明るく)示すグラフィックで,可視化して表示することができる。
独立低ランク行列分析では,音源の従う確率分布を以下の条件でモデル化する(処理S1002)。すなわち,(A)各音源は互いに独立である。(B)各音源の時間周波数成分は複素正規分布に従う。(C)正規分布の分散をNMFで低ランク分解する。
処理S1003〜処理S1005は,NMFのパラメータと分離フィルタの最適化処理である。処理S1003で,NMFのパラメータを推定する。処理S1004で,推定したNMFのパラメータで音源ベクトルが互いに独立になるように分離フィルタを推定する。この処理を,所定回数繰り返し行う。具体例としては,例えば特許文献1で開示されている補助関数法による推定がある。処理S1005ではパラメータとフィルタが収束あるいは所定回数更新が終わったことをもってパラメータの設定を完了する。
処理S1006にて,設定されたパラメータとフィルタを観測信号に適用し、音源分離後の時間周波数領域の信号を,時間領域の信号に変換して出力する。
先に述べたように,独立低ランク行列分析の課題の一つは,近傍の周波数間の強い相関を捉えられないことである。また,独立低ランク行列分析で仮定する音源の従う確率分布は,時変型の複素正規分布であり,大きな尖度を有する音声信号などに対して,音源分離性能が低いという問題があった。実施例では,この課題を考慮する例を示す。
図2は本発明の基本的な実施例の概念フロー図である。処理S2002におけるモデル化に特徴を持たせている。すなわち,(A)各音源は互いに独立である。(B−1)周波数帯域を音声信号の特徴に合わせて分割する。(B−2)各音源の分割された成分は複素正規分布に従う。(C)正規分布の分散をNMFで低ランク分解する。(B−1)(B−2)の特徴により,音声信号の近傍の周波数間の強い相関を捉えることができる。また,NMFのパラメータ数を削減できるので最適化(音源分離)の処理が容易になる。
図3は,(B−1)の周波数帯域を音声信号の特徴に合わせて分割する処理の概念を示す図である。縦軸と横軸は周波数帯域(単位kHz)を示しており,色の濃い部分は相関が高いことを示す。本実施例では,周波数帯域を領域3001、領域3002、領域3003のように,相関の高い部分を纏めて分割することによって,類似の特徴を持つ周波数帯域を抽出してモデル化することができる。
例えば,音源からマイク191により得られる音の帯域が20〜20kHzだったとすると,周波数帯域の分割は,例えば(帯域1)20〜100Hz,(帯域2)100Hz〜1kHz,(帯域3)1kHz〜20kHzのように相関の強い範囲を大きさは自由に分割することができる。このとき,分割した帯域を合計したとき,想定される音源の周波数帯域をすべてカバーすることが望ましい。
図4は本発明の発展的な実施例の概念フロー図である。図4の例のモデル化処理S4002では,図2の例のモデル化処理S2002の条件に加えて,(D)分割された成分毎に有音と無音の確率分布を別々にモデル化している。ここで,有音,無音とは,着目している特定の音源からの音(例えば人間による発話)の有無を意味している。
従来の独立低ランク行列分析は,有音区間と有音区間とで音源は異なる確率分布に従うという情報を利用していないため,音源が時間的に入れ替わる実環境において,音源分離性能が十分でない。図4の処理S4003で,例えば音源の確率分布を音声が含まれる音声用モデルと音声が含まれない無音用モデルを切り替えて適用することで,音声区間と無音区間が非定常に変化する信号に対して,高い分離性能を有する音源分離方法を提供することができる。この際のモデル切替の具体的なアルゴリズムとして,後述するEMアルゴリズム(Expectation-Maximization Algorithm)がある。
また,上記処理で取り入れたモデル化において,モデル化誤差を補正することが望ましい。その際に,DNN(Deep Neural Network;ディープニューラルネットワーク)といった機械学習手法でモデル化誤差が補正可能である。そこで,処理S4003,S1003においては,あらかじめ録音し収集した複数の、好ましくは大量の音源を用いて、DNNに事前学習させておき,音源の確率分布のモデル化誤差をDNNによって補正することが考えられる。この構成では,音源分離性能の向上が期待できる。
以下の実施例では,具体的な例として周波数帯域分割と,分離対象信号の尖度といった分布情報と,を用いて分離対象信号の確率モデルと観測信号の生成過程をモデル化し,音源状態の判別と音源分離とを同時に解決し,音源状態の推定結果を予め学習しておいたニューラルネットワークを用いて補正する例を説明する。本発明の実施の形態について具体的に説明する前に,本実施例における観測信号の生成モデルについて説明する。また,本実施例を記述するための記号を定義する。
<観測モデル>
音源数とマイクロホンの数は等しくNであると仮定する。音源数よりマイクロホンの数が多い場合は,次元削減などを用いればよい。N個の音源が発する時間領域の時系列信号が混合して,N個のマイクロホンで観測されるとする。
時間周波数(f,t)における音源信号と観測信号をそれぞれ(数1)
Figure 2019074625
とおき,線形混合(数2)
Figure 2019074625
を仮定する。
ここで,f∈[NF]:={1,・・・,NF}は周波数のインデックス,t∈[NT]:={1,・・・,NT}は時間フレームのインデックス,Afは周波数fにおける混合行列である。
Figure 2019074625
(数3)は各音源n∈[N]:={1,・・・,N}に対する分離フィルタWn,fからなる分離行列である。また,Tはベクトルの転置,hはエルミート転置を表す。音源の従う確率分布について,次の分解(数4)を仮定する:
Figure 2019074625
各時間フレームt∈[NT]において,各音源n∈[N]が有音状態であるか無音状態であるかを表現するために,(数5)に示す潜在変数{Zn,tn,tを導入する:
Figure 2019074625
潜在変数{Zn,tn,tを用いると,各音源n∈[N]の確率分布は(数6)のように表される。
Figure 2019074625
ここで(数7)
Figure 2019074625
と定義した。潜在変数{Zn,tn,tを導入したことで,本実施例の音源分離方法は,音源の状態(有音状態あるいは無音状態)に応じて分布の形状を切り替えることが可能である。
本実施例では,{πn,t,ccにディリクレ事前分布を仮定する。すなわち(数8)
Figure 2019074625
と仮定する。ここで,φcはディリクレ事前分布のハイパーパラメータである。
次に,本実施例のポイントである帯域分割について説明する。周波数帯域[NF]の分割を与える集合族Eを導入する:
Figure 2019074625
ここで,Uに似た記号は集合の直和を表す。この集合族Eのことを帯域分割と呼ぶことにする。音源の状態Zn,tが与えられたもとでの音源n∈[N]が従う確率分布は,帯域分割Eを用いて,(数10)のように分解されると仮定する。
Figure 2019074625
ここで,Sn,F,tは{Sn,f,t│f∈F}を並べたベクトルである。
たとえば,従来の独立成分分析と独立低ランク行列分析では,帯域分割として(数11)を仮定していると見ることができる。
Figure 2019074625
また,従来の独立ベクトル分析は,帯域分割として(数12)を仮定していると見ることができる。
Figure 2019074625
図3で説明したように,本実施例の帯域分割によれば,音源分離の対象となる信号にとって適切な帯域分割Eを設定することで,周波数帯域F∈Eにおける周波数間の強い高次相関を陽にモデル化することができる。
音源の状態Zn,tが与えられたときのSn,F,tが従う分布としては,例えば,複素変数の多変量指数べき分布(complex-valued multivariate exponential power distribution)
Figure 2019074625
を用いることができる.ここで,Γ(・)はガンマ関数,|F|は集合F∈Eの濃度,||・||はL2ノルム,また,αn,f,t,c∈R>0とβc∈R>0は多変量指数べき分布のパラメータである。ただし,R>0は正の実数全体からなる集合である。
多変量指数べき分布(数13)は,βc=1のとき,多変量複素正規分布に一致する。一方で,βc<1のとき,多変量指数べき分布は多変量複素正規分布より大きな尖度をもつ。このように,本実施例における音源分離方法は,音源分離の対象となる信号が大きな尖度をもつ場合も,βcを調節することで,音源を適切にモデル化することができる。
音源が無音状態にあるとき,すなわち,Zn,t,c=0のとき,小さなε>0を用いて,
Figure 2019074625
と定義する。これは,無音状態のとき,Sn,F,tがおよそ0であることをモデル化している。
一方で,音源が有音状態にあるとき,すなわち,Zn,t,c=1のとき,{αn,F,t,1n,F,tを(数15)のように非負値行列分解(NMF)を用いてモデル化することにする:
Figure 2019074625
ここで,Knは音源n∈[N]に対するNMFの基底数を表す。また,{un,F,kFは音源n∈[N]のk番目の基底であり,{νn,k,ttは音源n∈[N]のk番目の基底に対するアクティベーションを表す。
また,(数16)のように,{αn,F,t,1n,F,tのNMFによるモデル化において,各音源n∈[N]に対する基底数Knを固定する代わりに,音源全体の基底数Kを与えて,潜在変数{yn,kn,kを用いて各音源n∈[N]に自動的に基底を割り当てることもできる:
Figure 2019074625
ここで,潜在変数{yn,kn,kは(数17),
Figure 2019074625
または(数18),
Figure 2019074625
を満たすとする。
以上が,本実施例の音源分離装置の第一実施形態と第二実施形態における,観測信号の生成モデルの説明である。本実施例において,モデルパラメータΘの集合は(数19)
Figure 2019074625
または(数20),
Figure 2019074625
である。
モデルパラメータΘの推定は,例えば,次の事後確率最大化基準に基づいて実行できる:
Figure 2019074625
各実施形態の説明では,J(Θ)の最大化を公知のEMアルゴリズムを用いて実行する方法を説明するが,既存のいかなる最適化アルゴリズムも用いることができる。以降では,図面を参照して本発明の各実施形態について説明する。
図5〜図7を用いて,第一実施形態に関わる音源分離装置100を説明する。図5は,第一実施形態による音源分離装置の機能構成を例示するブロック図である。音源分離装置100は,帯域分割決定部101と,時間周波数領域変換部110と,音源状態更新部120と,モデルパラメータ更新部130と,時間周波数領域分離音計算部140と,時間領域変換部150と,音源状態出力部160と,を備える。ここで,モデルパラメータ更新部130は,混合重み更新部131と,NMFパラメータ更新部132と,分離フィルタ更新部133と,から構成される。
図6は本実施例の音源分離装置100のハードウェア構成図である。本実施例では音源分離装置100は,処理装置601,記憶装置602,入力装置603,出力装置604を備える,一般的なサーバで構成した。計算や制御等の機能は,記憶装置602に格納されたプログラムが処理装置601によって実行されることで,図5,図7に示す定められた処理を他のハードウェアと協働して実現する。実行するプログラム,その機能,あるいはその機能を実現する手段を,「機能」,「手段」,「部」,「ユニット」,「モジュール」等と呼ぶ場合がある。
図5におけるマイク191は,キーボードやマウス等とともに入力装置603の一部を構成し,記憶装置602は処理装置の処理に必要なデータやプログラムを格納する。出力インタフェース192は,処理結果を他の記憶装置や,出力装置604であるプリンタや表示装置に出力する。
図7は,第一実施形態による音源分離装置の処理フローを例示する流れ図である。図7を参照して,音源分離装置100の動作例を説明する。ただし,観測信号の生成モデルと生成モデルにおける記号の定義は,<観測モデル>で述べたものを断りなしに用いる。音源分離においては、仮定された音源について、各音源がどのような確率分布に従っているかをモデル化し、音源分離を行う。
以下では,<観測モデル>におけるNMFの基底について,(数16)のように,潜在変数{yn,kn,kを用いて各音源に自動に基底を割り当てるモデルについてのみ説明する。このときのモデルパラメータΘは(数20)で与えられる。詳細は省くが,(数15)の場合にも全く同様にして,音源分離方法を導出することができる。
モデルパラメータΘの推定は,(数21)の最適化問題を,たとえば一般化EMアルゴリズムで解くことによって達成される。一般化EMアルゴリズムにおける潜在変数は{zn,tn,t'、完全データは{xf,t,zn,tn,f,tである。
音源分離装置100の各部は,ステップS200において,モデルパラメータの初期化を行う。また,帯域分割決定部101は,ステップS200において,(数9)で定義された帯域分割Eを,分離対象信号の事前知識をもとに決定する。例えば、音源分離の対象となる音声信号を予め収録しておき、図3に示したような周波数の相関の計算を行い、所定閾値以上の相関を持つ周波数帯域を自動的に纏めることで,音源分離に適した周波数帯域分割を決めることが可能である。あるいは、予め作業者が図3に示すような表示を基にして、音源分離の対象となる複数種類の音声の其々に対して、マニュアルで領域を設定しておいてもよい。
周波数の相関は音源の種類(例えば、会話、音楽、雑踏の中)等で異なると考えられるため、周波数帯域分割のパターンは、音源の種類ごとに複数想定できる。すなわち、音源の種類の応じて、複数の帯域分割のパターンを準備することが可能である。例えば、会議、音楽、駅構内のように、予め収録した音声データをもとにして、それぞれのシチュエーション用の周波数帯域分割パターンを準備しておくことができる。
上記方法で準備された複数の帯域分割のパターンは記憶装置602に記録しておき、実際に音源分離を行う際に、音源分離する対象に応じて選択することができる。例えば,帯域分割決定部101は,会話や音楽など想定される音源ごとに,選択可能な帯域分割方法を出力装置604である表示装置に表示し,使用者が入力装置603により帯域分割方法を選択できるようにしても良い。
時間周波数領域変換部110は,短時間フーリエ変換などにより,マイクロホンを用いて観測した混合信号の時間周波数表現{xf,tf,tを計算して出力する(ステップS201)。
音源状態更新部120は,時間周波数領域変換部110が出力した観測信号の時間周波数表現{xf,tf,tと,後述のモデルパラメータ更新部130が出力する各モデルパラメータの推定値Θ’と,を用いて,各音源n∈[N]と各時間フレームt∈[NT]に対して,音源の状態がzn,t=c∈{0,1}であるという事後確率qn,t,cを計算して,モデルパラメータ更新部130に出力する(ステップS202)。このステップS202は,一般化EMアルゴリズムのEステップに対応する。
音源状態の事後確率{qn,t,cn,t,cは,更新式(数22)
Figure 2019074625
に基づき計算される。ここで,
Figure 2019074625
である。
モデルパラメータ更新部130は,時間周波数領域変換部110が出力する観測信号の時間周波数表現と,音源状態更新部120が出力する音源状態の事後確率{qn,t,cn,t,cとを用いて,モデルパラメータΘの値を更新する(ステップS203,ステップS204,ステップS205)。
ステップ S203とステップS204とステップS205は,一般化EMアルゴリズムのMステップに対応し,以下のように,混合重み更新部131と,NMFパラメータ更新部132と,分離フィルタ更新部133と,によって実行される。
一般化EMアルゴリズムのMステップでは,(数21)におけるコスト関数J(Θ)の上界を与えるQ(Θ)を計算し,次の(数24)の最小化問題を解くことを行う:
Figure 2019074625
ただし,
Figure 2019074625
とおいた.また,Q(Θ)において,定数項は省略した.このgn,F,t,cのことを,音源状態cにおけるコントラスト関数,あるいは,単に,コントラスト関数と呼ぶことにする。
補助関数に基づく最適化アルゴリズムを導出するために,コントラスト関数g(r)は,次の2つの条件(C1)と(C2)を満たすとする:
(C1)g:R>0 → Rは連続微分可能。
(C2)g'(r)/rは常に正の値をとり,かつ,単調非増加。
ここで,g'(r)は, g(r)のrに関する微分係数を表す。(数13)で与えられる複素変数の多変量指数べき分布は,βn,c≦1のとき,上の条件(C1)と(C2)を満たす。
(数24)におけるQ(Θ)の第一項に,(数13)と(数14)と(数16)を代入すると,
Figure 2019074625
と書き表される。ただし,定数項は省略した。
混合重み更新部131は,最適化問題(数24)の最小値を与えるπn,t,cを計算して出力する(ステップS203)。具体的には,
Figure 2019074625
を計算して出力する。
NMFパラメータ更新部132は,最適化問題(数24)に基づいて,モデルパラメータ{yn,k,uF,kk,tn,F,t,kを更新する(ステップS204)。ここでは,補助関数法を用いた更新式を与える。
パラメータ{yn,k,uF,kk,tn,F,t,kに関するQ(Θ)の補助関数Q+(Θ)として
Figure 2019074625
(数28)を導くことができる。また,等号は,
Figure 2019074625
のとき,またそのときに限って成立する。補助関数法では,「補助関数Q+(Θ)の計算」と「補助関数Q+(Θ)を最小化するようなパラメータ更新」を交互に繰り返すことで,もともとの目的関数Q(Θ)を最小化していく。
補助関数Q+(Θ)を用いると,パラメータ{yn,kn,kの更新式は,以下のように与えられる:
Figure 2019074625
ただし,(数30)によって更新した後に,Σnyn,k=1を満たすように,
Figure 2019074625
のように更新することにする。あるいは,
Figure 2019074625
のように更新してもよい。
また,パラメータ{uF,kk,tF,k,tの更新式は,以下のように与えられる:
Figure 2019074625
分離フィルタ更新部133は,最適化問題(数24)に基づいて,分離フィルタ{Wffを更新する(ステップ205)。ここでは,補助関数法を用いた更新式を与える。
パラメータ{Wffに関するQ(Θ)の補助関数Qw +(Θ)として
Figure 2019074625
を導くことができる。ここで,
Figure 2019074625
とおいた。ただし,g'c(r)は,gc(r)のrに関する微分である。
補助関数Qw +(Θ)を用いると,分離フィルタ{Wffの更新式は,以下のように与えられる:
Figure 2019074625
モデルパラメータ更新部130は,混合重み更新部131,NMFパラメータ更新部132,分離フィルタ更新部133において求めたモデルパラメータの推定値を出力する。
ステップS202からステップS205までの処理は,事前にユーザが設定した所定の更新回数に達したとき,あるいは,モデルパラメータ更新部130において各パラメータの値が収束するまで,反復して行う(ステップS206)。反復回数の最大値は100などに設定することができる。反復処理が終了したとき,モデルパラメータ更新部130は,推定した分離フィルタ{Wffを出力する。
また,反復処理が終了してモデルのパラメータが決定したとき,音源状態出力部160は,音源状態更新部120で求めた音源状態の事後確率{qn,t,cn,t,cを出力する。この事後確率を用いることで,各音源の有音区間だけを抽出することが可能となる。すなわち,本実施例における音源分離装置100は,音源分離と音源状態の推定とを同時に解決可能な装置である。
次に,時間周波数領域分離音計算部140について説明する。時間周波数領域分離音計算部140は,時間周波数領域変換部110が出力した観測信号の時間周波数表現{xf,tf,tと,モデルパラメータ更新部130が出力する分離フィルタ{Wffとを用いて,各時間周波数領域(f,t)における各音源n∈[N]の分離信号sn(f,t)を計算して出力する(ステップS207)。
時間領域変換部150は,各音源n∈[N]に対して,時間周波数領域の分離信号sn(f,t)を時間領域の分離信号に変換して出力する(ステップS208)。
図8および図9を用いて,第二実施形態に関わる音源分離装置300を説明する。第二実施形態の音源分離装置300は,図8における音源状態補正部320が加わることを除けば,図5に示した第一実施形態の音源分離装置100と同じ構成であるので,以下では,音源状態補正部320についてのみ説明し,他の説明を省略する。
また,図9に示した第二実施形態の処理フローも,音源状態(事後確率)の補正(ステップS400)が加わることを除けば,図7に示した第一実施形態の処理フローと同じであるため,以下では,音源状態(事後確率)の補正(ステップS400)についてのみ説明し,他の説明を省略する。
音源状態補正部320は,学習用データ貯蓄部321と音源状態補正部322とからなる。音源状態補正部320は,学習用データ貯蓄部321に保存された信号データを用いて,(数22)で表される音源状態の事後確率{qn,t,cn,t,cを補正するためのニューラルネットワークを事前に学習して,学習されたニューラルネットワークを保存する。
上記のニューラルネットワークの学習方法としては,音源状態の真値を(数37)で表すとき,
Figure 2019074625
Figure 2019074625
(数38)を満たすような写像fをニューラルネットワークによってモデル化し,学習用データを用いて写像fを学習すればよい。
音源状態補正部322は,音源状態補正部320に保存されたニューラルネットワークを用いて,音源状態更新部120が出力する音源状態の事後確率{qn,t,cn,t,cの補正値{q'n,t,cn,t,cを計算して,モデルパラメータ更新部130に出力する(ステップS400)。
ステップS206において反復処理が終了したとき,音源状態出力部160は,音源状態補正部320で求めた音源状態の事後確率の補正値{q'n,t,cn,t,cを出力する。
詳細は省略するが,音源状態の事後確率{qn,t,cn,t,cの代わりに,音源状態の事前確率である混合重み{πn,t,cn,t,cを,学習されたネットワークを用いて補正してもよい。
<プログラム及び記憶媒体>
本実施例の音源分離装置をコンピュータによって実現する場合,各装置が有する機能はプログラムによって記述される。そして,例えばROM,RAM,CPU等で構成されるコンピュータに所定のプログラムが読み込まれて,CPUがそのプログラムを実行することで実現される。
<ロボット,サイネージなどで実施>
本実施例の音源分離装置は,ロボットやサイネージといった装置,及びサーバと連携するいかなるシステムにおいて実施することができる。本実施例によれば,周波数成分の共起だけでは捉えられない複雑な時間周波数構造を有する信号に対して,あるいは,分布形状が複素正規分布とは大きく異なる信号に対して,あるいは,有音区間と無音区間が非定常に変化する信号に対して,高い分離性能を有する音源分離方法を提供することができる。
本実施例によれば,周波数成分の共起だけでは捉えられない複雑な時間周波数構造を有する信号に対して,高い分離性能を有する音源分離方法を提供することができる。
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることが可能である。また、各実施例の構成の一部について、他の実施例の構成の追加・削除・置換をすることが可能である。

Claims (13)

  1. 処理装置,記憶装置,入力装置,出力装置を備える情報処理装置により,モデル化された音源分布を用いて,前記入力装置から入力される音声信号の音源分離を行う音源分離方法であって,
    前記モデルが従う条件として,
    各音源は互いに独立であり,各音源の有するパワーを帯域分割された周波数帯域ごとにモデル化し,異なる周波数帯域間のパワーの関係については非負値行列分解によってモデル化し,前記音源の分割された成分は複素正規分布に従う,
    ことを特徴とする音源分離方法。
  2. 各音源の有するパワーを,周波数間の相関に基づいて帯域分割された周波数帯域ごとにモデル化する,
    請求項1記載の音源分離方法。
  3. 各音源の有するパワーを,入力される音声信号に対応した方法で帯域分割された周波数帯域ごとにモデル化する,
    請求項1記載の音源分離方法。
  4. 複数種類の帯域分割方法を準備して前記記憶装置に格納しておき,
    前記音声信号の音源分離を行う際に,前記入力装置からの入力によってその内の一つを選択する,
    請求項3記載の音源分離方法。
  5. 前記音源の分割された成分の分布は多変量指数べき分布に従う,
    請求項1記載の音源分離方法。
  6. 前記音源の状態によって音源の確率分布を切り替える,
    請求項1記載の音源分離方法。
  7. 前記音源が有音状態であるか無音状態であるかを表現するために,2値をとる潜在変数を導入して,音源の確率分布を表現する,
    請求項6記載の音源分離方法。
  8. 音源状態の事前確率および事後確率の少なくとも一つの推定値を,最適化の各反復において、ディープニューラルネットワークを用いて補正する,
    請求項1記載の音源分離方法。
  9. 処理装置,記憶装置,入力装置,出力装置を備え,モデル化された音源分布を用いて,前記入力装置から入力される音声信号の音源分離を行う音源分離装置であって,
    前記モデルが従う条件として,
    各音源は互いに独立であり,各音源の有するパワーを帯域分割された周波数帯域ごとにモデル化し,異なる周波数帯域間のパワーの関係については非負値行列分解によってモデル化し,前記音源の分割された成分は複素正規分布に従う,
    ことを特徴とする音源分離装置。
  10. 選択可能な複数種類の帯域分割方法を前記出力装置に表示し,前記入力装置により帯域分割方法を選択可能とする、帯域分割決定部を備える、
    請求項9記載の音源分離装置。
  11. 前記帯域分割方法と前記入力装置から入力される音声信号の時間周波数表現を用いて,前記モデルのパラメータを更新するモデルパラメータ更新部と,
    前記入力装置から入力される音声信号の時間周波数表現と,前記モデルパラメータ更新部が出力する前記モデルのパラメータを用いて,前記音源の状態を表す事後確率を計算する音源状態更新部と,を備える,
    請求項10記載の音源分離装置。
  12. 前記モデルパラメータ更新部は,前記音源状態更新部が出力する事後確率も用いて,前記モデルのパラメータを更新する,
    請求項11記載の音源分離装置。
  13. 前記モデルパラメータ更新部の反復処理が終了したとき,前記音源状態更新手段部で計算した前記事後確率を出力する音源状態出力部を備える,
    請求項12記載の音源分離装置。
JP2017200108A 2017-10-16 2017-10-16 音源分離方法および音源分離装置 Active JP6976804B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017200108A JP6976804B2 (ja) 2017-10-16 2017-10-16 音源分離方法および音源分離装置
US16/118,986 US10720174B2 (en) 2017-10-16 2018-08-31 Sound source separation method and sound source separation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200108A JP6976804B2 (ja) 2017-10-16 2017-10-16 音源分離方法および音源分離装置

Publications (2)

Publication Number Publication Date
JP2019074625A true JP2019074625A (ja) 2019-05-16
JP6976804B2 JP6976804B2 (ja) 2021-12-08

Family

ID=66096046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200108A Active JP6976804B2 (ja) 2017-10-16 2017-10-16 音源分離方法および音源分離装置

Country Status (2)

Country Link
US (1) US10720174B2 (ja)
JP (1) JP6976804B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042266A (ja) * 2018-09-07 2020-03-19 南京地平▲線▼机器人技▲術▼有限公司Nanjing Horizon Robotics Technology Co., Ltd. ブラインド信号分離のための方法、装置及び電子デバイス
WO2021033296A1 (ja) * 2019-08-21 2021-02-25 日本電信電話株式会社 推定装置、推定方法及び推定プログラム
WO2022130445A1 (ja) * 2020-12-14 2022-06-23 日本電信電話株式会社 音源信号生成装置、音源信号生成方法、プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102093822B1 (ko) * 2018-11-12 2020-03-26 한국과학기술연구원 음원 분리 장치
US10937418B1 (en) * 2019-01-04 2021-03-02 Amazon Technologies, Inc. Echo cancellation by acoustic playback estimation
US11270712B2 (en) 2019-08-28 2022-03-08 Insoundz Ltd. System and method for separation of audio sources that interfere with each other using a microphone array
CN111009257B (zh) * 2019-12-17 2022-12-27 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质
CN111429934B (zh) * 2020-03-13 2023-02-28 北京小米松果电子有限公司 音频信号处理方法及装置、存储介质
CN114220453B (zh) * 2022-01-12 2022-08-16 中国科学院声学研究所 基于频域卷积传递函数的多通道非负矩阵分解方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014041308A (ja) * 2012-08-23 2014-03-06 Toshiba Corp 信号処理装置、方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5991115B2 (ja) * 2012-09-25 2016-09-14 ヤマハ株式会社 音声マスキングのための方法、装置およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014041308A (ja) * 2012-08-23 2014-03-06 Toshiba Corp 信号処理装置、方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RINTARO IKESHITA, YOHEI KAWAGUCHI, ET AL.: "Independent vector analysis with frequency range division and prior switching", 2017 25TH EUROPEAN SIGNAL PROCESSING CONFERENCE (EUSIPCO), JPN6021003002, 28 August 2017 (2017-08-28), pages 2329 - 2333, XP033236355, ISSN: 0004439368, DOI: 10.23919/EUSIPCO.2017.8081626 *
北村 大地、小野 順貴、澤田 宏、亀岡 弘和、猿渡 洋: "独立低ランク行列分析に基づくブラインド音源分離", 電子情報通信学会技術研究報告 VOL.117 NO.255, vol. 第117巻,第225号, JPN6021003001, 14 October 2017 (2017-10-14), JP, pages 73 - 80, ISSN: 0004439367 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042266A (ja) * 2018-09-07 2020-03-19 南京地平▲線▼机器人技▲術▼有限公司Nanjing Horizon Robotics Technology Co., Ltd. ブラインド信号分離のための方法、装置及び電子デバイス
WO2021033296A1 (ja) * 2019-08-21 2021-02-25 日本電信電話株式会社 推定装置、推定方法及び推定プログラム
JPWO2021033296A1 (ja) * 2019-08-21 2021-02-25
JP7243840B2 (ja) 2019-08-21 2023-03-22 日本電信電話株式会社 推定装置、推定方法及び推定プログラム
WO2022130445A1 (ja) * 2020-12-14 2022-06-23 日本電信電話株式会社 音源信号生成装置、音源信号生成方法、プログラム

Also Published As

Publication number Publication date
US20190115043A1 (en) 2019-04-18
JP6976804B2 (ja) 2021-12-08
US10720174B2 (en) 2020-07-21

Similar Documents

Publication Publication Date Title
JP6976804B2 (ja) 音源分離方法および音源分離装置
JP3949150B2 (ja) 信号分離方法、信号分離装置、信号分離プログラム及び記録媒体
JP6434657B2 (ja) 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
US20140156575A1 (en) Method and Apparatus of Processing Data Using Deep Belief Networks Employing Low-Rank Matrix Factorization
CN103578462A (zh) 语音处理系统
Yu et al. Context adaptive training with factorized decision trees for HMM-based statistical parametric speech synthesis
JP6517760B2 (ja) マスク推定用パラメータ推定装置、マスク推定用パラメータ推定方法およびマスク推定用パラメータ推定プログラム
JP6538624B2 (ja) 信号処理装置、信号処理方法および信号処理プログラム
JP2013068938A (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
JP5726790B2 (ja) 音源分離装置、音源分離方法、およびプログラム
JP5881454B2 (ja) 音源ごとに信号のスペクトル形状特徴量を推定する装置、方法、目的信号のスペクトル特徴量を推定する装置、方法、プログラム
KR20110012946A (ko) 소리의 복원 방법, 소리의 복원 방법을 기록한 기록매체 및 소리의 복원 방법을 수행하는 장치
JP6711765B2 (ja) 形成装置、形成方法および形成プログラム
Duong et al. Gaussian modeling-based multichannel audio source separation exploiting generic source spectral model
JP7112348B2 (ja) 信号処理装置、信号処理方法及び信号処理プログラム
JP6910609B2 (ja) 信号解析装置、方法、及びプログラム
JP6290803B2 (ja) モデル推定装置、目的音強調装置、モデル推定方法及びモデル推定プログラム
JP6636973B2 (ja) マスク推定装置、マスク推定方法およびマスク推定プログラム
JP2018028620A (ja) 音源分離方法、装置およびプログラム
JP6734237B2 (ja) 目的音源推定装置、目的音源推定方法及び目的音源推定プログラム
JP7047665B2 (ja) 学習装置、学習方法及び学習プログラム
JP2018040880A (ja) 音源分離装置、音源分離方法及び音源分離プログラム
Sprechmann et al. Supervised non-negative matrix factorization for audio source separation
JP2019028406A (ja) 音声信号分離装置、音声信号分離方法及び音声信号分離プログラム
JP2019105681A (ja) 推定装置、推定方法および推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211110

R150 Certificate of patent or registration of utility model

Ref document number: 6976804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150