JP7131424B2 - 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム - Google Patents

信号処理装置、学習装置、信号処理方法、学習方法及びプログラム Download PDF

Info

Publication number
JP7131424B2
JP7131424B2 JP2019026853A JP2019026853A JP7131424B2 JP 7131424 B2 JP7131424 B2 JP 7131424B2 JP 2019026853 A JP2019026853 A JP 2019026853A JP 2019026853 A JP2019026853 A JP 2019026853A JP 7131424 B2 JP7131424 B2 JP 7131424B2
Authority
JP
Japan
Prior art keywords
auxiliary information
acoustic signal
input
learning
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019026853A
Other languages
English (en)
Other versions
JP2020134657A (ja
Inventor
翼 落合
マーク デルクロア
慶介 木下
厚徳 小川
智広 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019026853A priority Critical patent/JP7131424B2/ja
Priority to PCT/JP2020/005332 priority patent/WO2020170907A1/ja
Priority to US17/431,347 priority patent/US11978471B2/en
Publication of JP2020134657A publication Critical patent/JP2020134657A/ja
Application granted granted Critical
Publication of JP7131424B2 publication Critical patent/JP7131424B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、複数音源の音響信号が混合された混合音響信号から、音源毎の音響信号に分離したり、特定音源の音響信号を抽出したりする信号処理技術に関する。
近年、モノラル音声を対象とした話者分離技術の研究が盛んに行われている。話者分離技術には、事前情報を用いないブラインド音源分離(非特許文献1)と、話者の音声に関する補助情報を用いた目的話者抽出(非特許文献2)の大きく2つの手法が知られている。
ブラインド音源分離は、事前情報なしで話者分離が可能であるという利点があるが、発話間でパーミュテーション問題が生じるという問題点がある。ここでパーミュテーション問題とは、処理対象の長時間の音声を単位時間毎にブラインド音源分離で処理をしていく際に、各時間区間において分離信号の音源の順序が異なってしまう(入れ替わってしまう)問題である。
また、目的話者抽出では、補助情報を用いて話者をトラッキングすることで、ブラインド音源分離において発生する発話間のパーミュテーション問題を解決できる可能性があるが、混合音声に含まれる話者が事前に分からない場合には、手法そのものを適用できないという問題点が存在する。
上記のように、ブラインド音源分離と目的話者抽出はそれぞれ利点及び問題点を有するため、状況に応じて両者を使い分ける必要がある。しかし、これまでブラインド音源分離と目的話者抽出はそれぞれ目的に応じてモデル学習が行われ、独立したシステムとして構築されてきた。そのため、1つのモデルで両者を使い分けることができなかった。
以上の問題に鑑み、本発明は、ブラインド音源分離と目的話者抽出とを統合的に扱うための手法を提供することを目的とする。
本発明の一形態に係る信号処理装置は、
ニューラルネットワークを用いて、入力された混合音響信号を複数の第1内部状態に変換する変換部と、
目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成する重み付け部と、
ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するマスク推定部と、
を有することを特徴とする。
また、本発明の一形態に係る学習装置は、
ニューラルネットワークを用いて、入力された学習用の混合音響信号を複数の第1内部状態に変換する変換部と、
目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成する重み付け部と、
ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するマスク推定部と、
前記学習用の混合音響信号に対して前記推定されたマスクを適用して得られる音響信号と、前記学習用の混合音響信号に含まれる正解の音源の音響信号との比較結果に基づいて、前記変換部、前記重み付け部及び前記マスク推定部のそれぞれにおいて用いられるニューラルネットワークのパラメータを更新するパラメータ更新部と、
を有することを特徴とする。
また、本発明の一形態に係る信号処理方法は、
信号処理装置が実行する信号処理方法であって、
ニューラルネットワークを用いて、入力された混合音響信号を複数の第1内部状態に変換するステップと、
目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成するステップと、
ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するステップと、
を有することを特徴とする。
また、本発明の一形態に係る学習方法は、
学習装置が実行する学習方法であって、
ニューラルネットワークを用いて、入力された学習用の混合音響信号を複数の第1内部状態に変換するステップと、
目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成するステップと、
ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するステップと、
前記学習用の混合音響信号に対して前記推定されたマスクを適用して得られる音響信号と、前記学習用の混合音響信号に含まれる正解の音源の音響信号との比較結果に基づいて、前記変換するステップ、前記生成するステップ及び前記推定するステップのそれぞれにおいて用いられるニューラルネットワークのパラメータを更新するステップと、
を有することを特徴とする。

また、本発明の一形態に係るプログラムは、上記の装置としてコンピュータを機能させることを特徴とする。
本発明によれば、ブラインド音源分離と目的話者抽出とを統合的に扱うことが可能になる。
本発明の実施例におけるシステム構成例を示す図である。 従来のブラインド音源分離を行うニューラルネットワークの構成を示す図である。 本発明の実施例における信号処理装置の原理を説明するための図(その1)である。 本発明の実施例における信号処理装置の原理を説明するための図(その2)である。 本発明の実施例における信号処理装置の構成を示す図である。 信号処理装置の変換部の構成を示す図である。 本発明の実施例における学習装置の構成を示す図である。 本発明の実施例の評価結果を示す図である。 本発明の実施例における各装置のハードウェア構成例を示す図である。
以下、図面を参照して本発明の実施例について説明する。
図1は、本発明の実施例におけるシステム構成例を示す図である。図1において、マイクMICは、複数の音源(以下、少なくとも一部の音源を話者とも言う)Y1~YLからの音響信号(音声等)を収音することができる。マイクMICは、収音された音声を混合音声信号Yとして信号処理装置100に出力する。なお、以下で「音声」と称している信号は、人の声に限るものではなく、特定の音源が発する音響信号を意味するものとする。つまり、混合音声信号は、複数の音源からの音響信号が混合された混合音響信号であってもよい。また、本実施例の信号処理装置100は、マイクで収音した音声を直接、信号処理装置100に入力する場合に限定されるものではなく、例えば、マイク等により収音した音声がメディアやハードディスク等に記憶されており、その記憶された音声信号を信号処理装置100に読み込むことで実行される形式であってもよい。
信号処理装置100は、混合音声信号Yを入力として受け取り、事前情報なしに特定の音源の信号を分離(ブラインド音源分離)することができ、また、目的とする話者(以下、目的話者と呼ぶ)の音声に関する補助情報を用いて特定の音源の信号を抽出(目的話者抽出)することもできる装置である。上述の通り、目的話者は『目的とする音源』であれば人に限るものではないので、補助情報は目的とする音源が発する音響信号に関する補助情報を意味する。信号処理装置100は、特定の音源の信号を分離したり抽出したりするためにマスクを用いる。信号処理装置100は、マスクを推定するために双方向長短期記憶(BLSTM:bi-directional long short-term memory)等のニューラルネットワークを利用する。
ここで、音源数が2の場合を例に挙げて非特許文献1のブラインド音源分離について説明する。
図2は、非特許文献1の従来のブラインド音源分離を行うニューラルネットワークの構成を示す図である。従来のブラインド音源分離では、入力された混合音声信号Yを複数のBLSTM層により内部状態に変換し、最後に混合音声信号に含まれる音源数(ここでは2個)分だけ用意された線形変換層(LINEAR+SIGMOID)により、内部状態をそれぞれ線形変換することで各音源に対応するマスクM1、M2を得る。なお、線形変換層では、内部状態を線形変換した後、シグモイド関数を適用することで出力情報を決定する。
次に、本発明の実施例における信号処理装置100の原理について説明する。
図3及び図4は、本発明の実施例における信号処理装置100の原理を説明するための図である。
ブラインド音源分離と目的話者抽出とを統合的に扱うためには、ブラインド音源分離の枠組みの中に目的話者抽出の機能を取り込む必要がある。そのために、図2においてニューラルネットワークの後段部分におかれていた音源毎に分離して線形変換を行う線形変換層を、図3のようにニューラルネットワークの前半部分の変換部に移動させることを考える。後述するように、変換部は混合音声信号Yをニューラルネットワークにより変換し、分離された信号に対応する内部状態Z1、Z2に変換する。内部状態の数は混合音声信号Yに含まれると想定される最大の音源数(ここでは2)以上とすることが好ましい。このとき、線形変換層以降のマスク推定部におけるBLSTM層と線形変換層は共有化することができる。
さらに、図4のように、変換部とマスク推定部の間に重み付け部(ATTENTION層)を追加し、目的話者の音声に関する補助情報Xs AUXに応じて内部状態を変換するような構成とする。補助情報Xs AUXが入力された場合には、重み付け部は、入力された補助情報に基づいて複数の内部状態Z1、Z2から目的話者に対応する内部状態をZs ATTとして求めて後段のマスク推定部を実行させることで、目的話者抽出のためのマスクを推定させることが可能となる。また、補助情報が入力されない場合には、重み付け部はZs ATTをZ1として後段のマスク推定部を実行させ、同様にZs ATTをZ2として後段のマスク推定部を実行させることで、ブラインド音源分離のマスクを推定させることが可能となる。つまり、補助情報の有無に応じて内部状態を変換することで、ブラインド音源分離と目的話者抽出を切り替えて使うことが可能となる。
以下に説明するように、信号処理装置100の変換部、重み付け部及びマスク推定部のそれぞれはニューラルネットワークを用いて構成される。信号処理装置100は、学習時には、予め用意された学習用データ(個別の音源からの正解の音声信号が知られているものとする)を用いて、ニューラルネットワークのパラメータを学習させる。信号処理装置100は、運用時には、学習時に学習されたパラメータ設定済みのニューラルネットワークを用いて、マスクを計算する。
なお、信号処理装置100におけるニューラルネットワークのパラメータの学習は別の装置で行われても、同じ装置で行われてもよい。以下の実施例では、ニューラルネットワークの学習が学習装置という別の装置で行われるものとして説明する。
<実施例1:信号処理装置>
実施例1では、話者の音声に関する補助情報の有無に応じて、ブラインド音源分離と目的話者抽出とを統合的に扱うための信号処理装置100について説明する。
図5は、本発明の実施例における信号処理装置100の構成を示す図である。信号処理装置100は、変換部110と、補助情報入力部120と、重み付け部130と、マスク推定部140とを有する。変換部110、重み付け部130、及びマスク推定部140がそれぞれニューラルネットワークの層(複数層)に対応する。ニューラルネットワークの各パラメータは、予め用意された学習用データを用いて後述の学習装置により予め学習されているものとし、具体的には、学習用データに対してマスク推定部140で推定されたマスクを適用して得られる音声信号と、学習用データに含まれる正解の音声信号との誤差が小さくなるように学習されているものとする。
〔変換部〕
変換部110は、混合音声信号を入力とし、I個の内部状態を表すベクトルZ1~ZIを出力するニューラルネットワークである。ここでIは入力混合音声に含まれる音源数以上とすることが好ましい。ニューラルネットワークの種類は特に限定されるものではないが、例えば、非特許文献1及び2に記載のBLSTMが用いられてもよい。以下の説明では、BLSTMを例に挙げて説明する。
具体的には、変換部110は図6のような層から構成される。まず、BLSTM層により、入力された混合音声信号を内部状態Zに変換する。次に、内部状態ZをI個の線形変換層(第1LINEAR層~第I-LINEAR層)によりそれぞれ異なる線形変換を行い、I個の内部状態である埋め込みベクトルZ1~ZIを得る。ここで、t(t=1,…,T)を処理対象の時間フレームのインデックスとすると、埋め込みベクトルZ1~ZIはZi={zit}t=1 T(i=1,…,I)のように表現できる。
〔補助情報入力部〕
補助情報入力部120は、目的話者抽出を行う場合に、目的話者の音声に関する補助情報Xs AUXを入力とし、重み付け部130に対して補助情報Xs AUXを出力する入力部である。
補助情報入力部120には、目的話者抽出を行う場合には、目的話者の音声の特徴を表す補助情報Xs AUXが入力される。ここで、sは目的話者を表すインデックスである。例えば、補助情報Xs AUXは、例えば、非特許文献2に記載の目的話者の音声信号を短時間フーリエ変換(STFT:short-time Fourier transform)等で特徴抽出することによって得られたベクトルA(s)(t,f)を変換して得た話者ベクトル等を用いてもよい。目的話者抽出を行わない場合(すなわち、ブラインド音源分離を行う場合)には、補助情報入力部120には何も入力されない。
〔重み付け部〕
重み付け部130は、変換部110から出力された内部状態Z1~ZIを入力とするとともに、目的話者抽出を行う場合には補助情報入力部120から出力された補助情報Xs AUXを入力とし、マスク推定のための内部状態Zs ATT={zt ATT}t=1 Tを出力する処理部である。上記の通り、t(t=1,…,T)は処理対象の時間フレームのインデックスである。
重み付け部130は、補助情報Xs AUXの有無に応じて、入力されたI個の内部状態Z1~ZIを重み付けすることにより、内部状態zt ATTを得て出力する。例えば、I=2の場合は、補助情報の有無に応じてアテンション重みatを以下のように設定する。
Figure 0007131424000001
ここで、MLPAttentionは、内部状態Ziと補助情報Xs AUXとに基づいてI次元の重みベクトルを得るためのニューラルネットワークである。ニューラルネットワークの種類は特に限定されるものではないが、例えば、多層パーセプトロン(MLP:multilayer perceptron)が用いられてもよい。
次に、重み付け部130は以下により内部状態zt ATTを得る。
Figure 0007131424000002
つまり、アテンション重みatはI次元のベクトルであって、補助情報が入力されない場合には、アテンション重みatをi(i=1,2,3,…,I)番目の要素のみが1で、その他の要素が0となるような単位ベクトルとする。そして、重み付け部130は、I個の内部状態Z1~ZIにアテンション重みatを適用することでi番目の内部状態Ziを選択して内部状態zt ATTとして出力する。アテンション重みatとしてI個の単位ベクトルをそれぞれ設定することで、混合音声に含まれる全ての話者の音声をブラインドな形で分離するマスクを推定させることが可能となる。言い換えれば、補助情報が入力されない場合には、重み付け部130は、I個の内部状態Z1~ZIのいずれか1つを選択する演算(hard alighment)を実行することになる。
補助情報が入力された場合は、内部状態Zi及び補助情報Xs AUXに基づいて推定されたアテンション重みatを用いる。重み付け部130は、I個の内部状態Z1~ZIにアテンション重みatを適用することで、I個の内部状態Z1~ZIから目的話者sに対応する内部状態を計算し、zt ATTとして出力する。言い換えれば、補助情報が入力された場合は、重み付け部130は、補助情報Xs AUXに基づいて、I個の内部状態Z1~ZIの重み付け和(soft alignment)により、内部状態zt ATTを得て出力する。
なお、この重み付け部130において各内部状態に乗ずる重みは時刻毎に異なる。つまり、重み付け部130は、時刻毎に重み付け和の算出(hard alignmentもしくはsoft alignment)を行う。
アテンション重みの推定には、例えばDzmitry Bahdanau, etc., "Neural machine translation by jointly learning to align and translate", Proc on ICLR, 2015に開示されているMLP attentionを用いることができる。ここでは、MLP attentionの構成として、キーをFeature(Zi)、クエリをFeature(Xs AUX)、バリューをZiと設定した。なお、Feature(・)は、入力された系列・から特徴抽出を行うMLPを表す。
〔マスク推定部〕
マスク推定部140は、重み付け部130から出力された内部状態ZATT(時刻毎の内部状態zt ATTを並べた時系列情報)を入力とし、マスクを出力するニューラルネットワークである。ニューラルネットワークの種類は特に限定されるものではないが、例えば、非特許文献1及び2に記載のBLSTMが用いられてもよい。
マスク推定部140は、例えば、BLSTMと全結合層により構成され、内部状態ZATTを時間周波数マスクMATTに変換して出力する。
<実施例2:学習装置>
実施例2では、実施例1の信号処理装置100を構成するニューラルネットワークのパラメータを学習させる学習装置200について説明する。
図7は、本発明の実施例における学習装置200の構成を示す図である。学習装置200は、変換部210と、補助情報入力部220と、重み付け部230と、マスク推定部240と、パラメータ更新部250とを有する。変換部210、補助情報入力部220、重み付け部230、及びマスク推定部240の機能は実施例1と同じである。
ニューラルネットワークのパラメータを学習させるための学習用データとして、混合音声信号と、当該混合音声信号に含まれる各音源のクリーン信号(すなわち、正解の音声信号)と、目的話者の音声に関する補助情報(存在する場合と存在しない場合がある)を対応付けたデータの集合が与えられるものとする。
学習用データの中の混合音声信号及び補助情報を入力として、変換部210、重み付け部230、及びマスク推定部240が実施例1と同様の処理を行うことで、マスクの推定値が得られる。ただし、ニューラルネットワークの各パラメータには適当な初期値を設定しておくものとする。
〔パラメータ更新部〕
パラメータ更新部250は、マスク推定部240から出力されたマスクと学習用データを入力として、ニューラルネットワークの各パラメータを出力する処理部である。
パラメータ更新部250は、学習用データの中の入力混合音声信号にマスク推定部240で推定したマスクを適用して得られる音声信号と、学習用データの中のクリーン信号との比較結果に基づいて、変換部210、重み付け部230、及びマスク推定部240におけるニューラルネットワークの各パラメータを誤差逆伝播法等により更新する。
ニューラルネットワークの各パラメータの更新のため、パラメータ更新部250は、補助情報を用いないブラインド音源分離と、補助情報を用いる目的話者抽出との双方の損失を考慮したマルチタスク学習を行う。例えば、補助情報を用いないブラインド音源分離のための損失関数をLuninfoとし、補助情報を用いた目的話者抽出のための損失関数をLinfoとし、εを所定の補間係数(予め値を設定しておくものとする)として、マルチタスク学習に基づく損失関数Lmultiを以下のように定義し、これに基づいてパラメータ更新部250は誤差逆伝播学習を行う。
Lmulti=εLuninfo+(1-ε)Linfo
パラメータ更新部250は、誤差が閾値より小さくなるという収束条件等の所定の条件を満たすまで、マスクの推定とパラメータの更新を繰り返し、最終的に得られたパラメータを学習済みのニューラルネットワークパラメータとして用いる。
<本発明の実施例の効果>
本発明の実施例における信号処理装置100は、先に入力混合音声信号を複数の内部状態に分離した後、補助情報の有無に応じて、複数の内部状態の何れかを選択するか、複数の内部状態の重み付け和である内部状態を生成するかの何れかを行った後、選択又は生成された内部状態を変換することでマスクの推定を行う。そのため、1つのニューラルネットワークのモデルを用いて、ブラインド音源分離と目的話者抽出を切り替えて行うことが可能となる。
また、本発明の実施例における学習装置200は、ブラインド音源分離と目的話者抽出の双方の損失を考慮したマルチタスク学習を行う。そのため、個別の学習よりも良い分離性能を持つ信号処理装置を学習できる。
本発明の実施例における信号処理装置100の性能を評価するため、実験データセットを用いて、ブラインド音源分離手法であるPIT(Permutation Invariant Training)と、目的話者抽出手法であるSpeakerBeamと、本発明の実施例(本方式)との性能評価を行った。3つの手法のいずれも3層のBLSTMに基づくニューラルネットワーク構造を使用した。図8は、本発明の実施例の評価結果を示す図であり、未処理の混合音声信号と、3つの手法のSDR(Signal to Distortion Ratio)(dB単位)を示す。図8から、補助情報を用いない場合、本発明の実施例はマルチタスク学習の効果によってPITと比較してより良い分離性能を示していることが分かる。また、補助情報を用いる場合であっても、その用途に特化して設計されたSpeakerBeamと同等の分離性能を示していることが分かる。
<ハードウェア構成例>
図9に、本発明の実施例における各装置(信号処理装置100、学習装置200)のハードウェア構成例を示す。各装置は、CPU(Central Processing Unit)151等のプロセッサ、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリ装置152、ハードディスク等の記憶装置153等から構成されたコンピュータでもよい。例えば、各装置の機能及び処理は、記憶装置153又はメモリ装置152に格納されているデータやプログラムをCPU151が実行することによって実現される。また、各装置に必要な情報は、入出力インタフェース装置154から入力され、各装置において求められた結果は、入出力インタフェース装置154から出力されてもよい。
<補足>
説明の便宜上、本発明の実施例に係る信号処理装置及び学習装置は機能的なブロック図を用いて説明しているが、本発明の実施例に係る信号処理装置及び学習装置は、ハードウェア、ソフトウェア又はそれらの組み合わせで実現されてもよい。例えば、本発明の実施例は、コンピュータに対して本発明の実施例に係る信号処理装置及び学習装置の機能を実現させるプログラム、コンピュータに対して本発明の実施例に係る方法の各手順を実行させるプログラム等により、実現されてもよい。また、各機能部が必要に応じて組み合わせて使用されてもよい。また、本発明の実施例に係る方法は、実施例に示す順序と異なる順序で実施されてもよい。
以上、ブラインド音源分離と目的話者抽出とを統合的に扱うための手法について説明したが、本発明は、上記の実施例に限定されることなく、特許請求の範囲内において、種々の変更・応用が可能である。
100 信号処理装置
110 変換部
120 補助情報入力部
130 重み付け部
140 マスク推定部
200 学習装置
210 変換部
220 補助情報入力部
230 重み付け部
240 マスク推定部
250 パラメータ更新部

Claims (8)

  1. ニューラルネットワークを用いて、入力された混合音響信号を複数の第1内部状態に変換する変換部と、
    目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成する重み付け部と、
    ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するマスク推定部と、
    を有する信号処理装置。
  2. 記ニューラルネットワークのそれぞれは、予め用意された学習用の混合音響信号に対して前記マスク推定部によって推定されたマスクを適用して得られる音響信号と、前記学習用の混合音響信号に含まれる正解の音源の音響信号との誤差が小さくなるように学習されたものである、請求項1に記載の信号処理装置。
  3. 前記変換部は、前記入力された混合音響信号を、I個の第1内部状態に変換し、
    前記重み付け部は、前記補助情報が入力された場合、前記I個の第1内部状態に、前記I個の第1内部状態及び前記補助情報に基づいて推定されたI次元の重みベクトルを適用することによって第2内部状態を生成し、前記補助情報が入力されない場合、前記I個の第1内部状態に、i(i=1,…,I)番目の要素が1であり他の要素が0であるI次元の単位ベクトルを適用することによって第2内部状態を生成する、請求項1又は2に記載の信号処理装置。
  4. ニューラルネットワークを用いて、入力された学習用の混合音響信号を複数の第1内部状態に変換する変換部と、
    目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成する重み付け部と、
    ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するマスク推定部と、
    前記学習用の混合音響信号に対して前記マスク推定部によって推定されたマスクを適用して得られる音響信号と、前記学習用の混合音響信号に含まれる正解の音源の音響信号との比較結果に基づいて、前記変換部、前記重み付け部及び前記マスク推定部のそれぞれにおいて用いられるニューラルネットワークのパラメータを更新するパラメータ更新部と、
    を有する学習装置。
  5. 前記パラメータ更新部は、前記補助情報が入力された場合の損失と、前記補助情報が入力されない場合の損失との双方を考慮して、パラメータを更新する、請求項4に記載の学習装置。
  6. 信号処理装置が実行する信号処理方法であって、
    ニューラルネットワークを用いて、入力された混合音響信号を複数の第1内部状態に変換するステップと、
    目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成するステップと、
    ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するステップと、
    を有する信号処理方法。
  7. 学習装置が実行する学習方法であって、
    ニューラルネットワークを用いて、入力された学習用の混合音響信号を複数の第1内部状態に変換するステップと、
    目的音源の音響信号に関する補助情報が入力された場合、ニューラルネットワークを用いて、前記補助情報に基づいて前記複数の第1内部状態の重み付け和である第2内部状態を生成し、前記補助情報が入力されない場合、前記複数の第1内部状態のいずれかを選択することによって第2内部状態を生成するステップと、
    ニューラルネットワークを用いて、前記第2内部状態に基づいてマスクを推定するステップと、
    前記学習用の混合音響信号に対して前記推定されたマスクを適用して得られる音響信号と、前記学習用の混合音響信号に含まれる正解の音源の音響信号との比較結果に基づいて、前記変換するステップ、前記生成するステップ及び前記推定するステップのそれぞれにおいて用いられるニューラルネットワークのパラメータを更新するステップと、
    を有する学習方法。
  8. 請求項1乃至5のうちいずれか1項に記載の装置としてコンピュータを機能させるためのプログラム。
JP2019026853A 2019-02-18 2019-02-18 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム Active JP7131424B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019026853A JP7131424B2 (ja) 2019-02-18 2019-02-18 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム
PCT/JP2020/005332 WO2020170907A1 (ja) 2019-02-18 2020-02-12 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム
US17/431,347 US11978471B2 (en) 2019-02-18 2020-02-12 Signal processing apparatus, learning apparatus, signal processing method, learning method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026853A JP7131424B2 (ja) 2019-02-18 2019-02-18 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020134657A JP2020134657A (ja) 2020-08-31
JP7131424B2 true JP7131424B2 (ja) 2022-09-06

Family

ID=72144043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026853A Active JP7131424B2 (ja) 2019-02-18 2019-02-18 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム

Country Status (3)

Country Link
US (1) US11978471B2 (ja)
JP (1) JP7131424B2 (ja)
WO (1) WO2020170907A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022145015A1 (ja) * 2020-12-28 2022-07-07
EP4365897A1 (en) * 2021-06-29 2024-05-08 Sony Group Corporation Program, information processing method, recording medium, and information processing device
WO2023127057A1 (ja) * 2021-12-27 2023-07-06 日本電信電話株式会社 信号フィルタリング装置、信号フィルタリング方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017403A1 (ja) 2017-07-19 2019-01-24 日本電信電話株式会社 マスク計算装置、クラスタ重み学習装置、マスク計算ニューラルネットワーク学習装置、マスク計算方法、クラスタ重み学習方法及びマスク計算ニューラルネットワーク学習方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5328744B2 (ja) * 2010-10-15 2013-10-30 本田技研工業株式会社 音声認識装置及び音声認識方法
US11373672B2 (en) * 2016-06-14 2022-06-28 The Trustees Of Columbia University In The City Of New York Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments
US10839822B2 (en) * 2017-11-06 2020-11-17 Microsoft Technology Licensing, Llc Multi-channel speech separation
US11475908B2 (en) * 2020-09-29 2022-10-18 Mitsubishi Electric Research Laboratories, Inc. System and method for hierarchical audio source separation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017403A1 (ja) 2017-07-19 2019-01-24 日本電信電話株式会社 マスク計算装置、クラスタ重み学習装置、マスク計算ニューラルネットワーク学習装置、マスク計算方法、クラスタ重み学習方法及びマスク計算ニューラルネットワーク学習方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN, Xiuyi et al.,Distilled Binary Neural Network for Monaural Speech Separation,2018 International Joint Conference on Neural Networks (IJCNN),2018年07月,pp. 1-8,https://ieeexplore.ieee.org/document/8489456
DELCROIX, Marc et al.,SpeakerBeam: 聞きたい人の声に耳を傾けるコンピュータ―深層学習に基づく音声の選択的聴取,NTT技術ジャーナル,2018年09月,Vol. 30, No. 9,第12-15ページ,https://www.ntt.co.jp/journal/1809/files/JN20180912.pdf
Jahn Heymann, et al.,Neural Network Based Spectral Mask Estimation for Acoustic Beamforming,2016 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP),IEEE,2016年03月25日,196-200
Tsubasa Ochiai, et al.,Unified Architecture for Multichannel End-to-End Speech Recognition With Neural Beamforming,IEEE Journal of Selected Topics in Signal Processing,IEEE,2017年10月18日,Volume: 11, Issue: 8,1274-1288

Also Published As

Publication number Publication date
JP2020134657A (ja) 2020-08-31
US20220076690A1 (en) 2022-03-10
WO2020170907A1 (ja) 2020-08-27
US11978471B2 (en) 2024-05-07

Similar Documents

Publication Publication Date Title
CN110459237B (zh) 语音分离方法、语音识别方法及相关设备
US9668066B1 (en) Blind source separation systems
JP7337953B2 (ja) 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム
Zhang et al. Deep learning based binaural speech separation in reverberant environments
WO2020170907A1 (ja) 信号処理装置、学習装置、信号処理方法、学習方法及びプログラム
JP6543844B2 (ja) 音源同定装置および音源同定方法
JP2776848B2 (ja) 雑音除去方法、それに用いるニューラルネットワークの学習方法
JP2007526511A (ja) 周波数領域で多重経路多チャネル混合信号のブラインド分離のための方法及びその装置
KR20200145219A (ko) 잡음 환경에 강인한 화자 인식을 위한 심화신경망 기반의 특징 강화 및 변형된 손실 함수를 이용한 결합 학습 방법 및 장치
Kinoshita et al. Tackling real noisy reverberant meetings with all-neural source separation, counting, and diarization system
WO2022012206A1 (zh) 音频信号处理方法、装置、设备及存储介质
CN109410956A (zh) 一种音频数据的对象识别方法、装置、设备及存储介质
WO2019163736A1 (ja) マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム
US20210076129A1 (en) Low-latency speech separation
Nesta et al. A flexible spatial blind source extraction framework for robust speech recognition in noisy environments
KR102401959B1 (ko) 다채널 음향 신호를 이용한 심화 신경망 기반의 잔향 제거, 빔포밍 및 음향 인지 모델의 결합 학습 방법 및 장치
CN113870893A (zh) 一种多通道双说话人分离方法及系统
Tamura et al. Improvements to the noise reduction neural network
KR20180065761A (ko) 디지털 목소리 유전 요소에 기반한 사용자 적응형 음성 인식 시스템 및 방법
Baby et al. Speech dereverberation using variational autoencoders
KR20190141350A (ko) 로봇에서의 음성인식 장치 및 방법
Keyrouz et al. Robotic localization and separation of concurrent sound sources using self-splitting competitive learning
Zhang et al. End-to-end overlapped speech detection and speaker counting with raw waveform
KR101022457B1 (ko) Casa 및 소프트 마스크 알고리즘을 이용한 단일채널 음성 분리방법
Huemmer et al. Online environmental adaptation of CNN-based acoustic models using spatial diffuseness features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150