JP2021167850A - Signal processor, signal processing method, signal processing program, learning device, learning method and learning program - Google Patents
Signal processor, signal processing method, signal processing program, learning device, learning method and learning program Download PDFInfo
- Publication number
- JP2021167850A JP2021167850A JP2020070081A JP2020070081A JP2021167850A JP 2021167850 A JP2021167850 A JP 2021167850A JP 2020070081 A JP2020070081 A JP 2020070081A JP 2020070081 A JP2020070081 A JP 2020070081A JP 2021167850 A JP2021167850 A JP 2021167850A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- audio signal
- neural network
- adaptation
- target speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000013528 artificial neural network Methods 0.000 claims abstract description 98
- 238000006243 chemical reaction Methods 0.000 claims abstract description 70
- 230000006978 adaptation Effects 0.000 claims abstract description 54
- 230000005236 sound signal Effects 0.000 claims description 87
- 238000012545 processing Methods 0.000 claims description 72
- 230000003044 adaptive effect Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 abstract description 7
- 239000000203 mixture Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 11
- 230000010354 integration Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012946 outsourcing Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a signal processing device, a signal processing method, a signal processing program, a learning device, a learning method and a learning program.
複数の話者の音声から得られる混合音声信号から、目的話者の音声を抽出する技術としてスピーカービーム(SpeakerBeam)が知られている(例えば、非特許文献1を参照)。例えば、非特許文献1に記載の手法は、混合音声信号を周波数領域に変換し、周波数領域の混合音声信号から目的話者の音声を抽出するメインNN(neural network:ニューラルネットワーク)と、目的話者の音声信号から特徴量を抽出する補助NNとを有し、メインNNの中間部分に設けられた適応層に補助NNの出力を入力することで、周波数領域の混合音声信号に含まれる目的話者の音声信号を推定し、出力するものである。
A speaker beam is known as a technique for extracting the voice of a target speaker from a mixed voice signal obtained from the voices of a plurality of speakers (see, for example, Non-Patent Document 1). For example, the method described in
しかしながら、従来の手法には、混合音声信号から目的話者の音声信号を精度良く抽出することができない場合があるという問題がある。例えば、混合音声信号に含まれる音声信号の特徴が似ている場合、非特許文献1に記載された手法では、十分な精度が得られない場合がある。例えば、同性の複数の話者の音声から得られた音声信号の特徴は、互いに似ることがある。
However, the conventional method has a problem that the audio signal of the target speaker may not be accurately extracted from the mixed audio signal. For example, when the characteristics of the audio signals included in the mixed audio signal are similar, sufficient accuracy may not be obtained by the method described in
上述した課題を解決し、目的を達成するために、信号処理装置は、目的話者の発話から得られた時間領域の音声信号を適応用特徴量に変換する第1変換部と、複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、ニューラルネットワークにより、適応前特徴量に変換する第2変換部と、前記適応用特徴量を用いて前記適応前特徴量を前記目的話者に適応させた適応後特徴量を、1つ以上の層を備えたニューラルネットワークにより、出力用の情報に変換する第3変換部と、を有することを特徴とする。 In order to solve the above-mentioned problems and achieve the purpose, the signal processing device includes a first conversion unit that converts an audio signal in a time region obtained from the speech of the target speaker into an adaptive feature amount, and a plurality of sound sources. The second conversion unit that converts the multi-channel time region mixed voice signal obtained by recording the voice of the above into the pre-adaptation feature amount by the neural network, and the adaptation feature amount are used. It is characterized by having a third conversion unit that converts the post-adaptation feature amount adapted to the target speaker into information for output by a neural network having one or more layers. do.
本発明によれば、混合音声信号から目的話者の音声信号を精度良く抽出することができる。 According to the present invention, the audio signal of the target speaker can be accurately extracted from the mixed audio signal.
以下に、本願に係る信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。 Hereinafter, embodiments of a signal processing device, a signal processing method, a signal processing program, a learning device, a learning method, and a learning program according to the present application will be described in detail with reference to the drawings. The present invention is not limited to the embodiments described below.
[第1の実施形態]
図1は、第1の実施形態に係る信号処理装置の構成例を示す図である。図1に示すように、信号処理装置10は、第1補助NN11を実行するための処理部として、第1変換部111及び統合部112を有する。また、信号処理装置10は、メインNN12を実行するための処理部として、第2変換部121、適応部122及び第3変換部123を有する。また、信号処理装置10は、各ニューラルネットワークの重み及びバイアス等のパラメータをモデル情報15として記憶する。ここでモデル情報15として記憶されるパラメータの具体的な値は、後述の学習装置又は学習方法において予め学習させることで求めた情報を記憶しておけばよい。
[First Embodiment]
FIG. 1 is a diagram showing a configuration example of a signal processing device according to the first embodiment. As shown in FIG. 1, the
ここで、メインNN12は、混合音声信号から目的話者の音声信号を抽出するためのニューラルネットワークである。また、第1補助NN11は、メインNN12を目的話者に適応させるための適応用特徴量を得るためのニューラルネットワークである。
Here, the main NN12 is a neural network for extracting the audio signal of the target speaker from the mixed audio signal. The first
ここで、畳み込みブロックは、1次元の畳み込み及び正規化等を行うための層の集合である。また、エンコーダは、音声信号を所定の特徴空間にマッピング、すなわち音声信号を特徴量ベクトルに変換するニューラルネットワークである。逆に、デコーダは、所定の特徴空間上の特徴量を音声信号の空間にマッピングする、すなわち特徴量ベクトルを音声信号に変換するニューラルネットワークである。エンコーダ及びデコーダは、畳み込みブロックと同様の構成を有していてもよい。 Here, the convolution block is a set of layers for one-dimensional convolution, normalization, and the like. Further, the encoder is a neural network that maps the audio signal to a predetermined feature space, that is, converts the audio signal into a feature vector. On the contrary, the decoder is a neural network that maps the feature amount on the predetermined feature space to the space of the audio signal, that is, converts the feature amount vector into the audio signal. The encoder and decoder may have the same configuration as the convolution block.
畳み込みブロック(1-D Conv)、エンコーダ及びデコーダの構成は、参考文献1(Y. Luo and N. Mesgarani, “Conv-TasNet: Surpassing ideal time-frequency magnitude masking for speech separation,” IEEE/ACM Trans. ASLP, vol. 27, no. 8, pp. 1256-1266, 2019.)に記載の構成と同様であってもよい。また、時間領域の音声信号は、参考文献1に記載の方法により得られたものであってもよい。また、以降の説明における各特徴量は、ベクトルで表されるものとする。
The configuration of the convolution block (1-D Conv), encoder and decoder is described in Reference 1 (Y. Luo and N. Mesgarani, “Conv-TasNet: Surpassing ideal time-frequency magnitude masking for speech separation,” IEEE / ACM Trans. ASLP, vol. 27, no. 8, pp. 1256-1266, 2019.) may be the same as the configuration described. Further, the audio signal in the time domain may be obtained by the method described in
第1変換部111は、目的話者の発話から得られた時間領域の音声信号を、適応用特徴量に変換する。つまり、第1変換部111は、時間領域の音声信号の入力を受け付け、適応用特徴量を出力する。図1の例では、第1変換部111はニューラルネットワークにより実現するものとし、時間領域の音声信号をニューラルネットワークにより、適応用特徴量に変換する。以降の説明では、第1変換部111で用いられるニューラルネットワークを第1のニューラルネットワークと呼ぶ。第1のニューラルネットワークは、第1補助NN11の一部である。図1の例では、第1のニューラルネットワークには、エンコーダ及び畳み込みブロックが備えられている。適応用特徴量は、目的話者の埋め込みベクトルということができる。
The
なお、第1変換部111は図1の構成例のように、ニューラルネットワークに限定されるものではなく、例えば、i-vectorかx-vector等の周知の話者埋め込みベクトル(embeddingベクトル)を抽出する手法を用いてもよい。
The
また、統合部112は、適応用特徴量を複数時間フレームについて平均する。入力として与えられる目的話者の音声信号が短い発話であれば全ての時間フレームについて平均してもよいし、複数発話等の長時間の音声信号であれば、その一部の時間区間であって、第1変換部の処理単位である時間フレームよりも長い時間区間であればよい。つまり、統合部112は、平均化前の適応用特徴量の入力を受け付け、平均化した適応用特徴量を出力する。なお、統合部112は、複数の全結合層により構成されるものであってもよい。 In addition, the integration unit 112 averages the adaptive features for a plurality of time frames. Purpose given as input If the speaker's voice signal is a short utterance, it may be averaged for all time frames, and if it is a long-time voice signal such as multiple utterances, it is a part of the time interval. , The time interval may be longer than the time frame which is the processing unit of the first conversion unit. That is, the integration unit 112 receives the input of the adaptive feature amount before averaging and outputs the averaged adaptive feature amount. The integration unit 112 may be composed of a plurality of fully connected layers.
第2変換部121は、複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、ニューラルネットワークにより、適応前特徴量に変換する。つまり、第2変換部121は、マルチチャネルの時間領域の音声信号の入力を受け付け、適応前特徴量を出力する。以降の説明では、第2変換部121で用いられるニューラルネットワークを第2のニューラルネットワークと呼ぶ。第2のニューラルネットワークは、メインNN12の一部である。図1の例では、第2のニューラルネットワークには、エンコーダ及び畳み込みブロックが備えられている。
The
適応部122は、平均化した適応用特徴量を用いて適応前特徴量を目的話者に適応させた特徴量である適応後特徴量に変換する。つまり、適応用特徴量と適応前特徴量の入力を受け付け、適応後特徴量を出力する。適応部122は、従来のスピーカービームと同様の方法で目的話者への適応を行うことができる。例えば、適応部122は、いずれも同じ次元数のベクトルである適応用特徴量と適応前特徴量の、要素ごとの積(element-wise product)を計算することにより適応後特徴量を得ることができる。 The adaptation unit 122 converts the pre-adaptation feature amount into the post-adaptation feature amount which is the feature amount adapted to the target speaker by using the averaged adaptation feature amount. That is, the input of the feature amount for adaptation and the feature amount before adaptation is received, and the feature amount after adaptation is output. The adaptation unit 122 can adapt to the target speaker in the same manner as the conventional speaker beam. For example, the adaptation unit 122 can obtain the post-adaptation feature amount by calculating the product (element-wise product) of the adaptation feature amount and the pre-adaptation feature amount, which are all vectors having the same number of dimensions. can.
ここで、適応部122は、ニューラルネットワークにおける層、すなわち適応層として実現される。図1に示すように、メインNN12全体を見ると、適応層は、エンコーダに続く1番目の畳み込みブロックと2番目の畳み込みブロックとの間に挿入されている。 Here, the adaptation unit 122 is realized as a layer in the neural network, that is, an adaptation layer. As shown in FIG. 1, when looking at the entire main NN12, the adaptive layer is inserted between the first convolution block and the second convolution block following the encoder.
第3変換部123は、適応後特徴量を、ニューラルネットワークにより、出力用の情報に変換する。つまり、第3変換部123は、適応後特徴量の入力を受け付け、出力用の情報を推定結果として出力する。出力用の情報は、入力された混合音声中の目的話者の音声信号に対応する情報であり、音声信号そのものであってもよいし、音声信号を導出可能な所定の形式のデータであってもよい。以降の説明では、第3変換部123で用いられるニューラルネットワークを第3のニューラルネットワークと呼ぶ。第3のニューラルネットワークは、メインNN12の一部である。図1の例では、第3のニューラルネットワークには、1つ以上の畳み込みブロック及びデコーダが備えられている。 The third conversion unit 123 converts the post-adaptation feature amount into information for output by the neural network. That is, the third conversion unit 123 receives the input of the feature amount after adaptation, and outputs the output information as the estimation result. The information for output is information corresponding to the audio signal of the target speaker in the input mixed audio, may be the audio signal itself, or is data in a predetermined format from which the audio signal can be derived. May be good. In the following description, the neural network used in the third conversion unit 123 will be referred to as a third neural network. The third neural network is part of the main NN12. In the example of FIG. 1, the third neural network includes one or more convolution blocks and a decoder.
ここで、第3変換部123は、第2変換部121のエンコーダから出力される中間特徴量と、第3変換部123の畳み込みブロックから出力される中間特徴量とから推定結果を得ることができる。また、目的話者への適応が行われるため、第3変換部123は、混合音声信号を話者ごとに分離するだけでなく、目的話者の音声信号を抽出して出力することができる。
Here, the third conversion unit 123 can obtain an estimation result from the intermediate feature amount output from the encoder of the
図2を用いて、混合音声信号の元になる混合音声の収録方法を説明する。図2は、マイクロホン及び話者の配置例を示す図である。マイクロホンアレイ30は、マイクロホン301、マイクロホン302、マイクロホン303、マイクロホン304を有する。また、話者41は目的話者である。また、話者42は非目的話者である。
A method of recording the mixed voice that is the source of the mixed voice signal will be described with reference to FIG. FIG. 2 is a diagram showing an example of arrangement of a microphone and a speaker. The
マイクロホンアレイ30の各マイクロホンは、話者41及び話者42の両方の音声を収録する。その結果、マイクロホンアレイ30が収録した音声の音声信号は、各マイクロホンに対応するチャネルごとの音声信号として扱うことができる。第1の実施形態では、少なくとも2つのマイクロホンを備えたマイクロホンアレイによって収録された音声から得られた混合音声信号が用いられるものとする。なお、混合音声信号には、話者の発話によって生じる音声だけでなく、背景雑音等が含まれる場合がある。
Each microphone of the
一方、目的話者の音声信号は、目的話者である話者41の音声のみを収録することにより得られる。また、その場合マイクロホンは1つであってもよい。すなわち、目的話者の音声信号はシングルチャネルであってもよい。さらに、話者41の位置は、混合音声信号を得るための収録を行う場合と、目的話者の音声信号を得るための収録を行う場合とで異なっていてもよい。
On the other hand, the voice signal of the target speaker is obtained by recording only the voice of the
図3は、第1の実施形態に係る信号処理装置の処理の流れを示すフローチャートである。図3に示すように、信号処理装置10は、目的話者の音声信号及び混合音声信号の入力を受け付ける(ステップS11)。
FIG. 3 is a flowchart showing a processing flow of the signal processing apparatus according to the first embodiment. As shown in FIG. 3, the
信号処理装置10は、第1補助NN11を実行する(ステップS12)。また、信号処理装置10は、メインNN12を実行する(ステップS13)。ここで、信号処理装置10は、第1補助NN11とメインNN12を並行して実行してもよい。ただし、メインNN12には第1補助NN11の出力が使用されるため、第1補助NN11の実行が完了するまでは、メインNN12の実行は完了しない。
The
図4は、第1補助NNの処理の流れを示すフローチャートである。図4に示すように、第1変換部111は、入力された目的話者の時間領域の音声信号を適応用特徴量に変換する(ステップS121)。次に、統合部112は、適応用特徴量を時間フレームについて統合し出力する(ステップS122)。
FIG. 4 is a flowchart showing a processing flow of the first auxiliary NN. As shown in FIG. 4, the
図5は、メインNNの処理の流れを示すフローチャートである。図5に示すように、まず、第2変換部121は、入力された時間領域の混合音声信号を混合音声特徴量に変換する(ステップS131)。適応部122は、統合済みの適応用特徴量を用いて混合音声特徴量を目的話者に適応させた適応後特徴量を取得する(ステップS132)。第3変換部123は、適応後特徴量を音声信号に変換し出力する(ステップS133)。
FIG. 5 is a flowchart showing the processing flow of the main NN. As shown in FIG. 5, first, the
これまで説明してきたように、第1変換部111は、目的話者の発話から得られた時間領域の音声信号を、適応用特徴量に変換する。また、第2変換部121は、複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、第2のニューラルネットワークにより、適応前特徴量に変換する。また、第3変換部123は、適応用特徴量を用いて適応前特徴量を目的話者に適応させた適応後特徴量を、1つ以上の層を備えた第3のニューラルネットワークにより、出力用の情報に変換する。このように、信号処理装置10に入力される混合音声信号はマルチチャンネルである。このため、混合音声信号には、音声を収録した際の空間に関する情報が含まれていることになる。その結果、第1の実施形態によれば、シングルチャネルの混合音声信号を入力する場合に比べて、目的話者の音声信号を精度良く抽出することができるようになる。
As described above, the
[第2の実施形態]
第2の実施形態では、さらにIPD(Inter-microphone phase difference)特徴量を用いて空間に関する情報を取得する。以降の実施形態の説明においては、説明済みの実施形態と同様の機能を有する部には同じ符号を付し、適宜説明を省略する。
[Second Embodiment]
In the second embodiment, information about the space is further acquired by using the IPD (Inter-microphone phase difference) feature amount. In the following description of the embodiment, the same reference numerals are given to parts having the same functions as those of the above-described embodiment, and the description thereof will be omitted as appropriate.
IPD特徴量は、混合音声信号の各チャネルに対応するマイクロホン間の位相差に関する情報の一例である。IPD特徴量の要素を計算するための角度Φは、(1)式のように計算される。 The IPD feature is an example of information on the phase difference between microphones corresponding to each channel of the mixed audio signal. The angle Φ for calculating the element of the IPD feature is calculated as in Eq. (1).
ここで、Yi,t,fは、時間インデックスがt、周波数インデックスがfである場合の、混合音声信号のSTFT(short-time Fourier transform)のマイクロホンiに対応する係数である。さらに、IPD特徴量は、(2)式のように計算される。ただし、Fは周波数ビンの数である。また、∠は複素数表現された位相を表す。 Here, Y i, t, f are coefficients corresponding to the microphone i of the STFT (short-time Fourier transform) of the mixed audio signal when the time index is t and the frequency index is f. Further, the IPD feature amount is calculated as in Eq. (2). However, F is the number of frequency bins. In addition, ∠ represents the phase expressed in complex numbers.
なお、IPD特徴量を得るためのSTFTのウィンドウサイズ及びシフト幅は、メインNN12のエンコーダに応じて決定されるものであってもよい。 The window size and shift width of the STFT for obtaining the IPD feature amount may be determined according to the encoder of the main NN12.
図6は、第2の実施形態に係る信号処理装置の構成例を示す図である。図6に示すように信号処理装置10aは、第2補助NN13を実行するための第4変換部132を有する。また、信号処理装置10aは結合部122aを有する。また、信号処理装置10aは、各ニューラルネットワークの重み及びバイアス等のパラメータをモデル情報15aとして記憶する。
FIG. 6 is a diagram showing a configuration example of the signal processing device according to the second embodiment. As shown in FIG. 6, the
第4変換部132は、混合音声信号の各チャネルに対応するマイクロホン間の位相差に関する空間情報を、空間情報特徴量に変換する。つまり、第4変換部132は、空間情報の入力を受け付け、空間情報特徴量を出力する。例えば、空間情報はIPD特徴量である。また、第4変換部132を構成するニューラルネットワークには、畳み込みブロック及びアップサンプリングのための層が備えられている。空間情報特徴量は、畳み込みブロックによって得られた特徴量をアップサンプリングした上で、さらに畳み込みブロックによる変換が行われた特徴量ということができる。 The fourth conversion unit 132 converts the spatial information regarding the phase difference between the microphones corresponding to each channel of the mixed audio signal into the spatial information feature amount. That is, the fourth conversion unit 132 receives the input of spatial information and outputs the spatial information feature amount. For example, spatial information is an IPD feature. Further, the neural network constituting the fourth conversion unit 132 is provided with a convolution block and a layer for upsampling. The spatial information feature amount can be said to be a feature amount obtained by upsampling the feature amount obtained by the convolution block and then further converting by the convolution block.
結合部122aは、適応部122によって出力される適応後特徴量と空間情報特徴量とを結合させる。結合部122aは、単に、ベクトルである適応後特徴量の各要素の後に、ベクトルである空間情報特徴量の各要素が続くように結合してもよい。第3変換部123は、空間情報特徴量を結合させた適応後特徴量を、出力用の情報に変換する。
The
図7は、第2の実施形態に係る信号処理装置の処理の流れを示すフローチャートである。図7に示すように、信号処理装置10aは、目的話者の音声信号、混合音声信号及び空間情報の入力を受け付ける(ステップS21)。
FIG. 7 is a flowchart showing a processing flow of the signal processing apparatus according to the second embodiment. As shown in FIG. 7, the
信号処理装置10aは、第1補助NN11を実行する(ステップS22)。また、信号処理装置10aは、第2補助NN13を実行する(ステップS23)。また、信号処理装置10aは、メインNN12を実行する(ステップS24)。信号処理装置10aが第1補助NN11を実行する処理の流れは、図4で説明したものと同様である。
The
図8は、第2補助NNの処理の流れを示すフローチャートである。図8に示すように、第4変換部132は、入力された空間情報を空間情報特徴量に変換する(ステップS231)。そして、第4変換部132は、空間情報特徴量をアップサンプリングして出力する(ステップS232)。 FIG. 8 is a flowchart showing a processing flow of the second auxiliary NN. As shown in FIG. 8, the fourth conversion unit 132 converts the input spatial information into the spatial information feature amount (step S231). Then, the fourth conversion unit 132 upsamples and outputs the spatial information feature amount (step S232).
図9は、メインNNの処理の流れを示すフローチャートである。図9に示すように、まず、第2変換部121は、入力された時間領域の混合音声信号を混合音声特徴量に変換する(ステップS241)。適応部122は、統合済みの適応用特徴量を用いて混合音声特徴量を目的話者に適応させた適応後特徴量を取得する(ステップS242)。
FIG. 9 is a flowchart showing a processing flow of the main NN. As shown in FIG. 9, first, the
ここで、結合部122aは、空間情報特徴量を適応後特徴量に結合する(ステップS243)。第3変換部123は、空間情報特徴量を結合済みの適応後特徴量を音声信号に変換し出力する(ステップS244)。
Here, the
これまで説明してきたように、第4変換部132は、混合音声信号の各チャネルに対応するマイクロホン間の位相差に関する空間情報を、空間情報特徴量に変換する。また、第3変換部123は、空間情報特徴量を結合させた適応後特徴量を、出力用の情報に変換する。このように、信号処理装置10aは、空間情報がより明確になるような特徴量を利用して目的話者の音声を抽出することができる。その結果、第2の実施形態によれば、目的話者の音声信号をより精度良く抽出することができるようになる。
As described above, the fourth conversion unit 132 converts the spatial information regarding the phase difference between the microphones corresponding to each channel of the mixed audio signal into the spatial information feature amount. Further, the third conversion unit 123 converts the post-adaptation feature amount in which the spatial information feature amount is combined into the information for output. In this way, the
適応部122によって実現される適応層では、目的話者の音声信号から得られる特徴量を手掛かりとして、混合音声信号の特徴量から目的話者の音声の特徴量を抽出する。さらに、第2の実施形態では、適応層より出力側の層では、空間情報を用いることで、混合音声中の各音声の方向を考慮した補正ができる。つまり、第2の実施形態では、適応後特徴量に本来必要ない方向の音声が含まれている場合に、その音声に係る特徴を取り除くことで、より分離性能の高い音声信号の特徴量を得ることができると考えられる。 In the adaptation layer realized by the adaptation unit 122, the feature amount of the target speaker's voice is extracted from the feature amount of the mixed voice signal by using the feature amount obtained from the target speaker's voice signal as a clue. Further, in the second embodiment, the layer on the output side of the adaptive layer can be corrected in consideration of the direction of each voice in the mixed voice by using the spatial information. That is, in the second embodiment, when the feature amount after adaptation includes a voice in a direction that is not originally required, the feature amount of the voice signal having higher separation performance is obtained by removing the feature related to the voice. It is thought that it can be done.
さらに、図6の例では、空間情報特徴量を適応層より出力側の層に入力している。一方で、空間情報特徴量を適応層より入力側の層に入力する実施形態も考えられる。ただし、適応層はスペクトラル的な情報に基づき話者を選択するものであるため、適応層より入力側の層に入力された空間情報特徴量は、話者を選択する作用に悪影響を与えることが考えられる。このことは、後に提示する実験結果にも表れる。 Further, in the example of FIG. 6, the spatial information feature amount is input to the output side layer from the adaptive layer. On the other hand, an embodiment in which the spatial information feature amount is input to the input side layer from the adaptive layer is also conceivable. However, since the adaptive layer selects the speaker based on spectral information, the spatial information feature input to the layer on the input side from the adaptive layer may adversely affect the action of selecting the speaker. Conceivable. This is also reflected in the experimental results presented later.
[第3の実施形態]
第3の実施形態では、第1の実施形態の信号処理装置10のモデル情報15を生成するための学習処理を行う学習装置について説明する。図10は、第3の実施形態に係る学習装置の構成例を示す図である。
[Third Embodiment]
In the third embodiment, a learning device that performs learning processing for generating
図10に示すように、学習装置20は、第1の実施形態の信号処理装置10と同様に、学習用データに対し、第1補助NN11及びメインNN12を実行する。例えば、学習用データは、混合音声信号及び当該混合音声信号に含まれる目的話者の音声信号を正解として含むデータである。
As shown in FIG. 10, the
第1変換部111、第2変換部121及び第3変換部123は、第1の実施形態と同様の処理を行う。また、更新部24は、混合音声信号に含まれる目的話者の音声信号と出力用の情報とを基に計算される損失が最適化されるように、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークのパラメータを更新する。例えば、更新部24は、誤差逆伝播法によりパラメータを更新する。更新部24は、各ニューラルネットワークのパラメータであるモデル情報25を更新していく。
The
ここで、更新部24は、出力用の情報によって示される目的話者の音声信号の推定結果と、目的話者の音声信号の正解との信号雑音比が最適化されるように、かつ、適応用特徴量による目的話者の音声信号の識別能力が向上するように、パラメータを更新することができる。この場合、更新部24は、(3)式のように計算される損失が最適化されるようにパラメータの更新を行う。言い換えると、学習装置20は、音声認識と話者識別という2つのタスクの両方が正解に近づくようにマルチタスク学習を行う。
Here, the
(3)式に示すように、損失関数は、メインNN12の出力に関する損失と、第1補助NN11の出力に関する損失との重みづけ和である。メインNN12の出力に関する損失は、例えば、(3)式の第1項に示すように、メインNNから出力される推定結果の音声信号^xs(xの直上に^)と、学習データに含まれる目的話者の音声信号の正解xsとの信号雑音比(signal-to-noise ratio:SiSNR)である。また、第1補助NN11の出力に関する損失は、「入力された音声信号の話者が目的話者のものであるか否か」を識別する話者識別のタスクにおける識別能力を用いて表される。例えば、(3)式の第2項は、話者ラベルlsと目的話者の特徴量es(第1補助NN11の出力)を行列Wにより変換し、ソフトマックス関数σ(・)を適用した結果とのクロスエントロピー(CE)に重み(スケーリングパラメータ)αを掛けたものにより、第1補助NN11の出力に関する損失を表現している。
As shown in equation (3), the loss function is the weighted sum of the loss related to the output of the main NN12 and the loss related to the output of the first auxiliary NN11. The loss related to the output of the main NN 12 is included in the audio signal ^ x s (immediately above x ^) of the estimation result output from the main NN and the training data, for example, as shown in the first term of Eq. (3). The signal-to-noise ratio (SiSNR) of the speaker's audio signal with the correct answer x s. Further, the loss related to the output of the first
図11は、第3の実施形態に係る学習装置の処理の流れを示すフローチャートである。図11に示すように、学習装置20は、目的話者の音声信号及び混合音声信号の入力を受け付ける(ステップS31)。学習装置20に入力される各音声信号は、正解が既知の学習用のデータである。
FIG. 11 is a flowchart showing a processing flow of the learning device according to the third embodiment. As shown in FIG. 11, the
学習装置20は、第1補助NN11を実行する(ステップS32)。また、学習装置20は、メインNN12を実行する(ステップS33)。ここで、更新部24は、損失が最適化されるようにモデル情報25を更新する(ステップS34)。
The
学習装置20は、所定の条件が満たされている場合、収束したと判定し(ステップS35、Yes)処理を終了する。一方、学習装置20は、所定の条件が満たされていない場合、収束していないと判定し(ステップS35、No)ステップS32に戻り処理を繰り返す。例えば、条件は、所定の繰り返し回数に到達したこと、損失関数値が所定の閾値以下となったこと、パラメータの更新量(損失関数値の微分値等)が所定の閾値以下となったこと等である。
When the predetermined condition is satisfied, the
これまで説明してきたように、第1変換部111は、目的話者の発話から得られた時間領域の音声信号を、1つ以上の層を備えた第1のニューラルネットワークにより、適応用特徴量に変換する。第2変換部121は、複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、第1のニューラルネットワークに含まれる層の数と同じ数の層を備えた第2のニューラルネットワークにより、適応前特徴量に変換する。第3変換部123は、適応用特徴量を用いて適応前特徴量を目的話者に適応させた適応後特徴量を、1つ以上の層を備えた第3のニューラルネットワークにより、出力用の情報に変換する。更新部24は、混合音声信号に含まれる目的話者の音声信号と出力用の情報とを基に計算される損失が最適化されるように、第1のニューラルネットワーク、第2のニューラルネットワーク及び第3のニューラルネットワークのパラメータを更新する。この結果、第3の実施形態によれば、目的話者の音声信号を抽出する精度を向上させることができる。
As described above, the
更新部24は、出力用の情報によって示される目的話者の音声信号の推定結果と、目的話者の音声信号の正解との信号雑音比が最適化されるように、かつ、適応用特徴量による目的話者の音声信号の識別能力が向上するように、パラメータを更新する。これにより、音声抽出のためのNNだけでなく、目的話者へ適応のためのNNの精度が向上する。その結果、第3の実施形態によれば、目的話者の音声信号を抽出する精度を向上させることができる。
The
[実験結果]
ここで、実施形態と従来の手法とを比較するために行った実験の結果を説明する。図12は、実験用のデータを示す図である。図13から図16は、実験結果を示す図である。実験では、図12に示すマルチチャネルの2種類の混合音声WSJ(MC-WSJ0-2 mix)及びCSJ(CSJ-2mix)を使用した。なお、#Spksは話者の数、#Fは女性の話者の数、#Mは男性の話者の数、#Mixtureは混合発話の数である。
[Experimental result]
Here, the results of an experiment conducted to compare the embodiment with the conventional method will be described. FIG. 12 is a diagram showing experimental data. 13 to 16 are diagrams showing the experimental results. In the experiment, two types of multi-channel mixed audio WSJ (MC-WSJ0-2 mix) and CSJ (CSJ-2 mix) shown in FIG. 12 were used. #Spks is the number of speakers, #F is the number of female speakers, #M is the number of male speakers, and #Mixture is the number of mixed utterances.
図13及び図14は、各手法によって抽出した目的話者の音声信号をSDR(signal-to-distortionratio)によって評価した結果である。図13の(7)は、第1の実施形態の推定方法に相当する。また、図13の(9)は、第2の実施形態の推定方法に相当する。また、図13の(8)は、第2の実施形態の推定方法において、空間情報特徴量を、適応層より入力側の層に入力した場合に相当する。また、FFは、女性の音声同士の混合音声を示している。また、MMは、男性の音声同士の混合音声を示している。また、FMは、女性と男性の音声の混合音声を示している。図13に示すように、実施形態は、特に話者の性別が異なる場合の混合音声に対して高い精度を示している。また、(9)の手法は、話者の性別が同一である場合にさらに精度が向上する。 13 and 14 are the results of evaluating the audio signal of the target speaker extracted by each method by SDR (signal-to-distortion ratio). FIG. 13 (7) corresponds to the estimation method of the first embodiment. Further, FIG. 13 (9) corresponds to the estimation method of the second embodiment. Further, FIG. 13 (8) corresponds to the case where the spatial information feature amount is input to the input side layer from the adaptive layer in the estimation method of the second embodiment. In addition, FF indicates a mixed voice of female voices. In addition, MM indicates a mixed voice of male voices. FM also shows a mixed voice of female and male voices. As shown in FIG. 13, the embodiment shows high accuracy especially for mixed voices when the speakers are of different genders. Further, the accuracy of the method (9) is further improved when the genders of the speakers are the same.
図14の(5)は、第1の実施形態の推定方法に相当し、さらに第3の実施形態による学習時の損失関数に第1補助NN11の出力に関する損失を含まない場合の結果である。一方、(6)は、学習時の損失関数に第1補助NN11の出力に関する損失(SI-loss)を含む場合の結果である。図14に示すように、第1の実施形態は、従来の手法に比べて高い精度を示しており、SI-lossを導入することでさらに精度が向上する。特に、SI-lossを導入することで、FFの場合の精度が大きく向上した。
FIG. 14 (5) corresponds to the estimation method of the first embodiment, and is the result when the loss function at the time of learning according to the third embodiment does not include the loss related to the output of the first
図15は、FF、MM、FMの各ケースにおけるSDRの向上度合いを示している。図15に示すように、実施形態の手法(TD-SpkBeam、TD-SpkBeam+SI-loss)によれば、SDRが0を超えることが多く、精度が向上する。図16は、学習用データの話者数に応じたSDRを示している。図16に示すように、実施形態の手法(TD-SpkBeam、TD-SpkBeam+SI-loss)によれば、特に話者数が100を超える場合にSDRが大きく向上する。 FIG. 15 shows the degree of improvement in SDR in each of the FF, MM, and FM cases. As shown in FIG. 15, according to the method of the embodiment (TD-SpkBeam, TD-SpkBeam + SI-loss), the SDR often exceeds 0, and the accuracy is improved. FIG. 16 shows the SDR according to the number of speakers of the learning data. As shown in FIG. 16, according to the method of the embodiment (TD-SpkBeam, TD-SpkBeam + SI-loss), the SDR is greatly improved especially when the number of speakers exceeds 100.
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device is realized by a CPU (Central Processing Unit) and a program that is analyzed and executed by the CPU, or hardware by wired logic. Can be realized as.
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified.
[プログラム]
一実施形態として、信号処理装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の音声信号の抽出処理を実行する信号処理プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の信号処理プログラムを情報処理装置に実行させることにより、情報処理装置を信号処理装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
[program]
As one embodiment, the
また、信号処理装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の信号処理に関するサービスを提供する信号処理サーバ装置として実装することもできる。例えば、信号処理サーバ装置は、混合音声信号を入力とし、目的話者の音声信号を抽出する信号処理サービスを提供するサーバ装置として実装される。この場合、信号処理サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の信号処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
Further, the
図17は、プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
FIG. 17 is a diagram showing an example of a computer that executes a program. The
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
The
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、信号処理装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、信号処理装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
The hard disk drive 1090 stores, for example, the
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
Further, the setting data used in the processing of the above-described embodiment is stored as
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
10、10a 信号処理装置
11 第1補助NN
12 メインNN
15、15a、25 モデル情報
20 学習装置
24 更新部
30 マイクロホンアレイ
41、42 話者
111 第1変換部
112 統合部
121 第2変換部
122 適応部
122a 結合部
123 第3変換部
132 第4変換部
301、302、303、304 マイクロホン
10, 10a
12 Main NN
15, 15a, 25
Claims (8)
複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、ニューラルネットワークにより、適応前特徴量に変換する第2変換部と、
前記適応用特徴量を用いて前記適応前特徴量を前記目的話者に適応させた適応後特徴量を、ニューラルネットワークにより、出力用の情報に変換する第3変換部と、
を有することを特徴とする信号処理装置。 The first conversion unit that converts the audio signal in the time domain obtained from the utterance of the target speaker into adaptive features, and
A second conversion unit that converts the mixed audio signal in the multi-channel time domain obtained by recording the audio of multiple sound sources with multiple microphones into pre-adaptation features by a neural network.
A third conversion unit that converts the post-adaptation feature amount obtained by adapting the pre-adaptation feature amount to the target speaker using the adaptation feature amount into information for output by a neural network.
A signal processing device characterized by having.
前記第3変換部は、前記空間情報特徴量を結合させた前記適応後特徴量を、前記出力用の情報に変換することを特徴とする請求項1に記載の信号処理装置。 It further has a fourth conversion unit that converts information on the phase difference between microphones corresponding to each channel of the mixed audio signal into spatial information features.
The signal processing device according to claim 1, wherein the third conversion unit converts the post-adaptation feature amount, which is a combination of the spatial information feature amounts, into the information for output.
目的話者の発話から得られた時間領域の音声信号を適応用特徴量に変換する第1変換工程と、
複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、ニューラルネットワークにより、適応前特徴量に変換する第2変換工程と、
前記適応用特徴量を用いて前記適応前特徴量を前記目的話者に適応させた適応後特徴量を、ニューラルネットワークにより、出力用の情報に変換する第3変換工程と、
を含むことを特徴とする信号処理方法。 A signal processing method performed by a signal processing device.
The first conversion step of converting the audio signal in the time domain obtained from the utterance of the target speaker into the adaptive feature amount, and
A second conversion step of converting the mixed audio signal in the multi-channel time domain obtained by recording the audio of a plurality of sound sources with a plurality of microphones into a pre-adaptation feature amount by a neural network.
A third conversion step of converting the post-adaptation feature amount obtained by adapting the pre-adaptation feature amount to the target speaker using the adaptation feature amount into information for output by a neural network.
A signal processing method comprising.
複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、ニューラルネットワークにより、適応前特徴量に変換する第2変換部と、
前記適応用特徴量を用いて前記適応前特徴量を前記目的話者に適応させた適応後特徴量を、ニューラルネットワークにより、出力用の情報に変換する第3変換部と、
前記混合音声信号に含まれる前記目的話者の音声信号と前記出力用の情報とを基に計算される損失が最適化されるように、前記第2変換部で用いられるニューラルネットワーク及び前記第3変換部で用いられるニューラルネットワークのパラメータを更新することを特徴とする更新部と、
を有することを特徴とする学習装置。 The first conversion unit that converts the audio signal in the time domain obtained from the utterance of the target speaker into adaptive features, and
A second conversion unit that converts the mixed audio signal in the multi-channel time domain obtained by recording the audio of multiple sound sources with multiple microphones into pre-adaptation features by a neural network.
A third conversion unit that converts the post-adaptation feature amount obtained by adapting the pre-adaptation feature amount to the target speaker using the adaptation feature amount into information for output by a neural network.
The neural network used in the second conversion unit and the third so as to optimize the loss calculated based on the audio signal of the target speaker included in the mixed audio signal and the information for the output. An update unit characterized by updating the parameters of the neural network used in the conversion unit, and an update unit.
A learning device characterized by having.
目的話者の発話から得られた時間領域の音声信号を、適応用特徴量に変換する第1変換工程と、
複数の音源の音声を複数のマイクロホンで録音して得られたマルチチャネルの時間領域の混合音声信号を、ニューラルネットワークにより、適応前特徴量に変換する第2変換工程と、
前記適応用特徴量を用いて前記適応前特徴量を前記目的話者に適応させた適応後特徴量を、ニューラルネットワークにより、出力用の情報に変換する第3変換工程と、
前記混合音声信号に含まれる前記目的話者の音声信号と前記出力用の情報とを基に計算される損失が最適化されるように、前記第2変換工程で用いられるニューラルネットワーク及び前記第3変換工程で用いられるニューラルネットワークのパラメータを更新することを特徴とする更新工程と、
を含むことを特徴とする学習方法。 A learning method performed by a computer
The first conversion step of converting the audio signal in the time domain obtained from the utterance of the target speaker into the adaptive feature amount, and
A second conversion step of converting the mixed audio signal in the multi-channel time domain obtained by recording the audio of a plurality of sound sources with a plurality of microphones into a pre-adaptation feature amount by a neural network.
A third conversion step of converting the post-adaptation feature amount obtained by adapting the pre-adaptation feature amount to the target speaker using the adaptation feature amount into information for output by a neural network.
The neural network used in the second conversion step and the third so as to optimize the loss calculated based on the audio signal of the target speaker included in the mixed audio signal and the information for the output. An update process characterized by updating the parameters of the neural network used in the conversion process, and
A learning method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020070081A JP7293162B2 (en) | 2020-04-08 | 2020-04-08 | Signal processing device, signal processing method, signal processing program, learning device, learning method and learning program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020070081A JP7293162B2 (en) | 2020-04-08 | 2020-04-08 | Signal processing device, signal processing method, signal processing program, learning device, learning method and learning program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021167850A true JP2021167850A (en) | 2021-10-21 |
JP7293162B2 JP7293162B2 (en) | 2023-06-19 |
Family
ID=78079690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070081A Active JP7293162B2 (en) | 2020-04-08 | 2020-04-08 | Signal processing device, signal processing method, signal processing program, learning device, learning method and learning program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7293162B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114974259A (en) * | 2021-12-23 | 2022-08-30 | 号百信息服务有限公司 | Voiceprint recognition method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198306A1 (en) * | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | Estimation device, learning device, estimation method, learning method, and program |
JP2020181060A (en) * | 2019-04-24 | 2020-11-05 | ヤフー株式会社 | Information processing apparatus, information processing method, information processing program, learning device, learning method, and learning program |
-
2020
- 2020-04-08 JP JP2020070081A patent/JP7293162B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019198306A1 (en) * | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | Estimation device, learning device, estimation method, learning method, and program |
JP2020181060A (en) * | 2019-04-24 | 2020-11-05 | ヤフー株式会社 | Information processing apparatus, information processing method, information processing program, learning device, learning method, and learning program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114974259A (en) * | 2021-12-23 | 2022-08-30 | 号百信息服务有限公司 | Voiceprint recognition method |
Also Published As
Publication number | Publication date |
---|---|
JP7293162B2 (en) | 2023-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6764028B2 (en) | Mask calculation device, cluster weight learning device, mask calculation neural network learning device, mask calculation method, cluster weight learning method and mask calculation neural network learning method | |
Li et al. | An overview of noise-robust automatic speech recognition | |
JP6434657B2 (en) | Spatial correlation matrix estimation device, spatial correlation matrix estimation method, and spatial correlation matrix estimation program | |
JP2005249816A (en) | Device, method and program for signal enhancement, and device, method and program for speech recognition | |
WO2020045313A1 (en) | Mask estimation device, mask estimation method, and mask estimation program | |
JP7329393B2 (en) | Audio signal processing device, audio signal processing method, audio signal processing program, learning device, learning method and learning program | |
JP5994639B2 (en) | Sound section detection device, sound section detection method, and sound section detection program | |
JP2021167850A (en) | Signal processor, signal processing method, signal processing program, learning device, learning method and learning program | |
JP6711765B2 (en) | Forming apparatus, forming method, and forming program | |
JPWO2012105385A1 (en) | Sound segment classification device, sound segment classification method, and sound segment classification program | |
JP6973254B2 (en) | Signal analyzer, signal analysis method and signal analysis program | |
WO2012023268A1 (en) | Multi-microphone talker sorting device, method, and program | |
JP6636973B2 (en) | Mask estimation apparatus, mask estimation method, and mask estimation program | |
EP3951777A1 (en) | Signal processing device, method, and program | |
JP6930408B2 (en) | Estimator, estimation method and estimation program | |
WO2022034675A1 (en) | Signal processing device, signal processing method, signal processing program, learning device, learning method, and learning program | |
JP7424587B2 (en) | Learning device, learning method, estimation device, estimation method and program | |
US20240062771A1 (en) | Extraction device, extraction method, training device, training method, and program | |
Ozerov et al. | Uncertainty-based learning of Gaussian mixture models from noisy data | |
WO2022101967A1 (en) | Voice signal conversion model learning device, voice signal conversion device, voice signal conversion model learning method, and program | |
WO2023152915A1 (en) | Signal processing device, signal processing method, and signal processing program | |
WO2023013081A1 (en) | Learning device, estimation device, learning method, and learning program | |
Yeminy et al. | Single microphone speech separation by diffusion-based HMM estimation | |
EP4297028A1 (en) | Noise suppression device, noise suppression method, and noise suppression program | |
JP2022186212A (en) | Extraction device, extraction method, learning device, learning method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200409 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200430 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7293162 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |