JP2015064602A - Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program - Google Patents

Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program Download PDF

Info

Publication number
JP2015064602A
JP2015064602A JP2014245910A JP2014245910A JP2015064602A JP 2015064602 A JP2015064602 A JP 2015064602A JP 2014245910 A JP2014245910 A JP 2014245910A JP 2014245910 A JP2014245910 A JP 2014245910A JP 2015064602 A JP2015064602 A JP 2015064602A
Authority
JP
Japan
Prior art keywords
acoustic signal
signal
acoustic
basis matrix
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014245910A
Other languages
Japanese (ja)
Inventor
誠 広畑
Makoto Hirohata
誠 広畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014245910A priority Critical patent/JP2015064602A/en
Publication of JP2015064602A publication Critical patent/JP2015064602A/en
Pending legal-status Critical Current

Links

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize an acoustic signal processing device that improves performance of separating a voice signal.SOLUTION: Likelihood calculation means in an acoustic signal processing device extracts an acoustic feature showing each feature of a voice signal and a non-voice signal, from an acquired acoustic signal, and uses the acoustic feature to calculate likelihood showing plausibility that the voice signal is included in the acoustic signal. Spectral extraction means analyzes a frequency of the acoustic signal, and extracts a spectral feature. First basis matrix generation means uses the spectral feature to generate a first basis matrix showing a feature of the non-voice signal. Second basis matrix generation means uses the likelihood to identify a component that is strongly associated with the voice signal in the first basis matrix, and generates a second basis matrix after excluding the component.

Description

本発明の実施形態は、音響信号処理装置、音響信号処理方法および音響信号処理プログ
ラムに関する。
Embodiments described herein relate generally to an acoustic signal processing device, an acoustic signal processing method, and an acoustic signal processing program.

音声認識などにおいてマイクロホンで取得した音響信号には、ユーザの音声である音声
信号だけでなく背景雑音や音楽などの非音声信号が含まれる。音声信号と非音声信号が混
入した音響信号から所望の信号のみを抽出する技術が音源分離技術であり、その1つに非
負行列因子分解を用いた方式がある。音響信号から音声信号を分離する場合、この方式で
はまず、非音声信号を含む蓋然性が高い区間における音響信号のスペクトログラムから非
音声信号の基底行列を作成する。次に、この非音声信号の基底行列を用いて、分離対象と
なる音響信号のスペクトログラムから音声信号の基底行列と係数行列を作成する。そして
、この音声信号の基底行列と係数行列の積により、音声信号のスペクトログラムを推定す
る。最後に、推定された音声信号のスペクトログラムを時間信号に変換して、音響信号か
ら音声信号を分離する。
An acoustic signal acquired by a microphone in speech recognition or the like includes not only a speech signal that is a user's speech but also non-speech signals such as background noise and music. A technique for extracting only a desired signal from an acoustic signal mixed with an audio signal and a non-audio signal is a sound source separation technique, and one of them is a system using non-negative matrix factorization. In the case of separating an audio signal from an acoustic signal, in this method, first, a base matrix of the non-speech signal is created from a spectrogram of the acoustic signal in a section having a high probability of including the non-speech signal. Next, using the basis matrix of the non-speech signal, the basis matrix and coefficient matrix of the speech signal are created from the spectrogram of the acoustic signal to be separated. Then, the spectrogram of the speech signal is estimated by the product of the basis matrix and coefficient matrix of the speech signal. Finally, the spectrogram of the estimated speech signal is converted into a time signal to separate the speech signal from the acoustic signal.

しかしながら、この方式では、非音声信号の基底行列を求める際の音響信号に音声信号
が混入していた場合、非音声信号の基底行列を正確に作成することができなかった。結果
として、音声信号の分離性能が劣化するという問題があった。
However, in this method, if the audio signal is mixed in the acoustic signal when the base matrix of the non-speech signal is obtained, the base matrix of the non-speech signal cannot be created accurately. As a result, there is a problem that the separation performance of the audio signal is deteriorated.

特開2009−128906号公報JP 2009-128906 A

Eric Scheirer, Malcolm Slaney, “Construction and Evaluation of a Robust Multifeature Speech/Music Discriminator,” Proc. Of ICASSP, April 1997, Vol 2, p.1331-1334.Eric Scheirer, Malcolm Slaney, “Construction and Evaluation of a Robust Multifeature Speech / Music Discriminator,” Proc. Of ICASSP, April 1997, Vol 2, p.1331-1334.

発明が解決しようとする課題は、音声信号の分離性能を向上させる音響信号処理装置を
実現することである。
The problem to be solved by the present invention is to realize an acoustic signal processing device that improves the separation performance of an audio signal.

実施形態の音響信号処理装置における尤度計算手段は、取得した音響信号から音声信号
および非音声信号の特徴を表す音響特徴を抽出し、この音響特徴を利用して音響信号に音
声信号が含まれる尤もらしさを表す尤度を計算する。スペクトル抽出手段は、音響信号を
周波数解析してスペクトル特徴を抽出する。第1基底行列作成手段は、スペクトル特徴を
利用して、非音声信号の特徴を表す第1の基底行列を作成する。第2基底行列作成手段は
、尤度を利用して、第1の基底行列において音声信号と関連性が高い成分を特定し、この
成分を除外して第2の基底行列を作成する。
The likelihood calculation means in the acoustic signal processing device of the embodiment extracts acoustic features representing the characteristics of the speech signal and the non-speech signal from the acquired acoustic signal, and the acoustic signal is included in the acoustic signal using the acoustic feature. A likelihood representing the likelihood is calculated. The spectrum extraction means extracts a spectrum feature by frequency analysis of the acoustic signal. The first basis matrix creating means creates a first basis matrix representing the feature of the non-speech signal using the spectral feature. The second basis matrix creation means uses the likelihood to identify a component highly relevant to the speech signal in the first basis matrix, and creates a second basis matrix by excluding this component.

第1の実施形態の音響信号処理装置を示すブロック図。The block diagram which shows the acoustic signal processing apparatus of 1st Embodiment. 実施形態の音響信号処理装置のハードウェア構成を示す図。The figure which shows the hardware constitutions of the acoustic signal processing apparatus of embodiment. 実施形態の第2基底行列作成部における処理内容を示す図。The figure which shows the processing content in the 2nd basis matrix preparation part of embodiment. 実施形態のスペクトル推定部における処理内容を示す図。The figure which shows the processing content in the spectrum estimation part of embodiment. 実施形態の音響信号処理装置のフローチャート。The flowchart of the acoustic signal processing apparatus of embodiment. 実施形態の第2基底行列作成部のフローチャート。The flowchart of the 2nd basis matrix preparation part of embodiment. 実施形態の音声信号のスペクトログラムの推定結果を示す図。The figure which shows the estimation result of the spectrogram of the audio | voice signal of embodiment.

以下、本発明の実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
第1の実施形態の音響信号処理装置は、音声信号および非音声信号を含んだ音響信号か
ら音声信号を分離するものである。例えば、本実施形態の音響信号処理装置を音声認識の
前処理として利用することにより、音声認識の認識性能を向上させることができる。
(First embodiment)
The acoustic signal processing apparatus according to the first embodiment separates an audio signal from an acoustic signal including an audio signal and a non-audio signal. For example, the recognition performance of voice recognition can be improved by using the acoustic signal processing apparatus of the present embodiment as preprocessing for voice recognition.

本実施形態の音響信号処理装置は、非負行列因子分解を用いた音源分離技術(特許文献
1)であり、非音声信号が含まれる蓋然性が高い区間における音響信号のスペクトログラ
ム(スペクトル特徴)から、非音声信号の特徴を表す第1の基底行列を作成する。そして
、音声信号が含まれる尤もらしさを表す音声尤度を利用して、第1の基底行列から音声信
号との関連性が高い成分を除外して第2の基底行列を作成する。この第2の基底行列を用
いて音声信号の特徴を表す第3の基底行列と第1の係数行列を計算し、第3の基底行列と
第1の係数行列の積により、音声信号のスペクトログラムを推定する。最後に、推定され
た音声信号のスペクトログラムを時間信号に変換することで、音響信号から音声信号を分
離する。
The acoustic signal processing apparatus according to the present embodiment is a sound source separation technique using non-negative matrix factorization (Patent Document 1). From the spectrogram (spectral feature) of an acoustic signal in a section with a high probability that a non-speech signal is included, A first basis matrix representing the characteristics of the audio signal is created. Then, using the speech likelihood representing the likelihood that the speech signal is included, the second basis matrix is created by excluding the component highly relevant to the speech signal from the first basis matrix. Using this second basis matrix, a third basis matrix and a first coefficient matrix representing the characteristics of the speech signal are calculated, and a spectrogram of the speech signal is obtained by the product of the third basis matrix and the first coefficient matrix. presume. Finally, the speech signal is separated from the acoustic signal by converting the spectrogram of the estimated speech signal into a time signal.

このように、本実施形態の音響信号処理装置は、作成された非音声信号の第1の基底行
列から音声信号との関連性が高い成分を除外した第2の基底行列を作成する。これにより
、非音声信号の特徴を正確に表す基底行列を作成することができ、結果として、音声信号
の分離性能を向上させることができる。
As described above, the acoustic signal processing device according to the present embodiment creates a second basis matrix in which a component that is highly relevant to the speech signal is excluded from the first basis matrix of the created non-speech signal. As a result, a base matrix that accurately represents the characteristics of the non-speech signal can be created, and as a result, the separation performance of the speech signal can be improved.

(全体のブロック構成)
図1は、第1の実施形態にかかる音響信号処理装置を示すブロック図である。本実施形
態の音響信号処理装置は、音声信号と非音声信号を含んだ音響信号を取得する音響取得部
101と、音響信号から音声信号および非音声信号の特徴を表す音響特徴を抽出し、この
音響特徴を利用して、音響信号に音声信号が含まれる尤もらしさを表す音声尤度と非音声
信号が含まれる尤もらしさを表す非音声尤度を計算する尤度計算部102と、音声尤度と
非音声尤度を利用して、音響信号の所定区間ごとに音声・非音声を判別する音声・非音声
判別部103と、音響信号をフーリエ変換してスペクトログラムを抽出するスペクトル特
徴抽出部104と、非音声信号と判別された区間の音響信号から抽出されたスペクトログ
ラムを利用して、非音声信号の特徴を表す第1の基底行列を作成する第1基底行列作成部
105と、音声尤度を利用して、第1の基底行列から音声信号との関連性が高い列ベクト
ルの成分を除外して第2の基底行列を作成する第2基底行列作成部106と、スペクトロ
グラムを前記第2の基底行列を用いて非負行列因子分解することにより、音声信号の特徴
を表す第3の基底行列および第1の係数行列を計算し、この第3の基底行列および第1の
係数行列の積により、音響信号に含まれる音声信号のスペクトログラムを推定するスペク
トル特徴推定部107と、推定された音声信号のスペクトログラムを逆フーリエ変換によ
り時間信号に変換する逆変換部108とを備える。
(Overall block configuration)
FIG. 1 is a block diagram illustrating an acoustic signal processing apparatus according to the first embodiment. The acoustic signal processing device of the present embodiment extracts an acoustic feature representing the characteristics of an audio signal and a non-audio signal from the acoustic acquisition unit 101 that acquires an audio signal including an audio signal and a non-audio signal. A likelihood calculation unit 102 that calculates a speech likelihood that represents a likelihood that a sound signal is included in an acoustic signal and a non-voice likelihood that represents a likelihood that a non-speech signal is included using an acoustic feature, and a speech likelihood And a speech / non-speech discrimination unit 103 that discriminates speech / non-speech for each predetermined section of the acoustic signal using a non-speech likelihood, and a spectral feature extraction unit 104 that extracts a spectrogram by Fourier transforming the acoustic signal, A first basis matrix creation unit 105 that creates a first basis matrix that represents a feature of a non-speech signal using a spectrogram extracted from an acoustic signal in a section determined to be a non-speech signal; and speech likelihood A second basis matrix creation unit 106 that creates a second basis matrix by removing a component of a column vector that is highly relevant to the audio signal from the first basis matrix; and a spectrogram is used as the second basis matrix. A non-negative matrix factorization is performed using the matrix to calculate a third basis matrix and a first coefficient matrix representing the characteristics of the speech signal, and the product of the third basis matrix and the first coefficient matrix is used to calculate an acoustic signal. A spectral feature estimation unit 107 that estimates a spectrogram of a speech signal included in the signal, and an inverse conversion unit 108 that converts the spectrogram of the estimated speech signal into a time signal by inverse Fourier transform.

(ハードウェア構成)
本実施形態の音響信号処理装置は、図2に示すような通常のコンピュータを利用したハ
ードウェアで構成されており、装置全体を制御するCPU(Central Processing Unit)
等の制御部201と、各種データや各種プログラムを記憶するROM(Read Only Memory
)やRAM(Random Access Memory)等の記憶部202と、各種データや各種プログラム
を記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の外部記
憶部203と、ユーザの指示入力を受け付けるキーボードやマウスなどの操作部204と
、外部装置との通信を制御する通信部205と、ユーザの発声を取得するマイク206と
、これらを接続するバス208とを備えている。
(Hardware configuration)
The acoustic signal processing apparatus of the present embodiment is configured by hardware using a normal computer as shown in FIG. 2, and a CPU (Central Processing Unit) that controls the entire apparatus.
And a control unit 201 such as a ROM (Read Only Memory) for storing various data and various programs.
) And RAM (Random Access Memory) storage unit 202, HDD (Hard Disk Drive) storing various data and various programs, CD (Compact Disk) drive storage unit 203 and the like, and user instruction input An operation unit 204 such as a keyboard and a mouse to be received, a communication unit 205 that controls communication with an external device, a microphone 206 that acquires a user's utterance, and a bus 208 that connects them are provided.

このようなハードウェア構成において、制御部201がROM等の記憶部202や外部
記憶部203に記憶された各種プログラムを実行することにより以下の機能が実現される
In such a hardware configuration, the following functions are realized when the control unit 201 executes various programs stored in the storage unit 202 such as the ROM or the external storage unit 203.

(各ブロックの機能)
音響取得部101は、マイク206に入力された音響信号を取得する。この音響信号に
は、ユーザの音声である音声信号だけでなく背景雑音や音楽などの非音声信号が含まれる
。なお、本実施形態の音響信号は、16kHzでサンプリングされたデジタル信号である
とする。なお、音響取得部101は、マイク206ではなく、外部記憶部203や通信部
205によって接続された外部装置から音響信号を取得してもよい。
(Function of each block)
The acoustic acquisition unit 101 acquires an acoustic signal input to the microphone 206. This acoustic signal includes not only a voice signal that is a user's voice but also a non-voice signal such as background noise and music. Note that the acoustic signal of the present embodiment is a digital signal sampled at 16 kHz. Note that the acoustic acquisition unit 101 may acquire an acoustic signal from an external device connected by the external storage unit 203 or the communication unit 205 instead of the microphone 206.

尤度計算部102は、音響取得部101で取得された音響信号から、音声信号および非
音声信号の特徴を表す音響特徴を抽出する。そして、この音響特徴を利用して、音響信号
に音声信号が含まれる尤もらしさ(音声尤度)および非音声信号が含まれる尤もらしさ(
非音声尤度)を計算する。具体的には、尤度計算部102は、音響信号を長さ25ms(
400サンプル)、間隔8ms(128サンプル)のフレームに分割する。フレーム分割
にはハミング窓を使用する。次に、各フレームから音響特徴を抽出する。音響特徴として
は、各フレームの音響信号をフーリエ変換して得られるスペクトルだけでなく、LPCケ
プストラムやMFCC等のケプストラム系の特徴量を用いることができる。そして、抽出
された音響特徴を予め学習した音声モデルおよび非音声モデルと照合して、各フレームの
音声尤度および非音声尤度を計算する。
The likelihood calculating unit 102 extracts acoustic features representing the features of the audio signal and the non-audio signal from the acoustic signal acquired by the acoustic acquisition unit 101. Then, using this acoustic feature, the likelihood that the sound signal includes the sound signal (speech likelihood) and the likelihood that the sound signal includes the non-speech signal (
Non-voice likelihood) is calculated. Specifically, the likelihood calculator 102 converts the acoustic signal into a length of 25 ms (
400 samples) and an interval of 8 ms (128 samples). A Hamming window is used for frame division. Next, an acoustic feature is extracted from each frame. As the acoustic feature, not only a spectrum obtained by Fourier transforming the acoustic signal of each frame but also a cepstrum-based feature amount such as an LPC cepstrum or MFCC can be used. Then, the extracted acoustic features are collated with a speech model and a non-speech model learned in advance, and speech likelihood and non-speech likelihood of each frame are calculated.

音声・非音声判別部103は、尤度計算部102で計算されたフレーム毎の音声尤度お
よび非音声尤度を用いて、所定区間ごとに音声信号が音声であるか非音声であるかを判別
する。本実施形態では、所定区間の長さを400ms(50フレーム分)に設定する。音
声・非音声判別部103は、50フレーム分の音声尤度および非音声尤度の平均値を計算
し、その大小を比較することで音声・非音声を判別する。この他にも、各平均値を予め設
定した閾値と比較して音声・非音声を判別してもよい。また、非特許文献1に記載の方法
を利用することもできる。
The speech / non-speech discrimination unit 103 uses the speech likelihood and non-speech likelihood for each frame calculated by the likelihood computation unit 102 to determine whether the speech signal is speech or non-speech for each predetermined section. Determine. In the present embodiment, the length of the predetermined section is set to 400 ms (for 50 frames). The speech / non-speech discrimination unit 103 calculates speech / non-speech by calculating the average value of speech likelihood and non-speech likelihood for 50 frames and comparing the magnitudes thereof. In addition, voice / non-voice may be determined by comparing each average value with a preset threshold value. The method described in Non-Patent Document 1 can also be used.

スペクトル特徴抽出部104は、音響信号を長さ25ms(400サンプル)、間隔8
ms(128サンプル)のフレームに分割し、各フレームの音響信号をフーリエ変換(周
波数解析)してスペクトルを抽出する。なお、本実施形態では、各フレームに対して11
2点の零詰めを行った後、512点の離散フーリエ変換を実行する。
The spectral feature extraction unit 104 generates an acoustic signal having a length of 25 ms (400 samples) and an interval of 8
The frame is divided into ms (128 samples), and a spectrum is extracted by performing Fourier transform (frequency analysis) on the acoustic signal of each frame. In this embodiment, 11 for each frame.
After zero padding of two points, 512-point discrete Fourier transform is executed.

第1基底行列作成部105は、スペクトル特徴抽出部104で抽出された複数フレーム
のスペクトル(スペクトログラム)を利用して、非音声信号の特徴を表す第1の基底行列
Hを作成する。ここで本実施形態では、音声・非音声判別部103において非音声と判別
された区間の音響信号から抽出されたスペクトログラムを利用して、第1の基底行列Hを
作成する。
The first basis matrix creation unit 105 creates a first basis matrix H that represents the features of the non-speech signal using the spectrum (spectrogram) of a plurality of frames extracted by the spectrum feature extraction unit 104. Here, in the present embodiment, the first basis matrix H is created using the spectrogram extracted from the acoustic signal of the section determined as non-speech by the speech / non-speech discrimination unit 103.

第1基底行列作成部105は、まず、T個のフレームから抽出した各F次元のスペクト
ルの全要素を格納した行数F、列数Tの行列Zを作成する。次に、この行列Zを、行数F
・列数Dの第1の基底行列Hと、行数D・列数Tの係数行列Uの積で近似する。ここで、
Dは基底の数を表し、経験的に32に設定する。第1の基底行列Hと係数行列Uの導出は
、第1の基底行列Hと係数行列Uの積と行列Zの二乗誤差を基準とした反復法により行う
。この際、第1の基底行列Hおよび係数行列Uの初期行列には、ランダム値を用いること
ができる。
The first basis matrix creation unit 105 first creates a matrix Z having the number of rows F and the number of columns T in which all the elements of each F-dimensional spectrum extracted from the T frames are stored. Next, this matrix Z is converted into the number of rows F
Approximation is performed by the product of the first basis matrix H having the number of columns D and the coefficient matrix U having the number of rows D and the number of columns T. here,
D represents the number of bases and is set to 32 empirically. The first basis matrix H and the coefficient matrix U are derived by an iterative method based on the square error of the product of the first basis matrix H and the coefficient matrix U and the matrix Z. At this time, random values can be used for the initial matrixes of the first basis matrix H and the coefficient matrix U.

第2基底行列作成部106は、尤度計算部102で計算された音声尤度を利用して、第
1の基底行列Hから音声信号との関連性が高い列ベクトルの成分を除外した第2の基底行
列Bを作成する。
The second basis matrix creation unit 106 uses the speech likelihood calculated by the likelihood calculation unit 102 to remove the second column vector component that is highly relevant to the speech signal from the first basis matrix H. A basis matrix B is created.

図3を用いて、第2基底行列作成部106の動作を説明する。同図の301は、4個の
フレームから抽出された各4次元のスペクトルの要素で構成される行列Zを、行数4・列
数4の第1の基底行列Hと、行数4・列数4の係数行列Uの積で近似している。302は
、行列Zの各フレーム(列ベクトル)に対応する音声尤度を表している。302の閾値は
、音声信号を含むフレームを判別するための値であり、予め所定値を設定しておく。閾値
と音声尤度の比較により、この例ではt番目のフレームの音響信号に音声信号が含まれる
と判別される。したがって、第2基底行列作成部106は、t番目のフレームに起因する
成分を第1の基底行列Hから除外して第2の基底行列Bを作成する。
The operation of the second basis matrix creation unit 106 will be described with reference to FIG. In FIG. 3, reference numeral 301 denotes a matrix Z composed of elements of each four-dimensional spectrum extracted from four frames, a first basis matrix H having 4 rows and 4 columns, and 4 rows and 4 columns. It is approximated by the product of the coefficient matrix U of Equation 4. 302 represents the speech likelihood corresponding to each frame (column vector) of the matrix Z. The threshold value 302 is a value for discriminating a frame including an audio signal, and a predetermined value is set in advance. By comparing the threshold and the speech likelihood, in this example, it is determined that the sound signal is included in the acoustic signal of the t-th frame. Therefore, the second basis matrix creation unit 106 creates the second basis matrix B by excluding the component due to the t-th frame from the first basis matrix H.

まず、第2基底行列作成部106は、係数行列Uの各行ごとに正規化処理を行い正規化
後の係数行列U’を得る。正規化は、各列ベクトルの要素の大きさを比較するための処理
であり、各行の要素を平均0・分散1になるよう実行する。次に、第2基底行列作成部1
06は、t番目のフレームに対応する係数行列U’の列ベクトルの中で最大の値を持つ要
素を選択する。要素は、U’のX行Y列目のように特定する。この例では、2行3列目の
要素303が最大となる。次に、第2基底行列作成部106は、第1の基底行列Hと係数
行列Uの積において、係数行列UのX行Y列目の要素との積が計算されるX列目の列ベク
トルを除外する。この例では、U’の2行3列目の要素が選択されていることから、第1
の基底行列Hから2列目の列ベクトルを除外して第2の基底行列Bを作成する。
First, the second basis matrix creation unit 106 performs normalization processing for each row of the coefficient matrix U to obtain a normalized coefficient matrix U ′. Normalization is a process for comparing the sizes of the elements of the column vectors, and the elements of each row are executed so that the average is 0 and the variance is 1. Next, the second basis matrix creation unit 1
In 06, the element having the maximum value is selected from the column vectors of the coefficient matrix U ′ corresponding to the t-th frame. The element is specified as in the X row and the Y column of U ′. In this example, the element 303 in the second row and the third column is the maximum. Next, the second basis matrix creation unit 106 calculates the column vector of the X column in which the product of the element of the X row and the Y column of the coefficient matrix U in the product of the first basis matrix H and the coefficient matrix U is calculated. Is excluded. In this example, since the element in the second row and third column of U ′ is selected, the first
The second base matrix B is created by excluding the second column vector from the base matrix H.

このように、本実施形態の音響信号処理装置は、第1の基底行列Hから音声信号との関
連性が高い列ベクトルの成分を除外した第2の基底行列Bを作成する。これにより、非音
声信号の特性を表す第2の基底行列Bを正確に作成することができる。
As described above, the acoustic signal processing apparatus according to the present embodiment creates the second basis matrix B by excluding the column vector components that are highly relevant to the audio signal from the first basis matrix H. As a result, the second basis matrix B representing the characteristics of the non-speech signal can be accurately created.

なお、第2基底行列作成部106は、複数の列ベクトルを除外して第2の基底行列Bを
作成してもよい。また、列ベクトルを除外するのではなく、列ベクトルの要素の値を0ま
たは0に近い値に置き換えることもできる。また、作成された第2の基底行列Bを記憶部
202や外部記憶部203に記憶しておき、記憶された第2の基底行列Bを再利用して他
の音響信号に対する分離処理を実行してもよい。
Note that the second basis matrix creation unit 106 may create the second basis matrix B by excluding a plurality of column vectors. Further, instead of excluding the column vector, the value of the element of the column vector can be replaced with 0 or a value close to 0. In addition, the created second basis matrix B is stored in the storage unit 202 or the external storage unit 203, and the stored second basis matrix B is reused to execute separation processing on other acoustic signals. May be.

本実施形態では音声尤度そのものを用いて音声信号との関連性が高い成分を特定したが
、非音声尤度と音声尤度の比を用いてもよい。また、非音声尤度だけを用いて音声信号と
の関連性が高い成分を特定することもできる。例えば、非音声尤度が低いフレームを音声
信号との関連性が高い成分とみなすことができる。
In the present embodiment, the component having high relevance to the speech signal is specified using the speech likelihood itself, but the ratio of the non-speech likelihood and the speech likelihood may be used. In addition, it is possible to specify a component that is highly relevant to the speech signal using only the non-speech likelihood. For example, a frame with a low non-voice likelihood can be regarded as a component highly related to a voice signal.

スペクトル特徴推定部107は、スペクトル特徴抽出部104で抽出されたスペクトル
特徴を第2の基底行列Bを用いて非負行列因子分解することにより、音声信号の特徴を表
す第3の基底行列Mおよび第1の係数行列Vを計算する。そして、この第3の基底行列M
と第1の係数行列Vの積を取ることにより、音響信号に含まれる音声信号のスペクトル特
徴を推定する。
The spectrum feature estimation unit 107 performs non-negative matrix factorization on the spectrum feature extracted by the spectrum feature extraction unit 104 using the second basis matrix B, thereby providing a third basis matrix M representing the features of the speech signal and A coefficient matrix V of 1 is calculated. And this third basis matrix M
And the first coefficient matrix V are taken to estimate the spectral characteristics of the speech signal included in the acoustic signal.

まず、スペクトル特徴推定部107は、図4の401に示すように、音声信号を分離す
る対象となる音響信号のスペクトログラムXを第2の基底行列Bを用いて非負行列因子分
解する。第1の基底行列Hの導出と同様に、基底行列と係数行列の積とスペクトログラム
Xの二乗誤差を基準とした反復法を適用する。この際、基底行列の列数は第2の基底行列
Bの列数D−1より大きい値E+D−1とし、基底行列のE列目以降の初期値は第2基底
行列Bの要素とする。基底行列のE列目以降の要素は反復法の適用外とする。反復法を適
用した結果、基底行列の1列目からE列目までの行列が第3の基底行列M、係数行列の1
行目からE行目までの行列が第1の第1の係数行列V、E行目以降の行列が第2の係数行
列Wとなる。
First, as shown by 401 in FIG. 4, the spectral feature estimation unit 107 performs non-negative matrix factorization on the spectrogram X of the acoustic signal to be separated from the audio signal using the second basis matrix B. Similar to the derivation of the first basis matrix H, an iterative method based on the product of the basis matrix and the coefficient matrix and the square error of the spectrogram X is applied. At this time, the number of columns of the base matrix is set to a value E + D−1 which is larger than the number of columns D−1 of the second base matrix B, and the initial values after the E column of the base matrix are elements of the second base matrix B. The elements after the E column of the base matrix are not applicable to the iterative method. As a result of applying the iterative method, the matrix from the first column to the E column of the basis matrix is the third basis matrix M and the coefficient matrix 1
The matrix from the line E to the line E is the first coefficient matrix V, and the matrix after the line E is the second coefficient matrix W.

次に、スペクトル特徴推定部107は、この第3の基底行列Mと第1の係数行列Vの積
を取ることにより、音響信号に含まれる音声信号のスペクトログラムを推定する(図4の
402)。この他にも、非音声信号の特徴を表す第2の基底行列Bと第2の係数行列Wの
積により、音響信号に含まれる非音声信号のスペクトログラムを推定することもできる。
Next, the spectral feature estimation unit 107 estimates the spectrogram of the speech signal included in the acoustic signal by taking the product of the third basis matrix M and the first coefficient matrix V (402 in FIG. 4). In addition, the spectrogram of the non-speech signal included in the acoustic signal can be estimated by the product of the second base matrix B representing the characteristics of the non-speech signal and the second coefficient matrix W.

また、スペクトル特徴推定部107は、第3の基底行列Mと第1の係数行列Vの積で推
定した音声信号のスペクトログラムと、第2の基底行列Bと第2の係数行列Wの積で推定
した非音声信号のスペクトログラムからスペクトログラムの要素ごとに音声信号に起因す
る成分の比率を算出し、分離対象となるスペクトログラムにこの比率をかけることで音声
信号のスペクトログラムを推定してもよい。
The spectral feature estimation unit 107 estimates the spectrogram of the speech signal estimated by the product of the third basis matrix M and the first coefficient matrix V, and the product of the second basis matrix B and the second coefficient matrix W. The spectrogram of the speech signal may be estimated by calculating the ratio of the component due to the speech signal for each spectrogram element from the spectrogram of the non-speech signal and multiplying the spectrogram to be separated by this ratio.

逆変換部108は、推定された音声信号のスペクトログラムを離散逆フーリエ変換する
ことにより時間信号に変換する。これにより、音響信号から音声信号を分離することがで
きる。なお、分離された音声信号を後段の音声認識部(図示なし)に出力することにより
、非音声信号の影響を取り除いた音声認識処理を実行できる。
The inverse transform unit 108 converts the spectrogram of the estimated speech signal into a time signal by performing a discrete inverse Fourier transform. Thereby, an audio | voice signal can be isolate | separated from an acoustic signal. In addition, by outputting the separated voice signal to a subsequent voice recognition unit (not shown), it is possible to execute a voice recognition process in which the influence of the non-voice signal is removed.

(フローチャート: 全体処理)
図5のフローチャートを利用して、本実施形態にかかる音声信号処理装置の処理を説明
する。まず、ステップS501では、音響取得部101は、分離対象となる音響信号を取
得する。
(Flowchart: Overall processing)
The processing of the audio signal processing apparatus according to the present embodiment will be described using the flowchart of FIG. First, in step S501, the acoustic acquisition unit 101 acquires an acoustic signal to be separated.

ステップS502では、スペクトル特徴抽出部104は、フレームに分割した音響信号
から離散フーリエ変換によりスペクトルを抽出する。フレームの間隔は8msとする。
In step S502, the spectrum feature extraction unit 104 extracts a spectrum from the acoustic signal divided into frames by discrete Fourier transform. The frame interval is 8 ms.

ステップS503では、尤度計算部102は、音響信号からLPCケプストラムやMF
CC等のケプストラム系の音響特徴を抽出する。そして、この音響特徴と予め学習した音
声モデルおよび非音声モデルを照合して、音声尤度および非音声尤度を計算する。
In step S503, the likelihood calculation unit 102 calculates an LPC cepstrum or MF from the acoustic signal.
Extracts cepstrum-based acoustic features such as CC. Then, the speech likelihood and the non-speech likelihood are calculated by collating the acoustic feature with the previously learned speech model and the non-speech model.

ステップS504では、音声・非音声判別部103は、長さ400ms(50フレーム
分)の所定区間ごとに音声・非音声を判別する。判別には、ステップS503で計算され
た音声尤度および非音声尤度を用いる。
In step S504, the speech / non-speech discrimination unit 103 discriminates speech / non-speech for each predetermined section having a length of 400 ms (for 50 frames). For the determination, the speech likelihood and the non-speech likelihood calculated in step S503 are used.

ステップS505では、判別対象となった区間が最初の区間であるか否かに応じて処理
を分岐する。最初の区間である場合は、非音声信号の基底行列は作成されていないため、
ステップ504での判別結果によらずステップS507に移行する。最初の区間でない場
合は、ステップS506に移行する。
In step S505, the process branches depending on whether or not the section to be determined is the first section. If it is the first interval, the basis matrix of the non-speech signal has not been created,
Regardless of the determination result in step 504, the process proceeds to step S507. If it is not the first section, the process proceeds to step S506.

ステップS506では、判別対象となった区間の判別結果に応じて処理を分岐する。判
別結果が非音声である場合はステップS507へ、音声である場合はステップS509へ
移行する。
In step S506, the process branches according to the determination result of the section to be determined. If the determination result is non-voice, the process proceeds to step S507. If the determination result is voice, the process proceeds to step S509.

ステップS507では、第1基底行列作成部105は、判別対象となった区間から抽出
されたスペクトログラムを利用して、非音声信号の特徴を表す第1の基底行列Hおよび係
数行列を作成する。
In step S507, the first basis matrix creation unit 105 creates a first basis matrix H and a coefficient matrix that represent the characteristics of the non-speech signal using the spectrogram extracted from the section to be determined.

ステップS508では、第2基底行列作成部106は、ステップS503で計算された
音声尤度を利用して、第1の基底行列Hから音声信号との関連性が高い列ベクトルの成分
を除外した第2の基底行列Bを作成する。ステップS508の詳細は後述する。
In step S508, the second basis matrix creation unit 106 uses the speech likelihood calculated in step S503 to exclude the column vector component that is highly relevant to the speech signal from the first basis matrix H. 2 basis matrix B is created. Details of step S508 will be described later.

ステップS509では、スペクトル特徴推定部107は、ステップS504で音声・非
音声が判別された400ms(50フレーム)の区間から抽出されたスペクトログラムを
第2の基底行列Bを用いて非負行列因子分解し、音声信号の特徴を表す第3の基底行列M
および第1の係数行列Vを計算する。
In step S509, the spectrum feature estimation unit 107 performs non-negative matrix factorization on the spectrogram extracted from the 400 ms (50 frames) section in which speech / non-speech is determined in step S504 using the second basis matrix B, A third basis matrix M representing the characteristics of the speech signal
And a first coefficient matrix V is calculated.

ステップS510では、スペクトル特徴推定部107は、第3の基底行列Mと第1の係
数行列Vの積により、音声信号のスペクトログラムの推定値を得る。推定された音声スペ
クトログラムのフレーム数は50になる。
In step S510, the spectrum feature estimation unit 107 obtains an estimated value of the spectrogram of the speech signal by the product of the third basis matrix M and the first coefficient matrix V. The estimated number of frames of the speech spectrogram is 50.

ステップS511では、逆変換部108は、ステップS510で推定された音声信号の
スペクトログラムを離散逆フーリエ変換により時間信号に変換する。
In step S511, the inverse transform unit 108 transforms the spectrogram of the speech signal estimated in step S510 into a time signal by discrete inverse Fourier transform.

ステップS512では、音響信号処理装置は、全ての区間について音声信号の分離処理
が終了したか否かを判別する。終了していない場合はステップS504に移行して、次の
400ms区間について音声・非音声を判別する。
In step S512, the acoustic signal processing device determines whether or not the audio signal separation processing has been completed for all the sections. If not completed, the process proceeds to step S504, and voice / non-voice is determined for the next 400 ms section.

(フローチャート: 第2基底行列作成部)
図6のフローチャートを利用して、第2の基底行列Bを作成する図5のステップS50
8の詳細を説明する。まず、ステップS601では、第2基底行列作成部106は、係数
行列Uの各行ごとに正規化を実行することにより係数行列U’を得る。
(Flowchart: second basis matrix generator)
Step S50 of FIG. 5 for creating the second basis matrix B using the flowchart of FIG.
8 will be described in detail. First, in step S601, the second basis matrix creation unit 106 obtains a coefficient matrix U ′ by performing normalization for each row of the coefficient matrix U.

ステップS602では、第2基底行列作成部106は、正規化された係数行列U’の各
列ベクトルに対応する音声尤度を取得する。
In step S602, the second basis matrix creation unit 106 obtains a speech likelihood corresponding to each column vector of the normalized coefficient matrix U ′.

ステップS603では、第2基底行列作成部106は、音声尤度と予め設定した閾値を
比較する。
In step S603, the second basis matrix creation unit 106 compares the speech likelihood with a preset threshold value.

ステップS604では、第2基底行列作成部106は、閾値を超えた音声尤度に対応づ
けられた係数行列U’の列ベクトルを選択する。音声尤度が閾値を超えるフレームが複数
ある場合は、列ベクトルも複数選択する。
In step S604, the second basis matrix creation unit 106 selects a column vector of the coefficient matrix U ′ associated with the speech likelihood exceeding the threshold. When there are a plurality of frames whose speech likelihood exceeds the threshold, a plurality of column vectors are also selected.

ステップS605では、第2基底行列作成部106は、ステップS604で選択された
各列ベクトルにおいて最大の値を示す要素を選択する。要素は、係数行列U’のX行Y列
目のように選択する。列ベクトルが複数ある場合は、選択される要素も複数になる。
In step S605, the second basis matrix creation unit 106 selects an element indicating the maximum value in each column vector selected in step S604. The elements are selected as in the Xth row and the Yth column of the coefficient matrix U ′. When there are a plurality of column vectors, a plurality of elements are selected.

ステップS606では、第2基底行列作成部106は、第1の基底行列Hと係数行列U
の積において、係数行列UのX行Y列目の要素との積が計算されるX列目の列ベクトルを
第1の基底行列Hから除外する。以上の処理により、第2基底行列作成部106は、音声
信号の影響を取り除いた第2の基底行列Bを作成できる。
In step S606, the second basis matrix creation unit 106 performs the first basis matrix H and the coefficient matrix U.
, The column vector of the X column for which the product with the element of the X row and the Y column of the coefficient matrix U is calculated is excluded from the first basis matrix H. Through the above processing, the second basis matrix creation unit 106 can create the second basis matrix B from which the influence of the audio signal is removed.

図7に、本実施形態の音響信号装置で推定された音声スペクトルの例を示す。同図の7
01は、音声信号と非音声信号が混ざり合った音響信号のスペクトログラムを示している
。このスペクトログラムでは、黒色が音声信号の成分を灰色が非音声信号の成分をそれぞ
れ表している。推定された音声信号のスペクトログラムにおいて、黒色の表示が残り、灰
色の表示が白色に変換されることが理想的な結果である。
FIG. 7 shows an example of a speech spectrum estimated by the acoustic signal device of the present embodiment. 7 in the figure
01 shows a spectrogram of an acoustic signal in which an audio signal and a non-audio signal are mixed. In this spectrogram, black represents the component of the audio signal and gray represents the component of the non-audio signal. In the spectrogram of the estimated speech signal, the ideal result is that the black display remains and the gray display is converted to white.

702および703は、非音声と判別された区間705のスペクトログラムから作成さ
れた非音声信号の基底行列を用いて推定された音声信号のスペクトログラムを示している
。702は第1の基底行列Hを用いた非負行列因子分解により音声信号のスペクトログラ
ムを推定しており、703は第2の基底行列Bを用いた非負行列因子分解により音声信号
のスペクトログラムを推定している。一方、704は、各フレームにおける音声尤度が低
くかつ705より短い区間である706のスペクトログラムから作成された非音声信号の
基底行列を用いて推定された音声信号のスペクトログラムを示している。図7の各スペク
トログラムを比較すると、702および704は音声信号の成分を表す黒色の部分が削除
されている。702は705の区間に含まれる音響信号の影響により、704は区間70
6が十分な長さを有していないことにより、非音声信号の基底行列の作成精度が低下した
ものと考えられる。一方、本実施形態の音響信号処理装置を用いた703のスペクトログ
ラムは、音声信号の成分を残した上で非音声信号の成分を除去しており、より理想的な推
定結果を示していることが分かる。
Reference numerals 702 and 703 denote spectrograms of the speech signal estimated using the basis matrix of the non-speech signal created from the spectrogram of the section 705 determined to be non-speech. 702 estimates the spectrogram of the speech signal by non-negative matrix factorization using the first basis matrix H, and 703 estimates the spectrogram of the speech signal by non-negative matrix factorization using the second basis matrix B. Yes. On the other hand, reference numeral 704 denotes a spectrogram of the speech signal estimated using the base matrix of the non-speech signal created from the spectrogram of 706, which is a section having a low speech likelihood in each frame and shorter than 705. When the spectrograms of FIG. 7 are compared, black portions 702 and 704 representing the components of the audio signal are deleted. 702 is the effect of the acoustic signal included in the section 705, and 704 is the section 70.
It is considered that the accuracy of creating the base matrix of the non-speech signal has decreased because 6 does not have a sufficient length. On the other hand, the spectrogram 703 using the acoustic signal processing apparatus of the present embodiment removes the non-speech signal component while leaving the speech signal component, indicating a more ideal estimation result. I understand.

(効果)
このように、本実施形態の音響信号処理装置は、作成された非音声信号の第1の基底行
列から音声信号との関連性が高い成分を除外することで第2の基底行列を作成する。これ
により、非音声信号の基底行列を正確に作成することができ、結果として、音声信号の分
離性能を向上させることができる。
(effect)
As described above, the acoustic signal processing device according to the present embodiment creates the second basis matrix by excluding the component highly relevant to the speech signal from the created first basis matrix of the non-speech signal. As a result, the basis matrix of the non-speech signal can be created accurately, and as a result, the separation performance of the speech signal can be improved.

(変形例)
本実施形態の音響信号処理装置では、音声信号と非音声信号の分離を対象としていたが
、他の信号の分離に応用することもできる。例えば、音楽信号と非音楽信号の分離も同様
な方法で実現することができる。
(Modification)
The acoustic signal processing apparatus of the present embodiment is intended for separation of audio signals and non-audio signals, but it can also be applied to separation of other signals. For example, separation of a music signal and a non-music signal can be realized by a similar method.

また、尤度計算部102がスペクトル特徴を用いて尤度を計算する場合は、スペクトル
特徴抽出部104で抽出されたスペクトル特徴を用いてもよい。この場合、尤度計算部1
02は、スペクトル特徴抽出部104で抽出されたスペクトル特徴を音響特徴として利用
することができる。
When the likelihood calculation unit 102 calculates the likelihood using the spectrum feature, the spectrum feature extracted by the spectrum feature extraction unit 104 may be used. In this case, the likelihood calculation unit 1
02, the spectrum feature extracted by the spectrum feature extraction unit 104 can be used as an acoustic feature.

また、図7のステップS507およびS508では、ステップS506において非音声
と判別されるたびに非音声信号の基底行列を作成したが、対象となる区間の1つ前の区間
までに非音声信号の基底行列が既に作成されている場合は、ステップS507およびS5
08をスキップして既に作成された非音声信号の基底行列を用いて音声信号のスペクトロ
グラムを推定することもできる。
In steps S507 and S508 of FIG. 7, a base matrix of a non-speech signal is created every time it is determined as non-speech in step S506, but the basis of the non-speech signal is reached by the previous section of the target section. If the matrix has already been created, steps S507 and S5
It is also possible to estimate the spectrogram of the speech signal by using the basis matrix of the non-speech signal already created by skipping 08.

また、本実施形態の音響信号処理装置は、音声・非音声判別部103で非音声と判別さ
れた区間のスペクトログラムから非音声信号の基底行列を作成したが、音響信号の先頭4
00msの区間のスペクトログラムから非音声信号の基底行列を作成することもできる。
この区間に音声信号が含まれていたとしても、第2基底行列作成部106によって音声信
号の成分が除外されるため、作成される非音声信号の基底行列の精度を保つことができる
In addition, the acoustic signal processing apparatus according to the present embodiment creates a base matrix of a non-speech signal from the spectrogram of a section determined as non-speech by the speech / non-speech discrimination unit 103.
A base matrix of a non-speech signal can also be created from a spectrogram of a 00 ms interval.
Even if the speech signal is included in this section, the second basis matrix creation unit 106 excludes the speech signal component, so that the accuracy of the created base matrix of the non-speech signal can be maintained.

なお、以上説明した本実施形態における一部機能もしくは全ての機能は、ソフトウェア
処理により実現可能である。
Note that some or all of the functions in the present embodiment described above can be realized by software processing.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したも
のであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その
他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の
省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や
要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる
Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

101 響取得部
102 尤度計算部
103 音声・非音声判別部
104 スペクトル特徴抽出部
105 第1基底行列作成部
106 第2基底行列作成部
107 スペクトル特徴推定部
108 逆変換部
201 制御部
202 記憶部
203 外部記憶部
204 操作部
205 通信部
206 マイク
208 バス
301 非負行列因子分解
302 音声尤度
303 最大値を示す要素
401 非負行列因子分解
402 音声信号のスペクトログラム
701 音響信号のスペクトログラム
702〜704 推定された音声信号のスペクトログラム
705 非音声信号と判別された区間
706 音声尤度が低い区間
DESCRIPTION OF SYMBOLS 101 Symphony acquisition part 102 Likelihood calculation part 103 Speech / non-speech discrimination part 104 Spectrum feature extraction part 105 First basis matrix creation part 106 Second basis matrix creation part 107 Spectrum feature estimation part 108 Inverse conversion part 201 Control part 202 Storage part 203 External storage unit 204 Operation unit 205 Communication unit 206 Microphone 208 Bus 301 Non-negative matrix factorization 302 Speech likelihood 303 Element 401 indicating maximum value Non-negative matrix factorization 402 Speech signal spectrogram 701 Acoustic signal spectrogram 702 to 704 Estimated Spectrogram 705 of speech signal Section 706 determined as non-speech signal 706 Section with low speech likelihood

Claims (14)

音声信号と非音声信号を含んだ音響信号から前記音声信号および前記非音声信号の特徴を
表す音響特徴を抽出し、この音響特徴を利用して前記音響信号に前記音声信号が含まれる
尤もらしさを表す尤度を計算する尤度計算手段と、
前記音響信号を周波数解析してスペクトル特徴を抽出するスペクトル特徴抽出手段と、
前記スペクトル特徴を利用して、前記非音声信号の特徴を表す第1の基底行列を作成する
第1基底行列作成手段と、
前記尤度を利用して、前記第1の基底行列において前記音声信号との関連性が高い成分を
特定し、この成分を除外して第2の基底行列を作成する第2基底行列作成手段と、
を備えた音響信号処理装置。
An acoustic feature representing the characteristics of the speech signal and the non-speech signal is extracted from an acoustic signal including the speech signal and the non-speech signal, and the likelihood that the speech signal is included in the acoustic signal is extracted using the acoustic feature. Likelihood calculating means for calculating the likelihood to represent;
Spectral feature extraction means for extracting spectral features by frequency analysis of the acoustic signal;
First basis matrix creating means for creating a first basis matrix representing the feature of the non-speech signal using the spectral feature;
A second basis matrix creating means for identifying a component highly relevant to the speech signal in the first basis matrix using the likelihood, and creating a second basis matrix by excluding this component; ,
An acoustic signal processing apparatus.
前記音響信号又は他の音響信号のスペクトル特徴から前記第2の基底行列を用いて、音声
信号のスペクトル特徴あるいは非音声信号のスペクトル特徴を推定するスペクトル特徴推
定手段と、
を更に備えた請求項1記載の音響信号処理装置。
Spectral feature estimation means for estimating a spectral feature of a speech signal or a spectral feature of a non-speech signal using the second basis matrix from a spectral feature of the acoustic signal or another acoustic signal;
The acoustic signal processing device according to claim 1, further comprising:
前記スペクトル特徴推定手段が、前記第2の基底行列を用いた非負行列因子分解により、
前記音声信号の特徴を表す第3の基底行列および第1の係数行列を作成し、この第3の基
底行列と第1の係数行列の積により、前記音声信号のスペクトル特徴を推定する請求項2
記載の音響信号処理装置。
The spectral feature estimation means performs non-negative matrix factorization using the second basis matrix,
3. A third basis matrix and a first coefficient matrix representing the characteristics of the speech signal are created, and a spectral feature of the speech signal is estimated by a product of the third basis matrix and the first coefficient matrix.
The acoustic signal processing device described.
前記第2基底行列作成手段が、前記第1の基底行列から前記音声信号との関連性が高い列
ベクトルを除外して前記第2の基底行列を作成する請求項1乃至請求項3記載の音響信号
処理装置。
4. The acoustic according to claim 1, wherein the second basis matrix creating unit creates the second basis matrix by excluding a column vector having high relevance to the speech signal from the first basis matrix. 5. Signal processing device.
前記第2基底行列作成手段が、前記第1の基底行列から前記音声信号との関連性が高い列
ベクトルの値を0に置き換えて前記第2の基底行列を作成する請求項1乃至請求項3記載
の音響信号処理装置。
4. The second basis matrix creation unit creates the second basis matrix by replacing a value of a column vector having high relevance with the speech signal from the first basis matrix with 0. The acoustic signal processing device described.
前記第2基底行列作成手段が、前記尤度と所定の閾値を比較することにより前記第1の基
底行列において前記音声信号との関連性が高い成分を特定する請求項1から請求項5の何
れか1項に記載の音響信号処理装置。
6. The method according to claim 1, wherein the second basis matrix creation means identifies a component having high relevance to the speech signal in the first basis matrix by comparing the likelihood with a predetermined threshold value. The acoustic signal processing device according to claim 1.
前記音響信号から前記音声信号および前記非音声信号の特徴を表す音響特徴を抽出し、こ
の音響特徴を利用して前記音響信号が音声信号であるか非音声信号であるかを判別する音
声・非音声判別手段を更に備え、
前記第1基底行列作成手段が、前記音声・非音声判別手段で非音声信号であると判別され
た前記音響信号のスペクトル特徴を利用して、前記非音声信号の特徴を表す第1の基底行
列を作成する請求項1から請求項6の何れか1項に記載の音響信号処理装置。
An acoustic feature representing the characteristics of the voice signal and the non-speech signal is extracted from the acoustic signal, and the acoustic feature is used to determine whether the acoustic signal is a speech signal or a non-speech signal. A voice discrimination means;
The first basis matrix that represents the feature of the non-speech signal by using the spectral feature of the acoustic signal that has been determined by the speech / non-speech discrimination unit to be a non-speech signal. The acoustic signal processing device according to any one of claims 1 to 6, wherein the sound signal processing device is created.
前記スペクトル特徴推定手段が、前記第2の基底行列を用いた非負行列因子分解により、
非音声信号の特徴を表す第2の係数行列を作成し、前記第2の基底行列とこの第2の係数
行列の積により、前記音響信号に含まれる非音声信号のスペクトル特徴を推定する請求項
2から請求項7の何れか1項に記載の音響信号処理装置。
The spectral feature estimation means performs non-negative matrix factorization using the second basis matrix,
A second coefficient matrix representing a feature of a non-speech signal is created, and a spectral feature of the non-speech signal included in the acoustic signal is estimated by a product of the second base matrix and the second coefficient matrix. The acoustic signal processing device according to any one of claims 2 to 7.
前記スペクトル特徴推定手段で推定されたスペクトル特徴を時間信号に変換する逆変換手
段を更に備える請求項2から請求項8の何れか1項に記載の音響信号処理装置。
The acoustic signal processing device according to any one of claims 2 to 8, further comprising an inverse conversion unit that converts the spectral feature estimated by the spectral feature estimation unit into a time signal.
第1の音響信号および前記第1の音響信号とは異なる第2の音響信号を含んだ第3の音響
信号から前記第1の音響信号および前記第2の音響信号の特徴を表す音響特徴を抽出し、
この音響特徴を利用して前記第3の音響信号に前記第1の音響信号が含まれる尤もらしさ
を表す尤度を計算する尤度計算手段と、
前記第3の音響信号を周波数解析してスペクトル特徴を抽出するスペクトル特徴抽出手段
と、
前記スペクトル特徴を利用して、前記第2の音響信号の特徴を表す第1の基底行列を作成
する第1基底行列作成手段と、
前記尤度を利用して、前記第1の基底行列において前記第1の音響信号との関連性が高い
成分を特定し、この成分を除外して第2の基底行列を作成する第2基底行列作成手段と、
を備えた音響信号処理装置。
An acoustic feature representing the characteristics of the first acoustic signal and the second acoustic signal is extracted from a first acoustic signal and a third acoustic signal including a second acoustic signal different from the first acoustic signal. And
Likelihood calculation means for calculating likelihood representing the likelihood that the first acoustic signal is included in the third acoustic signal using this acoustic feature;
Spectral feature extraction means for extracting a spectral feature by frequency analysis of the third acoustic signal;
First basis matrix creating means for creating a first basis matrix representing the characteristics of the second acoustic signal using the spectral feature;
Using the likelihood, a component having a high relevance to the first acoustic signal in the first basis matrix is specified, and a second basis matrix is generated by excluding this component and generating a second basis matrix Creating means;
An acoustic signal processing apparatus.
音声信号と非音声信号を含んだ音響信号から前記音声信号および前記非音声信号の特徴を
表す音響特徴を抽出し、この音響特徴を利用して前記音響信号に前記音声信号が含まれる
尤もらしさを表す尤度を計算するステップと、
前記音響信号を周波数解析してスペクトル特徴を抽出するステップと、
前記スペクトル特徴を利用して、前記非音声信号の特徴を表す第1の基底行列を作成する
ステップと、
前記尤度を利用して、前記第1の基底行列において前記音声信号との関連性が高い成分を
特定し、この成分を除外して第2の基底行列を作成するステップと、
を備えた音響信号処理方法。
An acoustic feature representing the characteristics of the speech signal and the non-speech signal is extracted from an acoustic signal including the speech signal and the non-speech signal, and the likelihood that the speech signal is included in the acoustic signal is extracted using the acoustic feature. Calculating a likelihood to represent;
Analyzing the frequency of the acoustic signal to extract spectral features;
Using the spectral features to create a first basis matrix representing the features of the non-speech signal;
Identifying a component highly relevant to the speech signal in the first basis matrix using the likelihood, and excluding this component to create a second basis matrix;
An acoustic signal processing method comprising:
第1の音響信号および前記第1の音響信号とは異なる第2の音響信号を含んだ第3の音響
信号から前記第1の音響信号および前記第2の音響信号の特徴を表す音響特徴を抽出し、
この音響特徴を利用して前記第3の音響信号に前記第1の音響信号が含まれる尤もらしさ
を表す尤度を計算するステップと、
前記第3の音響信号を周波数解析してスペクトル特徴を抽出するステップと、
前記スペクトル特徴を利用して、前記第2の音響信号の特徴を表す第1の基底行列を作成
するステップと、
前記尤度を利用して、前記第1の基底行列において前記第1の音響信号との関連性が高い
成分を特定し、この成分を除外して第2の基底行列を作成するステップと、
を備えた音響信号方法。
An acoustic feature representing the characteristics of the first acoustic signal and the second acoustic signal is extracted from a first acoustic signal and a third acoustic signal including a second acoustic signal different from the first acoustic signal. And
Using the acoustic feature to calculate a likelihood representing the likelihood that the third acoustic signal includes the first acoustic signal;
Analyzing the frequency of the third acoustic signal to extract spectral features;
Using the spectral features to create a first basis matrix representing the features of the second acoustic signal;
Identifying a component highly relevant to the first acoustic signal in the first basis matrix using the likelihood, and excluding this component to create a second basis matrix;
An acoustic signal method comprising:
音響信号処理装置に、
音声信号と非音声信号を含んだ音響信号から前記音声信号および前記非音声信号の特徴を
表す音響特徴を抽出し、この音響特徴を利用して前記音響信号に前記音声信号が含まれる
尤もらしさを表す尤度を計算するステップと、
前記音響信号を周波数解析してスペクトル特徴を抽出するステップと、
前記スペクトル特徴を利用して、前記非音声信号の特徴を表す第1の基底行列を作成する
ステップと、
前記尤度を利用して、前記第1の基底行列において前記音声信号との関連性が高い成分を
特定し、この成分を除外して第2の基底行列を作成するステップと、
を実現させるための音響信号処理プログラム。
In the acoustic signal processing device,
An acoustic feature representing the characteristics of the speech signal and the non-speech signal is extracted from an acoustic signal including the speech signal and the non-speech signal, and the likelihood that the speech signal is included in the acoustic signal is extracted using the acoustic feature. Calculating a likelihood to represent;
Analyzing the frequency of the acoustic signal to extract spectral features;
Using the spectral features to create a first basis matrix representing the features of the non-speech signal;
Identifying a component highly relevant to the speech signal in the first basis matrix using the likelihood, and excluding this component to create a second basis matrix;
An acoustic signal processing program for realizing
音響信号処理装置に、
第1の音響信号および前記第1の音響信号とは異なる第2の音響信号を含んだ第3の音響
信号から前記第1の音響信号および前記第2の音響信号の特徴を表す音響特徴を抽出し、
この音響特徴を利用して前記第3の音響信号に前記第1の音響信号が含まれる尤もらしさ
を表す尤度を計算するステップと、
前記第3の音響信号を周波数解析してスペクトル特徴を抽出するステップと、
前記スペクトル特徴を利用して、前記第2の音響信号の特徴を表す第1の基底行列を作成
するステップと、
前記尤度を利用して、前記第1の基底行列において前記第1の音響信号との関連性が高い
成分を特定し、この成分を除外して第2の基底行列を作成するステップと、
を実現させるための音響信号処理プログラム。
In the acoustic signal processing device,
An acoustic feature representing the characteristics of the first acoustic signal and the second acoustic signal is extracted from a first acoustic signal and a third acoustic signal including a second acoustic signal different from the first acoustic signal. And
Using the acoustic feature to calculate a likelihood representing the likelihood that the third acoustic signal includes the first acoustic signal;
Analyzing the frequency of the third acoustic signal to extract spectral features;
Using the spectral features to create a first basis matrix representing the features of the second acoustic signal;
Identifying a component highly relevant to the first acoustic signal in the first basis matrix using the likelihood, and excluding this component to create a second basis matrix;
An acoustic signal processing program for realizing
JP2014245910A 2014-12-04 2014-12-04 Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program Pending JP2015064602A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014245910A JP2015064602A (en) 2014-12-04 2014-12-04 Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014245910A JP2015064602A (en) 2014-12-04 2014-12-04 Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011172409A Division JP5662276B2 (en) 2011-08-05 2011-08-05 Acoustic signal processing apparatus and acoustic signal processing method

Publications (1)

Publication Number Publication Date
JP2015064602A true JP2015064602A (en) 2015-04-09

Family

ID=52832471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014245910A Pending JP2015064602A (en) 2014-12-04 2014-12-04 Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program

Country Status (1)

Country Link
JP (1) JP2015064602A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10109291B2 (en) 2016-01-05 2018-10-23 Kabushiki Kaisha Toshiba Noise suppression device, noise suppression method, and computer program product

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084860A (en) * 2003-09-08 2005-03-31 National Institute Of Information & Communication Technology Blind signal separating system, method and program, and its recording medium
US20100254539A1 (en) * 2009-04-07 2010-10-07 Samsung Electronics Co., Ltd. Apparatus and method for extracting target sound from mixed source sound
JP2011081614A (en) * 2009-10-07 2011-04-21 Denso It Laboratory Inc Recognition system, recognition method, and program
JP2011133780A (en) * 2009-12-25 2011-07-07 Nippon Telegr & Teleph Corp <Ntt> Signal analyzing device, signal analyzing method and signal analyzing program
JP5662276B2 (en) * 2011-08-05 2015-01-28 株式会社東芝 Acoustic signal processing apparatus and acoustic signal processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084860A (en) * 2003-09-08 2005-03-31 National Institute Of Information & Communication Technology Blind signal separating system, method and program, and its recording medium
US20100254539A1 (en) * 2009-04-07 2010-10-07 Samsung Electronics Co., Ltd. Apparatus and method for extracting target sound from mixed source sound
JP2011081614A (en) * 2009-10-07 2011-04-21 Denso It Laboratory Inc Recognition system, recognition method, and program
JP2011133780A (en) * 2009-12-25 2011-07-07 Nippon Telegr & Teleph Corp <Ntt> Signal analyzing device, signal analyzing method and signal analyzing program
JP5662276B2 (en) * 2011-08-05 2015-01-28 株式会社東芝 Acoustic signal processing apparatus and acoustic signal processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"NMFとVQ手法による音楽重畳音声の音声認識", 電子情報通信学会技術研究報告, vol. 第111巻 第97号, JPN6014046553, 16 June 2011 (2011-06-16), JP, pages 23 - 28, ISSN: 0003209325 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10109291B2 (en) 2016-01-05 2018-10-23 Kabushiki Kaisha Toshiba Noise suppression device, noise suppression method, and computer program product

Similar Documents

Publication Publication Date Title
JP5662276B2 (en) Acoustic signal processing apparatus and acoustic signal processing method
US20110125496A1 (en) Speech recognition device, speech recognition method, and program
US9536525B2 (en) Speaker indexing device and speaker indexing method
TW514867B (en) Method and apparatus for constructing voice templates for a speaker-independent voice recognition system
US9478232B2 (en) Signal processing apparatus, signal processing method and computer program product for separating acoustic signals
JP7342915B2 (en) Audio processing device, audio processing method, and program
US9595261B2 (en) Pattern recognition device, pattern recognition method, and computer program product
US9437208B2 (en) General sound decomposition models
US9460714B2 (en) Speech processing apparatus and method
JP2017520784A (en) On-the-fly sound source separation method and system
JP7176627B2 (en) Signal extraction system, signal extraction learning method and signal extraction learning program
Ismail et al. Mfcc-vq approach for qalqalahtajweed rule checking
CN107851442B (en) Matching device, determination device, methods thereof, program, and recording medium
WO2013030134A1 (en) Method and apparatus for acoustic source separation
CN108369803B (en) Method for forming an excitation signal for a parametric speech synthesis system based on a glottal pulse model
CN111292763A (en) Stress detection method and device, and non-transient storage medium
WO2018163279A1 (en) Voice processing device, voice processing method and voice processing program
JP6724290B2 (en) Sound processing device, sound processing method, and program
EP3254282A1 (en) Determining features of harmonic signals
CN108847251A (en) A kind of voice De-weight method, device, server and storage medium
US11580967B2 (en) Speech feature extraction apparatus, speech feature extraction method, and computer-readable storage medium
JP2015064602A (en) Acoustic signal processing device, acoustic signal processing method, and acoustic signal processing program
JP2019132948A (en) Voice conversion model learning device, voice conversion device, method, and program
JPH10133688A (en) Speech recognition device
Sinith et al. Pattern recognition in South Indian classical music using a hybrid of HMM and DTW

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20151204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160401