WO2017094862A1 - 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム - Google Patents

空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム Download PDF

Info

Publication number
WO2017094862A1
WO2017094862A1 PCT/JP2016/085821 JP2016085821W WO2017094862A1 WO 2017094862 A1 WO2017094862 A1 WO 2017094862A1 JP 2016085821 W JP2016085821 W JP 2016085821W WO 2017094862 A1 WO2017094862 A1 WO 2017094862A1
Authority
WO
WIPO (PCT)
Prior art keywords
spatial correlation
correlation matrix
mask
matrix
coefficient
Prior art date
Application number
PCT/JP2016/085821
Other languages
English (en)
French (fr)
Inventor
中谷 智広
信貴 伊藤
卓哉 樋口
荒木 章子
拓也 吉岡
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2017554190A priority Critical patent/JP6434657B2/ja
Priority to CN201680069908.5A priority patent/CN108292508B/zh
Priority to US15/779,926 priority patent/US10643633B2/en
Publication of WO2017094862A1 publication Critical patent/WO2017094862A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Definitions

  • the present invention relates to a spatial correlation matrix estimation device, a spatial correlation matrix estimation method, and a spatial correlation matrix estimation program.
  • the spatial correlation when only the target sound source is included in the observed signal from the observation signals collected by multiple microphones A method for estimating a matrix has been proposed. Further, when estimating the spatial correlation matrix, a mask that is a ratio of each acoustic signal included in the observed acoustic signal may be used.
  • the spatial correlation matrix is a matrix that represents the autocorrelation and cross-correlation of signals between microphones. For example, the position of the target sound source is estimated, or a beamformer that extracts only the target sound source from the observed signal is designed. Used for.
  • FIG. 6 is a diagram illustrating a configuration of a conventional spatial correlation matrix estimation apparatus.
  • the time-frequency analysis unit 10a calculates an observation feature quantity vector for each time-frequency point extracted from the observation signal.
  • the mask estimation unit 20a estimates a mask corresponding to the target sound source and background noise based on the observed feature vector.
  • the observed feature quantity matrix calculation unit 30a calculates an observed feature quantity matrix by multiplying the observed feature quantity vector and the Hermitian transpose of the observed feature quantity vector.
  • the target sound feature quantity matrix time average calculation unit 40a calculates an average target sound feature quantity matrix that is a time average of a matrix obtained by multiplying the observation feature quantity matrix by a mask corresponding to the target sound source.
  • the noise feature amount matrix time average calculation unit 50a calculates an average noise feature amount matrix that is a time average of a matrix obtained by multiplying the observed feature amount matrix by a mask corresponding to background noise.
  • the target sound feature quantity noise removing unit 60a estimates the spatial correlation matrix of the target sound source by subtracting the average noise feature quantity matrix from the average target sound feature quantity matrix.
  • the conventional spatial correlation matrix estimation method has a problem that the spatial correlation matrix of the target sound source may not be accurately estimated because the influence of background noise cannot be accurately removed from the observed signal.
  • the result of subtracting the average noise feature matrix from the average target sound feature matrix is estimated as the spatial correlation matrix of the target sound source, which was obtained empirically.
  • This is a method, and the amount of influence of noise included in the average target sound feature amount matrix does not always match the average noise feature amount matrix, so there is no guarantee that the influence of noise is canceled. Therefore, the conventional spatial correlation matrix estimation method may not accurately estimate the spatial correlation matrix of the target sound source.
  • the spatial correlation matrix estimation apparatus includes N first acoustic signals corresponding to N target sound sources (where N is an integer equal to or greater than 1) and a second acoustic signal corresponding to background noise.
  • N is an integer equal to or greater than 1
  • M is an integer of 2 or more
  • a spatial correlation matrix estimation device for estimating a spatial correlation matrix of the target sound source based on the first mask and the second mask, wherein the observation signal and the first mask Calculated based on the first A first spatial correlation matrix obtained by weighting the collection matrix with a first coefficient, and a second feature matrix calculated based on the observation signal and the second mask by using a second coefficient.
  • a noise removing unit for estimating a spatial correlation matrix of the target sound source based on the spatial correlation matrix of
  • the spatial correlation matrix estimation method of the present invention includes N first acoustic signals corresponding to N target sound sources (where N is an integer equal to or greater than 1) and a second acoustic signal corresponding to background noise.
  • N is an integer equal to or greater than 1
  • M is an integer of 2 or more
  • a spatial correlation matrix estimation method for estimating a spatial correlation matrix of the target sound source based on the first mask and the second mask, wherein the observation signal and the first mask are estimated. Calculated based on mask A first spatial correlation matrix obtained by weighting one feature matrix with a first coefficient, and a second feature matrix calculated based on the observed signal and the second mask by using a second coefficient. And a noise removal step of estimating a spatial correlation matrix of the target sound source based on the second spatial correlation matrix.
  • the present invention it is possible to accurately remove the influence of background noise from the observation signal and accurately estimate the spatial correlation matrix of the target sound source.
  • FIG. 1 is a diagram illustrating an example of the configuration of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of the configuration of the mask estimation unit of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of processing of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of mask estimation processing of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of a computer in which a spatial correlation matrix estimation apparatus is realized by executing a program.
  • FIG. 6 is a diagram illustrating a configuration of a conventional spatial correlation matrix estimation apparatus.
  • FIG. 1 is a diagram illustrating an example of the configuration of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • the spatial correlation matrix estimation device 1 includes a time-frequency analysis unit 10, a mask estimation unit 20, an observed feature quantity matrix calculation unit 30, a noise target sound spatial correlation matrix estimation unit 40, and a noise spatial correlation matrix estimation. And a target sound space correlation matrix noise removing unit 60.
  • the time frequency analysis unit 10 calculates an observation feature vector based on the input observation feature. Specifically, the time-frequency analysis unit 10 applies short-time signal analysis to each observation signal y (m) ( ⁇ ), extracts a signal feature amount for each time-frequency point, and uses the signal feature amount as a component. An observed feature vector x (t, f), which is an M-dimensional vertical vector, is calculated for each time frequency point.
  • the mask estimation unit 20 includes, for each time frequency point, a first mask ⁇ n (t, f) that is a ratio of the first acoustic signal included in the feature amount of the observation signal, and each time frequency point, A second mask ⁇ v (t, f), which is the ratio of the second acoustic signal included in the feature quantity of the observation signal, is estimated. Then, the observed feature quantity matrix calculation unit 30 multiplies the observed feature quantity vector and the Hermitian transposition of the observed feature quantity vector for each time frequency point based on the observed feature quantity vector, and the observed feature quantity matrix R xx (t , F).
  • the target sound spatial correlation matrix estimation unit 40 under noise calculates a first spatial correlation matrix obtained by weighting the first feature amount matrix calculated based on the observation signal and the first mask with the first coefficient. Specifically, the target sound spatial correlation matrix estimation unit 40 under noise calculates, for each target sound source, a time average for each frequency of a matrix obtained by multiplying the observation feature matrix and the first mask for each time frequency point.
  • the first feature quantity matrix R ′ n + v (t, f) is calculated, and the result obtained by multiplying the first feature quantity matrix by the first coefficient ⁇ is defined as a first spatial correlation matrix R n + v (t, f). .
  • the noise spatial correlation matrix estimation unit 50 calculates a second spatial correlation matrix obtained by weighting the second feature amount matrix calculated based on the observation signal and the second mask with the second coefficient. Specifically, for the background noise, a time average for each frequency of a matrix obtained by multiplying the observation feature matrix and the second mask for each time frequency point is the second feature matrix R ′ v (t, f). And the result obtained by multiplying the second feature matrix by the second coefficient ⁇ is defined as a second spatial correlation matrix R v (t, f).
  • the target sound spatial correlation matrix which functions as a noise removal unit, estimates the spatial correlation matrix of the target sound source based on the first spatial correlation matrix and the second spatial correlation matrix. Specifically, the target sound spatial correlation matrix noise removing unit 60 sets the result of subtracting the second spatial correlation matrix from the first spatial correlation matrix as the spatial correlation matrix R n (t, f) of the target sound source.
  • the ratio between the first coefficient and the second coefficient is equal to, for example, the ratio between the inverse of the time average value of the first mask and the inverse of the time average value of the second mask.
  • the target sound source is sparse and it is assumed that there is at most one target sound source at each time frequency point. Also, background noise is assumed to be present at all time frequency points.
  • the observed feature vector calculated by the time-frequency analysis unit 10 using the short-time signal analysis such as the short-time Fourier transform from the input observed feature is either of Expression (1) or Expression (2). Will match.
  • Equation (1) represents the case where only the nth sound source among the target sound sources exists at the time frequency point
  • Equation (2) represents the case where no target sound source exists
  • s n (t, f) And v (t, f) are obtained by dividing the observed feature vector into the sum of the component of the target sound source n and the component corresponding to the background noise.
  • the mask estimation unit 20 estimates a mask using a known mask estimation technique.
  • the mask estimated by the mask estimation unit 20 for the nth target sound source is ⁇ n (t, f), and the mask estimated for the background noise is ⁇ v (t, f).
  • the subscript n is a number indicating which target sound source corresponds
  • the subscript v is a symbol indicating that it corresponds to noise.
  • the noisy target sound spatial correlation matrix estimator 40 calculates the first feature value matrix corresponding to the nth target sound source, that is, the average target sound feature value matrix R ′ n + v (f), using Equation (3).
  • the noise space correlation matrix estimation unit 50 calculates the second feature quantity matrix corresponding to the background noise, that is, the average noise feature quantity matrix R ′ v (f) according to Expression (4).
  • Equation (5) Hermitian transpose of the matrix.
  • the spatial correlation matrix is only affected by the target sound source n and the background noise.
  • the spatial correlation matrix of background noise can be obtained by collecting only the time frequency points corresponding to Equation (2) and obtaining the spatial correlation matrix.
  • the spatial correlation matrix of the target sound source is obtained by obtaining the difference between the obtained spatial correlation matrices as shown in Equation (6).
  • the difference is obtained after further weighting these spatial correlation matrices.
  • R xx (t, f) is expressed by Expression (7).
  • Equation (7) the component derived from background noise is v (t, f) v H (t, f), and considering Equation (3) and Equation (4), it remains in Equation (6).
  • a component derived from background noise is expressed by equation (8).
  • the target sound spatial correlation matrix noise removing unit 60 is a first spatial correlation matrix weighted by the first coefficient ⁇ , that is, an average target sound feature matrix R ′ n + v (f).
  • the second spatial correlation matrix weighted by the second coefficient ⁇ that is, the average noise feature quantity matrix R ′ v (t, f) is used to calculate the spatial correlation matrix of the target sound source.
  • R'n + v R (f) is weighted by a first factor alpha n + v (f) is calculated by the noise under the target sound spatial correlation matrix estimation unit 40, R'v a (f) in the second coefficient ⁇
  • the weighted R v (f) is calculated by the noise space correlation matrix estimation unit 50.
  • Expression (13) is obtained from Expression (12) and Expression (9).
  • T / ⁇ t ⁇ n (t, f) is the time average of the reciprocal of the mask corresponding to the target sound source n
  • T / ⁇ t ⁇ v (t, f) correspond to the background noise It is the reciprocal of the time average of the mask
  • c is a scalar constant.
  • Expression (14) corresponds to a process in which the noisy target sound spatial correlation matrix estimation unit 40 estimates the noisy target sound spatial correlation matrix R n + v (f).
  • Equation (15) corresponds to a process in which the noise spatial correlation matrix estimation unit 50 estimates the noise spatial correlation matrix R v (f).
  • Expression (16) corresponds to a process in which the target sound spatial correlation matrix noise removing unit 60 estimates the spatial correlation matrix R n (f) of the target sound.
  • the spatial correlation matrix of the target sound source may be calculated by equations (19) to (21).
  • the mask estimator 20 calculates the probability distribution of the observed feature quantity vector as an average represented by the product of a scalar parameter whose covariance matrix takes a different value for each time and a positive definite Hermitian matrix having time-invariant parameters as elements. Modeling is performed for each frequency with a mixed distribution composed of N + 1 element distributions which are zero M-dimensional complex Gaussian distributions. Then, the mask estimation unit 20 calculates the posterior probabilities of the element distributions obtained by estimating the parameters of the mixture distribution so that the mixture distribution becomes close to the distribution of the observed feature vector, and the first mask and the second mask. Use as a mask.
  • the mask estimation unit 20 accurately approximates the shape of the distribution and performs accurate mask estimation even when the shape of the distribution of the observed feature vector cannot be accurately approximated by the circular shape on the hypersphere.
  • the element distribution corresponding to the probability density function of the observed feature vector at the time frequency point where the target sound source n exists is pn (x (t, f); ⁇ ), and the observed feature vector at the time frequency point where only noise exists. If the element distribution corresponding to the probability density function is p v (x (t, f); ⁇ ), the mask estimation unit 20 models each element distribution as shown in Expression (22) and Expression (23). Turn into.
  • N c (x; ⁇ , ⁇ ) is an M-dimensional complex Gaussian distribution of an average vector ⁇ and a covariance matrix ⁇ .
  • R n (t, f) and r v (t, f) are scalar parameters corresponding to the magnitudes of the respective acoustic signals in the expression of the element distributions of the expressions (22) and (23), and the time frequency It is set so that different values can be taken for each point.
  • B n (f) and B v (f) are matrices that express spatial directions from which acoustic signals come, and are defined as matrices having time-invariant parameters as elements.
  • B n (f) and B v (f) are parameters that determine the shape of the element distribution, and the model does not have any particular restrictions. Therefore, each element distribution can have any shape that the M-dimensional complex Gaussian distribution can represent, and is not limited to a circular distribution on the hypersphere.
  • ⁇ r n (t, f), r v (t, f), B n (f), B v (f), ⁇ n (f), ⁇ v (f) ⁇
  • the mixture distribution composed of the above element distributions is expressed as shown in Expression (24).
  • the mask estimation unit 20 models the observed feature vector at all time frequency points using the mixed model, and estimates each model parameter so that the mixed distribution is close to the probability distribution of the observed feature vector. .
  • the mask estimation unit 20 estimates a mask corresponding to each of the target sound source n and the background noise as an a posteriori probability distribution of each element distribution according to Expression (25) or Expression (26).
  • Each element distribution can have any shape within the range of the M-dimensional complex Gaussian distribution. Therefore, even if the shape of the observed feature vector distribution cannot be accurately approximated by a circle on the hypersphere, its distribution It becomes possible to approximate the shape accurately.
  • an acoustic signal corresponding to each target sound source n has a property that it mainly comes from the direction of the sound source (sound source direction) when viewed from the microphone position.
  • the positive definite Hermitian matrix of the element distribution corresponding to the target sound source n has the property that the eigenvalue in the subspace corresponding to the sound source direction has the maximum eigenvalue, and the eigenvalues in the other subspaces have relatively small values.
  • the positive definite Hermitian matrix of the element distribution corresponding to the background noise has matrix components dispersed in the subspaces corresponding to all directions. For this reason, it is unlikely that the eigenvalue is biased to a specific subspace.
  • the mask estimation unit 20 further corresponds to the background noise the posterior probability of the element distribution in which the shape of the eigenvalue distribution of the positive definite Hermitian matrix having the time-invariant parameter as the element is the flattest among the element distributions.
  • the mask Thereby, the mask estimation unit 20 can automatically estimate which of the estimated masks corresponds to the background noise.
  • Example 1 The first embodiment will be described using a specific example.
  • the spatial correlation matrix estimation apparatus 1 estimates, for each speaker, a spatial correlation matrix that excludes the influence of noise, for example, for conversations of N persons recorded with M> 1 microphones. .
  • y (m) ( ⁇ ) is composed of the sum of the acoustic signal z n (m) ( ⁇ ) derived from each sound source signal n and the acoustic signal u (m) ( ⁇ ) derived from background noise. , Modeled as shown in Equation (27).
  • the time-frequency analysis unit 10 receives the observation signals recorded by all the microphones, applies the short-time signal analysis for each observation signal y (m) ( ⁇ ), and the signal feature quantity x (m ) (T, f) is obtained.
  • the short-time signal analysis various methods such as a short-time discrete Fourier transform and a short-time discrete cosine transform can be used.
  • the time-frequency analysis unit 10 further uses an observation feature amount as shown in Expression (28) as a vector in which the signal feature amounts x (m) (t, f) obtained at each time frequency are collected for all microphones. Construct a vector x (t, f).
  • the observed feature quantity matrix calculation unit 30 receives the observed feature quantity vector x (t, f), and obtains an observed feature quantity matrix R xx (t, f) by Expression (29) for each time frequency point.
  • the mask estimation unit 20 receives the observed feature vector x (t, f), and estimates at what time frequency the target sound source and background noise are mixed as a mask value. As shown in Expression (30), it is assumed that the sum of masks for all the target sound sources and background noise is 1 at the time frequency point.
  • the noisy target sound spatial correlation matrix estimation unit 40 receives the estimated value ⁇ n (t, f) of the mask for each target sound source and the observed feature matrix R xx (t, f), and receives the frequency for each target sound source n. For each f, a noisy target sound spatial correlation matrix R n + v (f) is obtained as in equation (31).
  • the noise space correlation matrix estimation unit 50 receives the estimated value ⁇ v (t, f) of the mask related to the background noise and the observed feature quantity matrix R xx (t, f), and for each frequency f, the noise space correlation matrix R v ( f) is obtained as shown in Equation (32).
  • the target sound spatial correlation matrix noise removing unit 60 receives the estimated value R n + v (f) of the target sound spatial correlation matrix under noise and the designated value R v (f) of the noise spatial correlation matrix, and applies the frequency to each target sound source n. For each f, the spatial correlation matrix R n (f) of the target sound is obtained by Expression (33).
  • the obtained spatial correlation matrix can be used for various purposes.
  • the eigenvector corresponding to the maximum eigenvalue of the spatial correlation matrix of the target sound source n matches the steering vector that represents the spatial transfer characteristic from the target sound source n to the microphone.
  • MVDR Minimum Variance Distortionless
  • the multi-channel winner filter W n (f) is expressed by the equation (37). Can be configured.
  • FIG. 2 is a diagram illustrating an example of the configuration of the mask estimation unit of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • the mask estimation unit 20 estimates the mask by modeling the probability distribution of the observed feature vector using a mixed complex Gaussian distribution.
  • the mask estimation unit 20 models the generation distribution of the observation signal x (t, f) at each frequency f using the mixed complex Gaussian distribution as shown in Expression (39).
  • ⁇ n (f) , ⁇ v (f), r n (t, f), r v (t, f), B n (f), B v (f) ⁇ is mixed complex Gaussian
  • ⁇ n (f) and ⁇ v (f) are parameters representing the mixing weights of the complex Gaussian distributions corresponding to the nth sound source and background noise, respectively, and satisfy Expression (40).
  • r n (t, f) and r v (t, f) are scalar parameters representing the expected power values at the time frequency point (t, f) of the nth sound source and background noise, respectively.
  • B n (f) and B v (f) are time-invariant spatial correlation matrices of the n-th sound source and background noise normalized by power, respectively.
  • B n (f) and B v (f) are parameters that determine the distribution of the observed feature vector.
  • the posterior probability estimation unit 201 estimates the mask by obtaining the probability that the observation signal x (t, f) is generated from each element distribution based on the probability distribution of Expression (39).
  • the parameter initialization unit 203 sets initial values for each parameter, and holds the set initial values in the parameter holding unit 204.
  • the parameter initialization unit 203 determines the initial value of the parameter using, for example, a random number.
  • the posterior probability estimation unit 201 calculates the posterior probabilities related to the respective element distributions using Expression (41) and Expression (42) using the input data (observation signal) and the current distribution parameters.
  • the posterior probability calculated here corresponds to a mask for each frequency point.
  • the parameter update unit 202 updates the distribution parameter based on the EM algorithm.
  • the parameter updating unit 202 sets a cost function for maximum likelihood estimation as shown in Expression (43).
  • the parameter update unit 202 uses the posterior probability estimated by the posterior probability estimation unit 201 to set the Q function as shown in Expression (44).
  • ⁇ t represents a parameter obtained by the t-th iterative update.
  • ⁇ n (t, f) and ⁇ v (t, f) are given by Equation (36) and Equation (37).
  • the parameter update unit 202 sets the values obtained by partially differentiating the Q function of the formula (44) with respect to each parameter to 0 under the conditions shown in the formula (45), thereby expressing the formulas (46) to (48). Guide the parameter update rule.
  • the parameter updating unit 202 updates the distribution parameter ⁇ . Note that by setting an appropriate prior distribution for ⁇ , a more accurate mask estimation can be realized using a known method.
  • the parameter update unit 202 may update the distribution parameter online.
  • the parameter update unit 202 uses the estimated value B n (t′ ⁇ 1, f) at the time t′ ⁇ 1 immediately before the update rule given by Expression (47) at the time t ′. It represents like a formula (49).
  • parameter update unit 202 similarly represents the update rule given by Expression (48) as Expression (50).
  • the parameter update unit 202 copies the new parameter updated using the update rule to the parameter holding unit 204. Then, the mask estimation unit 20 repeats until the posterior probability estimation unit 201, the parameter update unit 202, and the parameter holding unit 204 are executed a predetermined number of times (for example, 30 times) or until the calculation result converges.
  • the mask estimation unit 20 obtains the masks ⁇ n (t, f) and ⁇ v (t, f) for each frequency f.
  • the mask corresponding to the noise is replaced with the mask of the target sound source, or the mask corresponding to the same target sound source is associated with a different target sound source number between different frequencies. Things happen.
  • the mask estimation unit 20 correctly determines which mask corresponds to the background noise, and uses the same target sound source between different frequencies. It is necessary to correspond to the sound source number.
  • this problem is called a permutation problem.
  • the mask estimation unit 20 needs to perform the following operations (1) and (2).
  • (1) Define which mask corresponds to background noise at each frequency.
  • (2) A mask corresponding to the same target sound source is associated with the same sound source number between different frequencies.
  • N B n (f) and one B v (f) are obtained at each frequency f according to the method of the second embodiment.
  • B 0 (f) B v (f).
  • the mask estimator 20 determines which B n (f) among N + 1 B n (f) (N ⁇ n ⁇ 0) corresponds to the background noise from the following (1-1) to (1-1) Determine by 1-3).
  • Equation (51) For each n, M eigenvalues of B n (f) are obtained, and a vector ⁇ n (f) that can be arranged in order from the largest value is configured as in equation (51).
  • Equation (1-3) the mask corresponding to the n v, defined as the mask corresponding to the background noise.
  • E (•) for example, as a function for obtaining the entropy of ⁇ n (f) normalized to be 1 by adding vector elements as shown in Equation (53), Equation (54) ).
  • the mask estimation unit 20 needs to associate the mask ⁇ n (t, f) corresponding to the same target sound source n with the number n of the same target sound source at all frequencies for the estimated N masks. There is. As specific means, the following (2-1) to (2-4) can be considered.
  • the permutation problem is solved by clustering.
  • clustering for example, the k-means method is used, or Reference 1 (H. Sawada, S. Araki, S. Makino, “Underdetermined Convolutive Blind Source Separation via Frequency Bin-Wise Clustering and Permutation Alignment,” IEEE Trans. Audio. , Speech, and Language Processing, vol.19, no.3, pp.516-527, March 2011.).
  • This means is effective for a conversation in a conference room or the like where the position of the chair is substantially fixed, and a speaker corresponding to each seat is set as a target sound source n, and a corresponding mask ⁇ n (t, f) is estimated. it can.
  • the mask estimation unit 20 performs mask estimation while using B n trained (f) as prior information of B n (f). Specifically, the mask estimation unit 20 performs the estimation of Expression (47) using Expression (56) with ⁇ (real number between 0 and 1) as a weight.
  • the means (2-3), like the means (2-2), is almost fixed in the position of the chair, but the position of the speaker changes little by little during the conversation due to the fact that the chair is equipped with casters. It is effective in such cases.
  • Example 4 As a fourth embodiment, a case where direction estimation is performed using the spatial correlation matrix of the target sound source obtained by the spatial correlation matrix estimation apparatus 1 will be described. First, it is assumed that the steering vector related to the sound source n is obtained as in Expression (57) in the same procedure as in the first embodiment.
  • c is the sound speed
  • f bar is the frequency (Hz) corresponding to the frequency index f
  • ⁇ n (f) [arg (h n1 / h nJ ),..., Arg (h nM / h nJ )] T
  • D [D 1 -d J ,..., D M -d J ] T
  • J is a reference microphone index (selected arbitrarily from 1 to M)
  • + indicates a generalized inverse matrix.
  • the average value of q n (f) in the frequency range where no spatial aliasing occurs is defined as the arrival direction q n of the sound source n.
  • FIG. 3 is a diagram illustrating an example of processing of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • the time-frequency analysis unit 10 acquires an observation signal (step S10), and calculates a signal feature amount for each time-frequency point using short-time signal analysis such as short-time Fourier transform. (Step S11) An observation feature vector is constructed (Step S12).
  • observation feature quantity matrix calculation unit 30 calculates an observation feature quantity matrix for each time frequency point based on the observation feature quantity vector (step S13). Then, the mask estimation unit 20 estimates a mask based on the observed feature vector (step S14).
  • the noisy target sound spatial correlation matrix estimation unit 40 applies a mask corresponding to the target sound to the observed feature matrix and weights it with a predetermined coefficient to estimate the noisy target sound spatial correlation matrix (step S15).
  • the noise space correlation matrix estimation unit 50 estimates a noise space correlation matrix by applying a mask corresponding to background noise to the observed feature amount matrix and weighting it with a predetermined coefficient (step S16).
  • the ratio between the coefficient used for estimating the target sound spatial correlation matrix under noise and the coefficient used for estimating the noise spatial correlation matrix is, for example, the inverse of the time average of the mask corresponding to the target sound and the background noise. Is equal to the ratio to the inverse of the time average of the mask corresponding to.
  • the target sound spatial correlation matrix noise removal unit 60 estimates the spatial correlation matrix of the target sound, for example, by subtracting the noise spatial correlation matrix from the target sound spatial correlation matrix under noise (step S17).
  • FIG. 4 is a diagram illustrating an example of mask estimation processing of the spatial correlation matrix estimation apparatus according to the first embodiment.
  • the mask estimation unit 20 models the generation distribution of the observation signal using a mixed complex Gaussian distribution (step S141).
  • the parameter initialization unit 203 sets initial values of model parameters using random numbers or the like (step S142).
  • the posterior probability estimation unit 201 calculates posterior probabilities related to each element distribution using the observation signal and parameters (step S143). If the posterior probability has not been calculated 30 times (step S144, No), the parameter update unit 202 updates the parameter using the calculated posterior probability (step S145). Further, the mask estimation unit 20 returns to step S143 and repeats the process.
  • step S144 When the posterior probability is calculated 30 times (step S144, Yes), the parameter update unit 202 performs the last parameter update. Finally, the mask estimation unit 20 estimates the calculated posterior probability as a mask (step S146).
  • the time frequency analysis unit 10 calculates an observation feature vector based on the input observation feature.
  • the mask estimation unit 20 observes the first mask that is the ratio of the first acoustic signal included in the feature quantity of the observation signal for each time frequency point, and the second acoustic signal for each time frequency point.
  • a second mask that is a ratio included in the feature amount of the signal is estimated.
  • the observed feature quantity matrix calculating unit 30 multiplies the observed feature quantity vector and the Hermitian transpose of the observed feature quantity vector for each time frequency point to calculate the observed feature quantity matrix.
  • the noisy target sound spatial correlation matrix estimation unit 40 calculates a first spatial correlation matrix obtained by weighting the first feature quantity matrix calculated based on the observed signal and the first mask with the first coefficient.
  • the noise spatial correlation matrix estimation unit 50 calculates a second spatial correlation matrix obtained by weighting the second feature amount matrix calculated based on the observation signal and the second mask with the second coefficient.
  • the target sound spatial correlation matrix noise removing unit 60 estimates the spatial correlation matrix of the target sound source based on the first spatial correlation matrix and the second spatial correlation matrix.
  • the first feature quantity matrix and the second feature quantity matrix are used as they are. Compared with, the effect of background noise can be accurately removed from the observed signal, and the spatial correlation matrix of the target sound source can be estimated with high accuracy.
  • the ratio between the first coefficient and the second coefficient may be equal to the ratio between the reciprocal of the time average value of the first mask and the reciprocal of the time average value of the second mask, for example.
  • the mask estimation unit 20 represents the probability distribution of the observed feature vector by the product of a positive definite Hermitian matrix having a scalar parameter whose covariance matrix takes a different value for each time and a time-invariant parameter as elements. Then, modeling is performed for each frequency with a mixed distribution composed of N + 1 element distributions, which is an M-dimensional complex Gaussian distribution with an average of 0.
  • the mask estimation unit 20 calculates the posterior probabilities of the element distributions obtained by estimating the parameters of the mixture distribution so that the mixture distribution becomes close to the distribution of the observed feature vector, and the first mask and the second mask. Use as a mask. Thereby, even when the observed feature vector distribution shape cannot be accurately approximated by a circular shape on the hypersphere, the mask can be estimated accurately.
  • the mask estimation unit 20 further includes a second mask that corresponds to the background noise with the posterior probability of the element distribution in which the shape of the eigenvalue distribution of the positive definite Hermitian matrix having the time-invariant parameter as the element is flattened. And thereby, it is possible to automatically estimate which of the masks estimated by the mask estimation unit corresponds to the background noise.
  • each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions.
  • all or any part of each processing function performed in each device is realized by a CPU (Central Processing Unit) and a program analyzed and executed by the CPU, or hardware by wired logic.
  • CPU Central Processing Unit
  • the spatial correlation matrix estimation apparatus can be implemented by installing a spatial correlation matrix estimation program for executing the above spatial correlation matrix estimation as package software or online software on a desired computer.
  • the information processing apparatus can function as a spatial correlation matrix estimation device.
  • the information processing apparatus referred to here includes a desktop or notebook personal computer.
  • the information processing apparatus includes mobile communication terminals such as smartphones, mobile phones and PHS (Personal Handyphone System), and slate terminals such as PDA (Personal Digital Assistant).
  • the spatial correlation matrix estimation device can be implemented as a server device that uses a terminal device used by a user as a client and provides the client with the service related to the spatial correlation matrix estimation.
  • the spatial correlation matrix estimation apparatus is implemented as a server apparatus that provides a spatial correlation matrix estimation service that receives an observation signal as an input and outputs a spatial correlation matrix of a target sound source.
  • the spatial correlation matrix estimation device may be implemented as a Web server, or may be implemented as a cloud that provides services related to the spatial correlation matrix estimation described above by outsourcing.
  • FIG. 5 is a diagram illustrating an example of a computer in which a spatial correlation matrix estimation apparatus is realized by executing a program.
  • the computer 1000 includes a memory 1010 and a CPU 1020, for example.
  • the computer 1000 also includes a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.
  • the memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012.
  • the ROM 1011 stores a boot program such as BIOS (Basic Input Output System).
  • BIOS Basic Input Output System
  • the hard disk drive interface 1030 is connected to the hard disk drive 1090.
  • the disk drive interface 1040 is connected to the disk drive 1100.
  • a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100.
  • the serial port interface 1050 is connected to a mouse 1110 and a keyboard 1120, for example.
  • the video adapter 1060 is connected to the display 1130, for example.
  • the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, a program that defines each process of the spatial correlation matrix estimation apparatus 1 is implemented as a program module 1093 in which a code executable by a computer is described.
  • the program module 1093 is stored in the hard disk drive 1090, for example.
  • a program module 1093 for executing processing similar to the functional configuration in the spatial correlation matrix estimation apparatus 1 is stored in the hard disk drive 1090.
  • the hard disk drive 1090 may be replaced by an SSD (Solid State Drive).
  • the setting data used in the processing of the above-described embodiment is stored as program data 1094 in, for example, the memory 1010 or the hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 and executes them as necessary.
  • the program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in, for example, a removable storage medium and read by the CPU 1020 via the disk drive 1100 or the like. Alternatively, the program module 1093 and the program data 1094 may be stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.). The program module 1093 and the program data 1094 may be read by the CPU 1020 from another computer via the network interface 1070.
  • LAN Local Area Network
  • WAN Wide Area Network

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

目的音源と背景雑音が混在する状況において、異なる位置で収録された観測信号に基づいて観測特徴量ベクトルを計算し、目的音源に対応するマスクと、背景雑音に対応するマスクを推定し、観測信号および目的音源に対応するマスクに基づいて背景雑音を含んだ目的音源の空間相関行列を計算し、観測信号および背景雑音に対応するマスクに基づいて背景雑音の空間相関行列を計算し、さらにそれぞれの空間相関行列を所定の係数で重み付けした行列に基づいて目的音源の空間相関行列を推定する。

Description

空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
 本発明は、空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラムに関する。
 従来、目的音源から出た音響信号と背景雑音による音響信号とが混在する状況において、複数のマイクロホンで収音された観測信号から、各目的音源のみが観測信号に含まれている場合の空間相関行列を推定する方法が提案されている。また、空間相関行列を推定する際には、各音響信号が観測された音響信号に含まれる割合であるマスクが用いられる場合がある。
 なお、空間相関行列とは、マイクロホン間の信号の自己相関、および相互相関を表す行列であり、例えば目的音源の位置を推定することや、観測信号から目的音源のみを取り出すビームフォーマを設計することに用いられる。
 ここで、図6を用いて、従来の空間相関行列推定装置について説明する。図6は、従来の空間相関行列推定装置の構成を示す図である。図6に示すように、まず、時間周波数分析部10aは、観測信号から抽出した時間周波数点ごとの観測特徴量ベクトルを計算する。次に、マスク推定部20aは、観測特徴量ベクトルを基に目的音源および背景雑音に対応するマスクを推定する。また、観測特徴量行列計算部30aは、観測特徴量ベクトルと当該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する。
 そして、目的音特徴量行列時間平均計算部40aは、観測特徴量行列に目的音源に対応するマスクを乗じて得られた行列の時間平均である平均目的音特徴量行列を計算する。また、雑音特徴量行列時間平均計算部50aは、観測特徴量行列に背景雑音に対応するマスクを乗じて得られた行列の時間平均である平均雑音特徴量行列を計算する。最後に、目的音特徴量雑音除去部60aは、平均目的音特徴量行列から平均雑音特徴量行列を減じることで目的音源の空間相関行列を推定する。
Mehrez Souden, Shoko Araki, Keisuke Kinoshita, Tomohiro Nakatani, Hiroshi Sawada、"A multichannel MMSE-based framework for speech source separation and noise reduction," IEEE Trans. Audio, Speech, and Language Processing, vol. 21, no. 9,pp. 1913-1928, 2013. Ozgur Yilmaz, and Scott Rickard, "Blind separation of speech mixture via time-frequency masking," IEEE Trans. Signal Processing, vol. 52, no. 7, pp. 1830-1847, 2004. Dang Hai Tran Vu and Reinhold Haeb-Umbach, "Blind speech separation employing directional statistics in an expectation maximization framework," Proc.IEEE Int. Conf. Acoust., Speech, Signal Process. (ICASSP-2010), pp. 241-244, 2010. Tomohiro Nakatani, Shoko Araki, Takuya Yoshioka, Marc Delcroix, and Masakiyo Fujimoto, "Dominance based integration of spatial and spectral features for speech enhancement," IEEE Transactions on Audio, Speech, and Language Processing, vol. 21, no. 12, pp. 2516-2531, Dec. 2013.
 しかしながら、従来の空間相関行列の推定方法には、背景雑音の影響を観測信号から正確に取り除くことができないため、目的音源の空間相関行列を精度良く推定できない場合があるという問題があった。
 例えば、従来の空間相関行列の推定方法では、平均目的音特徴量行列から平均雑音特徴量行列を減じた結果を目的音源の空間相関行列として推定しているが、これは経験的に得られた方法であり、平均目的音特徴量行列に含まれる雑音の影響の量が平均雑音特徴量行列に一致するとは限らないため、雑音の影響がキャンセルされる保証はない。そのため、従来の空間相関行列の推定方法では、目的音源の空間相関行列を精度良く推定できない場合がある。
 本発明の空間相関行列推定装置は、N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定装置であって、前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去部を有することを特徴とする。
 また、本発明の空間相関行列推定方法は、N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定方法であって、前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去工程を含んだことを特徴とする。
 本発明によれば、背景雑音の影響を観測信号から正確に取り除き、目的音源の空間相関行列を精度良く推定できる。
図1は、第1の実施形態に係る空間相関行列推定装置の構成の一例を示す図である。 図2は、第1の実施形態に係る空間相関行列推定装置のマスク推定部の構成の一例を示す図である。 図3は、第1の実施形態に係る空間相関行列推定装置の処理の一例を示す図である。 図4は、第1の実施形態に係る空間相関行列推定装置のマスク推定処理の一例を示す図である。 図5は、プログラムが実行されることにより空間相関行列推定装置が実現されるコンピュータの一例を示す図である。 図6は、従来の空間相関行列推定装置の構成を示す図である。
 以下に、本願に係る空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
[第1の実施形態]
 まず、第1の実施形態に係る空間相関行列推定装置の構成、処理の流れおよび効果を説明する。なお、第1の実施形態においては、N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号が空間相関行列推定装置に入力されるものとする。
[第1の実施形態の構成]
 図1を用いて、第1の実施形態の構成について説明する。図1は、第1の実施形態に係る空間相関行列推定装置の構成の一例を示す図である。図1に示すように、空間相関行列推定装置1は、時間周波数分析部10、マスク推定部20、観測特徴量行列計算部30、雑音下目的音空間相関行列推定部40、雑音空間相関行列推定部50および目的音空間相関行列雑音除去部60を有する。
 まず、空間相関行列推定装置1の各部の概要について説明する。時間周波数分析部10は、入力された観測特徴量に基づいて観測特徴量ベクトルを計算する。具体的には、時間周波数分析部10は、各観測信号y(m)(τ)に短時間信号分析を適用し、時間周波数点ごとの信号特徴量を抽出し、信号特徴量を成分とするM次元縦ベクトルである観測特徴量ベクトルx(t、f)を時間周波数点ごとに計算する。
 また、マスク推定部20は、時間周波数点ごとの、第1の音響信号が観測信号の特徴量に含まれる割合である第1のマスクφ(t,f)と、時間周波数点ごとの、第2の音響信号が観測信号の特徴量に含まれる割合である第2のマスクφ(t,f)と、を推定する。そして、観測特徴量行列計算部30は、観測特徴量ベクトルに基づいて、時間周波数点ごとに、観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列Rxx(t,f)を計算する。
 雑音下目的音空間相関行列推定部40は、観測信号および第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列を計算する。具体的には、雑音下目的音空間相関行列推定部40は、目的音源のそれぞれについて、時間周波数点ごとに観測特徴量行列と第1のマスクを乗じて得られる行列の周波数ごとの時間平均を第1の特徴量行列R´n+v(t,f)として計算し、第1の特徴量行列に第1の係数αを乗じた結果を第1の空間相関行列Rn+v(t,f)とする。
 雑音空間相関行列推定部50は、観測信号および第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列を計算する。具体的には、背景雑音について、時間周波数点ごとに観測特徴量行列と第2のマスクを乗じて得られる行列の周波数ごとの時間平均を第2の特徴量行列R´(t,f)として計算し、第2の特徴量行列に第2の係数βを乗じた結果を第2の空間相関行列R(t,f)とする。
 雑音除去部として機能する目的音空間相関行列雑音除去部60は、第1の空間相関行列および第2の空間相関行列に基づいて目的音源の空間相関行列を推定する。具体的には、目的音空間相関行列雑音除去部60は、第1の空間相関行列から第2の空間相関行列を減じた結果を目的音源の空間相関行列R(t,f)とする。なお、第1の係数と第2の係数との比率は、例えば、第1のマスクの時間平均値の逆数と第2のマスクの時間平均値の逆数との比率に等しい。
 次に、空間相関行列推定装置1の各部の詳細について説明する。目的音源はスパース性を有し、各時間周波数点において高々1つの目的音源だけが存在すると仮定される。また、背景雑音はすべての時間周波数点に存在すると仮定される。これより、時間周波数分析部10が、入力された観測特徴量から短時間フーリエ変換等の短時間信号分析を用いて計算される観測特徴量ベクトルは、式(1)および式(2)のどちらかに一致することになる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 なお、式(1)および式(2)のtとfは、それぞれ時間と周波数の番号であり、tは1~Tの整数、fは0~Fの整数をとることとする。ここで、式(1)は当該時間周波数点において目的音源のうちn番目の音源だけが存在する場合、式(2)は目的音源が一つも存在しない場合を表し、s(t,f)とv(t,f)は、観測特徴量ベクトルを目的音源nの成分と背景雑音に対応する成分の和に分解したものである。
 マスク推定部20は、既知のマスク推定技術を用いて、マスクを推定する。マスク推定部20がn番目の目的音源に関して推定したマスクをφ(t,f)、背景雑音に関して推定したマスクをφ(t,f)とする。以下、添え字nはどの目的音源に対応するかを示す番号として、添え字vは雑音に対応することを表す記号とする。
 雑音下目的音空間相関行列推定部40は、式(3)によりn番目の目的音源に対応する第1の特徴量行列、すなわち平均目的音特徴量行列R´n+v(f)を計算する。
Figure JPOXMLDOC01-appb-M000003
 また、雑音空間相関行列推定部50は、式(4)により背景雑音に対応する第2の特徴量行列、すなわち平均雑音特徴量行列R´(f)を計算する。
Figure JPOXMLDOC01-appb-M000004
 ただし、観測特徴量行列Rxx(t,f)は、式(5)のように表される。なお、式(5)のHは行列のエルミート転置を表す。
Figure JPOXMLDOC01-appb-M000005
 式(1)および式(2)に示したように、背景雑音は、すべての時間周波数点に含まれているので、R´n+v(f)にも、雑音の影響は必ず含まれてしまう。R´n+v(f)の添え字n+vは、R´n+v(f)に目的音源nと雑音の両方の影響が含まれていることを表している。
 ここで、式(1)に対応する時間周波数点だけを集めて空間相関行列を求めることができれば、その空間相関行列は目的音源nと背景雑音の影響だけを受けたものになる。一方、背景雑音の空間相関行列は、式(2)に対応する時間周波数点だけを集めて空間相関行列を求めることで得ることができる。
 そこで、従来の空間相関行列推定方法においては、式(6)のように、それぞれ求めた空間相関行列の差を求めることで、目的音源の空間相関行列を求めていた。
Figure JPOXMLDOC01-appb-M000006
 一方、本発明の第1の実施形態においては、さらにこれらの空間相関行列に重み付けをしたうえで差を求める。ここで、各目的音源および背景雑音が無相関であると仮定すると、Rxx(t,f)は式(7)により表される。
Figure JPOXMLDOC01-appb-M000007
 式(7)で、背景雑音由来の成分はv(t,f)v(t,f)であることと、式(3)および式(4)を考慮すると、式(6)に残存する背景雑音由来の成分は式(8)により表される。
Figure JPOXMLDOC01-appb-M000008
 これより、式(8)の値が0になる場合に、目的音源の空間相関行列の推定値に残存する背景雑音の影響が0になるといえる。そこで、目的音空間相関行列雑音除去部60は、式(9)のように、第1の係数αによって重み付けされた第1の空間相関行列、すなわち平均目的音特徴量行列R´n+v(f)、および第2の係数βによって重み付けされた第2の空間相関行列、すなわち平均雑音特徴量行列R´(t,f)を用いて目的音源の空間相関行列を計算する。
Figure JPOXMLDOC01-appb-M000009
 なお、R´n+v(f)を第1の係数αで重み付けしたRn+v(f)は雑音下目的音空間相関行列推定部40によって計算され、R´(f)を第2の係数βで重み付けしたR(f)は雑音空間相関行列推定部50によって計算される。
 このとき、式(8)の目的音源の空間相関行列推定値に残存する背景雑音由来の成分は式(10)により表される。
Figure JPOXMLDOC01-appb-M000010
 式(10)の値が0に一致するための必要十分条件は、式(11)が成立することである。
Figure JPOXMLDOC01-appb-M000011
 式(11)のΣφ(t,f)v(t,f)v(t,f)/Σφ(t,f)とΣφ(t,f)v(t,f)v(t,f)/Σφ(t,f)は、雑音特徴量行列v(t,f)v(t,f)の重み付き時間平均を、異なる重みを用いて計算したものである。いま、背景雑音の空間相関行列は、時間的に大きく変化しないと仮定すると、これら2つの重み付き時間平均値は近似的に一致するといえる。その結果、式(11)はさらに式(12)のように書き換えられる。
Figure JPOXMLDOC01-appb-M000012
 そして、式(12)および式(9)より、式(13)が得られる。
Figure JPOXMLDOC01-appb-M000013
 式(13)で、T/Σφ(t,f)は、目的音源nに対応するマスクの時間平均の逆数、T/Σφ(t,f)は、背景雑音に対応するマスクの時間平均の逆数であり、cはスカラー定数とする。cは、どの時間区間で目的音源の空間相関行列を求めるかで決まる定数で、全時間区間の場合はc=Σφ(t,f)/Tとし、主に目的音源nが存在する時間区間で求める場合はc=1とすればよい。
 c=Σφ(t,f)/Tとした場合は、式(9)中で、α=1とした場合に相当し、式(6)に対し、R´(f)のゲインだけを変えて、目的音源に関する空間相関行列のゲインを変えずに雑音の影響を取り除く場合に相当する。
 式(13)を、さらに、式(3)、式(4)とともに整理すると、式(14)~(16)が得られる。
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
 例えば、c=1の場合、式(16)は、式(17)のように表される。このように、背景雑音の空間相関行列は時間的に大きく変化しないとの仮定のもと、適切な係数を乗じたうえで差を求めることで、n番目の目的音源に関して背景雑音の影響を正確に取り除いた空間相関行列を推定することができる。
Figure JPOXMLDOC01-appb-M000017
 式(14)は、雑音下目的音空間相関行列推定部40が雑音下目的音空間相関行列Rn+v(f)を推定する処理に相当する。また、式(15)は、雑音空間相関行列推定部50が雑音空間相関行列R(f)を推定する処理に相当する。また、式(16)は、目的音空間相関行列雑音除去部60が目的音の空間相関行列R(f)を推定する処理に相当する。
 また、音源数N=1であるときに、cを式(18)のように定めた場合には、目的音源の空間相関行列は、式(19)~(21)によって計算されてもよい。
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
 
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000021
 式(19)~(21)では目的音源のマスクφ(t,f)が使用されていないことから、目的音源のマスクを推定することなく目的音源の空間相関行列を推定することが可能であるといえる。この場合、式(19)に示すように、雑音下目的音空間相関行列は、N=1である場合、観測特徴量行列の周波数ごとの時間平均である。
 マスク推定部20は、観測特徴量ベクトルの確率分布を、共分散行列が時刻ごとに異なる値を取るスカラーパラメータと時不変のパラメータを要素にもつ正定値エルミート行列との積で表される、平均0のM次元複素ガウス分布であるN+1個の要素分布からなる混合分布で周波数ごとにモデル化する。そして、マスク推定部20は、混合分布が観測特徴量ベクトルの分布に近くなるように混合分布のパラメータを推定することで得られる要素分布のそれぞれの事後確率を、第1のマスクおよび第2のマスクとする。
 これにより、マスク推定部20は、観測特徴量ベクトルの分布の形状が、超球面上の円状では正確に近似できない場合でも、分布の形状を正確に近似し、正確なマスク推定を行う。
 目的音源nが存在する時間周波数点の観測特徴量ベクトルの確率密度関数に対応する要素分布をp(x(t,f);Θ)、雑音のみが存在する時間周波数点の観測特徴量ベクトルの確率密度関数に対応する要素分布をp(x(t,f);Θ)とすると、マスク推定部20は、それぞれの要素分布を、式(22)および式(23)のようにモデル化する。
Figure JPOXMLDOC01-appb-M000022
Figure JPOXMLDOC01-appb-M000023
 ここで、N(x;μ,Σ)は、平均ベクトルμ,共分散行列ΣのM次元複素ガウス分布である。式(22)および式(23)の要素分布の式中で、r(t,f)、r(t,f)は、各音響信号の大きさに対応するスカラーパラメータであり、時間周波数点ごとに異なる値を取ることができるように設定されている。
 一方、B(f)とB(f)は、音響信号が空間的にどの方向から到来するかを表現する行列であり、時不変のパラメータを要素に持つ行列として規定されている。B(f)とB(f)は、要素分布の形状を決定するパラメータであり、上記のモデルでは、特段の制約を設けていない。このため、各要素分布は、M次元複素ガウス分布が表しうるあらゆる形状を持つことができ、超球面上の円状の分布に限定されない。
 また、Θ={r(t,f),r(t,f),B(f),B(f),λ(f),λ(f)}は、上記の複素ガウス分布を要素分布として構成される混合分布のモデルパラメータの集合を表す。λn(f)、λv(f)は、それぞれ目的音源nの存在する時間周波数点に対応する要素分布の混合比、背景雑音のみが存在する時間周波数点に対応する要素分布の混合比であり、Σλ(f)+λ(f)=1、1>λ(f)>0、1>λ(f)>0を満たす。また、上記の要素分布からなる混合分布は式(24)のように表される。
Figure JPOXMLDOC01-appb-M000024
 マスク推定部20は、上記混合モデルを用いて、すべての時間周波数点における観測特徴量ベクトルをモデル化し、上記の混合分布が観測特徴量ベクトルの確率分布に近くなるように各モデルパラメータを推定する。
 マスク推定部20は、モデルパラメータが推定されたのちに、目的音源n,背景雑音のそれぞれに対応するマスクを、各要素分布の事後確率分布として式(25)または式(26)によって推定する。
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
 各要素分布は、M次元複素ガウス分布の範囲であらゆる形状を持つことができるため、各要素分布は観測特徴量ベクトルの分布の形状が、超球面上の円では正確に近似できない場合でも、その形状を正確に近似することが可能になる。
 ところで、一般に各目的音源nに対応する音響信号は、マイクロホン位置から見て音源のある方向(音源方向)から主に到来するという性質を持つ。このため、目的音源nに対応する要素分布の正定値エルミート行列は、音源方向に対応する部分空間に最大の固有値を持ち、それ以外の部分空間の固有値は比較的小さな値を持つという性質を持つ。
 一方、背景雑音は、通常、あらゆる方向から音が到来するため、背景雑音に対応する要素分布の正定値エルミート行列は、全ての方向に対応する部分空間に行列の成分が分散する。このため、固有値が特定の部分空間に偏るようなことは生じにくい。
 そこで、マスク推定部20はさらに、要素分布のうち、時不変のパラメータを要素に持つ正定値エルミート行列の固有値の分布の形状が最も平坦である要素分布の事後確率を背景雑音に対応する第2のマスクとする。これにより、マスク推定部20は、推定したマスクのうち、どれが背景雑音に対応するものであるかを自動的に推定することができる。
(実施例1)
 第1の実施形態について、具体例を用いて説明する。まず、N=1の場合、空間相関行列推定装置1は、例えば背景雑音下でM=2以上のマイクで収録された、1人の人が話している声について、雑音の影響を除いた空間相関行列を推定する。また、N>1の場合、空間相関行列推定装置1は、例えばM>1個のマイクロホンで収録された、N人による会話について、雑音の影響を除いた空間相関行列を話者ごとに推定する。
 ここで、マイクロホンmで収録された観測信号は、y(m)(τ)と書くことにする。y(m)(τ)は、各音源信号nに由来する音響信号z (m)(τ)と背景雑音に由来する音響信号u(m)(τ)の和で構成されていることから、式(27)のようにモデル化される。
Figure JPOXMLDOC01-appb-M000027
 時間周波数分析部10は、すべてのマイクロホンで収録された上記観測信号を受け取り、各観測信号y(m)(τ)ごとに短時間信号分析を適用して時間周波数ごとの信号特徴量x(m)(t,f)を求める。短時間信号分析としては、短時間離散フーリエ変換や短時間離散コサイン変換等の様々な方法を用いることができる。
 時間周波数分析部10は、さらに、各時間周波数で得られた信号特徴量x(m)(t,f)をすべてのマイクロホンに関してまとめたベクトルとして、式(28)に示すような、観測特徴量ベクトルx(t,f)を構成する。
Figure JPOXMLDOC01-appb-M000028
 次に、観測特徴量行列計算部30は、観測特徴量ベクトルx(t,f)を受け取り、時間周波数点ごとに、観測特徴量行列Rxx(t,f)を式(29)によって求める。
Figure JPOXMLDOC01-appb-M000029
 また、マスク推定部20は、観測特徴量ベクトルx(t,f)を受け取り、時間周波数点ごとに、各目的音源と背景雑音がどのような割合で混ざっているかをマスクの値として推定する。なお、式(30)に示すように、時間周波数点で、全目的音源と背景雑音に関するマスクの総和は1になると仮定する。
Figure JPOXMLDOC01-appb-M000030
 雑音下目的音空間相関行列推定部40は、各目的音源に関するマスクの推定値φ(t,f)と観測特徴量行列Rxx(t,f)を受け取り、各目的音源nに対し、周波数fごとに、雑音下目的音空間相関行列Rn+v(f)を式(31)のように求める。
Figure JPOXMLDOC01-appb-M000031
 雑音空間相関行列推定部50は、背景雑音に関するマスクの推定値φ(t,f)と観測特徴量行列Rxx(t,f)を受け取り、周波数fごとに、雑音空間相関行列R(f)を式(32)のように求める。
Figure JPOXMLDOC01-appb-M000032
 目的音空間相関行列雑音除去部60は、雑音下目的音空間相関行列の推定値Rn+v(f)と雑音空間相関行列の指定値R(f)を受け取り、各目的音源nに対し、周波数fごとに、目的音の空間相関行列R(f)を式(33)により求める。
Figure JPOXMLDOC01-appb-M000033
 求めた空間相関行列は様々な用途に利用できる。例えば、目的音源nの空間相関行列の最大固有値に対応する固有ベクトルは、目的音源nからマイクロホンまでの空間伝達特性を表すステアリングベクトルと一致する。さらに、このようにして推定されたステアリングベクトルh(f)と、式(34)に示す観測信号自身の空間相関行列R(f)とから、最小分散無歪応答(MVDR:Minimum Variance Distortionless Response)フィルタw(f)を式(35)のように求めることができる。
Figure JPOXMLDOC01-appb-M000034
Figure JPOXMLDOC01-appb-M000035
 このMVDRフィルタを観測特徴量ベクトルx(t,f)に適用することで、目的音源n以外の音源や背景雑音の成分を抑圧し、式(36)に示すように、目的音源nに対応する信号特徴量の推定値s(t,f)を得ることができる。
Figure JPOXMLDOC01-appb-M000036
 また、目的音源nの空間相関行列R(f)と観測信号の空間相関行列R(f)が求められているとき、多チャンネルウィナフィルタW(f)を式(37)のように構成することができる。
Figure JPOXMLDOC01-appb-M000037
 この多チャンネルウィナフィルタW(f)を観測特徴量ベクトルx(t,f)に適用することで、目的音源n以外の音源や背景雑音の成分を抑圧し、式(38)に示すように、目的音源nに対応する特徴量ベクトルの推定値s(t,f)を得ることができる。
Figure JPOXMLDOC01-appb-M000038
(実施例2)
 次に、マスク推定部20の具体例について図2を用いて説明する。図2は、第1の実施形態に係る空間相関行列推定装置のマスク推定部の構成の一例を示す図である。マスク推定部20は、観測特徴量ベクトルの確率分布を、混合複素ガウス分布を用いてモデル化することで、マスクを推定する。
 まず、マスク推定部20は、各周波数fにおける観測信号x(t,f)の生成分布について、混合複素ガウス分布を用いて式(39)のようにモデル化を行う。
Figure JPOXMLDOC01-appb-M000039
 ここでΘ={λ(f),λ(f),r(t,f),r(t,f),B(f),B(f)}は、混合複素ガウス分布のパラメータ集合である。λ(f)とλ(f)は、n番目の音源と背景雑音にそれぞれ対応する複素ガウス分布の混合重みを表すパラメータであり、式(40)を満たす。r(t,f)とr(t,f)は、それぞれn番目の音源と背景雑音の、時間周波数点(t,f)におけるパワーの期待値を表すスカラーパラメータである。
Figure JPOXMLDOC01-appb-M000040
 B(f)とB(f)はそれぞれパワーで正規化されたn番目の音源と背景雑音の時不変な空間相関行列である。ここでB(f)とB(f)は観測特徴量ベクトルの分布を決定するパラメータとなるが、このパラメータをフルランクの行列として求めることで、超球面上の円状では正確に近似できない場合においても、観測特徴量ベクトルの分布をより正確に近似することができる。
 事後確率推定部201は、式(39)の確率分布に基づき、観測信号x(t,f)がそれぞれの要素分布から生起された確率を求めることで、マスクの推定を行う。まず、パラメータ初期化部203は、各パラメータの初期値を設定し、設定した初期値をパラメータ保持部204に保持しておく。パラメータ初期化部203は、例えば乱数によりパラメータの初期値を決定する。
 次に、事後確率推定部201は、入力データ(観測信号)と現在の分布パラメータを用いて、それぞれの要素分布に関する事後確率を式(41)および式(42)のように計算する。ここで計算された事後確率が各周波数点のマスクに相当する。
Figure JPOXMLDOC01-appb-M000041
Figure JPOXMLDOC01-appb-M000042
 次に、パラメータ更新部202は、EMアルゴリズムに基づいて分布パラメータを更新する。このとき、パラメータ更新部202は、最尤推定のためのコスト関数を式(43)のように設定する。
Figure JPOXMLDOC01-appb-M000043
 また、パラメータ更新部202は、事後確率推定部201で推定した事後確率を用いて、Q関数を式(44)のように設定する。
Figure JPOXMLDOC01-appb-M000044
 ここで、Θは、t回目の反復更新で得られたパラメータを示す。また、φ(t,f)とφ(t,f)は、式(36)および式(37)で与えられる。パラメータ更新部202は、式(45)に示す条件下で、式(44)のQ関数をそれぞれのパラメータで偏微分したものを0と置くことで、式(46)~式(48)に示すパラメータ更新則を導く。
Figure JPOXMLDOC01-appb-M000045
Figure JPOXMLDOC01-appb-M000046
Figure JPOXMLDOC01-appb-M000047
Figure JPOXMLDOC01-appb-M000048
 これにより、パラメータ更新部202は、分布パラメータΘを更新する。なお、Θに対して適切な事前分布を設定することで、既知の方法を用い、より精度良いマスク推定を実現することもできる。
 また、パラメータ更新部202は、分布パラメータの更新をオンラインで実施してもよい。この場合、パラメータ更新部202は、式(47)で与えられる更新則を、時刻t´において、1つ前の時刻t´-1における推定値B(t´-1,f)を用いて式(49)のように表す。
Figure JPOXMLDOC01-appb-M000049
 また、パラメータ更新部202は、式(48)で与えられる更新則を、同様に式(50)のように表す。
Figure JPOXMLDOC01-appb-M000050
 次に、パラメータ更新部202は、更新則を用いて更新した新たなパラメータを、パラメータ保持部204にコピーする。そして、マスク推定部20は、事後確率推定部201、パラメータ更新部202、パラメータ保持部204の処理が決められた回数(例えば30回)実行されるまで、もしくは計算結果が収束するまで反復する。
(実施例3)
 実施例3では、実施例2のマスク推定方法で発生するパーミュテーション問題の解決方法について説明する。実施例2において、マスク推定部20は、周波数fごとに、マスクφ(t,f)とφ(t,f)を求めていた。しかし、各周波数で推定されたマスクにおいて、雑音に対応するマスクが目的音源のマスクと入れ替わっていたり、異なる周波数間で、同じ目的音源に対応するマスクが、異なる目的音源番号に対応付けられたりすることが起きる。
 このため、目的音源ごとに空間相関行列を正しく推定するためには、マスク推定部20は、背景雑音に対応するマスクがどれであるかを正しく定め、また、異なる周波数間において同じ目的音源を同じ音源番号に対応付ける必要がある。ここでは、この問題をパーミュテーション問題と呼ぶ。
 パーミュテーション問題を解決するためには、マスク推定部20は、以下の(1)および(2)の操作を行うことが必要である。
(1)各周波数において、どのマスクが背景雑音に対応するかを定める。
(2)異なる周波数間で、同じ目的音源に対応するマスクが、同じ音源番号に関連付けられるようにする。
 まず、(1)の操作について説明する。いま、実施例2の方法に従い、各周波数fにおいて、N個のB(f)と1個のB(f)が求められているとする。以下、説明を簡単にするため、B(f)=B(f)と表記する。ここで、マスク推定部20は、N+1個のB(f)(N≧n≧0)のうち、どのB(f)が背景雑音に対応するかを以下の(1-1)~(1-3)により決定する。
(1-1)
 各nに対し、B(f)のM個の固有値を求め、それらを値の大きいものから順に並べてできるベクトルγ(f)を式(51)のように構成する。
Figure JPOXMLDOC01-appb-M000051
(1-2)
 γ(f)の分布の平坦さの度合いを評価する関数E(・)を用意し、その値が最も大きいnに対応する番号nを、式(52)により求める。
Figure JPOXMLDOC01-appb-M000052
(1-3)
 nに対応するマスクを、背景雑音に対応するマスクとして定める。E(・)の定め方としては、例えば、式(53)に示すような、ベクトルの要素を足して1になるように正規化したγ(f)のエントロピーを求める関数として、式(54)のように定めることが可能である。
Figure JPOXMLDOC01-appb-M000053
Figure JPOXMLDOC01-appb-M000054
 ここで、H(・)は、要素を足して1になるベクトルu=[u,u,…,u]のエントロピーを求める関数で、式(55)のように定義される。
Figure JPOXMLDOC01-appb-M000055
 次に、(2)の操作について説明する。まず、マスク推定部20は、推定されたN個のマスクについて、全ての周波数において、同一の目的音源nに対応するマスクφ(t,f)が、同一の目的音源の番号nに関連付ける必要がある。具体的な手段としては、下記の(2-1)~(2-4)が考えられる。
(2-1)
 会話への参加人数Nが既知であるとし、マスク推定部20は、実施例2の方法で推定されたマスクのうち、背景雑音のマスクを除いたN個のマスクをφ(t,f)(n=1,…,N)とする。
 ここで、マスクは、当該目的信号が、各時間周波数点にどの程度含まれているかの割合を表すものであるため、ある1つの音源のマスクの時系列は全ての周波数で同期する傾向がある。この性質を用いて、マスク推定部20は、得られたマスクの全てのnおよびfでの時系列φ(t,f)(t=1,・・・,T)をN個のクラスタにクラスタリングすることで、パーミュテーション問題を解決する。クラスタリングには、例えばk-means法を用いたり、参考文献1(H. Sawada, S. Araki, S. Makino, “Underdetermined Convolutive Blind Source Separation via Frequency Bin-Wise Clustering and Permutation Alignment,” IEEE Trans. Audio, Speech, and Language Processing, vol.19, no.3, pp.516-527, March 2011.)に記載された方法を用いることができる。
(2-2)
 マスク推定部20は、式(41)および式(42)によるマスクの推定において、B(f)を、話者の位置ごとにあらかじめ学習した空間相関行列B trained(f)に固定する。B trained(f)は、例えば、学習データとして話者の位置ごとの観測信号をあらかじめ用意し、その学習データにて実施例2の方法でマスクを推定し、式(47)の結果として得られたB(f)である。
 この手段は、椅子の位置がほぼ固定されている会議室等での会話に有効であり、各席に対応する話者を目的音源nとして、それに対応するマスクφ(t,f)を推定できる。
(2-3)
 手段(2-3)において、マスク推定部20は、手段(2-2)において、B(f)の初期値をB trained(f)とし、実施例2の方法でマスクを推定する。手段(2-2)は、椅子の位置がほぼ固定されているが、椅子にキャスターがついていること等により話者の位置が会話中に少しずつ変動するような場合に有効である。
(2-4)
 手段(2-4)において、マスク推定部20は、B trained(f)をB(f)の事前情報として用いながらマスクの推定を行う。具体的に、マスク推定部20は、式(47)の推定を、η(0~1までの間の実数)を重みとして、式(56)により行う。
Figure JPOXMLDOC01-appb-M000056
 手段(2-3)は、手段(2-2)と同様に、椅子の位置がほぼ固定されているが、椅子にキャスターがついていること等により話者の位置が会話中に少しずつ変動するような場合に有効である。
(実施例4)
 実施例4として、空間相関行列推定装置1によって得られた目的音源の空間相関行列を用いて、方向推定を行なう場合について説明する。まず、実施例1と同様の手順で、音源nに関するステアリングベクトルが式(57)のように得られているとする。
Figure JPOXMLDOC01-appb-M000057
 次に、参考文献2(S. Araki, H. Sawada, R. Mukai and S. Makino,“DOA estimation for multiple sparse sourceswith normalized observation vector clustering,”, ICASSP2006, Vol. 5, pp.33-36, 2006.)のように、M個のマイク配置が既知でマイクmの3次元座標をdとし、マイクアレイから見た音源nの方位角をθ、仰角をψとすると、q=[cos(θ)cos(ψ),cos(θ)sin(ψ),sin(ψ)]は、式(58)により計算できる。
Figure JPOXMLDOC01-appb-M000058
 ここで、cは音速、fバーは周波数インデックスfに対応する周波数(Hz)、ξn(f)=[arg(hn1/hnJ),…,arg(hnM/hnJ)] D=[d-d,…,d-d、Jは基準マイクのインデックス(1~Mから任意に選択)であり、+は一般化逆行列を示す。
 そして、式(58)によって得られた到来方向q(f)について、空間的エリアシングが発生しない周波数範囲のq(f)の平均値をもって、音源nの到来方向qとする。またqではなく、方位角、仰角等の平均値を計算しても良い。
[第1の実施形態の処理]
 図3を用いて、第1の実施形態の空間相関行列推定装置1の処理について説明する。図3は、第1の実施形態に係る空間相関行列推定装置の処理の一例を示す図である。まず、図3に示すように、時間周波数分析部10は、観測信号を取得し(ステップS10)、短時間フーリエ変換等の短時間信号分析を用いて時間周波数点ごとの信号特徴量を計算し(ステップS11)、観測特徴量ベクトルを構成する(ステップS12)。
 次に、観測特徴量行列計算部30は、観測特徴量ベクトルを基に、時間周波数点ごとの観測特徴量行列を計算する(ステップS13)。そして、マスク推定部20は、観測特徴量ベクトルを基に、マスクを推定する(ステップS14)。
 雑音下目的音空間相関行列推定部40は、観測特徴量行列に目的音に対応するマスクを適用し、所定の係数で重み付けすることで、雑音下目的音空間相関行列を推定する(ステップS15)。また、雑音空間相関行列推定部50は、観測特徴量行列に背景雑音に対応するマスクを適用し、所定の係数で重み付けすることで、雑音空間相関行列を推定する(ステップS16)。
 このとき、雑音下目的音空間相関行列の推定に用いられる係数と、雑音空間相関行列の推定に用いられる係数との比は、例えば、目的音に対応するマスクの時間平均の逆数と、背景雑音に対応するマスクの時間平均の逆数との比に等しい。
 最後に、目的音空間相関行列雑音除去部60は、例えば雑音下目的音空間相関行列から雑音空間相関行列を減じることにより、目的音の空間相関行列を推定する(ステップS17)。
 また、図3のステップS14のマスク推定処理の例を、図4を用いて説明する。図4は、第1の実施形態に係る空間相関行列推定装置のマスク推定処理の一例を示す図である。まず、マスク推定部20は、観測信号の生成分布を、混合複素ガウス分布を用いてモデル化する(ステップS141)。
 パラメータ初期化部203は、乱数等によりモデルのパラメータの初期値を設定する(ステップS142)。次に、事後確率推定部201は、観測信号とパラメータを用いて各要素分布に関する事後確率を計算する(ステップS143)。ここで、事後確率の計算が30回行われていない場合(ステップS144、No)は、パラメータ更新部202は、計算した事後確率を用いてパラメータを更新する(ステップS145)。さらに、マスク推定部20は、ステップS143に戻り処理を繰り返す。
 そして、事後確率の計算が30回行われた場合は(ステップS144、Yes)、パラメータ更新部202は、最後のパラメータ更新を行う。最後に、マスク推定部20は、計算した事後確率をマスクとして推定する(ステップS146)。
[第1の実施形態の効果]
 本発明の効果を確認するために、従来の方法および第1の実施形態を用いた確認実験について説明する。
(確認実験1)
 確認実験1では、バスの中、カフェ等の背景雑音の存在する環境下において、1人の話者(N=1)がタブレットに向かって文章を読み上げている状況で、タブレットに装着されたM=6個のマイクで信号を収録した。このとき、収録した信号に対して、各方法を用いて音声認識を行った場合の音声認識精度は下記の通りであった。下記の結果より、第1の実施形態を適用することで、音声認識精度が向上することが確認できた。
(1)そのまま音声認識をした場合:87.11(%)
(2)Watson分布でマスク推定をした後、MVDRを適応した場合(従来の方法):89.40(%)
(3)第1の実施形態を適用し、オフラインでマスク推定した後、MVDRを適応した場合(実施例1、オフライン):91.54(%)
(4)第1の実施形態を適用し、事前学習したパラメータを初期値として、オンラインでマスク推定した後、MVDRを適応した場合(実施例1、オンライン):91.80(%)
(確認実験2)
 確認実験2では、通常の会議室において、4人の話者(N=4)が直径1.2mの円卓を囲んで自由に会話している状況で、円卓中央のM=8個のマイクで信号を収録した。このとき、収録した信号に対して、各方法を用いて音声認識を行った場合の音声認識精度は下記の通りであった。下記の結果より、第1の実施形態を適用することで、音声認識精度が向上することが確認できた。
(1)そのまま音声認識をした場合:20.9(%)
(2)第1の実施形態を適用し、オフラインでマスク推定した後、MVDRを適応した場合(実施例1、オフライン):54.0(%)
(3)第1の実施形態を適用し、オンラインでマスク推定した後、MVDRを適応した場合(実施例1、オンライン):52.0(%)
 時間周波数分析部10は、入力された観測特徴量に基づいて観測特徴量ベクトルを計算する。また、マスク推定部20は、時間周波数点ごとの、第1の音響信号が観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、第2の音響信号が観測信号の特徴量に含まれる割合である第2のマスクと、を推定する。そして、観測特徴量行列計算部30は、観測特徴量ベクトルに基づいて、時間周波数点ごとに、観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する。
 雑音下目的音空間相関行列推定部40は、観測信号および第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列を計算する。また、雑音空間相関行列推定部50は、観測信号および第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列を計算する。そして、目的音空間相関行列雑音除去部60は、第1の空間相関行列および第2の空間相関行列に基づいて目的音源の空間相関行列を推定する。
 このように、第1の実施形態によれば、第1の係数および第2の係数による適切な重み付けが行われているため、第1の特徴量行列および第2の特徴量行列をそのまま用いる場合と比較して、背景雑音の影響を観測信号から正確に取り除き、目的音源の空間相関行列を精度良く推定できる。
 また、第1の係数と第2の係数との比率は、例えば、第1のマスクの時間平均値の逆数と第2のマスクの時間平均値の逆数との比率に等しいこととしてもよい。これにより、推定される目的音源の空間相関行列に、背景雑音の空間相関行列が時間的に大きく変化しないことが盛り込まれ、推定精度が向上する。
 また、マスク推定部20は、観測特徴量ベクトルの確率分布を、共分散行列が時刻ごとに異なる値を取るスカラーパラメータと時不変のパラメータとを要素にもつ正定値エルミート行列の積で表される、平均0のM次元複素ガウス分布であるN+1個の要素分布からなる混合分布で周波数ごとにモデル化する。
 そして、マスク推定部20は、混合分布が観測特徴量ベクトルの分布に近くなるように混合分布のパラメータを推定することで得られる要素分布のそれぞれの事後確率を、第1のマスクおよび第2のマスクとする。これにより、観測特徴量ベクトルの分布の形状が、超球面上の円状では正確に近似できない場合でも、正確にマスクを推定することができる。
 マスク推定部20はさらに、要素分布のうち、時不変のパラメータを要素に持つ正定値エルミート行列の固有値の分布の形状が最も平坦である要素分布の事後確率を背景雑音に対応する第2のマスクとする。これにより、マスク推定部が推定したマスクのうち、どれが背景雑音に対応するものであるかを自動的に推定することができる。
[システム構成等]
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
 一実施形態として、空間相関行列推定装置は、パッケージソフトウェアやオンラインソフトウェアとして上記の空間相関行列推定を実行する空間相関行列推定プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の空間相関行列推定プログラムを情報処理装置に実行させることにより、情報処理装置を空間相関行列推定装置として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
 また、空間相関行列推定装置は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の空間相関行列推定に関するサービスを提供するサーバ装置として実装することもできる。例えば、空間相関行列推定装置は、観測信号を入力とし、目的音源の空間相関行列を出力とする空間相関行列推定サービスを提供するサーバ装置として実装される。この場合、空間相関行列推定装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の空間相関行列推定に関するサービスを提供するクラウドとして実装することとしてもかまわない。
 図5は、プログラムが実行されることにより空間相関行列推定装置が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
 メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
 ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、空間相関行列推定装置1の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、空間相関行列推定装置1における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
 また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
 なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
 1 空間相関行列推定装置
 10 時間周波数分析部
 20 マスク推定部
 30 観測特徴量行列計算部
 40 雑音下目的音空間相関行列推定部
 50 雑音空間相関行列推定部
 60 目的音空間相関行列雑音除去部
 201 事後確率推定部
 202 パラメータ更新部
 203 パラメータ初期化部
 204 パラメータ保持部

Claims (12)

  1.  N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定装置であって、
     前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去部を有することを特徴とする空間相関行列推定装置。
  2.  前記雑音除去部は、背景雑音の空間相関行列が時間的に変化しないとの条件下において、前記目的音源の空間相関行列の推定値に含まれる背景雑音由来の成分が0となるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項1に記載の空間相関行列推定装置。
  3.  前記雑音除去部は、前記第1の係数と前記第2の係数との比率が、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しくなるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項1または2に記載の空間相関行列推定装置。
  4.  前記第1の空間相関行列は、N=1である場合、前記観測特徴量ベクトルに基づいて計算された観測特徴量行列の周波数ごとの時間平均であることを特徴とする請求項1から3のいずれか1項に記載の空間相関行列推定装置。
  5.  前記観測信号に短時間信号分析を適用し、時間周波数点ごとの信号特徴量を抽出し、前記信号特徴量を成分とするM次元縦ベクトルである観測特徴量ベクトルを時間周波数点ごとに計算する時間周波数分析部と、
     前記観測特徴量ベクトルに基づいて、時間周波数点ごとに、前記観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する観測特徴量行列計算部と、
     前記目的音源のそれぞれについて、時間周波数点ごとに前記観測特徴量行列と前記第1のマスクを乗じて得られる行列の周波数ごとの時間平均を第1の特徴量行列として計算し、前記第1の特徴量行列に前記第1の係数を乗じることで前記第1の空間相関行列を推定する雑音下目的音空間相関行列推定部と、
     前記背景雑音について、時間周波数点ごとに前記観測特徴量行列と前記第2のマスクを乗じて得られる行列の周波数ごとの時間平均を第2の特徴量行列として計算し、前記第2の特徴量行列に前記第2の係数を乗じることで前記第2の空間相関行列を推定する雑音空間相関行列推定部と、
     をさらに有し、
     前記雑音除去部は、前記第1の空間相関行列から前記第2の空間相関行列を減じることで前記目的音源の空間相関行列を推定し、
     前記第1の係数と前記第2の係数との比率は、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しいことを特徴とする請求項1に記載の空間相関行列推定装置。
  6.  前記観測特徴量ベクトルの確率分布を、共分散行列が時刻ごとに異なる値を取るスカラーパラメータと時不変のパラメータとを要素にもつ正定値エルミート行列の積で表される、平均0のM次元複素ガウス分布であるN+1個の要素分布からなる混合分布で周波数ごとにモデル化し、前記混合分布が前記観測特徴量ベクトルの分布に近くなるように前記混合分布のパラメータを推定することで得られる前記要素分布のそれぞれの事後確率を、前記第1のマスクおよび前記第2のマスクとするマスク推定部をさらに有することを特徴とする請求項1から5のいずれか1項に記載の空間相関行列推定装置。
  7.  前記マスク推定部は、前記要素分布のうち、前記時不変のパラメータを要素に持つ正定値エルミート行列の固有値の分布の形状が最も平坦である要素分布の事後確率を前記第2のマスクとすることを特徴とする請求項6に記載の空間相関行列推定装置。
  8.  N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定方法であって、
     前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去工程を含んだことを特徴とする空間相関行列推定方法。
  9.  前記雑音除去工程は、背景雑音の空間相関行列が時間的に変化しないとの条件下において、前記目的音源の空間相関行列の推定値に含まれる背景雑音由来の成分が0となるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項8に記載の空間相関行列推定方法。
  10.  前記雑音除去工程は、前記第1の係数と前記第2の係数との比率が、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しくなるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項8または9に記載の空間相関行列推定方法。
  11.  前記観測信号に短時間信号分析を適用し、時間周波数点ごとの信号特徴量を抽出し、前記信号特徴量を成分とするM次元縦ベクトルである観測特徴量ベクトルを時間周波数点ごとに計算する時間周波数分析工程と、
     前記観測特徴量ベクトルに基づいて、時間周波数点ごとに、前記観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する観測特徴量行列計算工程と、
     前記目的音源のそれぞれについて、時間周波数点ごとに前記観測特徴量行列と前記第1のマスクを乗じて得られる行列の周波数ごとの時間平均を第1の特徴量行列として計算し、前記第1の特徴量行列に前記第1の係数を乗じることで前記第1の空間相関行列を推定する雑音下目的音空間相関行列推定工程と、
     前記背景雑音について、時間周波数点ごとに前記観測特徴量行列と前記第2のマスクを乗じて得られる行列の周波数ごとの時間平均を第2の特徴量行列として計算し、前記第2の特徴量行列に前記第2の係数を乗じることで前記第2の空間相関行列を推定する雑音空間相関行列推定工程と、
     をさらに含み、
     前記雑音除去工程は、前記第1の空間相関行列から前記第2の空間相関行列を減じることで前記目的音源の空間相関行列を推定し、
     前記第1の係数と前記第2の係数との比率は、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しいことを特徴とする請求項8に記載の空間相関行列推定方法。
  12.  コンピュータに、請求項8から11のいずれか1項に記載の空間相関行列推定方法を実行させるための空間相関行列推定プログラム。
PCT/JP2016/085821 2015-12-02 2016-12-01 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム WO2017094862A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017554190A JP6434657B2 (ja) 2015-12-02 2016-12-01 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
CN201680069908.5A CN108292508B (zh) 2015-12-02 2016-12-01 空间相关矩阵估计装置、空间相关矩阵估计方法和记录介质
US15/779,926 US10643633B2 (en) 2015-12-02 2016-12-01 Spatial correlation matrix estimation device, spatial correlation matrix estimation method, and spatial correlation matrix estimation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015236158 2015-12-02
JP2015-236158 2015-12-02

Publications (1)

Publication Number Publication Date
WO2017094862A1 true WO2017094862A1 (ja) 2017-06-08

Family

ID=58797513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085821 WO2017094862A1 (ja) 2015-12-02 2016-12-01 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム

Country Status (4)

Country Link
US (1) US10643633B2 (ja)
JP (1) JP6434657B2 (ja)
CN (1) CN108292508B (ja)
WO (1) WO2017094862A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019049276A1 (ja) * 2017-09-07 2019-03-14 三菱電機株式会社 雑音除去装置および雑音除去方法
JP2019045576A (ja) * 2017-08-30 2019-03-22 日本電信電話株式会社 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム
JPWO2018037643A1 (ja) * 2016-08-23 2019-06-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20190090578A (ko) * 2018-01-25 2019-08-02 서강대학교산학협력단 분산도 마스크를 이용한 음원 국지화 방법 및 음원 국지화 장치
WO2020045313A1 (ja) * 2018-08-31 2020-03-05 日本電信電話株式会社 マスク推定装置、マスク推定方法及びマスク推定プログラム
CN111009257A (zh) * 2019-12-17 2020-04-14 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915579B2 (ja) * 2018-04-06 2021-08-04 日本電信電話株式会社 信号分析装置、信号分析方法および信号分析プログラム
US10929503B2 (en) * 2018-12-21 2021-02-23 Intel Corporation Apparatus and method for a masked multiply instruction to support neural network pruning operations
CN109859769B (zh) * 2019-01-30 2021-09-17 西安讯飞超脑信息科技有限公司 一种掩码估计方法及装置
CN110097872B (zh) * 2019-04-30 2021-07-30 维沃移动通信有限公司 一种音频处理方法及电子设备
CN110148422B (zh) * 2019-06-11 2021-04-16 南京地平线集成电路有限公司 基于传声器阵列确定声源信息的方法、装置及电子设备
JP7191793B2 (ja) * 2019-08-30 2022-12-19 株式会社東芝 信号処理装置、信号処理方法、及びプログラム
CN111009256B (zh) * 2019-12-17 2022-12-27 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质
CN113779805B (zh) * 2021-09-16 2023-11-14 北京中安智能信息科技有限公司 海洋噪声相关性仿真方法和装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014090353A (ja) * 2012-10-31 2014-05-15 Nippon Telegr & Teleph Corp <Ntt> 音源位置推定装置
JP2014215544A (ja) * 2013-04-26 2014-11-17 ヤマハ株式会社 音響処理装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084182A1 (en) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition of voiced speech for celp speech coding
US7415392B2 (en) * 2004-03-12 2008-08-19 Mitsubishi Electric Research Laboratories, Inc. System for separating multiple sound sources from monophonic input with non-negative matrix factor deconvolution
CN1832633A (zh) * 2005-03-07 2006-09-13 华为技术有限公司 一种声源定位方法
JP2006337851A (ja) * 2005-06-03 2006-12-14 Sony Corp 音声信号分離装置及び方法
US8015003B2 (en) * 2007-11-19 2011-09-06 Mitsubishi Electric Research Laboratories, Inc. Denoising acoustic signals using constrained non-negative matrix factorization
US8848933B2 (en) * 2008-03-06 2014-09-30 Nippon Telegraph And Telephone Corporation Signal enhancement device, method thereof, program, and recording medium
CN102473412B (zh) * 2009-07-21 2014-06-11 日本电信电话株式会社 语音信号区间估计装置与方法
WO2011094710A2 (en) * 2010-01-29 2011-08-04 Carol Espy-Wilson Systems and methods for speech extraction
BR112012031656A2 (pt) * 2010-08-25 2016-11-08 Asahi Chemical Ind dispositivo, e método de separação de fontes sonoras, e, programa
US8874441B2 (en) * 2011-01-19 2014-10-28 Broadcom Corporation Noise suppression using multiple sensors of a communication device
CN102231280B (zh) * 2011-05-06 2013-04-03 山东大学 卷积语音信号的频域盲分离排序算法
CN102890936A (zh) * 2011-07-19 2013-01-23 联想(北京)有限公司 一种音频处理方法、终端设备及系统
DK3190587T3 (en) * 2012-08-24 2019-01-21 Oticon As Noise estimation for noise reduction and echo suppression in personal communication
WO2014079483A1 (en) * 2012-11-21 2014-05-30 Huawei Technologies Co., Ltd. Method and device for reconstructing a target signal from a noisy input signal
US20160314800A1 (en) * 2013-12-23 2016-10-27 Analog Devices, Inc. Computationally efficient method for filtering noise
CN106031196B (zh) * 2014-02-28 2018-12-07 日本电信电话株式会社 信号处理装置、方法以及程序
CN105741849B (zh) * 2016-03-06 2019-03-22 北京工业大学 数字助听器中融合相位估计与人耳听觉特性的语音增强方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014090353A (ja) * 2012-10-31 2014-05-15 Nippon Telegr & Teleph Corp <Ntt> 音源位置推定装置
JP2014215544A (ja) * 2013-04-26 2014-11-17 ヤマハ株式会社 音響処理装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018037643A1 (ja) * 2016-08-23 2019-06-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11346917B2 (en) 2016-08-23 2022-05-31 Sony Corporation Information processing apparatus and information processing method
JP2019045576A (ja) * 2017-08-30 2019-03-22 日本電信電話株式会社 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム
WO2019049276A1 (ja) * 2017-09-07 2019-03-14 三菱電機株式会社 雑音除去装置および雑音除去方法
JPWO2019049276A1 (ja) * 2017-09-07 2019-12-26 三菱電機株式会社 雑音除去装置および雑音除去方法
KR20190090578A (ko) * 2018-01-25 2019-08-02 서강대학교산학협력단 분산도 마스크를 이용한 음원 국지화 방법 및 음원 국지화 장치
KR102088222B1 (ko) * 2018-01-25 2020-03-16 서강대학교 산학협력단 분산도 마스크를 이용한 음원 국지화 방법 및 음원 국지화 장치
WO2020045313A1 (ja) * 2018-08-31 2020-03-05 日本電信電話株式会社 マスク推定装置、マスク推定方法及びマスク推定プログラム
JP2020034882A (ja) * 2018-08-31 2020-03-05 日本電信電話株式会社 マスク推定装置、マスク推定方法及びマスク推定プログラム
JP6992709B2 (ja) 2018-08-31 2022-01-13 日本電信電話株式会社 マスク推定装置、マスク推定方法及びマスク推定プログラム
CN111009257A (zh) * 2019-12-17 2020-04-14 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质

Also Published As

Publication number Publication date
JPWO2017094862A1 (ja) 2018-04-05
CN108292508B (zh) 2021-11-23
US20180366135A1 (en) 2018-12-20
US10643633B2 (en) 2020-05-05
JP6434657B2 (ja) 2018-12-05
CN108292508A (zh) 2018-07-17

Similar Documents

Publication Publication Date Title
JP6434657B2 (ja) 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
US11763834B2 (en) Mask calculation device, cluster weight learning device, mask calculation neural network learning device, mask calculation method, cluster weight learning method, and mask calculation neural network learning method
CN107919133B (zh) 针对目标对象的语音增强系统及语音增强方法
JP6652519B2 (ja) ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム
JP6535112B2 (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
US11456003B2 (en) Estimation device, learning device, estimation method, learning method, and recording medium
JP6517760B2 (ja) マスク推定用パラメータ推定装置、マスク推定用パラメータ推定方法およびマスク推定用パラメータ推定プログラム
JP6538624B2 (ja) 信号処理装置、信号処理方法および信号処理プログラム
JP6711765B2 (ja) 形成装置、形成方法および形成プログラム
JP5726790B2 (ja) 音源分離装置、音源分離方法、およびプログラム
JP6910609B2 (ja) 信号解析装置、方法、及びプログラム
JP6636973B2 (ja) マスク推定装置、マスク推定方法およびマスク推定プログラム
JP6973254B2 (ja) 信号分析装置、信号分析方法および信号分析プログラム
JP6930408B2 (ja) 推定装置、推定方法および推定プログラム
JP6734237B2 (ja) 目的音源推定装置、目的音源推定方法及び目的音源推定プログラム
JP2018028620A (ja) 音源分離方法、装置およびプログラム
JP6915579B2 (ja) 信号分析装置、信号分析方法および信号分析プログラム
Rafique et al. Speech source separation using the IVA algorithm with multivariate mixed super gaussian student's t source prior in real room environment
Chung et al. A supervised multi-channel speech enhancement algorithm based on bayesian nmf model
JP7293162B2 (ja) 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラム
Liu et al. A fast blind source separation algorithm for binaural hearing aids based on frequency bin selection
JP2023039288A (ja) 音源分離モデル学習装置、音源分離装置、音源分離モデル学習方法、音源分離方法及びプログラム
Jafari Advancing time-frequency clustering techniques for multichannel blind source separation and source number estimation
Ramírez López Improving independent vector analysis in speech and noise separation tasks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16870799

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017554190

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16870799

Country of ref document: EP

Kind code of ref document: A1