WO2020121545A1 - 信号処理装置、信号処理方法、およびプログラム - Google Patents

信号処理装置、信号処理方法、およびプログラム Download PDF

Info

Publication number
WO2020121545A1
WO2020121545A1 PCT/JP2019/016587 JP2019016587W WO2020121545A1 WO 2020121545 A1 WO2020121545 A1 WO 2020121545A1 JP 2019016587 W JP2019016587 W JP 2019016587W WO 2020121545 A1 WO2020121545 A1 WO 2020121545A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
frequency
beamformer
time
steering vector
Prior art date
Application number
PCT/JP2019/016587
Other languages
English (en)
French (fr)
Inventor
中谷 智広
慶介 木下
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/312,912 priority Critical patent/US11894010B2/en
Priority to PCT/JP2019/029921 priority patent/WO2020121590A1/ja
Priority to JP2020559702A priority patent/JP7115562B2/ja
Publication of WO2020121545A1 publication Critical patent/WO2020121545A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Definitions

  • the present invention relates to signal processing technology for acoustic signals.
  • Non-Patent Documents 1 and 2 disclose methods of suppressing noise and reverberation from observed signals in the frequency domain.
  • the power of the observed signal in the frequency domain is received under the constraint that it does not distort the sound coming from the sound source to the microphone by receiving the observed signal in the frequency domain and the steering vector that represents the sound source direction or its estimation vector.
  • Estimate an instantaneous beamformer that minimizes and apply it to the observed signal in the frequency domain to suppress reverberation and noise (conventional method 1).
  • Patent Document 1 and Non-Patent Document 3 disclose a method of suppressing reverberation from an observation signal in the frequency domain.
  • the observed signal in the frequency domain and the power of the target sound at each time or its estimated value are received, and a reverberation suppression filter that suppresses the reverberation of the target sound is estimated based on the weighted power minimization criterion of the prediction error.
  • the reverberation suppression filter is applied to the observed signal in the frequency domain to suppress the reverberation of the observed signal in the frequency domain (conventional method 2).
  • Non-Patent Document 4 discloses a method of suppressing noise and reverberation by connecting the conventional method 2 and the conventional method 1 in cascade. In this method, the observed signal in the frequency domain and the power of the target sound at each time are received in the former stage, the reverberation is suppressed using the conventional method 2, and then the steering vector is received in the latter stage, and the reverberation is generated using the conventional method 1. Noise is further suppressed (conventional method 3).
  • Conventional method 1 was originally developed for suppressing noise, and cannot always sufficiently suppress reverberation.
  • the conventional method 2 cannot suppress noise.
  • the conventional method 3 can suppress more noise and reverberation than when the conventional method 1 or the conventional method 2 is used alone.
  • the former method 2 in the former stage and the conventional method 1 in the latter stage are regarded as independent systems and optimized in each system. Therefore, when the conventional method 2 is applied in the previous stage, it is not always possible to sufficiently suppress reverberation due to the influence of noise.
  • the conventional method 1 when the conventional method 1 is applied in the latter stage, it is not always possible to sufficiently suppress the noise reverberation due to the influence of the residual reverberation.
  • the present invention has been made in view of the above points, and an object thereof is to provide a technique capable of sufficiently suppressing noise and reverberation.
  • a frequency-based observation signal corresponding to each of a plurality of frequency bands of an observation signal obtained by collecting an acoustic signal emitted from a sound source has a present signal and a predetermined delay at each time.
  • a convolutional beamformer is obtained so that the estimated signal obtained by applying the convolutional beamformer that calculates a weighted sum with the signal sequence of The obtained convolutional beamformer is applied to the frequency-based observation signal to obtain the target signal.
  • the convolutional beamformer is obtained so that the probability that the estimated signal based on the probabilistic model is expressed becomes large, noise suppression and reverberation suppression can be optimized as one system, and noise and reverberation can be sufficiently obtained. Can be suppressed.
  • FIG. 1A is a block diagram illustrating the functional configuration of the signal processing device according to the first embodiment.
  • FIG. 1B is a flowchart for illustrating the signal processing method according to the first embodiment.
  • FIG. 2A is a block diagram illustrating the functional configuration of the signal processing device according to the second embodiment.
  • FIG. 2B is a flow diagram for illustrating the signal processing method of the second embodiment.
  • FIG. 3 is a block diagram illustrating the functional configuration of the signal processing device according to the third embodiment.
  • FIG. 4 is a block diagram illustrating the functional configuration of the parameter estimation unit in FIG.
  • FIG. 5 is a flow chart for illustrating the parameter estimation method of the third embodiment.
  • FIG. 6 is a block diagram illustrating the functional configuration of the signal processing devices of the fourth to seventh embodiments.
  • FIG. 1A is a block diagram illustrating the functional configuration of the signal processing device according to the first embodiment.
  • FIG. 1B is a flowchart for illustrating the signal processing method according to the first embodiment.
  • FIG. 7 is a block diagram illustrating a functional configuration of the parameter estimation unit in FIG.
  • FIG. 8 is a block diagram illustrating the functional configuration of the steering vector estimation unit in FIG.
  • FIG. 9 is a block diagram illustrating the functional configuration of the signal processing device according to the eighth embodiment.
  • FIG. 10 is a block diagram illustrating the functional configuration of the signal processing device according to the ninth embodiment.
  • 11A to 11C are block diagrams for explaining an example of use of the signal processing device of the embodiment.
  • FIG. 12 is a table illustrating the experimental results of the first embodiment.
  • FIG. 13 is a table illustrating the experimental results of the first embodiment.
  • FIG. 14 is a table illustrating the experimental results of the fourth embodiment.
  • 15A to 15C are tables illustrating the experimental results of the seventh embodiment.
  • M is a positive integer representing the number of microphones.
  • m is a positive integer representing a microphone number and satisfies 1 ⁇ m ⁇ M.
  • Microphone numbers are shown in the upper right subscript with parentheses. That is, the value or vector based on the signal picked up by the microphone of the microphone number m is represented by a symbol having the upper right subscript “(m)” (for example, x f,t (m) ).
  • N:N is a positive integer representing the total number of time frames of the signal. For example, N ⁇ 2.
  • t, ⁇ : t, ⁇ is a positive integer representing a time frame number, and t satisfies 1 ⁇ t ⁇ N.
  • the time frame number is indicated by the lower right subscript. That is, the value or vector corresponding to the time frame of the time frame number t is represented by a symbol having a lower right subscript “t” (for example, x f,t (m) ). Similarly, the value or vector corresponding to the time frame of the time frame number ⁇ is represented by a symbol having a lower right subscript “ ⁇ ”.
  • P is a positive integer representing the total number of frequency bands (discrete frequencies). For example, P ⁇ 2.
  • f f is a positive integer representing the frequency band number and satisfies 1 ⁇ f ⁇ P.
  • the frequency band number is indicated by the lower right subscript. That is, the value or vector corresponding to the frequency band of the frequency band number f is represented by a symbol having a lower right subscript “f” (for example, x f,t (m) ).
  • T represents a non-conjugated transpose of a matrix or a vector.
  • ⁇ 0 T represents a matrix or vector obtained by transposing ⁇ 0 non-conjugate.
  • H H represents the conjugate transpose of a matrix or vector.
  • ⁇ 0 H represents a matrix or vector obtained by conjugate transposing ⁇ 0 .
  • the “target signal” refers to a signal corresponding to a direct sound and an initial reflected sound among signals corresponding to sounds emitted from a target sound source and collected by a microphone (for example, frequency-specific observation signals).
  • the initial reflected sound refers to a component of reverberation derived from a sound emitted from a target sound source, which reaches the microphone within a few tens of milliseconds after the direct sound.
  • the initial reflected sound has a function of improving the clarity of the sound, and in the present embodiment, the signal corresponding to the initial reflected sound is also included in the target signal.
  • the signals corresponding to the sound collected by the microphone include the rear reverberation (components excluding the initial reflection sound from the reverberation) and the target reverberation that are derived from the sound emitted from the target sound source. Includes noise originating from sources other than the sound source.
  • a target signal is estimated by suppressing rear reverberation and noise from an observation signal for each frequency corresponding to a sound recorded by a microphone, for example.
  • reverberation refers to "rear reverberation”.
  • Method 1 M-dimensional observation signals in the frequency domain (observation signals by frequency) Suppresses noise and reverberation.
  • the frequency-based observation signal x f,t is obtained by converting M observation signals obtained by collecting acoustic signals emitted from a single or a plurality of sound sources with M microphones into a frequency domain, for example. It is a thing.
  • the observation signal is obtained by collecting acoustic signals emitted from a sound source in an environment where noise and reverberation exist.
  • x f,t (m) is obtained by converting the observation signal obtained by picking up the sound of the microphone of the microphone number m into the frequency domain.
  • x f,t (m) corresponds to the frequency band of the frequency band number f and the time frame of the time frame number t. That is, the frequency-based observation signal x f,t is a time-series signal.
  • an instantaneous beamformer for example, a minimum power distortion-free response beamformer
  • w f,0 that calculates a weighted sum of signals at the current time at each time is added to the frequency-based observation signal x f,t.
  • the instantaneous beamformer w f,0 that minimizes the following cost function C 1 (w f,0 ) is obtained for each frequency band under the constraint that the target signal is not distorted.
  • the lower right subscript "0" of w f, 0 does not represent a time frame number, w f, 0 does not depend on the time frame.
  • the constraint condition is, for example, a condition that w f,0 H ⁇ f,0 becomes a constant (for example, 1).
  • a steering vector having a transfer function ⁇ f,0 (m) relating to the direct sound and the initial reflected sound from the sound source to each microphone (the sound collection position of the acoustic signal ) or its estimated vector (estimated steering vector). That is, ⁇ f,0 is the direct sound and the initial reflected sound (reverberation that arrives within several tens of milliseconds (for example, within 30 milliseconds) of the direct sound after a delay) in the impulse response from the sound source position to each microphone.
  • the normalization vector obtained by normalizing may be ⁇ f,0 . That is, what is normalized as follows may be used as ⁇ f,0 .
  • ⁇ Assumption 2 Method 2 which is a premise of the method of the embodiment will be described.
  • the reverberation is suppressed from the frequency-based observation signal x f,t .
  • the reverberation suppression filter F f, ⁇ is an M ⁇ M-order matrix filter that suppresses reverberation from the frequency-based observation signal x f,t .
  • d is a positive integer that represents the prediction delay
  • L is a positive integer that represents the filter length.
  • ⁇ f,t 2 is the power of the target signal, Is.
  • ⁇ (x H x) of the observation signal x by frequency.
  • the reverberation suppression filter F f,t obtained as described above is applied to the frequency-based observation signal x f,t in each frequency band as described below to suppress reverberation from the frequency-based observation signal x f,t.
  • the target signal z f,t is obtained.
  • the target signal z f,t is the following M-dimensional vertical vector.
  • w - f is a convolution beamformer, which calculates a weighted sum of the current signal and a past signal sequence having a predetermined delay at each time.
  • the convolutional beamformer w - f calculates a weighted sum of the current signal and the past signal sequence having a predetermined delay at each time.
  • the convolutional beamformer w - f is expressed as follows, for example. However, the following is satisfied. Further, x - f,t is expressed as follows.
  • the convolutional beamformer w ⁇ f is obtained.
  • a convolutional beamformer w ⁇ f that maximizes the probability of representing the voice-likeness of y f,t is obtained.
  • the probability density function of speech for example, a complex normal distribution whose mean is 0 and whose variance matches the power ⁇ f,t 2 of the target signal can be exemplified.
  • the “target signal” is a signal corresponding to a direct sound and an initial reflected sound among signals corresponding to sounds emitted from a target sound source and collected by a microphone.
  • the signal processing device for example, "frequency-observed signal x f, beamformer convolved t w - the result of applying f, the target signal is not distorted" under the constraint that, convolution beamformer w - a f Ask.
  • This constraint condition is, for example, a condition that w f,0 H ⁇ f,0 becomes a constant (for example, 1).
  • "const.” represents a constant.
  • ⁇ ⁇ f is a vector in which the elements ⁇ f,0 (m) of the steering vector ⁇ f,0 are arranged as follows.
  • ⁇ ⁇ f (m) is an L+1 dimensional vertical vector having ⁇ f,0 (m) and L 0s as elements.
  • the signal processing device obtains the target signal y f,t by applying the obtained convolution beamformer w ⁇ f to the frequency-based observation signal x f,t as follows.
  • the signal processing device 1 of the present embodiment has an estimation unit 11 and a suppression unit 12.
  • the observation signal x f,t for each frequency is input to the estimation unit 11 (equation (1)).
  • the estimation unit 11 calculates a weighted sum of the current signal and the past signal sequence having a predetermined delay at each time for the frequency-specific observed signal x f,t in the convolutional beamformer w ⁇ f.
  • the convolutional beamformer w - f is obtained and output so that the estimated signal obtained by applying Eq. 1 increases the probability of representing the voice-likeness of the estimated signal based on a predetermined probability model.
  • Step S12> The frequency-dependent observation signal x f,t and the convolutional beamformer w ⁇ f obtained in step S11 are input to the suppression unit 12.
  • the suppression unit 12 applies the convolution beamformer w - f to the frequency-specific observed signal xf,t to obtain and output the target signal yf ,t (estimated signal).
  • the suppression unit 12 as illustrated in Equation (16), w - f a x - f, and outputs the obtained target signal y f, a t applied to t.
  • a convolutional beamformer w ⁇ f that calculates a weighted sum of a current signal and a past signal sequence having a predetermined delay at each time is applied to the frequency-based observation signal x f,t.
  • the convolutional beamformer w ⁇ f is obtained so that the estimated signal to be obtained has a high probability of representing the voice-likeness of the estimated signal based on a predetermined probability model. This corresponds to optimizing the noise suppression and the reverberation suppression as one system. Therefore, in the present embodiment, it is possible to sufficiently suppress noise and reverberation as compared with the related art.
  • the signal processing device 2 of this embodiment includes an estimation unit 21 and a suppression unit 12.
  • the estimation unit 21 has a matrix estimation unit 211 and a convolution beamformer estimation unit 212.
  • the estimation unit 21 of the present embodiment belongs to a predetermined time interval under the constraint condition that "the target signal is not distorted as a result of applying the convolution beamformer w - f to the frequency-dependent observed signal x f,t ".
  • the sum of the values obtained by weighting the power of the estimated signal at each time with the reciprocal of the power ⁇ f,t 2 of the target signal or the reciprocal of the estimated power ⁇ f,t 2 of the target signal for example, equation (13 ) Cost function C 3 (w ⁇ f )), which minimizes the convolutional beamformer w ⁇ f and outputs it.
  • the convolution beamformer w - f is frequency-observed signal x f, dereverberation filter F f for suppressing reverberation from t, and t, the frequency-specific observation signals x f, reverberation t It is equivalent to a beamformer obtained by synthesizing an instantaneous beamformer w f,0 that suppresses noise from a signal obtained by applying the suppression filter F f,t .
  • the constraint condition is, for example, that the instantaneous beamformer is applied to an estimated steering vector that is a steering vector or an estimated vector of steering vectors that have transfer functions for direct sound and initial reflected sound from the sound source to the sound collection position of the acoustic signal as elements.
  • the value obtained by the above is a constant (w f,0 H ⁇ f,0 is a constant)”. The process will be described in detail below.
  • the observation signal x f,t for each frequency and the power or estimated power ⁇ f,t 2 of the target signal are input to the matrix estimation unit 211.
  • the matrix estimation unit 211 obtains and outputs a weighted space-time covariance matrix R f for each frequency band based on the frequency-based observed signal x f,t and the power of the target signal or the estimated power ⁇ f,t 2. ..
  • the matrix estimation unit 211 obtains and outputs the weighted space-time covariance matrix R f according to the equation (14).
  • ⁇ Step S212> The steering vector or estimated steering vector ⁇ f,0 (equation (4) or (5)) and the weighted space-time covariance matrix R f obtained in step S211 are input to the convolutional beamformer estimation unit 212. .
  • the convolutional beamformer estimation unit 212 obtains and outputs a convolutional beamformer w - f based on the weighted space-time covariance matrix R f and the steering vector or estimated steering vector ⁇ f,0 .
  • the convolutional beamformer estimation unit 212 obtains and outputs the convolutional beamformer w - f according to equation (15).
  • Step S12> The description is omitted because it is the same as the first embodiment.
  • the weighted space-time covariance matrix R f is obtained, and the convolutional beamformer w ⁇ f is obtained based on the weighted space-time covariance matrix R f and the steering vector or estimated steering vector ⁇ f,0 . ..
  • This corresponds to optimizing the noise suppression and the reverberation suppression as one system. Therefore, in the present embodiment, it is possible to sufficiently suppress noise and reverberation as compared with the related art.
  • the signal processing device 3 of the present embodiment includes an estimation unit 21, a suppression unit 12, and a parameter estimation unit 33.
  • the estimation unit 21 has a matrix estimation unit 211 and a convolution beamformer estimation unit 212. Further, as illustrated in FIG.
  • the parameter estimation unit 33 includes an initial setting unit 330, a power estimation unit 331, a reverberation suppression filter estimation unit 332, a reverberation suppression filter application unit 333, a steering vector estimation unit 334, It has an instantaneous beamformer estimation unit 335, an instantaneous beamformer application unit 336, and a control unit 337.
  • Step S330 The observation signal x f,t for each frequency is input to the initial setting unit 330.
  • the initial setting unit 330 generates and outputs the provisional power ⁇ f,t 2 that is the provisional value of the estimated power ⁇ f,t 2 of the target signal, using the observation signal x f,t for each frequency.
  • the initial setting unit 330 generates and outputs the provisional power ⁇ f,t 2 according to the following.
  • 2 x f,t H x f,t .
  • the reverberation suppression filter estimator 332 receives the frequency-based observation signal x f,t and the latest provisional power ⁇ f,t 2 .
  • the reverberation suppression filter application unit 333 receives the frequency-based observation signal x f,t and the latest reverberation suppression filter F f,t obtained in step S332.
  • the reverberation suppressing filter application unit 333 applies the reverberation suppressing filter F f,t to the frequency-based observation signal x f,t in each frequency band to obtain and output the estimated signal y′ f,t .
  • the reverberation suppression filter application unit 333 outputs z f,t obtained according to Expression (8) as y′ f,t .
  • Step S334 The latest estimated signal y′ f,t obtained in step S333 is input to the steering vector estimation unit 334.
  • the steering vector estimation unit 334 uses the estimated signal y′ f,t in each frequency band to obtain and output the provisional steering vector ⁇ f,0 that is the provisional vector of the estimated steering vector. For example, the steering vector estimation unit 334 obtains and outputs the provisional steering vector ⁇ f,0 for the estimated signal y′ f,t according to the steering vector estimation method described in Non-Patent Documents 1 and 2.
  • the steering vector estimation unit 334 outputs the steering vector estimated using y′ f,t as y f,t in Non-Patent Document 2 as the provisional steering vector ⁇ f,0 . Further, as described above, a normalization vector obtained by normalizing the transfer function of each element such that the gain of the microphone of any one of the microphone numbers m 0 ⁇ 1,..., M ⁇ is a constant g is ⁇ f,0. (Equation (5)).
  • Step S335 The latest estimated signal y′ f,t obtained in step S333 and the latest provisional steering vector ⁇ f,0 obtained in step S334 are input to the instantaneous beamformer estimation unit 335.
  • T obtained an instantaneous beamformer w f,0 that minimizes C 1 (w f,0 ) in the following Expression (18) is obtained and output.
  • Step S336 The latest estimated signal y′ f,t obtained in step S333 and the latest instantaneous beamformer w f,0 obtained in step S335 are input to the instantaneous beamformer application unit 336.
  • the instantaneous beamformer The application unit 336 obtains and outputs the estimated signal y′′ f,t as follows.
  • Step S331 The latest estimation signal y′′ f,t obtained in step S336 is input to the power estimation unit 331.
  • the power estimation unit 331 determines the power of the estimation signal y′′ f,t in each frequency band as the provisional power. Output as ⁇ f,t 2 .
  • 2 y′′ f,t Hy y f,t (20)
  • Step S337a The control unit 337 determines whether the ending condition is satisfied. Although not limited to the termination condition, for example, the number of repetitions of the process of step S331-S336 exceeds a predetermined value, before and after performing once the process of step S331-S336 ⁇ f, t 2, or [nu f, For example, the change amount of 0 is less than or equal to a predetermined value. If the end condition is not satisfied, the process returns to step S332. On the other hand, if the ending condition is satisfied, the process proceeds to step S337b.
  • the termination condition for example, the number of repetitions of the process of step S331-S336 exceeds a predetermined value, before and after performing once the process of step S331-S336 ⁇ f, t 2, or [nu f, For example, the change amount of 0 is less than or equal to a predetermined value. If the end condition is not satisfied, the process returns to step S332. On the other hand, if
  • step S337b the power estimation unit 331 outputs the latest ⁇ f,t 2 obtained in step S331 as the estimated power of the target signal, and the steering vector estimation unit 334 estimates the latest ⁇ f,0 obtained in step S334. Output as steering vector.
  • the estimated power ⁇ f,t 2 is input to the matrix estimation unit 211, and the estimated steering vector ⁇ f,0 is input to the convolution beamformer estimation unit 212.
  • the steering vector is estimated based on the frequency-based observation signal x f,t , but the steering is performed after suppressing the reverberation of the frequency-based observation signal x f,t (preferably after removing the reverberation).
  • the estimation accuracy is improved. That is, the accuracy of the estimated steering vector can be improved by obtaining the frequency-dependent reverberation suppression signal in which the reverberation component is suppressed from the frequency-dependent observation signal x f,t and obtaining the estimated steering vector from the frequency-based reverberation suppression signal.
  • the signal processing device 4 of the present embodiment has an estimation unit 21, a suppression unit 12, and a parameter estimation unit 43.
  • the estimation unit 21 includes a matrix estimation unit 211 and a convolution beamformer estimation unit 212.
  • the parameter estimation unit 43 includes a reverberation suppression unit 431 and a steering vector estimation unit 432.
  • the difference from the first to third embodiments of the fourth embodiment is that the reverberation component is suppressed from the frequency-based observation signal x f,t before generating the estimated steering vector. Only the method of generating the estimated steering vector will be described below.
  • Step S431 The observation signal x f,t for each frequency is input to the reverberation suppressing unit 431 of the parameter estimating unit 43 (FIG. 7 ).
  • Dereverberation unit 431 has been suppressed reverberation component per frequency observed signal x f, the t (preferably frequency-observed signal x f, to remove reverberation component from t) obtained frequency-dereverberation signal u f, the t Output.
  • the method of suppressing (removing) the reverberation component from the frequency-based observation signal x f,t A known dereverberation (removal) method can be used.
  • the reverberation suppressing unit 431 uses the method described in Reference Document 1 to obtain the frequency-dependent reverberation suppression signal u f,t from which the reverberation component has been suppressed from the frequency-dependent observation signal x f,t , and outputs it.
  • Reference 1 Takuya Yoshioka and Tomohiro Nakatani, "Generalization of Multi-Channel Linear Prediction Methods for Blind MIMO Impulse Response Shortening," IEEE Transactions on Audio, Speech, and Language Processing (Volume: 20, Issue: 10, Dec. 2012)
  • Step S432 The frequency-dependent reverberation suppression signal u f,t obtained by the reverberation suppression unit 431 is input to the steering vector estimation unit 432.
  • the steering vector estimation unit 432 receives the reverberation suppression signal for each frequency u f,t as an input, and generates and outputs an estimated steering vector that is an estimated vector of the steering vector.
  • a steering vector estimation processing method for obtaining an estimated steering vector by inputting a time series signal for each frequency is well known.
  • the steering vector estimation unit 432 uses the frequency-dependent reverberation suppression signal u f,t as an input of arbitrary steering vector estimation processing , and obtains and outputs an estimated steering vector ⁇ f,0 .
  • the steering vector estimation processing method is not limited, and for example, the methods described in Non-Patent Documents 1 and 2 described above may be used, or Reference Documents 2 and 3 may be used.
  • Reference 2 N. Ito, S. Araki, M. Delcroix, and T. Nakatani, “Probabilistic spatial dictionary based online adaptive beamforming for meeting recognition in noisy and reverberant environments,” Proc IEEE ICASSP, pp. 681-685, 2017 .
  • Reference 3 S. Markovich-Golan and S. Gannot, “Performance analysis of the covarience subtraction method for relative transfer function estimation and comparison to the covariance whitening method,” Proc. IEEE ICASSP, pp. 544-548, 2015.
  • the estimated steering vector ⁇ f,0 obtained by the steering vector estimation unit 432 is input to the convolution beamformer estimation unit 212.
  • the convolutional beamformer estimation unit 212 uses the estimated steering vector ⁇ f,0 and the weighted space-time covariance matrix R f obtained in step S211 to perform the process of step S212 described in the second embodiment. Others are as described in the first and second embodiments.
  • the estimated steering vector of each time frame number t can be calculated from the frequency-based observation signals x f,t sequentially input online.
  • the signal processing device 5 of the present embodiment has an estimation unit 21, a suppression unit 12, and a parameter estimation unit 53.
  • the estimation unit 21 includes a matrix estimation unit 211 and a convolution beamformer estimation unit 212.
  • the parameter estimation unit 53 has a steering vector estimation unit 532.
  • the steering vector estimating unit 532 includes an observation signal covariance matrix updating unit 532a, a principal component vector updating unit 532b, a steering vector updating unit 532c (steering vector estimating unit), and a noise covariance inverse matrix updating unit. It has 532d and the noise covariance matrix update part 532e.
  • Step S532 The observation signal x f,t for each frequency, which is a time-series signal for each frequency , is input to the steering vector estimation unit 532 (FIGS. 7 and 8 ).
  • Observed signal covariance matrix update unit 532a (FIG. 8) is to frequency-observed signal x f, the t as input, frequency-observed signal x f, t (per frequency observed signal belonging to the first time interval), and frequency- The frequency based on the spatial covariance matrix ⁇ x,f,t-1 of the observed signal x f,t-1 (the spatial covariance matrix of the observed signal for each frequency belonging to the second time period past the first time period)
  • the spatial covariance matrix ⁇ x,f,t of the different observation signal x f,t (the spatial covariance matrix of the observation signal for each frequency belonging to the first time section) is obtained and output.
  • the observed signal covariance matrix update part 532a is frequency-observed signal x f, t covariance matrix x f of (per frequency observed signal belonging to the first time interval), t x f, t H and the spatial covariance matrix
  • the linear sum of ⁇ x,f,t ⁇ 1 (the spatial covariance matrix of the frequency-based observation signals belonging to the second time section that is past the first time section) is calculated as the spatial covariance of the frequency-specific observation signals x f,t . It is obtained and output as a dispersion matrix ⁇ x,f,t (spatial covariance matrix of observation signals for each frequency belonging to the first time interval).
  • the observation signal covariance matrix updating unit 532a obtains and outputs the spatial covariance matrix ⁇ x,f,t according to the following equation (21).
  • is a forgetting factor, and is, for example, a real number belonging to the range of 0 ⁇ 1.
  • the initial matrix ⁇ x,f,0 of the spatial covariance matrix ⁇ x,f,t ⁇ 1 may be any one.
  • the M ⁇ M dimensional unit matrix can be the initial matrix ⁇ x,f,0 of the spatial covariance matrix ⁇ x,f,t ⁇ 1 .
  • the observation signal x f,t for each frequency and the mask information ⁇ f,t (n) are input to the noise covariance inverse matrix updating unit 532 d .
  • the mask information ⁇ f,t (n) is information representing the ratio of the noise component contained in the frequency-specific observed signal x f,t at the time-frequency point corresponding to the time frame number t and the frequency band number f.
  • the mask information ⁇ f,t (n) represents the occupation probability of the noise component included in the frequency-specific observed signal x f,t at the time frequency point corresponding to the time frame number t and the frequency band number f.
  • the estimation method of the mask information ⁇ f,t (n) is well known, and for example, an estimation method using a complex Gaussian mixture model (CGMM) (for example, Reference Document 4) and an estimation method using a neural network (for example, Reference Document 5). ), and the estimation method which combined them (for example, reference document 6, reference document 7), etc. are known.
  • CGMM complex Gaussian mixture model
  • Reference Document 5 an estimation method using a neural network
  • Reference 4 T. Higuchi, N. Ito, T. Yoshioka, and T. Nakatani, "Robust MVDR beamforming using time-frequency masks for online/offline ASR in noise," Proc. IEEE ICASSP-2016, pp. 5210- 5214, 2016.
  • Reference 5 J.
  • the mask information ⁇ f,t (n) may be estimated in advance and stored in a storage device (not shown ) , or may be sequentially estimated. It should be noted that the upper right subscript “(n)” of “ ⁇ f,t (n) ” should be written directly above the lower right subscript “f,t”, but due to the limitation of the written notation, “f , T” in the upper right corner.
  • the noise covariance inverse matrix updating unit 532d uses the frequency-based observation signals x f,t (frequency-based observation signals belonging to the first time section) and mask information ⁇ f,t (n) (mask information belonging to the first time section). , And the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t ⁇ 1 (the noise covariance inverse matrix of the frequency-dependent observed signal belonging to the second time section past the first time section). A matrix ⁇ ⁇ 1 n,f,t (a noise covariance inverse matrix of frequency-based observed signals belonging to the first time interval) is obtained and output.
  • the noise covariance inverse matrix updating unit 532d obtains and outputs the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t according to the following Expression (22) using Woodbury's formula.
  • is a forgetting factor, and is, for example, a real number belonging to the range of 0 ⁇ 1.
  • the initial matrix ⁇ ⁇ 1 n,f,0 of the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t ⁇ 1 may be any one.
  • the M ⁇ M dimensional unit matrix can be the initial matrix ⁇ ⁇ 1 n,f,0 of the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t ⁇ 1 . Note that the upper right subscript “ ⁇ 1” of “ ⁇ ⁇ 1 n,f,t ” should be written directly above the lower right subscript “n,f,t”, but It is written in the upper left of "n, f, t".
  • the principal component vector updating unit 532b includes a spatial covariance matrix ⁇ x,f,t obtained by the observation signal covariance matrix updating unit 532a and a noise covariance inverse matrix obtained by the noise covariance inverse matrix updating unit 532d.
  • ⁇ ⁇ 1 n,f,t is input.
  • the principal component vector updating unit 532b uses the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t (inverse of the noise covariance matrix of the observation signal for each frequency), and the spatial covariance matrix ⁇ x,f,t (first time).
  • principal component vector updating unit 532b is, ⁇ -1 n, f, t ⁇ x, f, t v ⁇ f, principal component vector v ⁇ f based on the t-1, and outputs to obtain t.
  • the principal component vector updating unit 532b obtains and outputs the principal component vectors v 1 to f,t according to the following equations (23) and (24).
  • the upper right subscript "to" of "v ⁇ f, t " should be written directly above the lower right subscript "v", but due to the notational restrictions, it should be written in the upper right of "v". ing.
  • the upper right subscript "to" of "v ⁇ ' f,t " should be written right above the lower right subscript "v” originally, but due to the description notation, it is written in the upper right of "v”. doing.
  • the noise covariance matrix updating unit 532e uses the frequency-based observation signals x f,t (frequency-based observation signals belonging to the first time section) and the mask information ⁇ f,t (n) (mask information belonging to the first time section).
  • the observation signal x f,t for each frequency, the mask information ⁇ f,t (n) , and the noise covariance matrix ⁇ n,f,t ⁇ 1 in the second time section that is past the first time section, Noise covariance matrix ⁇ n,f,t of the observed signal x f,t by frequency based on the noise covariance matrix of the observed signal by frequency that belongs to (the noise covariance matrix of the observed signal by frequency that belongs to the first time interval) Get and output.
  • the noise covariance matrix updating unit 532e causes the product ⁇ f,t ( of the covariance matrix x f,t x f,t H of the observation signal x f,t for each frequency and the mask information ⁇ f,t (n). n) x f,t x f,t H and the noise covariance matrix ⁇ n,f,t ⁇ 1 (the noise covariance matrix of the observed signal for each frequency belonging to the second time period past the first time period) Is obtained as a noise covariance matrix ⁇ n,f,t of the observation signal x f,t for each frequency , and is output.
  • the noise covariance matrix updating unit 532e obtains and outputs the noise covariance matrix ⁇ n,f,t according to the following equation (25).
  • is a forgetting factor, and is, for example, a real number belonging to the range of 0 ⁇ 1.
  • Step S532c The steering vector updating unit 532c uses the principal component vectors v 1 to f,t (principal component vector in the first time section) obtained by the principal component vector updating unit 532b and the noise covariance matrix updating unit 532e.
  • the variance matrix ⁇ n,f,t (noise covariance matrix of the observation signal for each frequency) is input, and based on these, the estimated steering vector ⁇ f,t (estimated steering vector in the first time section) is obtained and output.
  • the steering vector updating unit 532c obtains and outputs the estimated steering vector ⁇ f,t based on ⁇ n,f,t v to f,t .
  • the steering vector updating unit 532c obtains and outputs the estimated steering vector ⁇ f,t according to the following equations (26) and (27).
  • the estimated steering vector ⁇ f,t obtained by the steering vector estimation unit 532 is input to the convolution beamformer estimation unit 212.
  • the convolutional beamformer estimation unit 212 treats this estimated steering vector ⁇ f,t as ⁇ f,0 and uses the estimated steering vector ⁇ f,t and the weighted space-time covariance matrix R f obtained in step S211.
  • the process of step S212 described in the second embodiment is performed. Others are as described in the first and second embodiments.
  • ⁇ f,t 2 input to the matrix estimation unit 211 for example, the provisional power generated as in Expression (17) may be used, or generated as described in the third embodiment.
  • the estimated power ⁇ f,t 2 may be used.
  • the noise covariance inverse matrix updating unit 532d uses the frequency-based observation signal x f,t and the mask information ⁇ f,t (n) at each time point corresponding to the time frame number t.
  • the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t was adaptively updated.
  • the noise covariance inverse matrix updating unit 532d does not use the mask information ⁇ f,t (n) , but does not use the mask information ⁇ f,t (n) to obtain the frequency-based observation signal x f,t in the time section in which only the noise component is present or the noise component is dominant.
  • the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t may be obtained and used for output.
  • the noise covariance inverse matrix updating unit 532d uses the inverse of the time average of x f,t x f,t H for the frequency-based observation signal x f,t in the time section in which only the noise component exists or the noise component is dominant.
  • the matrix may be output as the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t .
  • the noise covariance inverse matrix ⁇ ⁇ 1 n,f,t thus obtained is continuously used in the frame of each time frame number t.
  • the noise covariance matrix updating unit 532e does not use the mask information ⁇ f,t (n) and observes by frequency in a time section in which only a noise component exists or a noise component is dominant.
  • signals x f, frequency-observed signal x f with t, the noise covariance matrix [psi n, f of t, may be output to obtain t.
  • the noise covariance matrix updating unit 532e calculates the time average of x f,t x f,t H for the frequency-based observation signal x f,t in the time section in which only the noise component exists or the noise component is dominant. It may be output as the dispersion matrix ⁇ n,f,t .
  • the noise covariance matrix ⁇ n,f,t thus obtained is continuously used in the frame of each time frame number t.
  • the case where the first time section is the frame of the time frame number t and the second time section is the frame of the time frame number t ⁇ 1 is taken as an example. It does not limit the invention.
  • a frame having a time frame number other than the time frame number t may be the first time period.
  • a time frame earlier than the first time section other than the time frame number t-1 may be set as the second time section.
  • the steering vector estimation unit 532 receives the observation signal x f,t by frequency as an input, and obtains and outputs the estimated steering vector ⁇ f,t by sequential processing.
  • the estimation accuracy is improved.
  • the reverberation of the observation signal x f,t for each frequency is suppressed, and then the steering vector estimation unit obtains and outputs the estimated steering vector ⁇ f,t by the sequential processing as described in the fifth embodiment.
  • the signal processing device 6 of the present embodiment includes an estimation unit 21, a suppression unit 12, and a parameter estimation unit 63.
  • the parameter estimation unit 63 includes a reverberation suppression unit 431 and a steering vector estimation unit 632.
  • the difference of the sixth embodiment from the fifth embodiment is that the reverberation component is suppressed from the frequency-based observation signal x f,t before the estimated steering vector is generated. Only the method of generating the estimated steering vector will be described below.
  • the reverberation suppressing unit 431 (FIG. 7) suppresses the reverberation component from the frequency-based observation signal x f,t (preferably, the reverberation component from the frequency-based observation signal x f,t.
  • the (removed) frequency-dependent dereverberation signal u f,t is obtained and output.
  • Step S632 The frequency-dependent dereverberation signal u f,t is input to the steering vector estimation unit 632.
  • the frequency-based reverberation suppression signal u f,t is input to the steering vector estimation unit 632 instead of the frequency-based observation signal x f,t , and the steering vector estimation unit 632 outputs the frequency-based observation signal x. f, except using frequency-dereverberation signal u f, the t in place of t, it is the same as the process of steering vector estimation unit 532 of the fifth embodiment.
  • the processing of the steering vector estimation unit 632 replaces the frequency-based observation signal x f,t in the processing of the steering vector estimation unit 532 with the frequency-based reverberation suppression signal u f,t .
  • Others are the same as the fifth embodiment and its modification. That is, the steering vector estimation unit 632 receives the frequency-dependent reverberation suppression signal u f,t that is a frequency-based time-series signal.
  • Observed signal covariance matrix update part 532a is frequency-dereverberation signal u f belonging to the first time interval, t, and the first hour frequency-dereverberation signal u f also belongs to the past of the second time interval than the interval, t spatial covariance matrix [psi x of -1, f, based on the t-1, frequency-dereverberation signal u f belonging to the first time interval, t spatial covariance matrix [psi x of, f, and outputs to obtain t.
  • the principal component vector updating unit 532b calculates the inverse matrix ⁇ ⁇ 1 n,f,t of the noise covariance matrix of the frequency-dependent reverberation suppression signal u f,t and the spatial covariance matrix of the frequency-dependent reverberation suppression signal belonging to the first time interval.
  • the inverse matrix ⁇ ⁇ 1 n,f,t of the noise covariance matrix of the reverberation suppression signal for each frequency is calculated based on ⁇ x,f,t and the principal component vector v 1 to f,t ⁇ 1 in the second time section, and spatial covariance matrix [psi x frequency by dereverberation signal belonging to a time interval, f, and t, the product of [psi -1 n, f, t [psi x, f, principal component vector v ⁇ of the first time interval with respect to t f and t are obtained and output.
  • the steering vector updating unit 532c based on the noise covariance matrix of the frequency-dependent reverberation suppression signal u f,t and the principal component vectors v 1 to f,t in the first time section, estimates the steering vector ⁇ f, t in the first time section . Obtain t and output.
  • the convolutional beamformer of each time frame number t can be estimated from the frequency-based observation signals x f,t sequentially input online to obtain the target signal y f,t .
  • the signal processing device 7 of the present embodiment has an estimation unit 71, a suppression unit 72, and a parameter estimation unit 53.
  • Step S53 The frequency-based observation signal x f,t is input to the parameter estimation unit 53 (FIGS. 6 and 7 ).
  • the steering vector estimation unit 532 (FIG. 8) of the parameter estimation unit 53 receives the frequency-based observation signal x f,t as an input and obtains the estimated steering vector ⁇ f,t by sequential processing. It is output (step S532).
  • the estimated steering vector ⁇ f,t is expressed by the following M-dimensional vector. However, ⁇ f,t (m) represents an element corresponding to the microphone of the microphone number m among the M elements of the estimated steering vector ⁇ f,t .
  • the estimated steering vector ⁇ f,t obtained by the steering vector estimation unit 532 is input to the convolution beamformer estimation unit 712.
  • Step S711 The frequency estimation signal x f,t and the power of the target signal or the estimated power ⁇ f,t 2 are input to the matrix estimation unit 711 (FIG. 6 ).
  • ⁇ f,t 2 input to the matrix estimation unit 711 for example, the provisional power generated as in Expression (17) may be used or the estimation generated as described in the third embodiment.
  • the power ⁇ f,t 2 may be used.
  • the matrix estimation unit 711 uses the frequency-specific observation signals x f,t (frequency-specific observation signals belonging to the first time interval) and the power of the target signal or the estimated power ⁇ f,t 2 (frequency-specific observation values belonging to the first time interval).
  • Signal power or estimated power as well as the inverse of the space-time covariance matrix Inverse matrix of spatiotemporal covariance matrix based on (inverse matrix of spatiotemporal covariance matrix of second time section past the first time section) (Inverse matrix of space-time covariance matrix of the first time section) is estimated and output.
  • An example of a spatiotemporal covariance matrix is Is.
  • the matrix estimation unit 711 uses, for example, the inverse matrix of the space-time covariance matrix according to the following equations (28) and (29). Is generated and output.
  • k f,t in the equation (28) is an (L+1)M dimensional vector
  • the inverse matrix of the equation (29) is a (L+1)M ⁇ (L+1)M matrix
  • is a forgetting factor and is, for example, a real number belonging to the range of 0 ⁇ 1.
  • the inverse of the space-time covariance matrix Can be any initial matrix, and an example of this initial matrix is an (L+1)M dimensional identity matrix. Is.
  • Step S712 ⁇ Process of Beamformer Estimation Unit 712 (Step S712)> Obtained by the matrix estimation unit 711
  • the (inverse matrix of the space-time covariance matrix of the first time section) and the estimated steering vector ⁇ f,t obtained by the parameter estimation unit 53 are input to the beamformer estimation unit 712.
  • the convolutional beamformer estimation unit 712 obtains and outputs the convolutional beamformer w - f,t (convolutional beamformer in the first time section).
  • the convolutional beamformer estimation unit 712 obtains and outputs the convolutional beamformer w ⁇ f,t according to the following equation (30).
  • Is. Is an L+1 dimensional vector.
  • g f is a scalar constant other than 0.
  • the suppression unit 72 receives the frequency-based observation signal x f,t and the convolutional beamformer w ⁇ f,t obtained by the beamformer estimation unit 712.
  • the suppression unit 72 applies the convolutional beamformer w ⁇ f,t to the frequency-based observation signal x f,t at each time frame number t and frequency band number f to obtain and output the target signal y f,t .
  • the suppression unit 72 obtains and outputs the target signal y f,t according to the following equation (31).
  • the parameter estimation unit 53 of the signal processing device 7 of the seventh embodiment may be replaced with the parameter estimation unit 63. That is, in the seventh embodiment, instead of the parameter estimation unit 53, the parameter estimation unit 63 receives the frequency-based observation signal x f,t as an input, and as described in the sixth embodiment, the estimated steering vector ⁇ f, You may obtain and output t .
  • the case where the first time section is the frame of the time frame number t and the second time section is the frame of the time frame number t-1 is taken as an example. It does not limit the invention.
  • a frame having a time frame number other than the time frame number t may be the first time period.
  • a time frame earlier than the first time section other than the time frame number t-1 may be set as the second time section.
  • ⁇ ⁇ f,0 is an M ⁇ 1 dimensional column vector including elements corresponding to microphones other than the reference microphone ref of the steering vector ⁇ f,0 or the estimated steering vector ⁇ f,0 , and v f,0 ref is ⁇
  • the element corresponding to the reference microphone ref of f, 0 , I M ⁇ 1, is a (M ⁇ 1) ⁇ (M ⁇ 1)-dimensional identity matrix.
  • the g f is a scalar constant other than zero, the a f, 0 and deformed instantaneous beamformer M dimensional, the instantaneous beamformer w f, 0, a constant multiple of the steering vector ⁇ f, 0 g f ⁇ f , 0 or estimated integral multiples g f ⁇ f, 0 steering vector ⁇ f, 0, steering vector [nu f, 0 or estimated steering vector [nu f, 0 instantly orthogonal complement the corresponding block matrix B f variant beamformer a f,
  • the product of 0 and Bf a f,0 is expressed as the sum of 0 .
  • the signal processing device 8 of the present embodiment has an estimation unit 81, a suppression unit 82, and a parameter estimation unit 83.
  • the estimation unit 81 includes a matrix estimation unit 811, a convolutional beamformer estimation unit 812, an initial beamformer application unit 813, and a block unit 814.
  • the parameter estimation unit 83 receives the observation signal x f,t for each frequency as an input, obtains an estimated steering vector by the same method as any one of the parameter estimation units 33, 43, 53, 63 described above, and obtains the obtained estimation.
  • the steering vector is output as ⁇ f,0 .
  • the output estimated steering vector ⁇ f,0 is sent to the initial beamformer application unit 813 and the block unit 814.
  • Step S813 The estimated steering vector ⁇ f,0 and the frequency-based observation signal x f,t are input to the initial beamformer application unit 813.
  • the initial beamformer application unit 813 uses the estimated steering vector ⁇ f,0 and the frequency-based observation signal x f,t (frequency-based observation signal belonging to the first time period) to output the initial beamformer output z f,t (first The initial beamformer output for the time interval is obtained and output.
  • the initial beamformer application unit 813 obtains and outputs an initial beamformer output z f,t based on a constant multiple of the estimated steering vector ⁇ f,0 and the frequency-based observation signal x f,t .
  • the initial beamformer application unit 813 obtains and outputs the initial beamformer output z f,t according to the following equation (34).
  • z f,t (g f ⁇ f,0 ) H x f,t (34)
  • the output initial beamformer output z f,t is sent to the convolutional beamformer estimation unit 812 and the suppression unit 82.
  • Step S814 The estimated steering vector ⁇ f,0 and the frequency-based observation signal x f,t are input to the block unit 814.
  • ⁇ f,t 2 may be, for example, the provisional power generated as in Expression (17), or the estimated power ⁇ f,t 2 generated as described in the third embodiment. Good.
  • Step S82 ⁇ Processing of Suppression Unit 82 (Step S82)>
  • convolution beamformer w - is equivalent to processing for output to obtain the desired signal y f, a t applied to frequency-observed signal x f, t a f.
  • the suppressing unit 82 obtains and outputs the target signal y f,t according to the following equation (39).
  • the signal processing device 9 of this embodiment includes an estimation unit 91, a suppression unit 92, and a parameter estimation unit 93.
  • the estimation unit 91 includes an adaptive gain estimation unit 911, a convolutional beamformer estimation unit 912, a matrix estimation unit 915, an initial beamformer application unit 813, and a block unit 814.
  • the parameter estimation unit 93 receives the observation signal x f,t for each frequency , and obtains and outputs the estimated steering vector ⁇ f,t by the same method as any one of the parameter estimation units 53 and 63 described above.
  • the output estimated steering vector ⁇ f,t is sent to the initial beamformer application unit 813 and the block unit 814.
  • the initial beamformer application unit 813 inputs the estimated steering vector ⁇ f,t (estimated steering vector in the first time section) and the frequency-based observation signal x f,t (frequency-based observation signal belonging to the first time section), By using ⁇ f,t instead of ⁇ f,0 , the initial beam former output z f,t (initial beam former output in the first time section) is obtained and output as described in the eighth embodiment. The output initial beam former output z f,t is sent to the suppression unit 92.
  • Step S814 The block unit 814 receives the estimated steering vector ⁇ f,t and the observation signal x f,t for each frequency , and uses ⁇ f,t instead of ⁇ f,0 to obtain the vector x as described in the eighth embodiment.
  • F, t are obtained and output.
  • the suppression unit 92 obtains and outputs the target signal y f,t according to the following equation (40).
  • ⁇ Process of Adaptive Gain Estimator 911 (Step S911)>
  • the vector x f,t output from the block unit 814, and the inverse matrix R 1 ⁇ 1 f,t ⁇ 1 of the weighted modified space-time covariance matrix output from the matrix estimation unit 915.
  • the power of the target signal or the estimated power ⁇ f,t 2 is input.
  • ⁇ f,t 2 input to the matrix estimation unit 711 for example, the provisional power generated as in Expression (17) may be used or the estimation generated as described in the third embodiment.
  • the power ⁇ f,t 2 may be used.
  • the adaptive gain estimation unit 911 uses the inverse matrix of the weighted modified space-time covariance matrix R 1 to ⁇ 1 f,t ⁇ 1 (the inverse matrix of the weighted modified space-time covariance matrix in the second time interval), And an adaptive gain k f, t based on the estimated steering vector ⁇ f,t (the estimated steering vector in the first time section), the frequency-based observed signal x f,t , and the power of the target signal or the estimated power ⁇ f,t 2 .
  • the adaptive gain estimation unit 911 obtains and outputs the adaptive gain k f,t which is a (LM+M ⁇ 1)-dimensional vector according to the following equation (41).
  • is a forgetting factor, and is, for example, a real number belonging to the range of 0 ⁇ 1.
  • the initial matrix of the inverse matrix R 1 to ⁇ 1 f,t ⁇ 1 of the weighted modified space-time covariance matrix may be any (LM+M ⁇ 1) ⁇ (LM+M ⁇ 1)-dimensional matrix.
  • An example of the initial matrix of the inverse matrix R 1 ⁇ 1 f,t ⁇ 1 of the weighted modified space-time covariance matrix is a (LM+M ⁇ 1)-dimensional identity matrix. However Is. Note that R 1 to f,t itself are not calculated.
  • the output adaptive gain k f,t is sent to the matrix estimation unit 915 and the convolutional beamformer estimation unit 912.
  • Step S915 ⁇ Processing of Matrix Estimating Unit 915 (Step S915)>
  • the matrix estimation unit 915 uses these, and the adaptive gain k f,t (the adaptive gain in the first time section), the estimated steering vector ⁇ f,t (the estimated steering vector in the first time section), and the observation signal x by frequency.
  • the inverse matrix R 1 to ⁇ 1 f,t of the spatial covariance matrix (inverse matrix of the weighted modified spatiotemporal covariance matrix in the first time interval) is obtained and output.
  • the matrix estimation unit 915 obtains and outputs the inverse matrix R 1 to ⁇ 1 f,t of the weighted modified space-time covariance matrix according to the following equation (42).
  • the output inverse matrix R 1 to ⁇ 1 f,t of the weighted modified space-time covariance matrix is sent to the adaptive gain estimation unit 911.
  • Step S912 ⁇ Processing of Convolutional Beamformer Estimator 912 (Step S912)>
  • the target signal y f,t output from the suppression unit 92 and the adaptive gain k f,t output from the adaptive gain estimation unit 911 are input to the convolutional beamformer estimation unit 912.
  • the case where the first time period is the frame with the time frame number t and the second time period is the frame with the time frame number t ⁇ 1 is taken as an example. It does not limit the invention.
  • a frame having a time frame number other than the time frame number t may be the first time period.
  • a time frame earlier than the first time section other than the time frame number t-1 may be set as the second time section.
  • a known steering vector ⁇ f,t may be input to the initial beamformer application unit 813 and the block unit 814.
  • the initial beamformer application unit 813 and the block unit 814 perform steps S813 and S814 described above using the steering vector ⁇ f,t instead of the estimated steering vector ⁇ f,t .
  • the frequency-specific observation signal x f,t in the frequency domain may be converted and the frequency-specific observation signal x f,t may be input to the signal processing device 1-9.
  • the conversion method from the time domain to the frequency domain is not limited, and for example, discrete Fourier transform or the like may be used.
  • the frequency-based observation signal x f,t obtained by another processing unit may be input to the signal processing device 1-9.
  • observation signal x(i) in the time domain described above is converted into a signal in the frequency domain for each time frame, these signals in the frequency domain are processed by another processing unit, and the observation signals for each frequency obtained thereby are obtained.
  • x f,t may be input to the signal processing device 1-9.
  • the target signal y f,t output from the signal processing device 1-9 may be used for other processing (speech recognition processing, etc.) without being converted into the time domain signal y(i), or It may be converted into a region signal y(i).
  • the target signal y f,t output from the signal processing device 1-9 may be output as it is and used for other processing.
  • the target signal y f,t output from the signal processing device 1-9 is input to the integrating unit 52, and the integrating unit 52 integrates the target signal y f,t to obtain the time.
  • the area signal y(i) may be obtained and output.
  • the method of obtaining the time domain signal y(i) from the target signal y f,t is not limited, but, for example, inverse Fourier transform can be used.
  • FIG. 12 illustrates the evaluation results of the voice quality of the observation signal and the signal of which the noise reverberation is suppressed by the present invention and the conventional methods 1 to 3.
  • Sim represents SimData
  • Real represents RealData
  • CD represents cepstrum distortion
  • SRMR represents signal-to-reverberation modulation energy ratio
  • LLR represents log-likelihood ratio
  • FWSSNR represents frequency-weighted segmental signal-to-noise ratio.
  • a smaller value of CD and LLR indicates better voice quality, and a larger value of SRMR and FWSSNR indicates better voice quality.
  • the underlined value is the best value.
  • FIG. 12 it can be seen that the present invention can sufficiently suppress noise and reverberation as compared with the conventional methods 1 to 3.
  • FIG. 13 illustrates the word error rate in the speech recognition result of the observed signal and the signal in which the noise reverberation is suppressed by the present invention and the conventional methods 1 to 3.
  • the underlined value is the best value.
  • “R1N” represents the case where the speaker is located near the microphone in room 1
  • “R1F” represents the case where the speaker is located far from the microphone in room 1.
  • “R2N” and “R3N” represent the case where the speaker is located near the microphone in the rooms 2 and 3, respectively, and “R2F” and “R3F” are located in the rooms 2 and 3 where the speaker is far from the microphone.
  • “Ave” represents an average value. As illustrated in FIG. 12, it can be seen that the present invention can sufficiently suppress noise and reverberation as compared with the conventional methods 1 to 3.
  • FIG. 14 shows a case where the steering vector is estimated without suppressing the reverberation of the frequency-dependent observed signal x f,t (when no reverberation is suppressed), and a case where the frequency-dependent observed signal x f,t as described in the fourth embodiment .
  • the noise reverberation suppression results when the steering vector is estimated after suppressing the reverberation of t (when reverberation is present) are illustrated.
  • "WER" represents a character error rate when speech recognition is performed using a target signal obtained by performing noise reverberation suppression. The smaller the WER value, the higher the performance.
  • FIG. 14 it can be seen that the voice quality of the target signal is better in the case with the reverberation suppression than in the case without the reverberation suppression.
  • the present invention is not limited to the above embodiment.
  • d has the same value for all frequency bands in the above-described embodiment, d may be set for each frequency band. That positive integer d f may be used instead of d.
  • L has the same value for all frequency bands in the above-described embodiment, L may be set for each frequency band. That is, a positive integer L f may be used instead of L.
  • the cost function and the like are defined with the time frame corresponding to 1 ⁇ t ⁇ N as the processing unit.
  • each process may be executed with a part of the time frame as a processing unit, instead of the time frame corresponding to 1 ⁇ t ⁇ N as a processing unit.
  • the time frame which is a processing unit, may be updated in real time, and a cost function or the like may be determined for each processing unit at each time to execute each processing.
  • t c when expressing the number of the current time frame and t c, may be 1 ⁇ t ⁇ t processing unit of time frames corresponding to c, t c - ⁇ ⁇ t ⁇ relative positive integer constants ⁇
  • the time frame corresponding to t c may be the processing unit.
  • Each of the above devices is, for example, a general-purpose or dedicated computer including a processor (hardware processor) such as a CPU (central processing unit) and a memory such as a RAM (random-access memory) and a ROM (read-only memory). Is configured by executing a predetermined program.
  • This computer may be provided with one processor and memory, or may be provided with a plurality of processors and memory.
  • This program may be installed in the computer or may be recorded in the ROM or the like in advance.
  • some or all of the processing units are configured by using an electronic circuit that realizes a processing function without using a program, instead of an electronic circuit that realizes a functional configuration by reading a program like a CPU. May be.
  • the electronic circuit that constitutes one device may include a plurality of CPUs.
  • a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory and the like.
  • Circulate this program by selling, transferring, or lending a portable recording medium such as a DVD or a CD-ROM in which the program is recorded. Further, the program may be stored in a storage device of a server computer and transferred from the server computer to another computer via a network to distribute the program.
  • a computer that executes such a program first stores, for example, the program recorded in a portable recording medium or the program transferred from the server computer in its own storage device. When executing the process, this computer reads the program stored in its own storage device and executes the process according to the read program. As another execution form of this program, the computer may directly read the program from the portable recording medium and execute processing according to the program, and further, each time the program is transferred from the server computer to this computer. The processing according to the received program may be sequentially executed. Even if the program is not transferred from the server computer to this computer, the processing described above is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. Good.
  • ASP Application Service Provider
  • the processing functions of this device may not be realized by executing a predetermined program on a computer, but at least a part of these processing functions may be realized by hardware.
  • the present invention can be used in various applications where it is necessary to suppress noise and reverberation from an acoustic signal.
  • the present invention can be applied to a voice recognition, a call system, a conference call system, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

雑音と残響とを十分に抑圧する。目的の音源から発せられた音響信号を集音して得られた観測信号の複数の周波数帯域のそれぞれに対応する周波数別観測信号に、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算する畳み込みビームフォーマを適用して得られる推定信号が、所定の確率モデルに基づく推定信号の音声らしさを表す確率を大きくするように、畳み込みビームフォーマを得、得られた畳み込みビームフォーマを周波数別観測信号に適用して目的信号を得る。

Description

信号処理装置、信号処理方法、およびプログラム
 本発明は、音響信号の信号処理技術に関する。
 非特許文献1,2には、周波数領域の観測信号から雑音や残響を抑圧する方法が開示されている。この方法では、周波数領域の観測信号と音源方向を表すステアリングベクトルまたはその推定ベクトルとを受け取り、音源からマイクロホンに到来する音を歪ませないとの拘束条件のもと、周波数領域の観測信号のパワーを最小化する瞬時ビームフォーマを推定し、これを周波数領域の観測信号に適用することで、残響や雑音を抑圧する(従来法1)。
 特許文献1および非特許文献3には、周波数領域の観測信号から残響を抑圧する方法が開示されている。この方法では、周波数領域の観測信号と目的音の各時刻のパワーまたはその推定値とを受け取り、予測誤差の重み付きパワー最小化基準に基づき、目的音の残響を抑圧する残響抑圧フィルタを推定し、残響抑圧フィルタを周波数領域の観測信号に適用することで、周波数領域の観測信号の残響を抑圧する(従来法2)。
 非特許文献4には、従来法2と従来法1をカスケード接続することで雑音や残響を抑圧する方法が開示されている。この方法では、前段で周波数領域の観測信号と目的音の各時刻のパワーとを受け取り、従来法2を用いて残響を抑圧した後に、後段でステアリングベクトルを受け取り、従来法1を用いて残響や雑音をさらに抑圧する(従来法3)。
特許第5227393号公報
T Higuchi, N Ito, T Yoshioka, T Nakatani, "Robust MVDR beamforming using time-frequency masks for online/offline ASR in noise," Proc. ICASSP 2016, 2016. J Heymann, L Drude, R Haeb-Umbach, "Neural network based spectral mask estimation for acoustic beamforming," Proc.ICASSP 2016, 2016 T Nakatani, T Yoshioka, K Kinoshita, M Miyoshi, "BH Juang, Speech dereverberation based on variance-normalized delayed linear prediction," IEEE Trans. ASLP, 18 (7), 1717-1731, 2010. Takuya Yoshioka, Nobutaka Ito, Marc Delcroix, Atsunori Ogawa, Keisuke Kinoshita, Masakiyo Fujimoto, Chengzhu Yu, Wojciech J Fabian, Miquel Espi, Takuya Higuchi, Shoko Araki, Tomohiro Nakatani, "The NTT CHiME-3 system: Advances in speech enhancement and recognition for mobile multi-microphone devices," Proc. IEEE ASRU 2015, 436-443, 2015.
 従来法では雑音と残響とを十分に抑圧することができない場合がある。従来法1は、もともと雑音を抑圧するために開発された方法であり、必ずしも十分に残響を抑圧できるとは限らない。従来法2では、雑音を抑圧することができない。従来法3は、従来法1や従来法2を単体で用いるときよりも多くの雑音や残響を抑圧できる。しかし、従来法3では、前段の従来法2と後段の従来法1とを、それぞれ独立した系とみてそれぞれの系で最適化を行う。そのため、前段で従来法2を適用した際に、雑音の影響により、必ずしも十分な残響抑圧ができるとは限らない。また後段で従来法1を適用した際に、残存する残響の影響により、必ずしも十分な雑音残響抑圧ができるとは限らない。
 本発明はこのような点に鑑みてなされたものであり、雑音と残響とを十分に抑圧することができる技術を提供することを目的とする。
 本発明では、音源から発せられた音響信号を集音して得られた観測信号の複数の周波数帯域のそれぞれに対応する周波数別観測信号に、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算する畳み込みビームフォーマを適用して得られる推定信号が、所定の確率モデルに基づく推定信号の音声らしさを表す確率を大きくするように、畳み込みビームフォーマを得、得られた畳み込みビームフォーマを周波数別観測信号に適用して目的信号を得る。
 本発明では、確率モデルに基づく推定信号の音声らしさを表す確率が大きくなるように畳み込みビームフォーマを得るため、雑音抑圧と残響抑圧とを1つの系として最適化でき、雑音と残響とを十分に抑圧できる。
図1Aは第1実施形態の信号処理装置の機能構成を例示したブロック図である。図1Bは第1実施形態の信号処理方法を例示するためのフロー図である。 図2Aは第2実施形態の信号処理装置の機能構成を例示したブロック図である。図2Bは第2実施形態の信号処理方法を例示するためのフロー図である。 図3は第3実施形態の信号処理装置の機能構成を例示したブロック図である。 図4は図3のパラメータ推定部の機能構成を例示したブロック図である。 図5は第3実施形態のパラメータ推定方法を例示するためのフロー図である。 図6は第4~7実施形態の信号処理装置の機能構成を例示したブロック図である。 図7は図6のパラメータ推定部の機能構成を例示したブロック図である。 図8は図7のステアリングベクトル推定部の機能構成を例示したブロック図である。 図9は第8実施形態の信号処理装置の機能構成を例示したブロック図である。 図10は第9実施形態の信号処理装置の機能構成を例示したブロック図である。 図11Aから図11Cは実施形態の信号処理装置の使用例を説明するためのブロック図である。 図12は第1実施形態の実験結果を例示した表である。 図13は第1実施形態の実験結果を例示した表である。 図14は第4実施形態の実験結果を例示した表である。 図15Aから図15Cは第7実施形態の実験結果を例示した表である。
 以下、本発明の実施形態を説明する。
 [記号の定義]
 まず、実施形態で使用する記号を定義する。
 M:Mはマイクロホン数を表す正整数である。例えば、M≧2である。
 m:mはマイクロホン番号を表す正整数であり、1≦m≦Mを満たす。マイクロホン番号は丸括弧付きの右上添え字で表す。すなわち、マイクロホン番号mのマイクロホンで収音された信号に基づく値やベクトルは、右上添え字「(m)」を持つ記号で表現される(例えば、xf,t (m))。
 N:Nは信号の時間フレームの総数を表す正整数である。例えば、N≧2である。
 t,τ:t,τは時間フレーム番号を表す正整数であり、tは1≦t≦Nを満たす。時間フレーム番号は右下添え字で表す。すなわち、時間フレーム番号tの時間フレームに対応する値やベクトルは、右下添え字「t」を持つ記号で表現される(例えば、xf,t (m))。同様に、時間フレーム番号τの時間フレームに対応する値やベクトルは、右下添え字「τ」を持つ記号で表現される。
 P:Pは周波数帯域(離散周波数)の総数を表す正整数である。例えば、P≧2である。
 f:fは周波数帯域番号を表す正整数であり、1≦f≦Pを満たす。周波数帯域番号は右下添え字で表す。すなわち、周波数帯域番号fの周波数帯域に対応する値やベクトルは、右下添え字「f」を持つ記号で表現される(例えば、xf,t (m))。
 T:Tは行列やベクトルの非共役転置を表す。α はαを非共役転置して得られる行列やベクトルを表す。
 H:Hは行列やベクトルの共役転置を表す。α はαを共役転置して得られる行列やベクトルを表す。
 |α|:|α|はαの絶対値を表す。
 ||α||:||α||はαのノルムを表す。
 |αγ:|αγはαの重み付き絶対値γ|α|を表す。
 ||α||γ:||α||γはαの重み付きノルムγ||α||を表す。
 本明細書で「目的信号」は目的の音源から発せられてマイクロホンで集音された音に対応する信号(例えば周波数別観測信号)のうち、直接音と初期反射音に対応する信号のことを指す。初期反射音とは、目的の音源から発せられた音に由来する残響のうち、直接音から遅れて数10ミリ秒以内にマイクロホンに到達する成分のことを指す。一般的に、初期反射音は音の明瞭性を向上させる働きを持つとされており、本実施形態では、初期反射音に対応する信号も目的信号に含められる。一方、マイクロホンで集音される音に対応する信号には、上記の目的信号以外に、目的の音源から発せられた音に由来する後部残響(残響から初期反射音を除いた成分)や目的の音源以外に由来する雑音が含まれている。信号処理方法では、例えばマイクロホンで収録された音に対応する周波数別観測信号から、後部残響と雑音を抑圧して目的信号を推定する。本明細書では特に断りがない限り、「残響」とは「後部残響」のことを指しているものとする。
 [原理]
 次に原理を説明する。
 <前提となる手法1>
 実施形態の手法の前提となる手法1を説明する。手法1では周波数領域のM次元観測信号(周波数別観測信号)
Figure JPOXMLDOC01-appb-M000001

から雑音と残響とを抑圧する。周波数別観測信号xf,tは、例えば、単数または複数の音源から発せられた音響信号をM個のマイクロホンで収音して得られたM個の観測信号を周波数領域に変換して得られたものである。観測信号は、雑音および残響が存在する環境下で音源から発せられた音響信号を集音して得られたものである。xf,t (m)はマイクロホン番号mのマイクロホンで収音して得られた観測信号を周波数領域に変換して得られるものである。xf,t (m)は、周波数帯域番号fの周波数帯域および時間フレーム番号tの時間フレームに対応する。すなわち、周波数別観測信号xf,tは時系列信号である。
 手法1では、「周波数別観測信号xf,tに、各時刻において、現在の時刻の信号の重み付き和を計算する瞬時ビームフォーマ(例えば、最小パワー無歪応答ビームフォーマ)wf,0を適用した結果、目的信号が歪まない」という拘束条件のもとで、各周波数帯域に対し、以下のコスト関数C(wf,0)を最小化する瞬時ビームフォーマwf,0を求める。
Figure JPOXMLDOC01-appb-M000002

Figure JPOXMLDOC01-appb-M000003

なお、wf,0の右下添え字「0」は時間フレーム番号を表すものではなく、wf,0は時間フレームに依存しない。拘束条件は、例えば、wf,0 νf,0が定数(例えば1)となる条件である。ここで
Figure JPOXMLDOC01-appb-M000004

は音源から各マイクロホン(音響信号の集音位置)までの直接音および初期反射音に関する伝達関数νf,0 (m)を要素とするステアリングベクトルまたはその推定ベクトル(推定ステアリングベクトル)である。すなわち、νf,0は、音源位置から各マイクロホンまでのインパルス応答の内、直接音と初期反射音(直接音から数十ミリ秒以内(例えば、30ミリ秒以内)に遅れて到達する残響)の部分に対応する伝達関数νf,0 (m)を要素とするM次元(マイクロホン数の次元)のベクトルで表される。ステアリングベクトルのゲインの推定が困難な場合には、いずれか一つのマイクロホン番号m∈{1,…,M}のマイクロホンのゲインが定数g(g≠0)となるように各要素の伝達関数を正規化した正規化ベクトルをνf,0としてもよい。すなわち、以下のように正規化されたものをνf,0としてもよい。
Figure JPOXMLDOC01-appb-M000005
 以上のように得られた瞬時ビームフォーマwf,0を、以下のように各周波数帯域の周波数別観測信号xf,tに適用することで、周波数別観測信号xf,tから雑音と残響とを抑圧した目的信号yf,tが得られる。
Figure JPOXMLDOC01-appb-M000006
 <前提となる手法2>
 実施形態の手法の前提となる手法2を説明する。手法2では周波数別観測信号xf,tから残響を抑圧する。手法2では、各周波数帯域で、以下のコスト関数C(F)を最小化する残響抑圧フィルタFf,τをτ=d,d+1,…,d+L-1に対して求める。
Figure JPOXMLDOC01-appb-M000007

ただし、残響抑圧フィルタFf,τは周波数別観測信号xf,tから残響を抑圧するM×M次行列フィルタである。dは予測遅延を表す正整数であり、Lはフィルタ長を表す正整数である。σf,t は目的信号のパワーであり、
Figure JPOXMLDOC01-appb-M000008

である。周波数別観測信号xに対する||x||γは、周波数別観測信号xの重み付きノルム||x||γ=γ(xx)である。
 以上のように得られた残響抑圧フィルタFf,tを、以下のように各周波数帯域の周波数別観測信号xf,tに適用することで、周波数別観測信号xf,tから残響を抑圧した目的信号zf,tが得られる。
Figure JPOXMLDOC01-appb-M000009

ただし、目的信号zf,tは以下のようなM次元縦ベクトルである。
Figure JPOXMLDOC01-appb-M000010
 <実施形態の手法>
 実施形態の手法を説明する。手法1,2を統合した手法によって周波数別観測信号xf,tから雑音と残響とを抑圧して得られる目的信号yf,tは、以下のようにモデル化することができる。
Figure JPOXMLDOC01-appb-M000011

ただし、τ≠0に対してwf,τ=-Ff,τf,0であり、wf,τは雑音抑圧と残響抑圧とを同時に行うフィルタに相当する。w は畳み込みビームフォーマであり、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算するものである。なお、「w 」の「-」は本来以下のように「w」の真上に表記すべきであるが、記載表記の制約上「w」の右上に表記する場合がある。
Figure JPOXMLDOC01-appb-M000012

畳み込みビームフォーマw は、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算するものである。畳み込みビームフォーマw は、例えば以下のように表される。
Figure JPOXMLDOC01-appb-M000013

ただし、以下を満たす。
Figure JPOXMLDOC01-appb-M000014

また、x f,tは以下のように表される。
Figure JPOXMLDOC01-appb-M000015

Figure JPOXMLDOC01-appb-M000016
 ここで、式(9)のyf,tが音声の確率密度関数p({yf,tt=1:N;w )(確率モデル)に従うのが望ましいと仮定し、信号処理装置は、音声の確率密度関数に基づくyf,tの確率p({yf,tt=1:N;w )(つまり、yf,tの音声らしさを表す確率)を大きくするように畳み込みビームフォーマw を求める。好ましくは、yf,tの音声らしさを表す確率を最大化する畳み込みビームフォーマw を求める。例えば、信号処理装置は、log p({yf,tt=1:N;w )を大きくするように畳み込みビームフォーマw を求め、好ましくはlog p({yf,tt=1:N;w )を最大化する畳み込みビームフォーマw を求める。
 音声の確率密度関数としては、例えば、平均が0、分散が目的信号のパワーσf,t に一致する複素正規分布を例示できる。「目的信号」は目的の音源から発せられてマイクロホンで集音された音に対応する信号のうち、直接音と初期反射音に対応する信号のことである。また信号処理装置は、例えば、「周波数別観測信号xf,tに畳み込みビームフォーマw を適用した結果、目的信号が歪まない」という拘束条件のもとで、畳み込みビームフォーマw を求める。この拘束条件は、例えば、wf,0 νf,0が定数(例えば1)となる条件である。信号処理装置は、例えば、この拘束条件のもと、各周波数帯域に対し、以下のように定まるlog p({yf,tt=1:N;w )を最大化するw を求める。
Figure JPOXMLDOC01-appb-M000017

ただし、「const.」は定数を表す。
 式(12)のlog p({yf,tt=1:N;w )から定数項(const.)を除き、正負符号を反転させた以下の関数をコスト関数C(w )とする。
Figure JPOXMLDOC01-appb-M000018

ただし、Rは、以下のように求められる重み付き時空間共分散行列である。
Figure JPOXMLDOC01-appb-M000019

信号処理装置は、例えば、上述の拘束条件(例えば、wf,0 νf,0が定数)のもと、式(13)のコスト関数C(w )を最小化するw を求めてもよい。
 上記の拘束条件(例えば、wf,0 νf,0=1)のもと、コスト関数C(w )を最小化するw の解析解は以下のようになる。
Figure JPOXMLDOC01-appb-M000020

ただし、ν はステアリングベクトルνf,0の要素νf,0 (m)を以下のように配置したベクトルである。
Figure JPOXMLDOC01-appb-M000021

ただし、ν (m)はνf,0 (m)とL個の0とを要素とするL+1次元縦ベクトルである。
 信号処理装置は、求めた畳み込みビームフォーマw を周波数別観測信号xf,tに以下のように適用して目的信号yf,tを得る。
Figure JPOXMLDOC01-appb-M000022
 [第1実施形態]
 次に、第1実施形態を説明する。
 図1Aに例示するように、本実施形態の信号処理装置1は推定部11と抑圧部12とを有する。
 <ステップS11>
 図1Bに例示するように、推定部11には、周波数別観測信号xf,tが入力される(式(1))。推定部11は、各周波数帯域において、周波数別観測信号xf,tに、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算する畳み込みビームフォーマw を適用して得られる推定信号が、所定の確率モデルに基づく推定信号の音声らしさを表す確率を大きくするように、畳み込みビームフォーマw を得て出力する。例えば、推定部11は、確率密度関数p({yf,tt=1:N;w )に基づくyf,tの音声らしさを表す確率が大きくなるように(例えば、log p({yf,tt=1:N;w )を大きくするように)畳み込みビームフォーマw を求める。好ましくは、推定部11は、この確率を最大化する(例えば、log p({yf,tt=1:N;w )を最大化する)畳み込みビームフォーマw を求める。
 <ステップS12>
 抑圧部12には、周波数別観測信号xf,tとステップS11で得られた畳み込みビームフォーマw とが入力される。抑圧部12は、各周波数帯域において、畳み込みビームフォーマw を周波数別観測信号xf,tに適用して目的信号yf,t(推定信号)を得て出力する。例えば、抑圧部12は、式(16)に例示したように、w をx f,tに適用して目的信号yf,tを得て出力する。
 <本実施形態の特徴>
 本実施形態では、周波数別観測信号xf,tに、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算する畳み込みビームフォーマw を適用して得られる推定信号が、所定の確率モデルに基づく推定信号の音声らしさを表す確率を大きくするように、畳み込みビームフォーマw を求めた。これは雑音抑圧と残響抑圧とを1つの系として最適化することに相当する。そのため、本実施形態では、従来よりも雑音と残響とを十分に抑圧することができる。
 [第2実施形態]
 次に、第2実施形態を説明する。以下、これまで説明した処理部およびステップについては同じ参照番号を引用して説明を簡略化する。
 図2Aに例示するように、本実施形態の信号処理装置2は推定部21と抑圧部12とを有する。推定部21は行列推定部211と畳み込みビームフォーマ推定部212とを有する。
 本実施形態の推定部21は、「周波数別観測信号xf,tに畳み込みビームフォーマw を適用した結果、目的信号が歪まない」という拘束条件のもとで、所定の時間区間に属する各時刻での推定信号のパワーを、目的信号のパワーσf,t の逆数または当該目的信号の推定パワーσf,t の逆数で重み付けして得られる値の総和(例えば、式(13)のコスト関数C(w ))、を最小化する畳み込みビームフォーマw を得て出力する。式(9)に例示したように、畳み込みビームフォーマw は、周波数別観測信号xf,tから残響を抑圧する残響抑圧フィルタFf,tと、周波数別観測信号xf,tに残響抑圧フィルタFf,tを適用して得られる信号から雑音を抑圧する瞬時ビームフォーマwf,0を合成して得られるビームフォーマと等価である。また拘束条件は、例えば「音源から音響信号の集音位置までの直接音および初期反射音に関する伝達関数を要素とするステアリングベクトルまたはステアリングベクトルの推定ベクトルである推定ステアリングベクトルに瞬時ビームフォーマを適用して得られる値が定数である(wf,0 νf,0が定数)」という条件である。以下、処理を詳細に説明する。
 <ステップS211>
 図2Bに例示するように、行列推定部211には、周波数別観測信号xf,tおよび目的信号のパワーまたは推定パワーσf,t が入力される。行列推定部211は、各周波数帯域について、周波数別観測信号xf,tと目的信号のパワーまたは推定パワーσf,t とに基づき、重み付き時空間共分散行列Rを得て出力する。例えば、行列推定部211は、式(14)に従って重み付き時空間共分散行列Rを得て出力する。
 <ステップS212>
 畳み込みビームフォーマ推定部212には、ステアリングベクトルまたは推定ステアリングベクトルνf,0(式(4)または(5))とステップS211で得られた重み付き時空間共分散行列Rとが入力される。畳み込みビームフォーマ推定部212は、重み付き時空間共分散行列Rとステアリングベクトルまたは推定ステアリングベクトルνf,0とに基づき、畳み込みビームフォーマw を得て出力する。例えば、畳み込みビームフォーマ推定部212は、式(15)に従って畳み込みビームフォーマw を得て出力する。
 <ステップS12>
 第1実施形態と同一であるため説明を省略する。
 <本実施形態の特徴>
 本実施形態では、重み付き時空間共分散行列Rを得、重み付き時空間共分散行列Rとステアリングベクトルまたは推定ステアリングベクトルνf,0とに基づき、畳み込みビームフォーマw を得た。これは雑音抑圧と残響抑圧とを1つの系として最適化することに相当する。そのため、本実施形態では、従来よりも雑音と残響とを十分に抑圧することができる。
 [第3実施形態]
 次に、第3実施形態を説明する。本実施形態では、σf,t およびνf,0の生成方法を例示する。
 図3に例示するように、本実施形態の信号処理装置3は推定部21と抑圧部12とパラメータ推定部33とを有する。推定部21は行列推定部211と畳み込みビームフォーマ推定部212とを有する。また図4に例示するように、パラメータ推定部33は、初期設定部330と、パワー推定部331と、残響抑圧フィルタ推定部332と、残響抑圧フィルタ適用部333と、ステアリングベクトル推定部334と、瞬時ビームフォーマ推定部335と、瞬時ビームフォーマ適用部336と、制御部337とを有する。
 以下では第2実施形態との相違点であるパラメータ推定部33の処理のみを説明する。その他の処理部の処理は第1,2実施形態で説明した通りである。
 <ステップS330>
 初期設定部330には周波数別観測信号xf,tが入力される。初期設定部330は、周波数別観測信号xf,tを用い、目的信号の推定パワーσf,t の暫定値である暫定パワーσf,t を生成して出力する。例えば、初期設定部330は、以下に従って暫定パワーσf,t を生成して出力する。
Figure JPOXMLDOC01-appb-M000023

なお、M=1の場合にはσf,t =|xf,t=xf,t f,tである。
 <ステップS332>
 残響抑圧フィルタ推定部332には、周波数別観測信号xf,tと最新の暫定パワーσf,t とが入力される。残響抑圧フィルタ推定部332は、各周波数帯域において、式(7)のコスト関数C(F)を最小化する残響抑圧フィルタFf,tをt=d,d+1,…,d+L-1に対して求めて出力する。
 <ステップS333>
 残響抑圧フィルタ適用部333には、周波数別観測信号xf,tとステップS332で得られた最新の残響抑圧フィルタFf,tとが入力される。残響抑圧フィルタ適用部333は、各周波数帯域において、周波数別観測信号xf,tに残響抑圧フィルタFf,tを適用して推定信号y’f,tを得て出力する。例えば、残響抑圧フィルタ適用部333は、式(8)に従って得たzf,tをy’f,tとして出力する。
 <ステップS334>
 ステアリングベクトル推定部334には、ステップS333で得られた最新の推定信号y’f,tが入力される。ステアリングベクトル推定部334は、各周波数帯域において、推定信号y’f,tを用い、推定ステアリングベクトルの暫定ベクトルである暫定ステアリングベクトルνf,0を得て出力する。例えば、ステアリングベクトル推定部334は、非特許文献1,2に記載されたステアリングベクトルの推定方法に従って、推定信号y’f,tに対する暫定ステアリングベクトルνf,0を得て出力する。例えば、ステアリングベクトル推定部334は、非特許文献2のyf,tとしてy’f,tを用いて推定されたステアリングベクトルを暫定ステアリングベクトルνf,0として出力する。また前述のように、いずれか一つのマイクロホン番号m∈{1,…,M}のマイクロホンのゲインが定数gとなるように各要素の伝達関数を正規化した正規化ベクトルをνf,0としてもよい(式(5))。
 <ステップS335>
 瞬時ビームフォーマ推定部335には、ステップS333で得られた最新の推定信号y’f,tと、ステップS334で得られた最新の暫定ステアリングベクトルνf,0とが入力される。瞬時ビームフォーマ推定部335は、各周波数帯域において、「wf,0 νf,0が定数となる」との拘束条件のもとで、式(2)においてxf,t=y’f,tした以下の式(18)のC(wf,0)を最小化する瞬時ビームフォーマwf,0を得て出力する。
Figure JPOXMLDOC01-appb-M000024
 <ステップS336>
 瞬時ビームフォーマ適用部336には、ステップS333で得られた最新の推定信号y’f,tと、ステップS335で得られた最新の瞬時ビームフォーマwf,0とが入力される。瞬時ビームフォーマ適用部336は、各周波数帯域において、瞬時ビームフォーマwf,0を推定信号y’f,tに適用して推定信号y”f,tを得て出力する。例えば、瞬時ビームフォーマ適用部336は、以下のように推定信号y”f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000025
 <ステップS331>
 パワー推定部331には、ステップS336で得られた最新の推定信号y”f,tが入力される。パワー推定部331は、各周波数帯域において、推定信号y”f,tのパワーを暫定パワーσf,t として出力する。例えば、パワー推定部331は、以下に従って暫定パワーσf,t を生成して出力する。
σf,t =|y”f,t=y”f,t y”f,t     (20)
 <ステップS337a>
 制御部337は終了条件を満たした否かを判定する。終了条件に限定はないが、例えば、ステップS331-S336の処理の繰り返し回数が所定値を超えたこと、ステップS331-S336の処理を1回行った前後でのσf,t またはνf,0の変化量が所定値以下であることなどである。終了条件を満たしていない場合には、ステップS332の処理に戻る。一方、終了条件を満たした場合にはステップS337bに進む。
 <ステップS337b>
 ステップS337bでは、パワー推定部331がステップS331で得た最新のσf,t を目的信号の推定パワーとして出力し、ステアリングベクトル推定部334がステップS334で得た最新のνf,0を推定ステアリングベクトルとして出力する。図3に例示するように、推定パワーσf,t は行列推定部211に入力され、推定ステアリングベクトルνf,0が畳み込みビームフォーマ推定部212に入力される。
 [第4実施形態]
 上述のようにステアリングベクトルは周波数別観測信号xf,tに基づいて推定されるが、周波数別観測信号xf,tの残響を抑圧してから(好ましくは、残響を除去してから)ステアリングベクトルの推定を行うとその推定精度が向上する。すなわち、周波数別観測信号xf,tから残響成分を抑圧した周波数別残響抑圧信号を得、当該周波数別残響抑圧信号から推定ステアリングベクトルを得ることで推定ステアリングベクトルの精度を向上させることができる。
 図6に例示するように、本実施形態の信号処理装置4は推定部21と抑圧部12とパラメータ推定部43とを有する。推定部21は行列推定部211と畳み込みビームフォーマ推定部212とを有する。図7に例示するように、パラメータ推定部43は残響抑圧部431とステアリングベクトル推定部432とを有する。
 第4実施形態の第1から3実施形態からの相違点は、推定ステアリングベクトルを生成する前に周波数別観測信号xf,tから残響成分を抑圧する点である。以下では、推定ステアリングベクトルの生成方法のみを説明する。
 <残響抑圧部431の処理(ステップS431)>
 パラメータ推定部43(図7)の残響抑圧部431には周波数別観測信号xf,tが入力される。残響抑圧部431は、周波数別観測信号xf,tから残響成分を抑圧した(好ましくは、周波数別観測信号xf,tから残響成分を除去した)周波数別残響抑圧信号uf,tを得て出力する。周波数別観測信号xf,tから残響成分を抑圧(除去)する方法に限定はない。公知の残響抑圧(除去)方法を利用することができる。例えば、残響抑圧部431は、参考文献1に記載された方法を用い、周波数別観測信号xf,tから残響成分を抑圧した周波数別残響抑圧信号uf,tを得て出力する。
 参考文献1:Takuya Yoshioka and Tomohiro Nakatani, "Generalization of Multi-Channel Linear Prediction Methods for Blind MIMO Impulse Response Shortening," IEEE Transactions on Audio, Speech, and Language Processing (Volume: 20, Issue: 10 , Dec. 2012)
 <ステアリングベクトル推定部432の処理(ステップS432)>
 残響抑圧部431で得られた周波数別残響抑圧信号uf,tはステアリングベクトル推定部432に入力される。ステアリングベクトル推定部432は、周波数別残響抑圧信号uf,tを入力としてステアリングベクトルの推定ベクトルである推定ステアリングベクトルを生成して出力する。周波数別の時系列信号を入力として推定ステアリングベクトルを得るためのステアリングベクトル推定処理方法は周知である。ステアリングベクトル推定部432は、任意のステアリングベクトル推定処理の入力として周波数別残響抑圧信号uf,tを用い、推定ステアリングベクトルνf,0を得て出力する。ステアリングベクトル推定処理方法に限定はなく、例えば、上述した非特許文献1,2に記載された方法を用いてもよいし、参考文献2,3等を用いてもよい。
 参考文献2:N. Ito, S. Araki, M. Delcroix, and T. Nakatani, “Probabilistic spatial dictionary based online adaptive beamforming for meeting recognition in noisy and reverberant environments,” Proc IEEE ICASSP, pp. 681-685, 2017.
 参考文献3:S. Markovich-Golan and S. Gannot, “Performance analysis of the covarience subtraction method for relative transfer function estimation and comparison to the covariance whitening method,” Proc. IEEE ICASSP, pp. 544-548, 2015.
 ステアリングベクトル推定部432で得られた推定ステアリングベクトルνf,0は、畳み込みビームフォーマ推定部212に入力される。畳み込みビームフォーマ推定部212は、この推定ステアリングベクトルνf,0とステップS211で得られた重み付き時空間共分散行列Rとを用い、第2実施形態で説明したステップS212の処理を行う。その他は、第1,2実施形態で説明した通りである。
 [第5実施形態]
 第5実施形態ではステアリングベクトルの推定を逐次処理で実行する方法を説明する。これによって、例えば、オンラインで逐次的に入力された周波数別観測信号xf,tから各時間フレーム番号tの推定ステアリングベクトルを計算することができる。
 図6に例示するように、本実施形態の信号処理装置5は推定部21と抑圧部12とパラメータ推定部53とを有する。推定部21は行列推定部211と畳み込みビームフォーマ推定部212とを有する。図7に例示するように、パラメータ推定部53はステアリングベクトル推定部532を有する。図8に例示するように、ステアリングベクトル推定部532は、観測信号共分散行列更新部532aと主成分ベクトル更新部532bとステアリングベクトル更新部532c(ステアリングベクトル推定部)と雑音共分散逆行列更新部532dと雑音共分散行列更新部532eとを有する。第5実施形態の第1から3実施形態からの相違点は、推定ステアリングベクトルの生成を逐次処理で行う点のみである。以下では推定ステアリングベクトルの生成方法のみを説明する。以下の処理は、t=1から昇順で各時間フレーム番号tについて実行される。
 <ステアリングベクトル推定部532の処理(ステップS532)>
 ステアリングベクトル推定部532(図7,図8)には、周波数別の時系列信号である周波数別観測信号xf,tが入力される。
 ≪観測信号共分散行列更新部532aの処理(ステップS532a)≫
 観測信号共分散行列更新部532a(図8)は、周波数別観測信号xf,tを入力とし、周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)、および周波数別観測信号xf,t-1の空間共分散行列Ψx,f,t-1(第1時間区間よりも過去の第2時間区間に属する周波数別観測信号の空間共分散行列)に基づく、周波数別観測信号xf,tの空間共分散行列Ψx,f,t(第1時間区間に属する周波数別観測信号の空間共分散行列)を得て出力する。例えば、観測信号共分散行列更新部532aは、周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)の共分散行列xf,tf,t と空間共分散行列Ψx,f,t-1(第1時間区間よりも過去の第2時間区間に属する周波数別観測信号の空間共分散行列)との線形和を、周波数別観測信号xf,tの空間共分散行列Ψx,f,t(第1時間区間に属する周波数別観測信号の空間共分散行列)として得て出力する。例えば、観測信号共分散行列更新部532aは、以下の式(21)に従って空間共分散行列Ψx,f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000026

ここで、βは忘却係数であり、例えば0<β<1の範囲に属する実数である。空間共分散行列Ψx,f,t-1の初期行列Ψx,f,0はどのようなものでもよい。例えば、M×M次元の単位行列を空間共分散行列Ψx,f,t-1の初期行列Ψx,f,0とすることができる。
 <雑音共分散逆行列更新部532dの処理(ステップS532d)>
 雑音共分散逆行列更新部532dには、周波数別観測信号xf,tおよびマスク情報γf,t (n)が入力される。マスク情報γf,t (n)は、時間フレーム番号tおよび周波数帯域番号fに対応する時間周波数点において、周波数別観測信号xf,tに含まれる雑音成分の割合を表す情報である。言い換えると、マスク情報γf,t (n)は、時間フレーム番号tおよび周波数帯域番号fに対応する時間周波数点で、周波数別観測信号xf,tに含まれる雑音成分の占有確率を表す。マスク情報γf,t (n)の推定方法に限定はない。マスク情報γf,t (n)の推定方法は周知であり、例えば、complex Gaussian mixture model (CGMM)を用いる推定方法(例えば、参考文献4)、ニューラルネットワークを用いる推定方法(例えば、参考文献5)、およびそれらを結合した推定方法(例えば、参考文献6、参考文献7)などが知られている。
 参考文献4:T. Higuchi, N. Ito, T. Yoshioka, and T. Nakatani, "Robust MVDR beamforming using time-frequency masks for online/offline ASR in noise," Proc. IEEE ICASSP-2016, pp. 5210-5214, 2016.
 参考文献5:J. Heymann, L. Drude, and R. Haeb-Umbach, "Neural network based spectral mask estimation for acoustic beamforming," Proc. IEEE ICASSP-2016, pp. 196-200, 2016.
 参考文献6:T. Nakatani, N. Ito,  T. Higuchi, S. Araki, and K. Kinoshita, "Integrating DNN-based and spatial clustering-based mask estimation for robust MVDR beamforming," Proc. IEEE ICASSP-2017, pp. 286-290, 2017.
 参考文献7:Y. Matsui, T. Nakatani, M. Delcroix, K. Kinoshita, S. Araki, and S. Makino, "Online integration of DNN-based and spatial clustering-based mask estimation for robust MVDR beamforming," Proc. IWAENC, pp. 71-75, 2018.
 マスク情報γf,t (n)は、事前に推定されて図示していない記憶装置に格納されたものであってもよいし、逐次的に推定されるものであってもよい。なお、「γf,t (n)」の右上添字の「(n)」は本来右下添字の「f,t」の真上に記載すべきであるが、記載表記の制約上、「f,t」の右上に記載してある。
 雑音共分散逆行列更新部532dは、周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)、マスク情報γf,t (n)(第1時間区間に属するマスク情報)、および雑音共分散逆行列Ψ-1 n,f,t-1(第1時間区間よりも過去の第2時間区間に属する周波数別観測信号の雑音共分散逆行列)に基づき、雑音共分散逆行列Ψ-1 n,f,t(第1時間区間に属する周波数別観測信号の雑音共分散逆行列)を得て出力する。例えば、雑音共分散逆行列更新部532dは、Woodburyの公式を用い、以下の式(22)に従って雑音共分散逆行列Ψ-1 n,f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000027

ここで、αは忘却係数であり、例えば0<α<1の範囲に属する実数である。雑音共分散逆行列Ψ-1 n,f,t-1の初期行列Ψ-1 n,f,0はどのようなものでもよい。例えば、M×M次元の単位行列を雑音共分散逆行列Ψ-1 n,f,t-1の初期行列Ψ-1 n,f,0とすることができる。なお、「Ψ-1 n,f,t」の右上添字の「-1」は本来右下添字の「n,f,t」の真上に記載すべきであるが、記載表記の制約上、「n,f,t」の左上に記載してある。
 <主成分ベクトル更新部532bの処理(ステップS532b)>
 主成分ベクトル更新部532bには、観測信号共分散行列更新部532aで得られた空間共分散行列Ψx,f,t、および雑音共分散逆行列更新部532dで得られた雑音共分散逆行列Ψ-1 n,f,tが入力される。主成分ベクトル更新部532bは、雑音共分散逆行列Ψ-1 n,f,t(周波数別観測信号の雑音共分散行列の逆行列)、空間共分散行列Ψx,f,t(第1時間区間に属する周波数別観測信号の空間共分散行列)、および主成分ベクトルv f,t-1(第2時間区間の主成分ベクトル)に基づき、パワー法によってΨ-1 n,f,tΨx,f,t(周波数別観測信号の雑音共分散行列の逆行列と、第1時間区間に属する周波数別観測信号の空間共分散行列と、の積)に対する主成分ベクトルv f,t(第1時間区間の主成分ベクトル)を得て出力する。例えば、主成分ベクトル更新部532bは、Ψ-1 n,f,tΨx,f,t f,t-1に基づく主成分ベクトルv f,tを得て出力する。例えば、主成分ベクトル更新部532bは、以下の式(23)(24)に従って主成分ベクトルv f,tを得て出力する。なお、「v f,t」の右上添字の「~」は本来右下添字の「v」の真上に記載すべきであるが、記載表記の制約上、「v」の右上に記載している。
Figure JPOXMLDOC01-appb-M000028

Figure JPOXMLDOC01-appb-M000029

ここでv f,t refは、式(23)で得られるベクトルvf,tのM個の要素のうち、基準とする所定のマイクロホン(参照マイクロホンref)に対応する要素を表す。すなわち、式(23)(24)の例では、主成分ベクトル更新部532bは、vf,t=Ψ-1 n,f,tΨx,f,t f,t-1の各要素をv f,t refで正規化したものを主成分ベクトルv f,tとしている。なお、「vf,t」の右上添字の「~」は本来右下添字の「v」の真上に記載すべきであるが、記載表記の制約上、「v」の右上に記載している。
 <雑音共分散行列更新部532e(ステップS532e)>
 雑音共分散行列更新部532eは、周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)、およびマスク情報γf,t (n)(第1時間区間に属するマスク情報)を入力とし、周波数別観測信号xf,t、マスク情報γf,t (n)、および雑音共分散行列Ψn,f,t-1(第1時間区間よりも過去の第2時間区間に属する周波数別観測信号の雑音共分散行列)に基づく、周波数別観測信号xf,tの雑音共分散行列Ψn,f,t(第1時間区間に属する周波数別観測信号の雑音共分散行列)を得て出力する。例えば、雑音共分散行列更新部532eは、周波数別観測信号xf,tの共分散行列xf,tf,t とマスク情報γf,t (n)との積γf,t (n)f,tf,t と雑音共分散行列Ψn,f,t-1(第1時間区間よりも過去の第2時間区間に属する周波数別観測信号の雑音共分散行列)との線形和を、周波数別観測信号xf,tの雑音共分散行列Ψn,f,tとして得て出力する。例えば、雑音共分散行列更新部532eは、以下の式(25)に従って雑音共分散行列Ψn,f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000030

ここでαは忘却係数であり、例えば0<α<1の範囲に属する実数である。
 <ステアリングベクトル更新部532c(ステップS532c)>
 ステアリングベクトル更新部532cは、主成分ベクトル更新部532bで得られた主成分ベクトルv f,t(第1時間区間の主成分ベクトル)、および雑音共分散行列更新部532eで得られた雑音共分散行列Ψn,f,t(周波数別観測信号の雑音共分散行列)を入力とし、これらに基づき、推定ステアリングベクトルνf,t(第1時間区間の推定ステアリングベクトル)を得て出力する。例えば、ステアリングベクトル更新部532cは、Ψn,f,t f,tに基づく推定ステアリングベクトルνf,tを得て出力する。例えば、ステアリングベクトル更新部532cは、以下の式(26)(27)に従って推定ステアリングベクトルνf,tを得て出力する。
Figure JPOXMLDOC01-appb-M000031

Figure JPOXMLDOC01-appb-M000032

ここでvf,t refは、式(26)で得られるベクトルv’f,tのM個の要素のうち、参照マイクロホンrefに対応する要素を表す。すなわち、式(26)(27)の例では、ステアリングベクトル更新部532cは、v’f,t=Ψn,f,t f,tの各要素をvf,t refで正規化したものを推定ステアリングベクトルνf,tとしている。
 ステアリングベクトル推定部532で得られた推定ステアリングベクトルνf,tは、畳み込みビームフォーマ推定部212に入力される。畳み込みビームフォーマ推定部212は、この推定ステアリングベクトルνf,tをνf,0として扱い、推定ステアリングベクトルνf,tとステップS211で得られた重み付き時空間共分散行列Rとを用い、第2実施形態で説明したステップS212の処理を行う。その他は、第1,2実施形態で説明した通りである。また行列推定部211に入力されるσf,t としては、例えば式(17)のように生成された暫定パワーが用いられてもよいし、第3実施形態で説明したように生成された推定パワーσf,t が用いられてもよい。
 [第5実施形態の変形例1]
 第5実施形態のステップS532dでは、雑音共分散逆行列更新部532dが周波数別観測信号xf,tおよびマスク情報γf,t (n)を用いて、時間フレーム番号tに対応する各時点において雑音共分散逆行列Ψ-1 n,f,tを適応更新した。しかしながら、雑音共分散逆行列更新部532dが、マスク情報γf,t (n)を用いることなく、雑音成分のみ存在するか雑音成分が支配的な時間区間の周波数別観測信号xf,tを用いて雑音共分散逆行列Ψ-1 n,f,tを得て出力してもよい。例えば、雑音共分散逆行列更新部532dが、雑音成分のみ存在するか雑音成分が支配的な時間区間の周波数別観測信号xf,tに対するxf,tf,t の時間平均の逆行列を雑音共分散逆行列Ψ-1 n,f,tとして出力してもよい。このように得られた雑音共分散逆行列Ψ-1 n,f,tは、各時間フレーム番号tのフレームにおいて継続的に使用される。
 第5実施形態のステップS532eで、雑音共分散行列更新部532eが、マスク情報γf,t (n)を用いることなく、雑音成分のみ存在するか雑音成分が支配的な時間区間の周波数別観測信号xf,tを用いて周波数別観測信号xf,tの雑音共分散行列Ψn,f,tを得て出力してもよい。例えば、雑音共分散行列更新部532eが、雑音成分のみ存在するか雑音成分が支配的な時間区間の周波数別観測信号xf,tに対するxf,tf,t の時間平均を雑音共分散行列Ψn,f,tとして出力してもよい。このように得られた雑音共分散行列Ψn,f,tは、各時間フレーム番号tのフレームにおいて継続的に使用される。
 [第5実施形態の変形例2]
 第5実施形態およびその変形例では、第1時間区間が時間フレーム番号tのフレームであり、第2時間区間が時間フレーム番号t-1のフレームである場合を例にとったが、これは本発明を限定するものではない。時間フレーム番号t以外の時間フレーム番号のフレームを第1時間区間としてもよい。時間フレーム番号t-1以外の第1時間区間よりも過去の時間フレームを第2時間区間としてもよい。
 [第6実施形態]
 第5実施形態では、ステアリングベクトル推定部532が周波数別観測信号xf,tを入力とし、逐次処理で推定ステアリングベクトルνf,tを得て出力する。しかしながら、第4実施形態で説明したように、周波数別観測信号xf,tの残響を抑圧してからステアリングベクトルの推定を行うとその推定精度が向上する。第6実施形態では、周波数別観測信号xf,tの残響を抑圧してから、ステアリングベクトル推定部が第5実施形態で説明したように逐次処理で推定ステアリングベクトルνf,tを得て出力する例を説明する。
 図6に例示するように、本実施形態の信号処理装置6は推定部21と抑圧部12とパラメータ推定部63とを有する。図7に例示するように、パラメータ推定部63は残響抑圧部431とステアリングベクトル推定部632とを有する。第6実施形態の第5実施形態からの相違点は、推定ステアリングベクトルを生成する前に周波数別観測信号xf,tから残響成分を抑圧する点である。以下では、推定ステアリングベクトルの生成方法のみを説明する。
 <残響抑圧部431の処理(ステップS431)>
 残響抑圧部431(図7)は、第4実施形態で説明したように、周波数別観測信号xf,tから残響成分を抑圧した(好ましくは、周波数別観測信号xf,tから残響成分を除去した)周波数別残響抑圧信号uf,tを得て出力する。
 <ステアリングベクトル推定部632の処理(ステップS632)>
 周波数別残響抑圧信号uf,tはステアリングベクトル推定部632に入力される。ステアリングベクトル推定部632の処理は、周波数別観測信号xf,tに代えて周波数別残響抑圧信号uf,tがステアリングベクトル推定部632に入力され、ステアリングベクトル推定部632が周波数別観測信号xf,tに代えて周波数別残響抑圧信号uf,tを使用することを除き、第5実施形態のステアリングベクトル推定部532の処理と同じである。すなわち、ステアリングベクトル推定部632の処理は、ステアリングベクトル推定部532の処理における周波数別観測信号xf,tを周波数別残響抑圧信号uf,tに置換したものである。その他は第5実施形態およびその変形例と同じである。つまり、ステアリングベクトル推定部632には、周波数別の時系列信号である周波数別残響抑圧信号uf,tが入力される。観測信号共分散行列更新部532aは、第1時間区間に属する周波数別残響抑圧信号uf,t、および第1時間区間よりも過去の第2時間区間に属する周波数別残響抑圧信号uf,t-1の空間共分散行列Ψx,f,t-1に基づく、第1時間区間に属する周波数別残響抑圧信号uf,tの空間共分散行列Ψx,f,tを得て出力する。主成分ベクトル更新部532bは、周波数別残響抑圧信号uf,tの雑音共分散行列の逆行列Ψ-1 n,f,t、第1時間区間に属する周波数別残響抑圧信号の空間共分散行列Ψx,f,t、および第2時間区間の主成分ベクトルv f,t-1に基づき、周波数別残響抑圧信号の雑音共分散行列の逆行列Ψ-1 n,f,tと、第1時間区間に属する周波数別残響抑圧信号の空間共分散行列Ψx,f,tと、の積Ψ-1 n,f,tΨx,f,tに対する第1時間区間の主成分ベクトルv f,tを得て出力する。ステアリングベクトル更新部532cは、周波数別残響抑圧信号uf,tの雑音共分散行列と第1時間区間の主成分ベクトルv f,tとに基づき、第1時間区間の推定ステアリングベクトルνf,tを得て出力する。
 [第7実施形態]
 第7実施形態では、畳み込みビームフォーマの推定を逐次処理で実行する方法を説明する。これによって、例えば、オンラインで逐次的に入力された周波数別観測信号xf,tから各時間フレーム番号tの畳み込みビームフォーマを推定し、目的信号yf,tを得ることができる。
 図6に例示するように、本実施形態の信号処理装置7は、推定部71と抑圧部72とパラメータ推定部53とを有する。推定部71は行列推定部711と畳み込みビームフォーマ推定部712とを有する。以下の処理は、t=1から昇順で各時間フレーム番号tについて実行される。
 <パラメータ推定部53の処理(ステップS53)>
 パラメータ推定部53(図6,図7)には周波数別観測信号xf,tが入力される。パラメータ推定部53のステアリングベクトル推定部532(図8)は、第5実施形態で説明したように、周波数別観測信号xf,tを入力として逐次処理で推定ステアリングベクトルνf,tを得て出力する(ステップS532)。推定ステアリングベクトルνf,tを以下のM次元ベクトルで表記する。
Figure JPOXMLDOC01-appb-M000033

ただし、νf,t (m)は推定ステアリングベクトルνf,tのM個の要素のうち、マイクロホン番号mのマイクロホンに対応する要素を表す。ステアリングベクトル推定部532で得られた推定ステアリングベクトルνf,tは、畳み込みビームフォーマ推定部712に入力される。
 <行列推定部711の処理(ステップS711)>
 行列推定部711(図6)には、周波数別観測信号xf,tおよび目的信号のパワーまたは推定パワーσf,t が入力される。行列推定部711に入力されるσf,t としては、例えば式(17)のように生成された暫定パワーが用いられてもよいし、第3実施形態で説明したように生成された推定パワーσf,t が用いられてもよい。行列推定部711は、周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)、および目的信号のパワーまたは推定パワーσf,t (第1時間区間に属する周波数別観測信号のパワーまたは推定パワー)、ならびに時空間共分散行列の逆行列
Figure JPOXMLDOC01-appb-M000034

(第1時間区間よりも過去の第2時間区間の時空間共分散行列の逆行列)に基づき、時空間共分散行列の逆行列
Figure JPOXMLDOC01-appb-M000035

(第1時間区間の時空間共分散行列の逆行列)を推定して出力する。時空間共分散行列の例は
Figure JPOXMLDOC01-appb-M000036

である。この場合、行列推定部711は、例えば、以下の式(28)(29)に従って時空間共分散行列の逆行列
Figure JPOXMLDOC01-appb-M000037

を生成して出力する。
Figure JPOXMLDOC01-appb-M000038

Figure JPOXMLDOC01-appb-M000039

ここで、式(28)のkf,tは(L+1)M次元ベクトルであり、式(29)の逆行列は(L+1)M×(L+1)Mの行列である。αは忘却係数であり、例えば0<α<1の範囲に属する実数である。また時空間共分散行列の逆行列
Figure JPOXMLDOC01-appb-M000040

の初期行列はどのようなものでもよく、この初期行列の例は(L+1)M次元の単位行列
Figure JPOXMLDOC01-appb-M000041

である。
 <ビームフォーマ推定部712の処理(ステップS712)>
 行列推定部711で得られた
Figure JPOXMLDOC01-appb-M000042

(第1時間区間の時空間共分散行列の逆行列)、およびパラメータ推定部53で得られた推定ステアリングベクトルνf,tは、ビームフォーマ推定部712に入力される。畳み込みビームフォーマ推定部712は、これらに基づき、畳み込みビームフォーマw f,t(第1時間区間の畳み込みビームフォーマ)を得て出力する。例えば、畳み込みビームフォーマ推定部712は、以下の式(30)に従って畳み込みビームフォーマw f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000043

ただし、
Figure JPOXMLDOC01-appb-M000044

Figure JPOXMLDOC01-appb-M000045

である。
Figure JPOXMLDOC01-appb-M000046

はL+1次元ベクトルである。gは0以外のスカラー定数である。
 <抑圧部72の処理(ステップS72)>
 抑圧部72には、周波数別観測信号xf,t、およびビームフォーマ推定部712で得られた畳み込みビームフォーマw f,tが入力される。抑圧部72は、各時間フレーム番号tおよび周波数帯域番号fにおいて、畳み込みビームフォーマw f,tを周波数別観測信号xf,tに適用して目的信号yf,tを得て出力する。例えば、抑圧部72は、以下の式(31)に従って目的信号yf,tを得て出力する。
Figure JPOXMLDOC01-appb-M000047
 [第7実施形態の変形例1]
 第7実施形態の信号処理装置7のパラメータ推定部53がパラメータ推定部63に置換されてもよい。すなわち、第7実施形態において、パラメータ推定部53に代えてパラメータ推定部63が周波数別観測信号xf,tを入力とし、第6実施形態で説明したように逐次処理で推定ステアリングベクトルνf,tを得て出力してもよい。
 [第7実施形態の変形例2]
 第7実施形態およびその変形例では、第1時間区間が時間フレーム番号tのフレームであり、第2時間区間が時間フレーム番号t-1のフレームである場合を例にとったが、これは本発明を限定するものではない。時間フレーム番号t以外の時間フレーム番号のフレームを第1時間区間としてもよい。時間フレーム番号t-1以外の第1時間区間よりも過去の時間フレームを第2時間区間としてもよい。
 [第8実施形態]
 第2実施形態では、wf,0 νf,0が定数となるとの拘束条件のもと、コスト関数C(w )を最小化するw の解析解を式(15)とみなし、式(15)に従って畳み込みビームフォーマw を得る例を説明した。第8実施形態では別の最適解を用い、畳み込みビームフォーマを得る例を示す。
 推定ステアリングベクトルνf,0の直交補空間に対応する(M-1)×Mのブロック行列をBとするとB νf,0=0を満たす。このようなブロック行列Bは無数に存在する。以下の式(32)にブロック行列Bの一例を示す。
Figure JPOXMLDOC01-appb-M000048

ここでν f,0は、ステアリングベクトルνf,0または推定ステアリングベクトルνf,0の参照マイクロホンref以外のマイクロホンに対応する要素からなるM-1次元列ベクトル、vf,0 refはνf,0の参照マイクロホンrefに対応する要素、IM-1は(M-1)×(M-1)次元の単位行列である。
 gを0以外のスカラー定数とし、af,0をM次元の変形瞬時ビームフォーマとし、瞬時ビームフォーマwf,0を、ステアリングベクトルνf,0の定数倍gνf,0または推定ステアリングベクトルνf,0の定数倍gνf,0と、ステアリングベクトルνf,0または推定ステアリングベクトルνf,0の直交補空間に対応するブロック行列Bと変形瞬時ビームフォーマaf,0との積Bf,0と、の和で表記する。すなわち、
f,0=gνf,0+Bf,0 (33)
と表記する。すると、B νf,0=0であるため、「wf,0 νf,0が定数となる」との拘束条件は、以下のように表記される。
f,0 νf,0=(gνf,0+Bf,0νf,0=g |νf,0=定数
このように、式(33)のように定義しても、任意の変形瞬時ビームフォーマaf,0に対して「wf,0 νf,0が定数となる」という拘束条件を満たしている。そのため、瞬時ビームフォーマwf,0を式(33)のように定義してもよいことが分かる。本実施形態では瞬時ビームフォーマwf,0を式(33)のように定義した際の畳み込みビームフォーマの最適解を採用し、畳み込みビームフォーマの推定を行う。以下に詳細に説明する。
 図9に例示するように、本実施形態の信号処理装置8は、推定部81と抑圧部82とパラメータ推定部83とを有する。推定部81は、行列推定部811、畳み込みビームフォーマ推定部812、初期ビームフォーマ適用部813、およびブロック部814を有する。
 <パラメータ推定部83の処理(ステップS83)>
 パラメータ推定部83(図9)は、周波数別観測信号xf,tを入力とし、前述したパラメータ推定部33,43,53,63の何れかと同じ方法で推定ステアリングベクトルを得、得られた推定ステアリングベクトルをνf,0として出力する。出力された推定ステアリングベクトルνf,0は、初期ビームフォーマ適用部813およびブロック部814に送られる。
 <初期ビームフォーマ適用部813の処理(ステップS813)>
 初期ビームフォーマ適用部813には、推定ステアリングベクトルνf,0および周波数別観測信号xf,tが入力される。初期ビームフォーマ適用部813は、推定ステアリングベクトルνf,0および周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)に基づく、初期ビームフォーマ出力zf,t(第1時間区間の初期ビームフォーマ出力)を得て出力する。例えば、初期ビームフォーマ適用部813は、推定ステアリングベクトルνf,0の定数倍と周波数別観測信号xf,tとに基づく、初期ビームフォーマ出力zf,tを得て出力する。例えば、初期ビームフォーマ適用部813は、以下の式(34)に従って初期ビームフォーマ出力zf,tを得て出力する。
f,t=(gνf,0f,t (34)
出力された初期ビームフォーマ出力zf,tは、畳み込みビームフォーマ推定部812および抑圧部82に送られる。
 <ブロック部814の処理(ステップS814)>
 ブロック部814には、推定ステアリングベクトルνf,0および周波数別観測信号xf,tが入力される。ブロック部814は、周波数別観測信号xf,tと推定ステアリングベクトルνf,0の直交補空間に対応するブロック行列Bとに基づく、ベクトルx f,tを得て出力する。前述のようにB νf,0=0を満たす。ブロック行列Bの一例は前述の式(32)に示した通りであるがこれは本発明を限定するものではなく、B νf,0=0を満たすブロック行列Bであればどのようなものであってもよい。例えば、ブロック部814は、以下の式(35)(36)に従ってベクトルx f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000049

Figure JPOXMLDOC01-appb-M000050

なお、式(36)に例示するように、「x f,t」の右上添字の「=」は本来右下添字の「x」の真上に記載すべきであるが、記載表記の制約上、「x」の右上に記載する場合がある。出力されたベクトルx f,tは、行列推定部811、畳み込みビームフォーマ推定部812、および抑圧部82に送られる。
 <行列推定部811の処理(ステップS811)>
 行列推定部811には、ブロック部814で得られたベクトルx f,t、および目的信号のパワーまたは推定パワーσf,t が入力される。σf,t は、例えば、式(17)のように生成された暫定パワーであってもよいし、第3実施形態で説明したように生成された推定パワーσf,t であってもよい。行列推定部811は、ベクトルx f,tおよび目的信号のパワーまたは推定パワーσf,t を用い、式(33)のように瞬時ビームフォーマwf,0を表記したときに、推定信号の音声らしさを表す確率を大きくする、推定ステアリングベクトルνf,0、周波数別観測信号xf,t、および目的信号のパワーまたは推定パワーσf,t に基づく、重み付き変形時空間共分散行列R を得て出力する。例えば、行列推定部811は、ベクトルx f,t、および目的信号のパワーまたは推定パワーσf,t に基づく、重み付き変形時空間共分散行列R を得て出力する。例えば、行列推定部811は、以下の式(37)に従って重み付き変形時空間共分散行列R を得て出力する。
Figure JPOXMLDOC01-appb-M000051

出力された重み付き変形時空間共分散行列R は畳み込みビームフォーマ推定部812に送られる。
 <畳み込みビームフォーマ推定部812の処理(ステップS812)>
 畳み込みビームフォーマ推定部812には、初期ビームフォーマ適用部813で得られた初期ビームフォーマ出力zf,t、ブロック部814で得られたベクトルx f,t、および行列推定部811で得られた重み付き変形時空間共分散行列R が入力される。畳み込みビームフォーマ推定部812は、これらを用い、推定ステアリングベクトルνf,0、重み付き変形時空間共分散行列R 、および周波数別観測信号xf,tに基づく、畳み込みビームフォーマw を得て出力する。例えば、畳み込みビームフォーマ推定部812は、以下の式(38)に従って畳み込みビームフォーマw を得て出力する。
Figure JPOXMLDOC01-appb-M000052
 
Figure JPOXMLDOC01-appb-M000053

Figure JPOXMLDOC01-appb-M000054

出力された畳み込みビームフォーマw は抑圧部82に送られる。
 <抑圧部82の処理(ステップS82)>
 抑圧部82には、ブロック部814から出力されたベクトルx f,t、初期ビームフォーマ適用部813から出力された初期ビームフォーマ出力zf,t、および畳み込みビームフォーマ推定部812から出力された畳み込みビームフォーマw が入力される。抑圧部82は、初期ビームフォーマ出力zf,tおよび畳み込みビームフォーマw をベクトルx f,tに適用して目的信号yf,tを得て出力する。この処理は、畳み込みビームフォーマw を周波数別観測信号xf,tに適用して目的信号yf,tを得て出力する処理と等価である。例えば、抑圧部82は、以下の式(39)に従って目的信号yf,tを得て出力する。
Figure JPOXMLDOC01-appb-M000055
 [第8実施形態の変形例1]
 パラメータ推定部83で得られた推定ステアリングベクトルνf,0に代え、実測等に基づいて得られた既知のステアリングベクトルνf,0が初期ビームフォーマ適用部813およびブロック部814に入力されてもよい。この場合、初期ビームフォーマ適用部813およびブロック部814は推定ステアリングベクトルνf,0に代えてステアリングベクトルνf,0を用いて上述のステップS813およびS814を行う。
 [第9実施形態]
 第9実施形態では、第8実施形態に基づく畳み込みビームフォーマの推定を逐次処理で実行する方法を説明する。以下の処理は、t=1から昇順で各時間フレーム番号tについて実行される。
 図10に例示するように、本実施形態の信号処理装置9は、推定部91と抑圧部92とパラメータ推定部93とを有する。推定部91は、適応ゲイン推定部911、畳み込みビームフォーマ推定部912、行列推定部915、初期ビームフォーマ適用部813、およびブロック部814を有する。
 <パラメータ推定部93の処理(ステップS93)>
 パラメータ推定部93(図10)は、周波数別観測信号xf,tを入力とし、前述したパラメータ推定部53,63の何れかと同じ方法で推定ステアリングベクトルνf,tを得て出力する。出力された推定ステアリングベクトルνf,tは、初期ビームフォーマ適用部813およびブロック部814に送られる。
 <初期ビームフォーマ適用部813の処理(ステップS813)>
 初期ビームフォーマ適用部813は、推定ステアリングベクトルνf,t(第1時間区間の推定ステアリングベクトル)および周波数別観測信号xf,t(第1時間区間に属する周波数別観測信号)を入力とし、νf,0に代えてνf,tを用い、第8実施形態で説明したように初期ビームフォーマ出力zf,t(第1時間区間の初期ビームフォーマ出力)を得て出力する。出力された初期ビームフォーマ出力zf,tは抑圧部92に送られる。
 <ブロック部814の処理(ステップS814)>
 ブロック部814は、推定ステアリングベクトルνf,tおよび周波数別観測信号xf,tを入力とし、νf,0に代えてνf,tを用い、第8実施形態で説明したようにベクトルx f,tを得て出力する。出力されたベクトルx f,tは、適応ゲイン推定部911、行列推定部915、および抑圧部92に送られる。
 <抑圧部92の処理(ステップS92)>
 抑圧部92には、初期ビームフォーマ適用部813から出力された初期ビームフォーマ出力zf,t、およびブロック部814から出力されたベクトルx f,tが入力される。抑圧部92は、これらを用い、初期ビームフォーマ出力zf,t(第1時間区間の初期ビームフォーマ出力)、推定ステアリングベクトルνf,t(第1時間区間の推定ステアリングベクトル)、および周波数別観測信号xf,t、ならびに畳み込みビームフォーマw f,t-1(第1時間区間よりも過去の第2時間区間の畳み込みビームフォーマ)に基づく、目的信号yf,tを得て出力する。例えば、抑圧部92は、以下の式(40)に従って目的信号yf,tを得て出力する。
Figure JPOXMLDOC01-appb-M000056

ここで畳み込みビームフォーマw f,t-1の初期ベクトルw f,0はどのような(LM+M-1)次元ベクトルであってもよい。初期ベクトルw f,0の一例は、全ての要素が0の(LM+M-1)次元ベクトルである。
 <適応ゲイン推定部911の処理(ステップS911)>
 適応ゲイン推定部911には、ブロック部814から出力されたベクトルx f,t、行列推定部915から出力された重み付き変形時空間共分散行列の逆行列R~-1 f,t-1、および目的信号のパワーまたは推定パワーσf,t が入力される。行列推定部711に入力されるσf,t としては、例えば式(17)のように生成された暫定パワーが用いられてもよいし、第3実施形態で説明したように生成された推定パワーσf,t が用いられてもよい。なお、「R~-1 f,t-1」の「~」は本来以下のように「R」の真上に表記すべきであるが、記載表記の制約上「R」の右上に表記する場合がある。適応ゲイン推定部911は、これらを用い、重み付き変形時空間共分散行列の逆行列R~-1 f,t-1(第2時間区間の重み付き変形時空間共分散行列の逆行列)、ならびに推定ステアリングベクトルνf,t(第1時間区間の推定ステアリングベクトル)、および周波数別観測信号xf,t、および目的信号のパワーまたは推定パワーσf,t に基づく、適応ゲインkf,t(第1時間区間の適応ゲイン)を得て出力する。例えば、適応ゲイン推定部911は、以下の式(41)に従って(LM+M-1)次元ベクトルである適応ゲインkf,tを得て出力する。
Figure JPOXMLDOC01-appb-M000057

ここでαは忘却係数であり、例えば0<α<1の範囲に属する実数である。また、重み付き変形時空間共分散行列の逆行列R~-1 f,t-1の初期行列はどのような(LM+M-1)×(LM+M-1)次元行列であってもよい。重み付き変形時空間共分散行列の逆行列R~-1 f,t-1の初期行列の例は、(LM+M-1)次元の単位行列である。ただし
Figure JPOXMLDOC01-appb-M000058

Figure JPOXMLDOC01-appb-M000059

Figure JPOXMLDOC01-appb-M000060

である。なお、R f,t自体は算出されない。出力された適応ゲインkf,tは、行列推定部915および畳み込みビームフォーマ推定部912に送られる。
 <行列推定部915の処理(ステップS915)>
 行列推定部915には、ブロック部814から出力されたベクトルx f,t、および適応ゲイン推定部911から出力された適応ゲインkf,tが入力される。行列推定部915は、これらを用い、適応ゲインkf,t(第1時間区間の適応ゲイン)、推定ステアリングベクトルνf,t(第1時間区間の推定ステアリングベクトル)、および周波数別観測信号xf,t、ならびに重み付き変形時空間共分散行列の逆行列R~-1 f,t-1(第2時間区間の重み付き変形時空間共分散行列の逆行列)に基づく、重み付き変形時空間共分散行列の逆行列R~-1 f,t(第1時間区間の重み付き変形時空間共分散行列の逆行列)を得て出力する。例えば、行列推定部915は、以下の式(42)に従って重み付き変形時空間共分散行列の逆行列R~-1 f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000061

出力された重み付き変形時空間共分散行列の逆行列R~-1 f,tは適応ゲイン推定部911に送られる。
 <畳み込みビームフォーマ推定部912の処理(ステップS912)>
 畳み込みビームフォーマ推定部912には、抑圧部92から出力された目的信号yf,t、および適応ゲイン推定部911から出力された適応ゲインkf,tが入力される。畳み込みビームフォーマ推定部912は、これらを用い、適応ゲインkf,t(第1時間区間の適応ゲイン)、目的信号yf,t(第1時間区間の目的信号)、および畳み込みビームフォーマw f,t-1(第2時間区間の畳み込みビームフォーマ)に基づく、畳み込みビームフォーマw f,t(第1時間区間の畳み込みビームフォーマ)を得て出力する。例えば、畳み込みビームフォーマ推定部912は、以下の式(43)に従って畳み込みビームフォーマw f,tを得て出力する。
Figure JPOXMLDOC01-appb-M000062

出力された畳み込みビームフォーマw f,tは抑圧部92に送られる。
 [第9実施形態の変形例1]
 第9実施形態およびその変形例では、第1時間区間が時間フレーム番号tのフレームであり、第2時間区間が時間フレーム番号t-1のフレームである場合を例にとったが、これは本発明を限定するものではない。時間フレーム番号t以外の時間フレーム番号のフレームを第1時間区間としてもよい。時間フレーム番号t-1以外の第1時間区間よりも過去の時間フレームを第2時間区間としてもよい。
 [第9実施形態の変形例2]
 パラメータ推定部93で得られた推定ステアリングベクトルνf,tに代え、既知のステアリングベクトルνf,tが初期ビームフォーマ適用部813およびブロック部814に入力されてもよい。この場合、初期ビームフォーマ適用部813およびブロック部814は推定ステアリングベクトルνf,tに代えてステアリングベクトルνf,tを用いて上述のステップS813およびS814を行う。
 [第10実施形態]
 上述した信号処理装置1-9に入力される周波数別観測信号xf,tは、音源から発せられた音響信号を集音して得られた観測信号の複数の周波数帯域のそれぞれに対応する信号であればどのようなものであってもよい。例えば、図11Aおよび図11Cに例示するように、音源から発せられた音響信号をM個のマイクロホンで集音して得られた時間領域の観測信号x(i)=[x(i)(1),x(i)(2),…,x(i)(M)(ただしiは離散時間を表すインデックス)が分離部51に入力され、分離部51が観測信号x(i)を周波数領域の周波数別観測信号xf,tに変換し、周波数別観測信号xf,tを信号処理装置1-9に入力してもよい。時間領域から周波数領域への変換方法にも限定はなく、例えば離散フーリエ変換などを用いればよい。あるいは、図11Bに例示するように、図示していない他の処理部によって得られた周波数別観測信号xf,tが信号処理装置1-9に入力されてもよい。例えば、上述の時間領域の観測信号x(i)が時間フレームごとに周波数領域の信号に変換され、これらの周波数領域の信号が他の処理部で処理され、それによって得られた周波数別観測信号xf,tが信号処理装置1-9に入力されてもよい。
 信号処理装置1-9から出力された目的信号yf,tは、時間領域の信号y(i)に変換されることなく他の処理(音声認識処理等)に使用されてもよいし、時間領域の信号y(i)に変換されてもよい。例えば、図11Cに例示するように、信号処理装置1-9から出力された目的信号yf,tがそのまま出力され、他の処理に使用されてもよい。あるいは、図11Aおよび図11Bのように、信号処理装置1-9から出力された目的信号yf,tが統合部52に入力され、統合部52が目的信号yf,tを統合して時間領域の信号y(i)を得て出力してもよい。目的信号yf,tから時間領域の信号y(i)を得る方法にも限定はないが、例えば、逆フーリエ変換などを用いることができる。
 以降、各実施形態の手法の実験結果を示す。
 [実験結果1(第1実施形態)]
 次に、第1実施形態および従来法1~3による雑音残響抑圧結果を例示する。
 この実験では観測信号として「REVERB Challenge」のデータセットを利用した。このデータセットは、定常雑音と残響のある部屋で読み上げられた英語音声を、その話者から離れた位置(0.5~2.5m)に配置されたマイクロホンで収音して得られた音響データ(Real Data)と、その環境を模擬して得られた音響データ(Sim Data)とを収録している。マイクロホン数M=8とした。周波数別観測信号は、短時間フーリエ変換により求めた。フレーム長は32ミリ秒、フレームシフトは4とし、予測遅延はd=4とした。これらのデータを用い、本発明および従来法1~3によって雑音残響抑圧した信号の音声品質および音声認識精度を評価した。
 図12に、観測信号ならびに本発明および従来法1~3によって雑音残響抑圧した信号の音声品質の評価結果を例示する。「Sim」はSim Dataを表し、「Real」はReal Dataを表す。「CD」はケプストラム歪、「SRMR」は信号対残響変調エネルギー比、「LLR」は対数尤度比、「FWSSNR」は周波数重み付きセグメンタル信号対雑音比を表す。CDとLLRは値が小さいほど音声品質がよいことを表し、SRMRとFWSSNRは値が大きいほど音声品質がよいことを表している。下線を付した値は最良値である。図12に例示するように、本発明により、従来法1~3に比べて雑音と残響とを十分に抑圧できていることが分かる。
 図13に、観測信号ならびに本発明および従来法1~3によって雑音残響抑圧した信号の音声認識結果における単語誤り率を例示する。値が小さいほど音声認識精度が高いことを表している。下線を付した値は最良値である。「R1N」は部屋1で話者がマイクロホンから近い位置に存在した場合を表し、「R1F」は部屋1で話者がマイクロホンから遠い位置に存在した場合を表す。同様に、「R2N」「R3N」はそれぞれ部屋2,3で話者がマイクロホンから近い位置に存在した場合を表し、「R2F」「R3F」はそれぞれ部屋2,3で話者がマイクロホンから遠い位置に存在した場合を表す。「Ave」は平均値を表す。図12に例示するように、本発明により、従来法1~3に比べて雑音と残響とを十分に抑圧できていることが分かる。
 [実験結果2(第4実施形態)]
 図14に、周波数別観測信号xf,tの残響を抑圧することなくステアリングベクトルを推定した場合(残響抑圧なしの場合)と、第4実施形態で説明したように周波数別観測信号xf,tの残響を抑圧してからステアリングベクトルを推定した場合(残響抑圧ありの場合)とでの雑音残響抑圧結果を例示する。なお「WER」は、雑音残響抑圧を行って得られた目的信号で音声認識を行った場合の文字誤り率を表す。WERの値が小さいほど高性能である。図14に例示するように、残響抑圧ありの場合の方が残響抑圧なしの場合よりも目的信号の音声品質がよいことが分かる。
 [実験結果3(第7,9実施形態)]
 図15A,図15B,図15Cに、第7実施形態および第9実施形態で説明したように畳み込みビームフォーマの推定を逐次処理で実行した場合の雑音残響抑圧結果を例示する。図15A,図15B,図15CではL=64[msec」、α=0.9999、β=0.66とした。また「Adaptive NCM」は第5実施形態の方法で生成された推定ステアリングベクトルνf,tを用いた場合の結果を表す。また「PreFixed NCM」は第5実施形態の変形例1の方法で生成された推定ステアリングベクトルνf,tを用いた場合の結果を表す。また「観測信号」とは何ら雑音残響抑圧を行っていない場合の結果を表す。これらより、第7,9実施形態の雑音残響抑圧によって目的信号の音声品質が向上していることが分かる。
 [その他の変形例等]
 なお、本発明は上述の実施形態に限定されるものではない。例えば、上述の実施形態ではすべての周波数帯域に対してdを同一値としたが、周波数帯域ごとにdが設定されてもよい。すなわちdに変えて正整数dが用いられてもよい。同様に、上述の実施形態ではすべての周波数帯域に対してLを同一値としたが、周波数帯域ごとにLが設定されてもよい。すなわちLに変えて正整数Lが用いられてもよい。
 上述の第1~3実施形態では、1≦t≦Nに対応する時間フレームを処理単位としてコスト関数等(式(2)(7)(12)(13)(14)(18))を定めてバッチ処理する例を示したが、本発明はこれに限定されない。例えば、1≦t≦Nに対応する時間フレームを処理単位とするのではなく、その一部の時間フレームを処理単位として各処理が実行されてもよい。あるいは、リアルタイムで処理単位となる時間フレームを更新し、各時刻の処理単位ごとにコスト関数等を定めて各処理を実行してもよい。例えば、現在の時間フレームの番号をtと表現する場合、1≦t≦tに対応する時間フレームを処理単位としてもよいし、正整数の定数ηに対してt-η≦t≦tに対応する時間フレームを処理単位としてもよい。
 上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
 上記の各装置は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
 上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
 このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
 コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されるのではなく、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。
 本発明は、音響信号から雑音と残響とを抑圧することが必要な様々な用途に利用できる。例えば、音声認識、通話システム、電話会議システム等に本発明を利用できる。
1~9 信号処理装置
11,21,71,81,91 推定部
12,22 抑圧部

Claims (14)

  1.  目的の音源から発せられた音響信号を集音して得られた観測信号の複数の周波数帯域のそれぞれに対応する周波数別観測信号に、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算する畳み込みビームフォーマを適用して得られる推定信号が、所定の確率モデルに基づく前記推定信号の音声らしさを表す確率を大きくするように、前記畳み込みビームフォーマを得る推定部と、
     前記推定部で得られた前記畳み込みビームフォーマを前記周波数別観測信号に適用して目的信号を得る抑圧部と、
    を有する信号処理装置。
  2.  請求項1の信号処理装置であって、
     前記推定部は、前記確率モデルに基づく前記推定信号の音声らしさを表す確率を最大化する前記畳み込みビームフォーマを得る、信号処理装置。
  3.  請求項1または2の信号処理装置であって、
     前記推定部は、前記目的信号を、前記目的の音源から発せられてマイクロホンで集音される音に対応する信号のうち直接音と初期反射音に対応する信号として、前記周波数別観測信号に前記畳み込みビームフォーマを適用した結果前記目的信号が歪まないという拘束条件のもとで、所定の時間区間に属する各時刻での前記推定信号のパワーを、前記目的信号のパワーの逆数または前記目的信号の推定パワーの逆数で重み付けして得られる値の総和を最小化する前記畳み込みビームフォーマを得る、信号処理装置。
  4.  請求項3の信号処理装置であって、
     前記畳み込みビームフォーマは、前記周波数別観測信号から残響を抑圧する残響抑圧フィルタと、前記周波数別観測信号に前記残響抑圧フィルタを適用して得られる信号から雑音を抑圧する瞬時ビームフォーマとを合成して得られるビームフォーマと等価であり、
     前記瞬時ビームフォーマは、各時刻において、現在の時刻の信号の重み付き和を計算するものであり、
     前記拘束条件は、前記音源から前記音響信号の集音位置までの直接音および初期反射音に関する伝達関数を要素とするステアリングベクトルまたは前記ステアリングベクトルの推定ベクトルである推定ステアリングベクトルに前記瞬時ビームフォーマを適用して得られる値が定数であるという条件である、信号処理装置。
  5.  請求項4の信号処理装置であって、
     前記推定部は、
     前記周波数別観測信号と前記目的信号のパワーまたは推定パワーとに基づき、重み付き時空間共分散行列を得る行列推定部と、
     前記重み付き時空間共分散行列と前記ステアリングベクトルまたは前記推定ステアリングベクトルとに基づき、前記畳み込みビームフォーマを得る畳み込みビームフォーマ推定部と、を含む、信号処理装置。
  6.  請求項4または請求項5の信号処理装置であって、
     前記周波数別観測信号から残響成分を抑圧した周波数別残響抑圧信号を得る残響抑圧部と、
     前記周波数別残響抑圧信号から前記推定ステアリングベクトルを得て出力するステアリングベクトル推定部と、
    をさらに有する信号処理装置。
  7.  請求項6の信号処理装置であって、
     前記周波数別残響抑圧信号は時系列信号であり、
     第1時間区間に属する前記周波数別残響抑圧信号、および前記第1時間区間よりも過去の第2時間区間に属する前記周波数別残響抑圧信号の空間共分散行列に基づく、前記第1時間区間に属する前記周波数別残響抑圧信号の空間共分散行列を得る観測信号共分散行列更新部と、
     前記周波数別残響抑圧信号の雑音共分散行列の逆行列、前記第1時間区間に属する前記周波数別残響抑圧信号の空間共分散行列、および前記第2時間区間の主成分ベクトルに基づき、前記周波数別残響抑圧信号の雑音共分散行列の逆行列と、前記第1時間区間に属する前記周波数別残響抑圧信号の空間共分散行列と、の積に対する前記第1時間区間の主成分ベクトルを得る主成分ベクトル更新部と、
    をさらに有し、
     前記ステアリングベクトル推定部は、前記周波数別残響抑圧信号の雑音共分散行列と前記第1時間区間の主成分ベクトルとに基づき、前記第1時間区間の前記推定ステアリングベクトルを得て出力する、信号処理装置。
  8.  請求項4の信号処理装置であって、
     前記周波数別観測信号は時系列信号であり、
     第1時間区間に属する前記周波数別観測信号、および前記第1時間区間よりも過去の第2時間区間に属する前記周波数別観測信号の空間共分散行列に基づく、前記第1時間区間に属する前記周波数別観測信号の空間共分散行列を得る観測信号共分散行列更新部と、
     前記周波数別観測信号の雑音共分散行列の逆行列、前記第1時間区間に属する前記周波数別観測信号の空間共分散行列、および前記第2時間区間の主成分ベクトルに基づき、前記周波数別観測信号の雑音共分散行列の逆行列と、前記第1時間区間に属する前記周波数別観測信号の空間共分散行列と、の積に対する前記第1時間区間の主成分ベクトルを得る主成分ベクトル更新部と、
     前記第1時間区間の主成分ベクトルと前記周波数別観測信号の雑音共分散行列とに基づき、前記第1時間区間の前記推定ステアリングベクトルを得て出力するステアリングベクトル推定部と、
    を有する信号処理装置。
  9.  請求項7または8の信号処理装置であって、
     前記推定部は、
     前記周波数別観測信号、および前記目的信号のパワーまたは推定パワー、ならびに前記第1時間区間よりも過去の第2時間区間の時空間共分散行列の逆行列に基づき、前記第1時間区間の時空間共分散行列の逆行列を推定する行列推定部と、
     前記第1時間区間の前記時空間共分散行列の逆行列および前記推定ステアリングベクトルに基づき、前記第1時間区間の前記畳み込みビームフォーマを得る畳み込みビームフォーマ推定部と、を含む、信号処理装置。
  10.  請求項4、6から8の何れかの信号処理装置であって、
     前記推定部は、
     前記瞬時ビームフォーマを、前記ステアリングベクトルの定数倍または前記推定ステアリングベクトルの定数倍と、前記ステアリングベクトルまたは前記推定ステアリングベクトルの直交補空間に対応するブロック行列と変形瞬時ビームフォーマとの積と、の和で表記したときに、前記第1時間区間の周波数別観測信号に前記ブロック行列を乗じた結果得られる信号を要素に持つことを特徴とする、前記ステアリングベクトルまたは前記推定ステアリングベクトル、前記周波数別観測信号、および前記目的信号のパワーまたは推定パワー基づく、重み付き変形時空間共分散行列を得る行列推定部と、
     前記ステアリングベクトルまたは前記推定ステアリングベクトル、前記重み付き変形時空間共分散行列、および前記周波数別観測信号に基づく、前記畳み込みビームフォーマを得る畳み込みビームフォーマ推定部と、を含む、
    信号処理装置。
  11.  請求項7または8の信号処理装置であって、
     前記瞬時ビームフォーマは、前記推定ステアリングベクトルの定数倍と、前記推定ステアリングベクトルの直交補空間に対応するブロック行列と変形瞬時ビームフォーマとの積と、の和と等価であり、
     前記推定部は、
     前記第1時間区間の前記推定ステアリングベクトル、および前記第1時間区間に属する前記周波数別観測信号に基づく、前記第1時間区間の初期ビームフォーマ出力を得る初期ビームフォーマ適用部と、
     前記第1時間区間の初期ビームフォーマ出力、前記第1時間区間の前記推定ステアリングベクトル、および前記周波数別観測信号、ならびに前記第1時間区間よりも過去の第2時間区間の前記畳み込みビームフォーマに基づく、前記第1時間区間の前記目的信号を得る前記抑圧部と、
     前記第2時間区間の重み付き変形時空間共分散行列の逆行列、ならびに前記第1時間区間の前記推定ステアリングベクトル、前記周波数別観測信号、および前記目的信号のパワーまたは推定パワーに基づく、前記第1時間区間の適応ゲインを得る適応ゲイン推定部と、
     前記第1時間区間の適応ゲイン、前記第1時間区間の前記推定ステアリングベクトル、および前記周波数別観測信号、ならびに前記第2時間区間の重み付き変形時空間共分散行列の逆行列に基づく、前記第1時間区間の重み付き変形時空間共分散行列の逆行列を得る行列推定部と、
     前記第1時間区間の適応ゲイン、前記第1時間区間の前記目的信号、および前記第2時間区間の前記畳み込みビームフォーマに基づく、前記第1時間区間の畳み込みビームフォーマを得る前記畳み込みビームフォーマ推定部と、
    を含む、信号処理装置。
  12.  請求項1から11の何れかの信号処理装置であって、
     前記観測信号は、雑音および残響が存在する環境下で前記音源から発せられた前記音響信号を集音して得られた信号である、信号処理装置。
  13.  目的の音源から発せられた音響信号を集音して得られた観測信号の複数の周波数帯域のそれぞれに対応する周波数別観測信号に、各時刻において現在の信号と所定の遅延を持つ過去の信号列との重み付き和を計算する畳み込みビームフォーマを適用して得られる推定信号が、所定の確率モデルに基づく前記推定信号の音声らしさを表す確率を大きくするように、前記畳み込みビームフォーマを得る推定ステップと、
     前記推定部で得られた前記畳み込みビームフォーマを前記周波数別観測信号に適用して目的信号を得る抑圧ステップと、
    を有する信号処理方法。
  14.  請求項1から12の何れかの信号処理装置としてコンピュータを機能させるためのプログラム。
PCT/JP2019/016587 2018-12-14 2019-04-18 信号処理装置、信号処理方法、およびプログラム WO2020121545A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/312,912 US11894010B2 (en) 2018-12-14 2019-07-31 Signal processing apparatus, signal processing method, and program
PCT/JP2019/029921 WO2020121590A1 (ja) 2018-12-14 2019-07-31 信号処理装置、信号処理方法、およびプログラム
JP2020559702A JP7115562B2 (ja) 2018-12-14 2019-07-31 信号処理装置、信号処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018234075 2018-12-14
JP2018-234075 2018-12-14

Publications (1)

Publication Number Publication Date
WO2020121545A1 true WO2020121545A1 (ja) 2020-06-18

Family

ID=71076328

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2019/016587 WO2020121545A1 (ja) 2018-12-14 2019-04-18 信号処理装置、信号処理方法、およびプログラム
PCT/JP2019/029921 WO2020121590A1 (ja) 2018-12-14 2019-07-31 信号処理装置、信号処理方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/029921 WO2020121590A1 (ja) 2018-12-14 2019-07-31 信号処理装置、信号処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11894010B2 (ja)
JP (1) JP7115562B2 (ja)
WO (2) WO2020121545A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111933170A (zh) * 2020-07-20 2020-11-13 歌尔科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN112802490A (zh) * 2021-03-11 2021-05-14 北京声加科技有限公司 一种基于传声器阵列的波束形成方法和装置
WO2024038522A1 (ja) * 2022-08-17 2024-02-22 日本電信電話株式会社 信号処理装置、信号処理方法、プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7430127B2 (ja) 2020-09-02 2024-02-09 三菱重工業株式会社 予測装置、予測方法、及びプログラム
US20230370778A1 (en) 2020-10-15 2023-11-16 Nippon Telegraph And Telephone Corporation Acoustic signal enhancement apparatus, method and program
US11798533B2 (en) * 2021-04-02 2023-10-24 Google Llc Context aware beamforming of audio data
WO2023276068A1 (ja) * 2021-06-30 2023-01-05 日本電信電話株式会社 音響信号強調装置、音響信号強調方法、プログラム
CN113707136B (zh) * 2021-10-28 2021-12-31 南京南大电子智慧型服务机器人研究院有限公司 服务型机器人语音交互的音视频混合语音前端处理方法
CN115086836B (zh) * 2022-06-14 2023-04-18 西北工业大学 一种波束形成方法、系统及波束形成器
CN117292700A (zh) * 2022-06-20 2023-12-26 青岛海尔科技有限公司 分布式唤醒的语音增强方法和装置、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007093630A (ja) * 2005-09-05 2007-04-12 Advanced Telecommunication Research Institute International 音声強調装置
JP2008219884A (ja) * 2007-03-02 2008-09-18 Honda Motor Co Ltd 移動音源からの音の抽出方法および装置
JP2010028653A (ja) * 2008-07-23 2010-02-04 Nippon Telegr & Teleph Corp <Ntt> エコー消去装置、エコー消去方法、そのプログラム、記録媒体
US20100215184A1 (en) * 2009-02-23 2010-08-26 Nuance Communications, Inc. Method for Determining a Set of Filter Coefficients for an Acoustic Echo Compensator
US8666090B1 (en) * 2013-02-26 2014-03-04 Full Code Audio LLC Microphone modeling system and method
US10090000B1 (en) * 2017-11-01 2018-10-02 GM Global Technology Operations LLC Efficient echo cancellation using transfer function estimation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3685380A (en) * 1971-02-19 1972-08-22 Amada Ltd Us Multi-track turret and overload protection
JP3484112B2 (ja) 1999-09-27 2004-01-06 株式会社東芝 雑音成分抑圧処理装置および雑音成分抑圧処理方法
EP2013869B1 (en) * 2006-05-01 2017-12-13 Nippon Telegraph And Telephone Corporation Method and apparatus for speech dereverberation based on probabilistic models of source and room acoustics
CN102084667B (zh) 2008-03-03 2014-01-29 日本电信电话株式会社 回响去除装置、回响去除方法、回响去除程序、以及记录介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007093630A (ja) * 2005-09-05 2007-04-12 Advanced Telecommunication Research Institute International 音声強調装置
JP2008219884A (ja) * 2007-03-02 2008-09-18 Honda Motor Co Ltd 移動音源からの音の抽出方法および装置
JP2010028653A (ja) * 2008-07-23 2010-02-04 Nippon Telegr & Teleph Corp <Ntt> エコー消去装置、エコー消去方法、そのプログラム、記録媒体
US20100215184A1 (en) * 2009-02-23 2010-08-26 Nuance Communications, Inc. Method for Determining a Set of Filter Coefficients for an Acoustic Echo Compensator
US8666090B1 (en) * 2013-02-26 2014-03-04 Full Code Audio LLC Microphone modeling system and method
US10090000B1 (en) * 2017-11-01 2018-10-02 GM Global Technology Operations LLC Efficient echo cancellation using transfer function estimation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111933170A (zh) * 2020-07-20 2020-11-13 歌尔科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN111933170B (zh) * 2020-07-20 2024-03-29 歌尔科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN112802490A (zh) * 2021-03-11 2021-05-14 北京声加科技有限公司 一种基于传声器阵列的波束形成方法和装置
CN112802490B (zh) * 2021-03-11 2023-08-18 北京声加科技有限公司 一种基于传声器阵列的波束形成方法和装置
WO2024038522A1 (ja) * 2022-08-17 2024-02-22 日本電信電話株式会社 信号処理装置、信号処理方法、プログラム

Also Published As

Publication number Publication date
US11894010B2 (en) 2024-02-06
WO2020121590A1 (ja) 2020-06-18
JPWO2020121590A1 (ja) 2021-10-14
US20220068288A1 (en) 2022-03-03
JP7115562B2 (ja) 2022-08-09

Similar Documents

Publication Publication Date Title
WO2020121545A1 (ja) 信号処理装置、信号処理方法、およびプログラム
CN110100457B (zh) 基于噪声时变环境的加权预测误差的在线去混响算法
CN107993670B (zh) 基于统计模型的麦克风阵列语音增强方法
US8848933B2 (en) Signal enhancement device, method thereof, program, and recording medium
CN108172231B (zh) 一种基于卡尔曼滤波的去混响方法及系统
JP4195267B2 (ja) 音声認識装置、その音声認識方法及びプログラム
JP5227393B2 (ja) 残響除去装置、残響除去方法、残響除去プログラム、および記録媒体
CN112447191A (zh) 信号处理装置以及信号处理方法
Schwartz et al. An expectation-maximization algorithm for multimicrophone speech dereverberation and noise reduction with coherence matrix estimation
JP6987075B2 (ja) オーディオ源分離
JP6225245B2 (ja) 信号処理装置、方法及びプログラム
CN112735460B (zh) 基于时频掩蔽值估计的波束成形方法及系统
Nakatani et al. Maximum likelihood convolutional beamformer for simultaneous denoising and dereverberation
KR102410850B1 (ko) 잔향 제거 오토 인코더를 이용한 잔향 환경 임베딩 추출 방법 및 장치
JP6748304B2 (ja) ニューラルネットワークを用いた信号処理装置、ニューラルネットワークを用いた信号処理方法及び信号処理プログラム
Doclo et al. Multimicrophone noise reduction using recursive GSVD-based optimal filtering with ANC postprocessing stage
Carbajal et al. Joint NN-supported multichannel reduction of acoustic echo, reverberation and noise
Ikeshita et al. Blind signal dereverberation based on mixture of weighted prediction error models
JP6106611B2 (ja) モデル推定装置、雑音抑圧装置、音声強調装置、これらの方法及びプログラム
KR101802444B1 (ko) 독립 벡터 분석 및 반향 필터 재추정을 이용한 베이시안 특징 향상에 의한 강인한 음성 인식 장치 및 방법
Yoshioka et al. Dereverberation by using time-variant nature of speech production system
CN114242104A (zh) 语音降噪的方法、装置、设备及存储介质
Nakatani et al. Simultaneous denoising, dereverberation, and source separation using a unified convolutional beamformer
CN109074811B (zh) 音频源分离
Inoue et al. Sepnet: a deep separation matrix prediction network for multichannel audio source separation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19894556

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19894556

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP