WO2005048239A1 - 音声認識装置 - Google Patents

音声認識装置 Download PDF

Info

Publication number
WO2005048239A1
WO2005048239A1 PCT/JP2004/016883 JP2004016883W WO2005048239A1 WO 2005048239 A1 WO2005048239 A1 WO 2005048239A1 JP 2004016883 W JP2004016883 W JP 2004016883W WO 2005048239 A1 WO2005048239 A1 WO 2005048239A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound source
unit
acoustic model
sound
acoustic
Prior art date
Application number
PCT/JP2004/016883
Other languages
English (en)
French (fr)
Inventor
Kazuhiro Nakadai
Hiroshi Tsujino
Hiroshi Okuno
Shunichi Yamamoto
Original Assignee
Honda Motor Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co., Ltd. filed Critical Honda Motor Co., Ltd.
Priority to DE602004021716T priority Critical patent/DE602004021716D1/de
Priority to JP2005515466A priority patent/JP4516527B2/ja
Priority to US10/579,235 priority patent/US20090018828A1/en
Priority to EP04818533A priority patent/EP1691344B1/en
Publication of WO2005048239A1 publication Critical patent/WO2005048239A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Definitions

  • the present invention relates to a speech recognition device, and more particularly, to a speech recognition device capable of recognizing speech with high accuracy even when a speaker or a moving object equipped with the speech recognition device moves.
  • Non-Patent Document 1 a technique for performing localization 'separation' recognition of a plurality of sound sources by active audition.
  • two microphones are placed at positions corresponding to human ears, and when multiple speakers speak at the same time, a single spoken word is recognized.
  • the position of the speaker is localized from the audio signals input from the two microphones, and the voice of each speaker is separated, and then the voice is recognized.
  • an acoustic model of each speaker in every 10 ° direction up to 90 ° power and 90 ° as seen from the moving object (a robot equipped with a voice recognition device) is created in advance. deep. Then, at the time of speech recognition, the recognition process is executed in parallel using these acoustic models.
  • Non-Patent Document 1 A Humanoid Listens to three simultaneous talkers by Integrating Active Audition and Face Recognition "Kazuhiro Nakadai, et al., IJCAI— 03
  • the present invention has been made in view of such a background, and it is an object of the present invention to provide a speech recognition device capable of recognizing with high accuracy even if a speaker or a moving body moves.
  • a voice recognition device of the present invention is a voice recognition device that recognizes voice from sound signals detected by a plurality of microphones and converts the voice into character information.
  • a sound source localization unit that specifies the sound source direction of the specific speaker based on the detected sound signal, and a sound signal included in the sound signal based on one or more sound signals detected by the plurality of microphones.
  • a feature extraction unit that extracts features, an acoustic model storage unit that stores direction-dependent acoustic models corresponding to a plurality of intermittent directions, and an acoustic model of a sound source direction identified by the sound source localization unit.
  • An acoustic model synthesis unit that synthesizes based on the direction-dependent acoustic model and stores the acoustic model in the acoustic model storage unit, and a feature extracted by the feature extraction unit using the acoustic model synthesized by the acoustic model synthesis unit.
  • the sound source localization unit specifies the sound source direction
  • the acoustic model synthesis unit determines an acoustic model suitable for the direction based on the sound source direction and the direction-dependent acoustic model.
  • the speech model is synthesized, and the speech recognition unit performs speech recognition using the acoustic model.
  • the above-described speech recognition device includes a sound source separation unit that separates the sound signal of the specific speaker from the acoustic signal based on the sound source direction specified by the sound source localization unit.
  • the feature extraction unit may be configured to extract the features of the audio signal based on the audio signal separated by the sound source separation unit.
  • the sound source localization unit specifies the sound source direction
  • the sound source separation unit separates only the sound in the sound source direction specified by the sound source localization unit.
  • the acoustic model synthesis unit synthesizes an acoustic model suitable for the direction based on the sound source direction and the direction-dependent acoustic model, and the speech recognition unit performs speech recognition using the acoustic model.
  • the audio signal output by the sound source separation unit is not limited to the analog audio signal itself as long as it has information meaningful as audio, but may also be a digitized or encoded signal or data of a frequency-analyzed spectrum. including.
  • the sound source localization unit frequency-analyzes the sound signal detected by the microphone, extracts a harmonic structure, and extracts the harmonic structure extracted from the plurality of microphones.
  • the sound pressure difference and the phase difference are obtained, the likelihood of the sound source direction is obtained from each of the sound pressure difference and the phase difference, and the direction with the highest accuracy is determined as the sound source direction.
  • the sound source localization unit uses a sound pressure difference and a phase difference of sound signals detected from the plurality of microphones to specify a sound source direction of the specific speaker. It is possible to use a scattering theory in which acoustic signals scattered on the surface of the member provided with the microphone are modeled for each sound source direction.
  • the sound source separation unit may include a narrow directional band when the sound source direction specified by the sound source localization unit is close to the front determined by the arrangement of the plurality of microphones.
  • the sound separation is performed by using an active direction pass filter that separates the sound and separates the sound in a wide directional band when the front force is separated.
  • the acoustic model synthesis unit is configured to synthesize the acoustic model in the sound source direction by a weighted linear sum of the direction-dependent acoustic models of the acoustic model storage unit.
  • the weights used for the linear sum are determined by learning.
  • the above-described speech recognition device further includes a speaker identification unit that specifies the speaker, wherein the acoustic model storage unit has a direction-dependent acoustic model for each of the speakers,
  • a model synthesis unit configured to store the sound model of the sound source direction in the sound model storage unit based on the direction-dependent sound model of the speaker specified by the speaker identification unit and the sound source direction specified by the sound source localization unit; It is preferable that the sound model is determined based on the dependent sound model and stored in the sound model storage unit.
  • the feature extracted by the feature extraction unit or the audio signal separated by the sound source separation unit is compared with a template prepared in advance, and an area where the difference from the template is larger than a preset threshold value, for example, It is preferable to further include a masking word for identifying a frequency domain or a subband, and outputting an index indicating low reliability as a feature of the identified area to the speech recognition unit.
  • Another voice recognition device of the present invention is a voice recognition device that recognizes a specific speaker's voice from sound signals detected by a plurality of microphones and converts the voice into character information.
  • a sound source localization unit that specifies the sound source direction of the specific speaker based on the acoustic signal detected by the microphone, and stores the sound source direction specified by the sound source localization unit to move the specific speaker.
  • a stream tracking unit that estimates the current speaker position from the estimated direction, and the current speaker position force estimated by the stream tracking unit.
  • a sound source separation unit for separating a speaker's voice signal from the sound signal; a feature extraction unit for extracting characteristics of the sound signal separated by the sound source separation unit; and a direction-dependent sound model corresponding to a plurality of intermittent directions.
  • Acoustic model storage unit A sound model synthesis unit that synthesizes an acoustic model of the sound source direction specified by the sound source localization unit based on the direction-dependent acoustic model in the acoustic model storage unit, and stores the synthesized acoustic model in the acoustic model storage unit;
  • a voice recognition unit that performs voice recognition on the feature extracted by the feature extraction unit using the acoustic model synthesized by the model synthesis unit and converts the feature into character information.
  • the sound source direction of an acoustic signal emitted from an arbitrary direction is specified, and speech recognition is performed using an acoustic model suitable for the sound source direction.
  • FIG. 1 is a block diagram of a speech recognition device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an example of a sound source localization unit.
  • FIG. 3 is a diagram illustrating the operation of a sound source localization unit.
  • FIG. 4 is a diagram illustrating the operation of a sound source localization unit.
  • FIG. 5 is a diagram for describing auditory epipolar geometry.
  • FIG. 6 is a graph showing a relationship between a phase difference ⁇ and a frequency f.
  • FIG. 7 is a graph showing an example of a head-related transfer function.
  • FIG. 8 is a block diagram illustrating an example of a sound source separation unit.
  • FIG. 9 is a graph showing an example of a passband function.
  • FIG. 10 is a diagram for explaining the operation of a subband selection unit.
  • FIG. 11 is a plan view illustrating an example of a pass band.
  • FIG. 12 (a) and (b) are block diagrams each showing an example of a feature extraction unit.
  • FIG. 13 is a block diagram illustrating an example of an acoustic model synthesis unit.
  • FIG. 14 is a diagram showing recognition units and submodels of a direction-dependent acoustic model.
  • FIG. 15 is a diagram illustrating the operation of a parameter synthesizing unit.
  • FIG. 16] (a) and (b) are graphs each showing an example of the weight W.
  • FIG. 17 is a diagram illustrating a learning method of weight W.
  • FIG. 18 is a block diagram of a speech recognition device according to a second embodiment.
  • FIG. 20 is a block diagram of a speech recognition device according to a third embodiment.
  • FIG. 21 is a block diagram of a stream tracking unit.
  • FIG. 22 is a graph illustrating a history of sound source directions.
  • FIG. 1 is a block diagram of a speech recognition device according to an embodiment of the present invention.
  • the speech recognition device 1 includes two microphones M 1 and M 2
  • the sound source localization unit 10 that identifies the position of the speaker (sound source) from the acoustic signals detected by the R
  • a sound source separation unit 20 for separating sound coming from a sound source in a specific direction an acoustic model storage unit 49 storing a plurality of acoustic models in a plurality of directions, an acoustic model and a sound source in the acoustic model storage unit 49.
  • an acoustic model synthesis unit 40 that synthesizes an acoustic model of the sound source direction, and a feature that extracts the characteristics of the spectral color of the specific sound source separated by the sound source separation unit 20
  • the audio processing apparatus includes an extraction unit 30, an acoustic model synthesized by the acoustic model synthesis unit 40, and a speech recognition unit 50 that performs speech recognition based on the acoustic features extracted by the feature extraction unit 30.
  • the sound source separation unit 20 is optionally used.
  • the speech recognition unit 50 performs speech recognition using the acoustic model generated by the acoustic model synthesis unit 40 and suitable for the direction of the sound source, so that a high recognition rate is realized.
  • microphones M 1 and M 2 which are components of the speech recognition device 1 according to the embodiment, and sound source localization
  • the R-segmentation unit 10 the sound source separation unit 20, the feature extraction unit 30, the acoustic model synthesis unit 40, and the speech recognition unit 50 will be described respectively.
  • R is a general microphone that detects sound and outputs it as an electrical signal (acoustic signal).
  • any two or more forces may be used.
  • three or four forces may be used.
  • the microphones M 1 and M 2 are, for example, a robot RB
  • the arrangement of the microphones M and M is a general voice recognition device 1 for collecting sound signals.
  • FIG. 2 is a block diagram illustrating an example of the sound source localization unit
  • FIGS. 3 and 4 are diagrams illustrating the operation of the sound source localization unit.
  • the sound source localization unit 10 divides each sound from two acoustic signals to which two microphones M and M power are also input.
  • Sound source localization method is microphone A method that uses the phase difference between acoustic signals input to M and M,
  • the sound source localization unit 10 includes a frequency analysis unit 11, a peak extraction unit 12, a harmonic structure extraction unit 13, an IPD calculation unit 14, an IID calculation unit 15, and auditory epipolar geometric hypothesis data 16. , A confidence calculation unit 17 and a confidence integration unit 18.
  • the frequency analysis unit 11 detects the left and right microphones M,
  • the analysis result obtained from the sound signal CR1 of the right microphone M power is the spectrum CR2.
  • the analysis result obtained from the acoustic signal CL1 of the left microphone M power is the spectrum CL2.
  • the peak extracting unit 12 extracts a series of peaks from the spectra CR2 and CL2 for each of the left and right channels.
  • the peak is extracted by extracting the local peak of the spectrum as it is or by a method based on the spectral subtraction method (S.F.Boll, A spectral subtraction algorithm for suppression of acoustic noise in speech, Proceedings of 1979).
  • the harmonic structure extraction unit 13 groups the peaks having the specific harmonic structure for each of the left and right channels based on the harmonic structure of the sound source. For example, in the case of a human voice, a specific human voice is composed of a sound of a fundamental frequency and a harmonic of the fundamental frequency. People's voices can be grouped. Peaks divided into the same group based on the harmonic structure can be estimated as signals emitted from the same sound source. For example, if multiple CF speakers) are speaking simultaneously, multiple CF harmonic structures are extracted.
  • peaks PI3, P3, and P5 of the peak spectra CR3 and CL3 are grouped into one group to form harmonic structures CR41 and CL41, and the peaks P2, P4, and P6 are grouped into one group.
  • the IPD calculation unit 14 calculates the harmonic structure CR41, CR42, CL41 extracted by the harmonic structure extraction unit 13.
  • the IPD calculation unit 14 calculates the set of peak frequencies included in the harmonic structure (for example, the harmonic structure CR41) corresponding to the speaker HMj as (f
  • the vector subbands are also selected for both the right and left channel (eg, harmonic structure CR41 and harmonic structure CL41) forces, and IPD A ⁇ ( ⁇ ) is calculated by the following equation (1).
  • the IPD A ⁇ ( ⁇ ) calculated from the structure CL41 is, for example, the same as the binaural phase difference C51 shown in FIG.
  • ⁇ ⁇ (f) is the IPD of a certain harmonic f included in a certain harmonic structure
  • K is the K
  • the IID calculation unit 15 receives the input from the left microphone M for each harmonic in each harmonic structure.
  • the IID calculation unit 15 calculates the subbands of the spectrum corresponding to the harmonics of the peak frequency f included in the harmonic structure (for example, the harmonic structures CR41 and CL41) corresponding to the speaker HMj by right and k
  • P (f) is, for example, a binaural sound pressure difference C61 shown in FIG.
  • the auditory epipolar geometric hypothesis data 16 shows the distance between the sound source S and the microphones M and M of both ears of the robot RB when the sphere assuming the head of the robot RB is viewed from above.
  • the phase difference ⁇ is obtained by the following equation (3).
  • the head shape is a sphere!
  • is the interaural phase difference (IPD)
  • V is the speed of sound
  • f is the frequency
  • r is a value obtained from the distance 2r between the two ears
  • indicates the sound source direction.
  • Equation (3) the relationship between the frequency f of the acoustic signal emitted from each sound source direction and the phase difference ⁇ Is as shown in Figure 6.
  • the certainty factor calculator 17 calculates each certainty factor of the IPD and the IID.
  • the confidence factor of the IPD is calculated as a function of ⁇ by determining whether the harmonic f included in the harmonic structure (for example, the harmonic structure CR41, CL4 1) corresponding to the speaker HMj seems to have any directional force, and
  • the IPD hypothesis (expected value) of f is calculated based on the following equation (4).
  • ⁇ ( ⁇ , f) is I h k k when the sound source direction is ⁇ ⁇ ⁇ ⁇ with respect to the kth harmonic f in a certain harmonic structure.
  • the PD hypothesis (expected value) is shown.
  • the sound source direction ⁇ is changed every 5 ° within a range of ⁇ 90 °, and a total of 37 hypotheses are calculated. However, it does not matter whether the calculation is performed for each finer angle or for each larger angle.
  • X (0) (d ( ⁇ ) —m) / ⁇ (s / n)), where m is the average of d ( ⁇ ), s is the variance of d ( ⁇ ), and n is the IPD This is the number of hypotheses (37 in this embodiment).
  • IID certainty factor The IID confidence is obtained as follows. First, the sum of the sound pressure differences of the harmonics included in the harmonic structure corresponding to the speaker HMj is calculated by the following equation (7).
  • K indicates the number of harmonics included in the harmonic structure
  • ⁇ p (f) is the IID obtained by the IID calculation unit 15 .
  • Table 1 shows the values obtained experimentally.
  • the reliability B ( ⁇ ) is 0.35 with reference to the upper left column.
  • the confidence integration unit 18 calculates the confidences B (B) of IPD and IID,
  • the direction of the sound source ⁇ ⁇ at which the confidence factor B ( ⁇ ) becomes the largest is defined as the direction in which the speaker HMj is located.
  • B IPD ( ⁇ ) 1-(1-B 1PD ( ⁇ ) ⁇ -B IID ( ⁇ ))
  • hypothesis data using the auditory epipolar geometry instead of the hypothesis using the auditory epipolar geometry as described above, hypothesis data using a head-related transfer function or hypothesis data based on the scattering theory can be used.
  • the head-related transfer function hypothesis data is a phase difference and a sound pressure difference between the sounds detected by the microphones ⁇ and ⁇ , which are obtained from an impulse emitted from a robot around the robot.
  • the head related transfer function hypothesis data is calculated at an appropriate interval (for example, 5 °) between 90 ° and 90 °.
  • the impulses emitted from the direction are detected by microphones M and M, and the
  • the obtained head related transfer function hypothesis data is as shown in IPD in FIG. 7 (a) and IID in (b).
  • IPD head related transfer function
  • the relationship between the frequency and the IID of the sound that also has a certain sound source direction force is obtained for IID, not only for IPD, but distance data d (() is created for both IPD and IID. Find confidence from.
  • the method of creating hypothesis data is the same for IPD and IID.
  • d ( ⁇ ) which is the distance between each hypothesis and the input, is directly calculated from the measured values shown in FIGS. 7 (a) and 7 (b).
  • Scattering theory is a theory that computes and estimates both IPD and IID, taking into account scattered waves from an object that scatters sound, for example, the head of a robot.
  • the object that mainly affects the microphone input among the objects that scatter sound is the robot's head, and this is assumed to be a sphere of radius a.
  • the coordinates of the center of the head are set as polar coordinates origins.
  • V s potential due to scattered sound
  • ⁇ 5 ( ⁇ , ⁇ ) arg (S, ( ⁇ , f))-arg (3 ⁇ 4 ( ⁇ , f)) (1 3)
  • IID also calculates d (0) and B ( ⁇ ) in the same manner as IPD. Specifically, let ⁇ ⁇ be ⁇ p,
  • the sound source direction and the phase difference, and the sound source direction are considered in consideration of the effects of the sound scattered along the surface of the robot head, for example, the sound circling around the back of the head. Since the relationship between the direction and the sound pressure difference can be modeled, the estimation accuracy of the sound source direction is improved. In particular, when the sound source is on the side, the power of the sound that goes around the occiput and reaches the microphone in the opposite direction to the sound source is relatively large. improves.
  • the sound source separation unit 20 separates the sound (voice) signal of each speaker HMj based on the information of each sound source direction localized by the sound source localization unit 10 and the spectrum (for example, spectrum CR2) calculated by the sound source localization unit. It is. Conventional methods such as beamforming, nullforming, peak tracking, directional microphones, and ICA (Independent Component Analysis) can be used as the sound source separation method. A description will be given of a method using the generated active direction pass filter.
  • the passband is actively controlled so that the sound source in the front direction narrows the range of the direction in which the sound passes, and the passband is actively controlled so that the sound source with a distant front force has a wide range.
  • the sound source separation section 20 includes a passband function 21 and a subband selection section 22.
  • the passband function 21 is a function of the sound source direction and the pass bandwidth.As the sound source direction moves away from the front (0 °), the accuracy of the direction information cannot be expected. Is a function set in advance so that the passband becomes larger as the front force increases.
  • the sub-band selection unit 22 is a unit that selects a sub-band that is presumed to have come from a specific direction based on the value of each frequency of the spectra CR2 and CL2 (this is referred to as “sub-band”). As shown in FIG. 10, the sub-band selection unit 22 calculates the spectrums CR2 and CL2 of the left and right input sounds generated by the sound source localization unit 10 and the sub-bands of each spectrum, using the above equations (1) and (2). , And calculate IPD A ⁇ ) (and 110 m / 0 (see 52, binaural phase difference 52, binaural sound pressure difference C62 in FIG. 10).
  • ⁇ obtained by the sound source localization unit 10 is set as the sound source direction to be extracted, and the passband function
  • the pass band B is illustrated in a plan view as a direction, for example, as shown in FIG.
  • the IPD and IID corresponding to ⁇ and ⁇ are estimated. For these estimations, measurement or
  • the transfer function is a function that associates the frequency f with the IPD and IID with respect to the signal coming from the sound source and uses the above-mentioned epipolar geometry, head-related transfer function, scattering theory, and the like.
  • the estimated IPD is, for example, ⁇ (f), ⁇ (f) in the interaural phase difference C53 in FIG. 10, and the estimated IID is, for example, the interaural sound pressure in FIG.
  • the spectrum CR2 is calculated using the transfer function of the robot RB.
  • the IPD indicates i i th
  • f is a threshold for determining whether to use IPD or IID as a filtering criterion.
  • the subband (shaded area) whose IID is between (f) and (f) in wavenumber is selected.
  • the spectrum consisting of the selected subbands is referred to herein as the "selected spectrum”.
  • the sound source separation unit 20 of the present embodiment has been described above.
  • a sound source separation method there is another method using a directional microphone. That is, a microphone having a narrow directivity is provided in the robot RB, and the directional microphone is directed in the direction of the sound source obtained by the sound source localization unit 10.
  • the feature extraction unit 30 extracts the speech from the speech spectrum separated by the sound source separation unit 20 or the unseparated spectrum CR2 (or CL2) (hereinafter referred to as “recognition studio” when used for speech recognition). This is a part for extracting features required for recognition.
  • a linear spectrum obtained by frequency-analyzing the voice a mel frequency spectrum, and a mel frequency cepstrum coefficient (MFCC) can be used. In the present embodiment, the case where the MFCC is used will be described.
  • the feature extraction unit 30 does not perform any processing. Also, the Mel frequency spectrum If used, do not perform cosine transform (described later).
  • the feature extraction unit 30 includes a logarithmic conversion unit 31, a mel frequency conversion unit 32, and a cosine conversion unit 33.
  • the logarithmic converter 31 converts the amplitude of the recognition spectrum selected by the subband selector 22 (see FIG. 8) into a logarithm to obtain a logarithmic spectrum.
  • the mel frequency conversion unit 32 passes the logarithmic spectrum generated by the logarithmic conversion unit 31 through a mel frequency bandpass filter to obtain a mel frequency logarithmic vector converted to a frequency force S mel scale.
  • the cosine transform unit 33 performs a cosine transform on the mel frequency logarithmic spectrum generated by the mel frequency transform unit 32.
  • the coefficient obtained by this cosine transform is the MFCC.
  • a masking unit that gives an index (0 force 1) as shown in FIG. 34 may optionally be added in or after the feature extractor 30.
  • the word dictionary 59 has a time-series spectrum of the word corresponding to the word.
  • this time-series spectrum is referred to as “word speech spectrum”.
  • the word speech spectrum is obtained by performing frequency analysis on the speech that uttered the word in a noisy environment.
  • the recognition spectrum is input to the feature extraction unit 30, the word speech spectrum of the word estimated to be included in the input speech is selected from the word dictionary as the assumed speech spectrum.
  • the one having the closest time to the recognition spectrum and the time length is estimated as the assumed speech spectrum.
  • the recognition spectrum and the assumed speech spectrum are converted to MFCC through a logarithmic converter 31, a mel frequency converter 32, and a cosine converter 33, respectively.
  • the MFCC of the recognition spectrum is referred to as “recognition MFCC”
  • the MFCC of the assumed speech spectrum is referred to as “assumed MFCCJ”.
  • the masking unit 34 calculates the difference between the MFCC for recognition and the assumed MFCC, and assigns 0 to each of the features of the feature vector of the MFCC if the difference is larger than the threshold value assumed in advance and 1 if the difference is smaller than the threshold. This is output as an index ⁇ to the speech recognition unit 50 together with the MFCC for recognition.
  • the assumed audio spectrum multiple selections may be made instead of only one.
  • All word speech spectra may be used without distinction. In that case, the index ⁇ is obtained for all the assumed speech spectra and output to the speech recognition unit 50.
  • the spectrum of the separated voice obtained from the directional microphone camera is analyzed using a general frequency analysis method such as an FFT or a band-pass filter. obtain.
  • the acoustic model synthesizing unit 40 is a unit that synthesizes an acoustic model corresponding to each localized sound source direction from the direction-dependent acoustic model stored in the acoustic model storage unit 49.
  • the acoustic model synthesis unit 40 includes a cosine inverse conversion unit 41, a linear conversion unit 42, an exponential conversion unit 43, a parameter synthesis unit 44, a logarithmic conversion unit 45, a mel frequency conversion unit 46, and a cosine It has a conversion unit 47, and synthesizes an acoustic model in the ⁇ direction with reference to the direction-dependent acoustic model ⁇ ) stored in the acoustic model storage unit 49.
  • the acoustic model storage unit 49 stores a direction-dependent acoustic model ⁇ ( ⁇ ), which is an acoustic model suitable for the direction ⁇ ⁇ , for each direction ⁇ ⁇ ⁇ with respect to the front of the robot RB.
  • the direction-dependent acoustic model ⁇ ( ⁇ ) is obtained by learning the features of a person's voice uttered in a specific direction 0 with a hidden Markov model ( ⁇ ).
  • each direction-dependent acoustic model ⁇ ( ⁇ ) uses, for example, a phoneme as a recognition unit and stores a submodel h (m, ⁇ ) corresponding to each phoneme.
  • the sub model may be created using another recognition unit such as a monophone, a PTM, a biphone, and a tri-on.
  • the submodel h (m, ⁇ ) has parameters of the number of states, probability density distribution of each state, and state transition probability.
  • the number of states of each phoneme is fixed to three: a front part (state 1), an intermediate part (state 2), and a rear part (state 3).
  • the probability density distribution is fixed to a normal distribution, but the probability density distribution may be a normal distribution or a mixture distribution of one or more other distributions. Therefore, in the present embodiment, the state transition probability P and the positive Train normal distribution parameters, that is, mean and standard deviation ⁇ .
  • the learning data of the sub model h (m, ⁇ ) is created as follows.
  • a voice signal composed of a specific phoneme is emitted from a speaker (not shown) to the robot RB in a direction in which an acoustic model is to be created. Then, the detected acoustic signal is converted into an MFCC by the feature extraction unit 30, and the speech is recognized by a speech recognition unit 50 described later. Then, the probability that the probability of the recognized speech is for each phoneme is obtained as a result. To this result, an acoustic model is adaptively learned by giving a teacher signal that it is a specific phoneme in a specific direction. . Then, they learn enough types of phonemes and words (eg, different speakers) to learn the submodel.
  • the learning voice When the learning voice is issued, another voice may be emitted as noise from a direction different from the direction in which the acoustic model is desired to be created.
  • the sound model is created by the sound source separation unit 20 described above, and only the sound in the direction is separated, and then converted to the MFCC by the feature extraction unit 30.
  • it is desired to have an acoustic model as a model of an unspecified speaker it is only necessary to train with an unspecified speaker's voice, and a model is provided for each specific speaker! / In that case, you have to learn for each specific speaker.
  • the inverse cosine transform unit 41 to the exponential transform unit 43 return the MFCC of the probability density distribution to a linear spectrum. In other words, the inverse operation of the feature extraction unit 30 is performed for the probability density distribution.
  • the inverse cosine transform unit 41 performs an inverse cosine transform on the MFCC included in the direction-dependent acoustic model 11 ( ⁇ ) stored in the acoustic model storage unit 49 to generate a mel logarithmic spectrum.
  • the linear converter 42 converts the frequency of the mel logarithmic spectrum generated by the inverse cosine converter 41 into a linear frequency to generate a logarithmic spectrum.
  • the exponential conversion unit 43 performs an exponential conversion on the intensity of the logarithmic spectrum generated by the linear conversion unit 42 to generate a linear spectrum.
  • the linear spectrum is obtained as a probability density distribution with mean and standard deviation ⁇ .
  • the norameter synthesizing unit 44 weights the direction-dependent acoustic model ⁇ ( ⁇ ⁇ ) and sums them, and synthesizes the acoustic model ⁇ ( ⁇ ) of the sound source direction 0.
  • Each sub-model in the direction-dependent acoustic model ⁇ ( ⁇ ) is converted into a linear spectrum probability density distribution by the inverse cosine transform unit 41 to the exponential transform unit 43, and the mean, ⁇ , ⁇ , and standard deviation, respectively.
  • the metric synthesizing unit 44 uses the direction-dependent acoustic
  • the acoustic model of the sound source direction ⁇ is synthesized by the linear sum of Dell ⁇ ( ⁇ ). Note that the weight n HMj
  • the mean and ⁇ can be obtained in the same manner.
  • the standard deviations ⁇ and ⁇ can be obtained in the same manner.
  • the probability density distribution can be obtained.
  • the logarithmic converter 45 to the cosine converter 47 convert the probability density distribution back to the linear spectral power MFCC. That is, the logarithmic conversion unit 45 is the same as the logarithmic conversion unit 31, the mel frequency conversion unit 46 is the same as the mel frequency conversion unit 32, and the cosine conversion unit 47 is the same as the cosine conversion unit 33. I do.
  • a probability density distribution f (X) is obtained by the following equation (20) instead of the above-described calculation of the average and the standard deviation ⁇ .
  • the metric synthesizing section 44 stores the acoustic model thus obtained in the acoustic model storage section 49.
  • the weight W depends on each direction ⁇ ⁇ ⁇ ⁇
  • the weight W is set for the existing acoustic model ⁇ ( ⁇ ), and may be set for all sub-models Mm, ⁇ ) included in ⁇ (0), or each sub-model ⁇ ⁇ ⁇
  • Mm, ⁇ Mm, ⁇
  • the sound source is ⁇ ⁇ H j
  • a function f ( ⁇ ) that determines the weight W in a certain case is set in advance, and the sound source direction ⁇
  • FIG. 16 (a) shows that f ( ⁇ ) has been shifted by ⁇ in the 0-axis direction.
  • W be the weight of any phoneme m when the sound source is in front.
  • the phoneme train is emitted from a speaker installed in the front, and this is recognized.
  • the learning data may be a single phoneme m itself.Since it is better to train with a phoneme sequence in which a plurality of power phonemes are connected, a better learning result is obtained, the phoneme sequence is used. Is the recognition result of FIG. In Fig. 17, using the initial value of W,
  • the recognition result of the generated acoustic model ⁇ ( ⁇ ) is the first line, and ⁇ ( ⁇ ) below the second line
  • the recognition result of the sound model ⁇ ( ⁇ ) is a phoneme sequence.
  • a recognition result of 0 indicates that it was a phoneme sequence [/ / y / m "].
  • Ad is obtained experimentally, and is set to, for example, 0.05. Then, if a matching phoneme is not recognized V, the weight W of the model corresponding to that direction is reduced by ⁇ dZ (nk). That is
  • the weight of the direction-dependent acoustic model that gives a correct answer is increased, and the weight of the direction-dependent acoustic model that gives a correct answer is decreased.
  • the weight of the direction-dependent acoustic model that gives a correct answer is decreased.
  • Whether or not it is dominant is determined by whether or not the weight is greater than a predetermined threshold (here, 0.8). If there is no dominant direction-dependent acoustic model ⁇ ( ⁇ ), only the maximum weight is reduced by ⁇ d, and the weights of the other direction-dependent acoustic models H ( ⁇ ) are increased by ⁇ / ( ⁇ -1).
  • a predetermined threshold here, 0.8
  • the process proceeds to recognition and learning of the next phoneme m ', or ends learning.
  • the weight W obtained here becomes f (0).
  • f ( ⁇ ) is the result of learning all phonemes and averaging the results.
  • the acoustic model H ( ⁇ ) can be recognized even if it is repeated a predetermined number of times (for example, 0.5 / ⁇ d times).
  • HMj If the recognition result does not reach the correct answer, for example, if the recognition of m is not successful, the process moves to the learning of the next phoneme, and the same as the distribution of the weight of the phoneme (for example,) finally recognized successfully Update weight with value.
  • the weight obtained by learning in this manner is stored in the acoustic model storage unit 49.
  • the speech recognition unit 50 uses the acoustic model ⁇ ( ⁇ ) synthesized according to the sound source direction ⁇ ⁇ H j, and recognizes the speech or the input speech power of each of the separated speakers HMj, and recognizes the extracted characters. As information, words are recognized with reference to the word dictionary 59, and a recognition result is output. Since this voice recognition method uses a general hidden Markov model, detailed description is omitted.
  • the speech recognition unit 50 The feature is subjected to force recognition as shown in the following equation (21).
  • Unreliable component of X is performed using the obtained output probability and state transition probability in the same way as a general recognition method using a hidden Markov model.
  • Fig. 1 As shown, the sounds of multiple speakers HMj (see Fig. 3) are applied to the microphones M and M of the robot RB.
  • the sound source directions of the acoustic signals detected by the microphones M, M are localized by the sound source localization unit 10.
  • the sound source localization calculates the confidence using the hypothesis data based on the auditory epipolar geometry after the frequency analysis, the peak extraction, the extraction of the harmonic structure, and the calculation of the IPD • IID. Then, it is most likely to integrate the confidence of IPD and IID, and ⁇ is the sound source direction
  • Sound source separation is pass band
  • feature extracting section 30 converts the selected spectrum separated by sound source separating section 20 to MFCC by logarithmic conversion section 31, mel frequency conversion section 32, and cosine conversion section 33.
  • the acoustic model synthesizing unit 40 calculates n HMj in the sound source direction ⁇ from the direction-dependent acoustic model ⁇ ( ⁇ ) stored in the acoustic model storage unit 49 and the sound source direction ⁇ ⁇ localized by the sound source localization unit 10.
  • HMj Synthesizes an acoustic model considered appropriate. That is, the acoustic model synthesis unit 40 converts the direction-dependent acoustic model ⁇ ( ⁇ n ) into a linear spectrum by the inverse cosine transform unit 41, the linear transform unit 42, and the exponential transform unit 43. Then, the parameter synthesizing unit 44 stores the weight W of the sound source direction ⁇ in the acoustic model storage unit 49 ⁇ ⁇ ⁇ H j
  • n HMj Synthesize acoustic model ⁇ ( ⁇ ). And the acoustic model represented by this linear spectrum
  • ⁇ ( ⁇ ) is calculated by a logarithmic converter 45, a mel frequency converter 46, and a cosine converter 47.
  • the speech recognition unit 50 outputs the acoustic model ⁇ ( ⁇ ) synthesized by the acoustic model synthesizing unit 40.
  • Speech recognition is performed by Hidden Markov Model using HMj.
  • Table 4 shows examples of the results of performing speech recognition in this manner.
  • the speech recognition device 1 of the present embodiment even when speech is emitted from an arbitrary direction, an acoustic model suitable for that direction is synthesized each time, so that a high recognition rate is obtained. Can be realized. In addition, since speech in any direction can be recognized, speech recognition with a moving sound source and a high recognition rate can be performed even when the moving object (robot RB) itself is moving. is there.
  • a sound source localization unit 110 that localizes a sound source direction using a peak of a cross-correlation is provided instead of the sound source localization unit 10 of the first embodiment.
  • the other parts are
  • the sound source localization unit 110 includes a frame cutout unit 111, a cross-correlation calculation unit 112, a peak extraction unit 113, and a direction estimation unit 114, as shown in FIG.
  • the frame cutout unit 111 outputs the audio signals input to the left and right microphones M and M, respectively.
  • the signal is cut out at a predetermined time length, for example, 100 msec.
  • the clipping process is performed at appropriate time intervals, for example, every 30 msec.
  • the cross-correlation calculator 112 calculates the sound of the right microphone M extracted by the frame
  • the peak extracting unit 113 also extracts a peak as a result of the obtained cross-correlation. Pi to extract If the number of sound sources is preliminarily componentized, the number of peaks should be selected from the larger peaks corresponding to the number. If the number of sound sources is unknown, a force for extracting all peaks exceeding a predetermined threshold or a predetermined predetermined number of peaks is selected in descending order.
  • the sound source direction ⁇ is calculated from the peaks obtained by the sound input to the right microphone M and the left microphone M.
  • the sound source localization unit 110 using such cross-correlation also allows the direction of the sound source direction 0 to be changed.
  • HMj is estimated, and the acoustic model suitable for the sound source direction ⁇ ⁇ ⁇ is estimated by the acoustic model synthesis unit 40 described above.
  • the recognition rate can be improved.
  • a function of performing voice recognition while confirming that a sound source localization unit sound source comes from the same sound source is added. Note that the same parts as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • a voice recognition device 100 receives a sound source direction in which a sound source localization unit 10 has been localized, in addition to the voice recognition device 1 of the first embodiment, and tracks a sound source. Then, it has a stream tracking unit 60 that checks whether the same sound source power sound continues to come, and outputs the sound source direction to the sound source separation unit 20 if the sound can be checked.
  • the stream tracking section 60 has a sound source direction history storage section 61, a prediction section 62, and a comparison section 63.
  • the sound source direction history storage unit 61 stores the time, the direction of the sound source and the pitch of the sound source recognized at that time (the fundamental frequency f of the harmonic structure of the sound source, as shown in FIG. 22).
  • the prediction unit 62 reads out the history of the sound source direction of the sound source that has been tracked up to immediately before from the sound source direction history storage unit 61, and records the sound source direction ⁇ ⁇ and the fundamental frequency at the current time tl using the history force Kalman filter or the like. predict stream feature vector ( ⁇ , f) consisting of f
  • the comparison unit 63 receives the sound source direction ⁇ of each speaker HMj at the current time tl localized by the sound source localization unit 10 and the fundamental frequency f of the sound source from the sound source localization unit 10. And forecast
  • the localized sound source direction ⁇ is not output to the sound source separation unit 20, so that no speech recognition is performed. Note that the sound source direction
  • the sound source direction is localized by the sound source localization unit 10, and the sound source direction and the pitch are input to the stream tracking unit 60.
  • the prediction section 62 reads the history of the sound source direction stored in the sound source direction history storage section 61 and predicts the stream feature vector ( ⁇ , f) at the current time tl. Ratio
  • the comparison unit 63 includes a stream feature vector ( ⁇ , f) predicted by the prediction unit 62 and a sound source localization unit.
  • the sound source direction is output to the sound source separation unit 20.
  • the sound source separation unit 20 performs the same processing as in the first embodiment based on the data of the spectrum input from the sound source localization unit 10 and the data of the sound source direction ⁇ ⁇ output by the stream tracking unit 60.
  • the feature extracting unit 30, the acoustic model synthesizing unit 40, and the speech recognizing unit 50 also perform processing in the same manner as in the first embodiment.
  • the voice recognition device 100 of the present embodiment performs voice recognition after confirming whether or not the sound source can be tracked. Therefore, even when the sound source is moving, the same sound source can be recognized. Since the speech that is continuously emitted is continuously recognized, the possibility of erroneous recognition can be reduced. In particular, it is suitable for a case where there are a plurality of moving sound sources and those sound sources intersect. In addition, since the sound source direction is stored and predicted, only for a predetermined range in that direction If a sound source is searched, the processing can be reduced.
  • the voice recognition device 1 includes a camera and a known image recognition device, recognizes a speaker's face, and has a database capability that identifies who is talking. If the direction-dependent acoustic model is provided for each speaker, a sound model suitable for the speaker can be synthesized, so that the recognition rate can be further increased.
  • the speech of the speaker registered in advance is vectorized using the vector quantization (VQ) without using the camera, and the speech separated by the sound source separation unit 20 is vectorized. Compare the closest distance! ⁇ You may identify the speaker by outputting the speaker as a result!

Abstract

 話者や、音声認識装置を搭載した移動体が移動しても高い精度で認識可能な音声認識装置を提供する。複数のマイクMが検出した音響信号から、特定の話者HMjの音声を認識して文字情報に変換する音声認識装置である。複数のマイクMが検出した音響信号に基づき、話者HMjの音源方向θHMjを特定する音源定位部10と、音源方向θHMjに基づき、話者HMjの音声信号を音響信号から分離する音源分離部20と、断続的な複数の方向に対応した方向依存音響モデルH(θn)を記憶した音響モデル記憶部49と、音源方向θHMjの音響モデルを、音響モデル記憶部49の方向依存音響モデルH(θn)に基づいて求め、音響モデル記憶部49へ記憶させる音響モデル合成部40と、音響モデル合成部40が合成した音響モデルを使用して、音源分離部20が分離した音声信号の音声認識を行い、文字情報に変換する音声認識部50とを備える。

Description

明 細 書
音声認識装置
技術分野
[0001] 本発明は、音声認識装置に関し、詳しくは、話者や、音声認識装置を備えた移動 体が移動しても高い精度で音声を認識可能な音声認識装置に関する。
背景技術
[0002] 近年、音声認識技術は、実用化の域に入ってきており、情報の音声入力などに利 用され始めている。一方、ロボットの研究開発も盛んとなっており、音声認識技術は、 ロボットを実用化するための一つのキー技術ともなつている。すなわち、ロボットと人 間との知的なソーシャルインタラクションを行うためには、人間の言葉をロボットが理 解する必要があるため、音声認識の精度が重要となっている。
[0003] ところが、実際に人とのコミュニケーションを行うためには、実験室において口元に 設置したマイクで音声を入力して行う音声認識とは異なるいくつかの問題がある。 例えば、実際の環境には様々な雑音があり、雑音の中から必要な音声信号を抽出 しなければ音声認識をすることができない。また、話者が複数存在する場合にも、同 様に認識の対象とする話者の音声のみを抽出する必要がある。また、音声認識にお いては、一般に隠れマルコフモデル(HMM : Hidden Markov Model)というモデルを 利用して内容を特定するが、話者の位置 (音響認識装置のマイクを基準とした方向) が異なると、話者の声の聞こえ方も異なることから、認識率に影響を及ぼすという問題 がある。
[0004] このようなことから、本発明者を含む研究グループでは、アクティブオーディションに より複数の音源の定位'分離'認識を行う技術を発表している (非特許文献 1参照)。 この技術は、人間の耳に相当する位置に 2つのマイクを配置し、複数の話者が同時 に発話した場合に、一人の発した単語を認識する技術である。詳しくは、 2つのマイク カゝら入力された音響信号から、話者の位置を定位し、各話者の音声を分離した上で 、音声認識する。この認識の際、移動体 (音声認識装置を備えたロボット等)から見て —90° 力 90° まで 10° おきの方向に対する各話者の音響モデルを予め作成して おく。そして、音声の認識時には、それらの音響モデルを用いて並列に認識プロセス を実行する。
非特 S干文献 1: A Humanoid Listens to three simultaneous talkers by Integrating Active Audition and Face Recognition" Kazuhiro Nakadai, et al., IJCAI— 03
Workshop on Issues in Designing Physical Agents for Dynamic Real-Time
Environments: World Modeling, Planning, Learning and Communicating, PP117-124 発明の開示
[0005] し力しながら、前記した従来技術では、話者や移動体が移動する場合には、その都 度移動体に対する話者の位置が変化するため、予め用意された音響モデルの方向 と異なる方向に話者が位置すると、認識率が低下するという問題があった。
本発明は、このような背景に鑑みてなされたもので、話者や、移動体が移動しても 高い精度で認識可能な音声認識装置を提供することを課題とする。
[0006] 前記課題を解決するため、本発明の音声認識装置は、複数のマイクが検出した音 響信号から、音声を認識して文字情報に変換する音声認識装置であって、前記複数 のマイクが検出した音響信号に基づき、前記特定の話者の音源方向を特定する音 源定位部と、前記複数のマイクが検出した 1つ以上の音響信号に基づき、その音響 信号に含まれる音声信号の特徴を抽出する特徴抽出部と、断続的な複数の方向に 対応した方向依存音響モデルを記憶した音響モデル記憶部と、前記音源定位部が 特定した音源方向の音響モデルを、前記音響モデル記憶部の方向依存音響モデル に基づいて合成し、前記音響モデル記憶部へ記憶させる音響モデル合成部と、前 記音響モデル合成部が合成した音響モデルを使用して、前記特徴抽出部が抽出し た特徴について音声認識を行い、文字情報に変換する音声認識部と、を備えるよう に構成した。
[0007] このような音声認識装置によれば、音源定位部が音源方向を特定し、音響モデル 合成部は、音源方向と、方向依存音響モデルとに基づき、その方向に適した音響モ デルを合成し、音声認識部がこの音響モデルを使用して音声認識を行う。
[0008] また、前記した音声認識装置にお!、ては、音源定位部が特定した音源方向に基づ き、前記特定の話者の音声信号を前記音響信号から分離する音源分離部を備え、 音源分離部が分離した音声信号に基づき、特徴抽出部が音声信号の特徴を抽出す るように構成してちょい。
[0009] このような音声認識装置によれば、音源定位部が音源方向を特定し、音源分離部 は、音源定位部が特定した音源方向の音声のみを分離する。そして、音響モデル合 成部は、音源方向と、方向依存音響モデルとに基づき、その方向に適した音響モデ ルを合成し、音声認識部がこの音響モデルを使用して音声認識を行う。
なお、音源分離部が出力する音声信号というのは、音声としての意味を持つ情報で あればよぐ音声のアナログ信号そのものに限らず、デジタル化、符号化した信号や 、周波数分析したスペクトルのデータを含む。
[0010] また、前記した音声認識装置では、前記音源定位部は、前記マイクが検出した音 響信号を周波数分析した後、調波構造を抽出し、複数のマイクから抽出された調波 構造の音圧差と位相差とを求め、この音圧差と位相差のそれぞれから音源方向の確 力もしさを求め、最も確力もしい方向を音源方向と判断するよう構成することができる
[0011] また、前記音源定位部は、前記複数のマイクから検出された音響信号の音圧差と 位相差を用いて前記特定の話者の音源方向を特定するために、ロボットの頭部など の前記マイクが設けられる部材の表面で散乱する音響信号を音源方向ごとにモデル 化した散乱理論を用いることができる。
[0012] さらに、前記した音声認識装置では、前記音源分離部は、前記音源定位部が特定 した音源方向が、前記複数のマイクの配置により決定される正面に近い場合には、 狭い方向帯域の音声を分離し、正面力 離れると広い方向帯域の音声を分離するァ クティブ方向通過型フィルタを用いて音声分離を行うよう構成されるのが好まし 、。
[0013] また、前記した音声認識装置では、前記音響モデル合成部は、前記音響モデル記 憶部の方向依存音響モデルの重み付き線形和により前記音源方向の音響モデルを 合成するよう構成され、前記線形和に使用する重みが、学習により決定されるのが好 ましい。
[0014] また、前記した音声認識装置では、前記話者を特定する話者同定部をさらに備え、 前記音響モデル記憶部は、前記話者ごとに方向依存音響モデルを有し、前記音響 モデル合成部は、前記話者同定部が特定した話者の方向依存音響モデルと、前記 音源定位部が特定した音源方向とに基づき、前記音源方向の音響モデルを前記音 響モデル記憶部の方向依存音響モデルに基づ 、て求め、前記音響モデル記憶部 へ記憶させるよう構成されるのが好ましい。
[0015] また、前記特徴抽出部で抽出された特徴、または前記音源分離部が分離した音声 信号について、予め用意した雛形と比較し、前記雛形との違いが予め設定した閾値 より大きい領域、例えば周波数領域や、サブバンドを同定し、同定された領域につい ては、その特徴としての信頼性が低いことを示す指標を前記音声認識部へ出力する マスキング言をさらに備えるのが望ましい。
[0016] そして、本発明の他の音声認識装置は、複数のマイクが検出した音響信号から、特 定の話者の音声を認識して文字情報に変換する音声認識装置であって、前記複数 のマイクが検出した音響信号に基づき、前記特定の話者の音源方向を特定する音 源定位部と、前記音源定位部が特定した音源方向を記憶して前記特定の話者の移 動している方向を推定し、その推定された方向から、現在の話者の位置を推定する ストリーム追跡部と、前記ストリーム追跡部が推定した現在の話者の位置力 定まる 音源方向に基づき、前記特定の話者の音声信号を前記音響信号から分離する音源 分離部と、前記音源分離部が分離した音声信号の特徴を抽出する特徴抽出部と、 断続的な複数の方向に対応した方向依存音響モデルを記憶した音響モデル記憶部 と、前記音源定位部が特定した音源方向の音響モデルを、前記音響モデル記憶部 の方向依存音響モデルに基づ 、て合成し、前記音響モデル記憶部へ記憶させる音 響モデル合成部と、前記音響モデル合成部が合成した音響モデルを使用して、前記 特徴抽出部が抽出した特徴について音声認識を行い、文字情報に変換する音声認 識部と、を備えて構成することができる。
[0017] このような音声認識装置によれば、任意の方向から発された音響信号の音源方向 を特定し、その音源方向に適した音響モデルを使用して音声認識をするので、音声 認識率を向上することができる
図面の簡単な説明
[0018] [図 1]本発明の実施形態に係る音声認識装置のブロック図である。 [図 2]音源定位部の一例を示すブロック図である。
圆 3]音源定位部の動作を説明する図である。
圆 4]音源定位部の動作を説明する図である。
圆 5]聴覚ェピポーラ幾何を説明する図である。
[図 6]位相差 Δ φと周波数 fの関係を示すグラフである。
[図 7]頭部伝達関数の一例を示すグラフである。
[図 8]音源分離部の一例を示すブロック図である。
[図 9]通過帯域関数の一例を示すグラフである。
圆 10]サブバンド選択部の動作を説明する図である。
[図 11]通過帯域の一例を図示した平面図である。
[図 12] (a)および (b)は、ともに特徴抽出部の一例を示すブロック図である。
[図 13]音響モデル合成部の一例を示すブロック図である。
[図 14]方向依存音響モデルの認識単位とサブモデルを示した図である。
圆 15]パラメータ合成部の動作を説明する図である。
[図 16] (a)および (b)は、ともに重み Wの一例を示すグラフである。
[図 17]重み Wの学習方法を説明する図である。
圆 18]第 2実施形態に係る音声認識装置のブロック図である。
圆 19]音響の入力距離差を示す図である。
圆 20]第 3実施形態に係る音声認識装置のブロック図である。
[図 21]ストリーム追跡部のブロック図である。
[図 22]音源方向の履歴を図示したグラフである。
発明を実施するための最良の形態
[第 1実施形態]
次に、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。図 1は、本発明の実施形態に係る音声認識装置のブロック図である。
図 1に示すように、実施形態に係る音声認識装置 1は、 2つのマイク M , Mと、マイ
R し ク M , Mが検出した音響信号から、話者 (音源)の位置を特定する音源定位部 10と
R し
、音源定位部 10が特定した音源方向及び音源定位部 10で求めたスペクトルに基づ いて、特定の方向の音源から来る音響を分離する音源分離部 20と、複数の方向に っ 、ての音響モデルを記憶した音響モデル記憶部 49と、音響モデル記憶部 49内の 音響モデル及び音源定位部 10が特定した音源方向に基づいて、その音源方向の 音響モデルを合成する音響モデル合成部 40と、音源分離部 20が分離した特定音 源のスペクトルカゝら音響の特徴を抽出する特徴抽出部 30と、音響モデル合成部 40 が合成した音響モデルと、特徴抽出部 30が抽出した音響の特徴に基づき音声認識 を行う音声認識部 50とを備える。これらのうち、音源分離部 20は、任意的に用いられ る。
本発明では、音響モデル合成部 40が生成した、音源の方向に適した音響モデル を利用して音声認識部 50が音声認識を行うため、高い認識率が実現される。
[0020] 次に、実施形態に係る音声認識装置 1の構成要素であるマイク M , M、音源定位
R し 部 10、音源分離部 20、特徴抽出部 30、音響モデル合成部 40、及び音声認識部 50 につ 、てそれぞれ説明する。
[0021] 《マイク M , M》
R L
マイク M , M
R しは、音を検出して電気信号 (音響信号)として出力する一般的なマイ クである。本実施形態では、 2つとしている力 複数であれば幾つでもよぐ例えば 3 つ、 4つを使用しても構わない。マイク M , Mは、例えば、移動体であるロボット RB
R し
の両耳の部分に設けられる。
マイク M , Mの配置は、音響信号を集音するための一般的な音声認識装置 1の
R し
正面を決定する。すなわち、マイク M , Mの集音方向のベクトルの和の方向が音声
R し
認識装置 1の正面となる。図 1に示すように、ロボット RBの頭の左右両脇にマイク M
R
, M力^つずつ設けられていれば、ロボット RBの正面が音声認識装置 1の正面とな し
る。
[0022] 《音源定位部 10》
図 2は、音源定位部の一例を示すブロック図であり、図 3及び図 4は、音源定位部の 動作を説明する図である。
音源定位部 10は、 2つのマイク M , M力も入力された 2つの音響信号から、各話
R し
者 HMj (図 3では、 HM1, HM2)の音源方向を定位する。音源定位方法は、マイク M , Mに入力された音響信号の位相差を利用する方法、ロボット RBの頭部伝達関
R し
数を用いて推定する方法、右と左のマイク M , M力 入力された信号の相互相関を
R し
とる方法などがあり、それぞれ精度を上げるため、種々の改良が加えられている力 こ こでは、本発明者が改良した手法を例にして説明する。
[0023] 音源定位部 10は、図 2に示すように、周波数分析部 11、ピーク抽出部 12、調波構 造抽出部 13、 IPD計算部 14、 IID計算部 15、聴覚ェピポーラ幾何仮説データ 16、 確信度計算部 17、及び確信度統合部 18を備える。
これらの各部を、図 3及び図 4を参照しながら説明する。場面として、ロボット RBに 対し、 2人の話者 HM1, HM2が同時に話しかける場合で説明する。
[0024] 〈周波数分析部 11〉
周波数分析部 11は、ロボット RBが備える左右のマイク M , Mが検出した左右の
R し
音響信号 CR1, CL1から、微小時間 A tの時間長の信号区間を切り出し、左右のチ ヤンネルごとに FFT (高速フーリエ変換)により周波数分析を行う。
例えば、右のマイク M力 の音響信号 CR1より得られる分析結果がスペクトル CR2
R
であり、左のマイク M力 の音響信号 CL1より得られる分析結果がスペクトル CL2で
L
ある。
なお、周波数分析は、バンドパスフィルタなど、他の手法を用いることもできる。
[0025] 〈ピーク抽出部 12〉
ピーク抽出部 12は、スペクトル CR2, CL2から左右のチャンネルごとに一連のピー クを抽出する。ピークの抽出は、スペクトルのローカルピークをそのまま抽出するか、 スぺクトラルサブトラクシヨン法に基づいた方法(S.F.Boll, A spectral subtraction algorithm for suppression of acoustic noise in speech, Proceedings of 1979
International conference on Acoustics, Speech, and signal Processing (ICA SP- 79) 参照)で行う。後者の方法は、スペクトル力 ピークを抽出し、これをスペクトル力 減 算し、残差スペクトルを生成する。そして、その残差スペクトル力 ピークが見つから なくなるまでピーク抽出の処理を繰り返す。
前記スペクトル CR2, CL2に対し、ピークの抽出を行うと、例えばピークスペクトル C R3, CL3のようにピークを構成するサブバンドの信号のみが抽出される。 [0026] 〈調波構造抽出部 13〉
調波構造抽出部 13は、音源が有する調波構造に基づき、左右のチャンネルごと〖こ 特定の調波構造を有するピークをグループにする。例えば、人の声であれば、特定 の人の声は、基本周波数の音と、基本周波数の倍音とからなるが、人により基本周波 数が微妙に異なるので、その周波数の差により、複数の人の声をグループ分けする ことができる。調波構造に基づいて同じグループに分けられたピークは、同じ音源か ら発せられた信号と推定できる。例えば、複数 CF人)の話者が同時に話していれば、 複数 CF個)の調波構造が抽出される。
[0027] 図 3においては、ピークスペクトル CR3, CL3の、ピーク PI, P3, P5を一つのグル ープにして調波構造 CR41, CL41とし、ピーク P2, P4, P6を一つのグループにして 調波構造 CR42, CL42として!/ヽる。
[0028] 〈IPD計算部 14〉
IPD計算部 14は、調波構造抽出部 13が抽出した調波構造 CR41, CR42, CL41
, CL42のスペクトルから、 IPD (両耳間位相差)を計算する部分である。
IPD計算部 14は、話者 HMjに対応する調波構造 (例えば、調波構造 CR41)に含 まれているピーク周波数の集合を {f
k I k=0. . . K 1 }としたとき、各 f に対応するス
k
ベクトルのサブバンドを、右と左の両チャンネル(例えば、調波構造 CR41と調波構造 CL41)力も選択し、次式(1)により IPD A φ (ί )を計算する。調波構造 CR41と調波
k
構造 CL41から計算した IPD A φ (ί )は、例えば、図 4に示す両耳間位相差 C51のよ
k
うになる。ここで、 Δ φ (f )は、ある調波構造に含まれるある倍音 fの IPDであり、 Kは、
k k
その調波構造に含まれる倍音の数を示す。
[0029] [数 1]
Figure imgf000010_0001
但し、
: fkの I P D (両耳間位相差)
3 (fk)] 右の入力信号のピーク fkのスぺクトル虚部
fk)] :右の入力信号のピーク fkのスぺクトル実部
3 (fk)] 左の入力信号のピーク fkのスぺクトル虚部
, ( )] 左の入力信号のピーク fkのスぺクトル実部 [0030] 〈IID計算部 15〉
IID計算部 15は、各調波構造にある各倍音について、左のマイク Mから入力され し
た音の音圧と、右のマイク M力 入力された音の音圧との差 (両耳間音圧差)を計算
R
する部分である。
IID計算部 15は、話者 HMjに対応する調波構造 (例えば、調波構造 CR41, CL4 1)に含まれているピーク周波数 fの倍音に対応するスペクトルのサブバンドを、右と k
左の両チャンネル (例えば、調波構造 CR41と調波構造 CL41)から選択し、次式(2) により IIDA (f)を計算する。調波構造 CR41と調波構造 CL41から計算した IIDA k
P (f )は、例えば図 4に示す両耳間音圧差 C61のようになる。
k
[0031] [数 2]
Ap(fk)-^(fk)-^(fk) · · · (2)
但し、
Δ (fk) : fkの I I D (両耳間音圧差)
Pr(ik) :右の入力信号のピーク のパワー
p,(ik) :左の入力信号のピーク fkのパヮ一
ΡΛ ) = 101og10 (3 [ (fk )f + [Sr (fk)]2)
Pi (f k ) = 10 log,。 (^[S, (fk)]2+ S, (fk)]2 )
[0032] 〈聴覚ェピポーラ幾何仮説データ 16〉
聴覚ェピポーラ幾何仮説データ 16は、図 5に示すように、ロボット RBの頭部を想定 した球体を上から見たときに、音源 Sと、ロボット RBの両耳のマイク M , Mとの距離
R L
差力も生じる時間差に基づき想定される位相差のデータである。
聴覚ェピポーラ幾何により、位相差 Δ φは、次式(3)により求められる。ここでは、 頭部形状を球と仮定して!/、る。
[0033] [数 3]
Α ± 2πί /n .
Δ =—— x 6 + sin6) . . . (3)
ν
[0034] ここで、 Δ φは両耳間位相差 (IPD)、 Vは音速、 fは周波数、 rは両耳間の距離 2rか ら求まる値、 Θは音源方向を示す。
式 (3)により、各音源方向より発せられた音響信号の周波数 fと位相差 Δ φの関係 は、図 6のようになる。
[0035] 〈確信度計算部 17〉
確信度計算部 17は、 IPD及び IIDのそれぞれの確信度を計算する。
— IPD確信度—
IPDの確信度は、話者 HMjに対応する調波構造 (例えば、調波構造 CR41, CL4 1)が含んでいる倍音 fがどの方向力も来ているらしいかを Θの関数として求め、これ k
を確率関数にあてはめる。
まず、 f の IPDの仮説 (予想値)を次式 (4)に基づき計算する。
k
[0036] 画
2πί„
Α „(θ,ί) = ~~ ^xr(0 + sin0) . . . (4)
v
[0037] Δ (Θ ,f )は、ある調波構造内の k番目の倍音 f に対して音源方向が Θの場合の I h k k
PDの仮説(予想値)を示す。 IPDの仮説は、例えば音源方向 Θを、 ±90° の範囲で 5° おきに変化させて計 37個の仮説を計算する。もっとも、より細かい角度ごとに計 算しても、より大ま力な角度ごとに計算しても力まわない。
次に、次式(5)により、 Δ ( 0 , f )と Δ φ (f )の差を求め、すべてのピーク f につ h k k k いて合計する。この差は、仮説と入力との距離を表し、 Θが話者のいる方向に近いと 小さぐ遠いと大きくなる。
[0038] [数 5]
Figure imgf000012_0001
[0039] 得られた d( θ )を、次式 (6)の確率密度関数に代入し、確信度 Β ( Θ )を得る。
[0040] [数 6]
Figure imgf000012_0002
ここで、 X( 0 ) = (d( θ )— m) / { (s/n) )、 mは、 d( Θ )の平均、 sは d( Θ )の分散で あり、 nは IPDの仮説の個数 (本実施形態では 37個)である。
[0041] — IID確信度一 IIDの確信度は、以下のようにして求める。まず、話者 HMjに対応ずる調波構造が 含む倍音の音圧差の合計を次式 (7)で計算して求める。
[0042] [数 7]
κ-ι
=∑Δ (fk ) … (7 ) [0043] ここで、 Kは、その調波構造に含まれる倍音の数を示し、 Δ p (f )は、 IID計算部 15 で求めた IIDである。
次に、表 1を利用して、音源方向の右らしさ、正面らしさ、左らしさを確信度とする。 なお、表 1は、実験的に得られた値である。
例えば、表 1を参照して、仮説の音源方位 Θ力 0° で、音圧差 Sが正であれば確 信度 B ( Θ )は、左上の欄を参照して 0. 35とする。
IID
[0044] [表 1]
Figure imgf000013_0001
[0045] 〈確信度統合部 18〉
確信度統合部 18は、 Dempster-Shafer理論に基づき、 IPDと IIDの確信度 B ( Θ ),
IPD
B ( Θ )を次式 (8)によって統合し、統合確信度 B ( Θ )を計算する。そして、統合
IID IPD+IID
確信度 B ( Θ )が最も大きくなる音源方向 Θを、話者 HMjのいる方向とし、以下 Θ
IPD+IID
HMjとする。
[0046] [数 8]
BIPD (Θ) = 1 - (1 - B1PD (θ)Χΐ - BIID (θ )) · · · ( 8 )
[0047] 以上のような聴覚ェピポーラ幾何を使用した仮説に代えて、頭部伝達関数を用い た仮説データ、又は散乱理論に基づく仮説データを用いることもできる。
(頭部伝達関数仮説データ)
頭部伝達関数仮説データは、ロボット周囲カゝら発せられたインパルスより得られる、 マイク Μとマイク Μで検出した音の位相差及び音圧差である。
R し
頭部伝達関数仮説データは、— 90° 力 90° の間の適当な間隔 (例えば 5° )の 方向から発したインパルスを、マイク M , Mで検出し、それぞれを周波数分析して周
R し
波数 fに対する位相応答及び振幅応答を求め、その差を計算することによって得られ る。
得られた頭部伝達関数仮説データは、図 7 (a)の IPD及び (b)の IIDのようになる。 頭部伝達関数を用いる場合には、 IPDだけではなぐ IIDについてもある音源方向 力も来た音の周波数と IIDの関係が求められるので、 IPDと IIDの両方について距離 データ d( Θ )を作ってから確信度を求める。仮説データの作成方法は、 IPDと IIDで変 わりはない。
聴覚ェピポーラ幾何を利用した仮説データの作成方法と異なり、計算ではなく計測 で、各音源方向で発せられた信号に対する周波数 fと IPDの関係を求める。すなわち 、図 7 (a) , (b)にある実測値から、それぞれの仮説と入力との距離である d( Θ )を直接 計算する。
(散乱理論に基づく仮説データ)
散乱理論は、音を散乱する物体、例えばロボットの頭部による散乱波を考慮して、 I PD、 IIDの双方を計算的に推定する理論である。ここでは、音を散乱する物体の内、 マイクの入力に主に影響を与える物体はロボットの頭部であると仮定し、これを半径 a の球と仮定する。また頭部の中心の座標を極座標の原点とする。
点音源の位置を r、観測点を rとすると、観測点における直接音によるポテンシャル
0
は、次式(9)によって定義される。
[数 9]
. V '
V = e ( 9 )
2^R f k '
但し、
f :点音源の周波数
V:音速
R:点音源と観測点の距離
また、観測点 rを頭部表面とすると、直接音と散乱音によるポテンシャルは、
J.J.Bowman, T.B.A. Senior, and P.L.E. Uslenghi: Electromagnetic and Acoustic Scattering by Simple Shapes. Hemisphere Publishing Co., 1987.などに れてい るように、次式(10)で定義される。
[数 10]
∑(2" +1)尸„ (10)
2ττ f
Figure imgf000015_0001
但し、
Vs:散乱音によるポテンシャル
P:第一種 Legendre関数
h(1):第一種球ハンケル関数
Mの極座標を(a, π/2, 0)、 Μの極座標を(a,—π/2, 0)とすると、それぞれ
R L
におけるポテンシャルは、次式(11)、(12)で表される。
[数 11]
π
sL(e,i) = s(~-e,i) (1 1)
2
[数 12] π
SR(6,i) = S(-^-e,i) (1 2) 従って、散乱理論に基づく位相差 IPDA φ (0 ,f)と音圧差 IIDA p (Θ ,f)は、それ
S S
ぞれ次式(13)、(14)により求められる。
[数 13]
Δ 5(θ,ί) = arg(S, (Θ, f )) - arg(¾ (Θ, f )) (1 3)
[数 14] 厶 (14)
Figure imgf000015_0002
そして、前記 (4)式の Δ φ (0 ,f)を前記(13)式の IPDA φ (0 ,f)に置き換え、前 記した聴覚ェピポーラ幾何を用いた場合と同じ手順で B ( Θ )を求める。
IPD
すなわち、 Δ φ ( Θ , f )と Δ φ (f )の差を求め、すべてのピーク f について合計し
s k k k
て d( θ )を求め、得られた d( θ )を、前記式 (6)の確率密度関数に代入し、確信度 Β (
IPD
Θ )を得る。
[0050] IIDも IPDと同じ方法で d( 0 )と B ( Θ )を計算する。具体的には、 Δ φを Δ pとし、
IID
前記 (4)式の Δ φ ( Θ ,f )を前記(14)式の IPD A p ( Θ ,f )でに置き換える。そして、
h k S k
Δ p ( θ, f )と Δ p (f )の差を求め、すべてのピーク f について合計して d( 0 )を求
S k k k
め、得られた d( θ )を、前記式 (6)の確率密度関数に代入し、確信度 Β ( Θ )を得る。
IID
[0051] このように散乱理論に基づいて音源方向を推定すると、ロボットの頭部の表面に沿 つて散乱する音声、例えば後頭部を回り込む音の影響を考慮して、音源方向と位相 差、および音源方向と音圧差の関係をモデル化できるので、音源方向の推定精度が 向上する。特に、音源が側方にある場合は、後頭部を回り込んで音源と反対方向に あるマイクに到達する音のパワーは比較的大きいため、散乱理論を用いることによつ て音源方向の推定精度が向上する。
[0052] 《音源分離部 20》
音源分離部 20は、音源定位部 10により定位された各音源方向の情報、並びに音 源定位部で計算したスペクトル (例えばスペクトル CR2)により、各話者 HMjの音響( 音声)信号を分離する部分である。音源分離方法には、ビームフォーミング、ナルフ ォーミング、ピーク追跡、指向性マイク、 ICA (Independent Component Analysis :独立 成分分析)など、従来力 ある手法を用いることができるが、ここでは、本発明者が開 発したアクティブ方向通過型フィルタによる方法について説明する。
音源方向の情報を利用して音源を分離する場合、音源の方向がロボット RBの正面 から離れるにつれ、 2本のマイクを用いて推定した音源方向情報の精度を期待できな くなる。そこで、本実施形態では、正面方向の音源については通過させる方向の範 囲を狭ぐ正面力 離れた音源では広くとるように通過帯域をアクティブに制御して、 音源の分離精度を向上させる。
[0053] 具体的には、音源分離部 20は、図 8に示すように、通過帯域関数 21と、サブバンド 選択部 22とを有する。 [0054] 〈通過帯域関数 21〉
通過帯域関数 21は、図 9に示したように、音源方向と通過帯域幅の関数で、音源 方向が、正面 (0° )から離れるにつれ、方向情報の精度を期待できなくなることから、 音源方向が正面力 離れるほど通過帯域幅が大きくなるように予め設定した関数で ある。
[0055] 〈サブバンド選択部 22〉
サブバンド選択部 22は、スペクトル CR2, CL2の各周波数の値(これを「サブバンド 」という)から、特定の方向から来たと推測されるサブバンドを選択する部分である。 サブバンド選択部 22では、図 10に示すように、音源定位部 10で生成した左右の入 力音のスペクトル CR2, CL2力ら、各スペクトルのサブバンドについて、前記式(1)、 (2)に従い、 IPD A < ) ( 及び110厶 /0 を計算する(図10の両耳間位相差じ52,両 耳間音圧差 C62参照)。
そして、音源定位部 10で得られた Θ を抽出すべき音源方向とし、通過帯域関数
H j
21を参照して、 Θ に対応する通過帯域幅 δ ( Θ )を取得する。取得した通過帯域
HMj HMj
幅 δ ( 0 )を用いて、通過帯域の最大値 Θ と最小値 Θを次式(15)により求める。
HMj h 1
通過帯域 Bは、方向として平面図で図示すると、例えば図 11のようになる。
[0056] [数 15]
Figure imgf000017_0001
[0057] 次に、 Θと Θ に対応する IPDと IIDを推定する。これらの推定には、予め計測、又
1 h
は計算した伝達関数を利用する。伝達関数は、音源方向 Θ力 来る信号に対して周 波数 fと IPD、 IIDをそれぞれ関係づけている関数で、前記したェピポーラ幾何や、頭 部伝達関数、散乱理論などを用いる。推定した IPDは、例えば図 10の両耳間位相差 C53における Δ φ (f) , Δ (f)であり、推定した IIDは、例えば図 10の両耳間音圧
1 h
差 C63における (f), Δ p (f)である。
1 h
[0058] 次に、音源方向 Θ に対して、ロボット RBの伝達関数を利用して、スペクトル CR2
HMj
または CL2の周波数 fに応じ、周波数 fが所定の閾値周波数 f より小さければ IPDに i i th
よりサブバンドを選択し、大きければ IIDによりサブバンドを選択する。すなわち、以下 の条件式(16)を満たすサブバンドを選択する。
[0059] [数 16] f iぐ f t h: Δ φ! ( f ≤Δ ψ ( f ≤厶《i> h ( f i ) Ί
· · · ( 1 6 ) f i≥ f t h : Δ P , ( f i ) ≤Δ p ( f J ≤Δ p h ( f J J
[0060] ここで、 f は、フィルタリングの判断基準に IPDと IIDのどちらを用いるかを決める閾
th
値周波数である。
この条件式によれば、例えば、図 10の両耳間位相差 C53においては、周波数 f よ
th り低い周波数で、 IPDが Δ φ (f)と Δ φ (f)の間にある周波数 fのサブバンド (斜線部
1 h i
)が選択される。一方、図 10の両耳間音圧差 C63においては、周波数 f より高い周
th
波数で、 IIDが (f)と (f)の間にあるサブバンド (斜線部)が選択される。この
1 h
選択されたサブバンドからなるスペクトルを本明細書にぉ 、て「選択スペクトル」と 、う
[0061] 以上、本実施形態の音源分離部 20について説明したが、音源分離の方法には、こ の他に指向性マイクを利用した方法がある。即ち、指向性が狭いマイクをロボット RB に設けておき、音源定位部 10で得られた音源方向 Θ の方向に指向性マイクを向 闺
けるよう、顔の向きを変えれば、その方向から来る音声だけを取得することができる。 この指向性マイクによる方法の場合、 1つの指向性マイクしかない場合には、 1人の 音声しか取得できないという問題もあるが、複数の指向性マイクを所定角度おきに設 けておき、音源方向の指向性マイクからの音声信号を利用するようにすれば、複数 人の音声の同時取得も可能である。
[0062] 《特徴抽出部 30》
特徴抽出部 30は、音源分離部 20で分離された音声スペクトルあるいは分離をしな いスペクトル CR2 (または CL2) (以下、音声認識に使用する場合に「認識用スぺタト ル」という)から音声認識に必要な特徴を抽出する部分である。音声の特徴としては、 音声を周波数分析した線形スペクトルや、メル周波数スペクトル、メル周波数ケプスト ラム係数(MFCC : Me卜 Frequency Cepstrum Coefficient)を用いることができる。本実 施形態では、 MFCCを用いる場合で説明する。なお、線形スペクトルを特徴として用 いる場合は、特徴抽出部 30は、特に処理を行わない。また、メル周波数スペクトルを 用いる場合は、コサイン変換 (後述)を行わない。
[0063] 特徴抽出部 30は、図 12 (a)に示すように、対数変換部 31、メル周波数変換部 32、 及びコサイン変換部 33を有する。
対数変換部 31は、サブバンド選択部 22 (図 8参照)が選択した認識用スペクトルの 振幅を対数に変換して、対数スペクトルを得る。
メル周波数変換部 32は、対数変換部 31が生成した対数スペクトルを、メル周波数 のバンドパスフィルタに通し、周波数力 Sメルスケールに変換されたメル周波数対数ス ベクトルを得る。
コサイン変換部 33は、メル周波数変換部 32が生成したメル周波数対数スペクトル をコサイン変換する。このコサイン変換により得られた係数が MFCCとなる。
[0064] また、雑音などによって入力音声が変形している場合は、そのスペクトルサブバンド を特徴として信用しないよう、図 12 (b)に示すように指標 (0力 1)を付与するマスキ ング部 34を、特徴抽出部 30の中または後に任意的に追加してもよい。
図 12 (b)の例について具体的に説明すると、特徴抽出部 30が任意的にマスキング 部 34を含む場合、単語辞書 59は、単語に対応してその単語の時系列スペクトルを 有する。ここでは、この時系列スペクトルを「単語音声スペクトル」とする。
単語音声スペクトルは、雑音がな ヽ環境下で単語を発声した音声を周波数分析し て得られる。特徴抽出部 30に認識用スペクトルが入力されると、入力音声に含まれて いると推測された単語の単語音声スペクトルが想定音声スペクトルとして単語辞書か ら選別される。ここでは、認識用スペクトルと時間長が最も近いものを想定音声スぺク トルとして推測する。認識用スペクトルと想定音声スペクトルは、それぞれ対数変換部 31、メル周波数変換部 32、コサイン変換部 33を経て MFCCに変換される。以下、認 識用スペクトルの MFCCを「認識用 MFCC」、想定音声スペクトルの MFCCを「想定 MFCCJとする。
マスキング部 34は、認識用 MFCCと想定 MFCCの差を求め、予め想定した閾値よ り大きい場合は 0を、小さい場合は 1を、 MFCCの特徴量ベクトルの各特徴ごとに付 与する。これを指標 ωとして認識用 MFCCと合わせて音声認識部 50に出力する。 想定音声スペクトルを選別する際、 1つだけではなぐ複数選別してもよい。また、選 別せずに全ての単語音声スペクトルを用いてもよい。その場合には、すべての想定 音声スペクトルについて指標 ωを求め、音声認識部 50に出力する。
[0065] なお、指向性マイクを用いて音源分離を行う場合には、指向性マイクカゝら得られた 分離音声に対し、 FFTやバンドパスフィルタなどの一般的な周波数分析手法を用い てスペクトルを得る。
[0066] 《音響モデル合成部 40》
音響モデル合成部 40は、音響モデル記憶部 49に記憶された方向依存音響モデ ルから、定位された各音源方位に応じた音響モデルを合成する部分である。
音響モデル合成部 40は、図 13に示すように、コサイン逆変換部 41、線形変換部 4 2、指数変換部 43、パラメータ合成部 44、対数変換部 45、メル周波数変換部 46、及 びコサイン変換部 47を有し、音響モデル記憶部 49に記憶された方向依存音響モデ ル Θ )を参照して Θ方向の音響モデルを合成する。
[0067] 〈音響モデル記憶部 49〉
音響モデル記憶部 49には、ロボット RBの正面を基準とした方向 Θ ごとに、方向 Θ に適した音響モデルである方向依存音響モデル Η( θ )が記憶されている。方向依存 音響モデル Η( θ )は、特定の方向 0 力 発せられた人物の音声の特徴を、隠れマ ルコフモデル (ΗΜΜ)で学習させたものである。各方向依存音響モデル Η( θ )は、 図 14に示すように、例えば音素を認識単位とし、音素ごとに対応するサブモデル h( m, θ )を記憶している。なお、サブモデルは、モノフォン、 PTM、バイフオン、トライフ オンなど他の認識単位で作成してもよ 、。
サブモデル h(m, Θ )の数は、例えば方向 0 〖こついて 90° — 90° まで 30° お きに 7個のモデルを持ち、サブモデルを 40個のモノフォンで構成しているとすれば、 合計 7 X 40 = 280個となる。
サブモデル h(m, Θ )は、状態数、各状態の確率密度分布、状態遷移確率の各パ ラメータを有している。本実施形態では、各音素の状態数は、前部 (状態 1)、中間部 (状態 2)、後部(状態 3)の 3つに固定している。また、本実施形態では、確率密度分 布は、正規分布に固定するが、確率密度分布は、正規分布または他の分布の 1っ以 上の混合分布であってもよい。したがって、本実施形態では、状態遷移確率 Pと、正 規分布のパラメータ、つまり平均 及び標準偏差 σを学習させる。
[0068] サブモデル h(m, Θ )の学習データは次のようにして作成する。
ロボット RBに対し、音響モデルを作成したい方向から、特定の音素からなる音声信 号を図示しないスピーカにより発する。そして、検出した音響信号を特徴抽出部 30に より MFCCに変換し、後述する音声認識部 50で音声認識させる。すると、認識した 音声が、音素ごとにどのくらいの確率であるかが結果として得られる力 この結果に対 し、特定の方向の特定の音素であるという教師信号を与えることで音響モデルを適応 学習させる。そして、サブモデルを学習するのに十分な種類 (例えば、異なる話者)の 音素や単語を学習させる。
なお、学習用音声を発する際、音響モデルを作成したい方向とは異なる方向から、 別の音声をノイズとして発してもよい。この場合は、前記した音源分離部 20により音 響モデルを作成した 、方向の音響のみを分離した上で、特徴抽出部 30により MFC Cに変換する。また、これらの学習は、音響モデルを不特定話者のモデルとして持た せたい場合には、不特定の話者の声で学習させればよいし、特定話者ごとにモデル を持たせた!/、場合には、特定話者ごとに学習させればょ ヽ。
[0069] コサイン逆変換部 41から指数変換部 43は、確率密度分布の MFCCを線形スぺク トルに戻す。つまり、確率密度分布について、特徴抽出部 30と逆の操作をする。
[0070] 〈コサイン逆変換部 41〉
コサイン逆変換部 41は、音響モデル記憶部 49が記憶している方向依存音響モデ ル11( Θ )が有する MFCCについてコサイン逆変換してメル対数スペクトルを生成す る。
[0071] 〈線形変換部 42〉
線形変換部 42は、コサイン逆変換部 41により生成されたメル対数スペクトルの周波 数を線形周波数に変換し、対数スペクトルを生成する。
[0072] 〈指数変換部 43〉
指数変換部 43は、線形変換部 42により生成された対数スペクトルの強度を指数変 換し、線形スペクトルを生成する。線形スペクトルは、平均 、標準偏差 σの確率密 度分布として得られる。 [0073] 〈パラメータ合成部 44〉
ノラメータ合成部 44は、図 15に示すように、方向依存音響モデル Η( θ η)にそれぞ れ重みをかけた上でそれらの和をとり、音源方向 0 の音響モデル Η( θ )を合成
H j H j する。方向依存音響モデル Η( Θ )にある各サブモデルは、それぞれコサイン逆変換 部 41から指数変換部 43により、線形スペクトルの確率密度分布に変換され、それぞ れ、平均 , μ , μ ,標準偏差 σ _ , σ , σ ,状態遷移確率 Ρ , Ρ
Ρ , Ρ , Ρ のパラメータを持っている。そして、これらのパラメータを、予め学習
22nm 23nm 33nm
によって求められ、音響モデル記憶部 49に記憶されている重みと内積して、音源方 向 Θ の音響モデルを合成する。つまり、ノ ラメータ合成部 44は、方向依存音響モ
HMj
デル Η( Θ )の線形和により音源方向 Θ の音響モデルを合成している。なお、重み n HMj
w の設定の仕方は後述する。
HMj
[0074] Η( θ )にあるサブモデルを合成する場合には、状態 1の平均 を次式(17)
HMj 1 Θ H jm
により求める。
[0075] [数 17]
1 N
^■1 Θ HM j m 2 ^ ri θ HM j η m . · · ( 7 λ
Figure imgf000022_0001
[0076] 平均 , μ についても同様にして求めることができる。
2 Θ HMjm 3 Θ HMjm
[0077] また、状態 1の標準偏差 σ の合成については、共分散 σ 2を次式(18)
1 Θ HMjm 1 Θ HMjm
により求める。
[数 18]
°1 Θ HM j m 9 HM jai n m · · · ( 1 8、
Figure imgf000022_0002
[0078] 標準偏差 σ , σ についても同様にして求めることができる。
2 Θ HMjm 3 Θ HMjm
得られた と σにより、確率密度分布を求めることができる。
[0079] また、状態 1の状態遷移確率 Ρ の合成については、次式(19)により求める。
11 Θ HMjm
[0080] [数 19] Θ HM j m β HM j P
(1 9)
Θ HM:
[0081] 状態遷移確率 P , P , P , P についても同様にして求めるこ
12 Θ H jm 22 Θ H jm 23 Θ H jm 33 Θ H jm
とがでさる。
[0082] 次に、対数変換部 45からコサイン変換部 47により、確率密度分布を線形スペクトル 力も MFCCに変換し直す。すなわち、対数変換部 45は、対数変換部 31と、メル周波 数変換部 46は、メル周波数変換部 32と、コサイン変換部 47は、コサイン変換部 33と 同様であるので、詳細な説明を省略する。
[0083] なお、単一正規分布ではなぐ混合正規分布の形で合成する場合には、前記した 平均 、標準偏差 σの計算に代えて次式 (20)により確率密度分布 f (X)を求め
10 HMjm る。
[0084] [数 20] Θ匪 j m(X) = ~Ν -ί Θ HM jfl nm ^) (20)
y w "=1
[0085] 確率密度分布 f (x), f (x)
2 Θ HMjm 3 Θ HMjm についても同様にして求めることができる。
[0086] ノ ラメータ合成部 44は、このようにして得られた音響モデルを、音響モデル記憶部 49に記憶させる。
なお、このような音響モデルの合成は、音声認識装置 1が作動している間、ノラメ一 タ合成部 44がリアルタイムに行う。
[0087] 〈重み W の設定〉
重み W は、音源方向 Θ に対応する音響モデルを合成するときに、各方向依 η Θ闺 闺
存音響モデル Η( Θ )に対して設定するもので、 Η( 0 )に含まれるすべてのサブモ デル Mm, Θ )に対して用いる重み W を設定してもよいし、あるいは各サブモデ η ηθΗ ί
ル Mm, θ )に対応する重み W を設定してもよい。基本的には、音源が正面に η πιηθ H j
ある場合の重み W を定める関数 f( Θ )をあらカゝじめ設定しておき、音源方向 Θ
ηθθ HMj に対応する音響モデルを合成する際に、 f ( Θ )を 0軸方向に 0 移動( Θ→ 0— 0
HMj
とする)した関数 f ( Θ )を求め、これを参照して W を設定する。
HMj η Θ HMj [0088] 〈関数 ί( θ )の作成〉
[A] f( 0 )を経験的に求める方法
f ( 0 )を経験的に求める場合は、経験的に得られた定数 aを用いて次式のように表 す。
ί( θ )= α θ + α ( θ <0, 0 =— 90° のとき f( 0 )=O)
ϊ( θ ) =-α θ + α ( θ≥0, θ = 90° のとき f( 0 )=O)
ここで、定数 a=l. 0とすれば、音源が正面にある場合の f( Θ )は、図 16 (a)のよう になる。また、 f ( Θ )を 0軸方向に Θ 移動したのが図 16(b)である。
H j
[0089] [B] f ( Θ )を学習によって求める方法
f ( Θ )を学習によって求める場合は、例えば次のような学習をする。
音源が正面にあるときの任意の音素 mの重みを W とする。最初に適当な初期値 の重みの値の
Figure imgf000024_0001
)で111を含む適当な音素列、例えば音素列 [mm' m〃 ]を認識させる試行を行う。具 体的には、正面に設置したスピーカから、前記音素列を発し、これを認識させる。ここ で、学習データは、 1つの音素 m自体であってもよいのである力 音素が複数つなが つた音素列で学習させた方が良い学習結果が得られるため、音素列を使用している この時の認識結果が、例えば図 17である。図 17では、初期値の W を用いて合
Figure imgf000024_0002
成した音響モデル Η ( Θ )での認識結果が 1行目であり、 2行目以下の Η ( Θ )が方
0 η 向 0 の方向依存音響モデル Η( θ )を使用したときの認識結果である。例えば、音 響モデル Η ( Θ )での認識結果は音素列
90 [/x〃y〃z/]であり、音響モデル H ( Θ )で
0 の認識結果は、音素列 [/ /y/m" ]であったことを示す。
1回目の試行後、まず 1音素目を見て、図 17の正面から 0 =±90° の範囲に一致 する音素が認識された場合、その方向に対応するモデルの重み W を Δ d増加さ
Figure imgf000024_0003
せる。 Adは実験的に求め、例えば 0. 05とする。そして、一致する音素が認識されな V、場合、その方向に対応するモデルの重み W を Δ dZ (n-k)減少させる。つまり
Figure imgf000024_0004
、正解を出した方向依存音響モデルの重みは大きくし、正解を出さな力つた方向依 存音響モデルの重みは減少させる。 例えば、図 17の場合では、 H ( θ )と11 ( θ )がー致しているので、対応する重み
η 90
W と重み W を A d増加させ、それ以外の重みを 2 A dZ (n— 2)減少させる。
mn Θ m90 Θ 0
一方、 1音素目に一致する音素を認識した方向 0 が無い場合、他の方向に対して 重みの大きい、優勢な方向依存音響モデル Η ( Θ )があれば、その方向依存音響モ デル Η ( θ )の重みを Δ d減少させ、それ以外のモデルの重みを k Δ ά/ (n-k)増加 させる。つまり、どの方向依存音響モデル H ( 0 )も認識できな力つたということは、現 在の重みの分配が良くな 、可能性があるから、現在の重みが優勢な方向にっ 、て重 みを減少させる。
優勢であるかどうかは、重みが予め定められた閾値 (ここでは 0. 8とする)より大きい 力どうかで判断する。優勢な方向依存音響モデル Η ( Θ )がなければ、最大の重み のみを Δ d減少させ、その他の方向依存音響モデル H ( Θ )の重みを Δ ά/ (η-1) 増加させる。
そして、更新された重みを用いて、前記した試行を繰り返す。
そして、音響モデル Η ( Θ )の認識結果が、正解 mとなったときに、繰り返しを終了
90
し、次の音素 m' の認識および学習へ移るか、または学習を終了する。学習を終了 した場合、ここで得られた重み W が f ( 0 )となる。次の音素 へ移る場合は、す ベての音素について学習し、得 を平均したものが f ( Θ )となる。
Figure imgf000025_0001
これを平均せず、各サブモデル h(m, Θ )に対応する重み W を f ( 0 )にしても
n mn 0 H j
よい。
なお、所定の回数 (例えば 0. 5/ Δ d回)繰り返しても、音響モデル H ( Θ )の認
HMj 識結果が正解に至らない場合、例えば mの認識がうまくいかな力 た場合には、次 の音素 の学習へ移り、最終的にうまく認識できた音素(例えば )の重みの分 布と同じ値で重みを更新する。
また、音響モデルを合成するたびに f ( Θ - Θ )を求めるのではなぐ予め適当な
HMj
Θ につ 、て、 H ( 0 )に含まれるすべてのサブモデル h (m, θ ) (表 2参照)が用い
HMj n n
る重 を求めた表 3を作成
Figure imgf000025_0002
しておいてもよい。なお、表 2および表 3において、添え字の 1 · · ·πι· · ·Μは音素を表 し、 1 · · ·!!· · ·Νは方向を表す。 [表 2]
Figure imgf000026_0001
[表 3]
Figure imgf000026_0002
[0091] このようにして学習して得られた重みは、音響モデル記憶部 49に記憶させる。
[0092] 《音声認識部 50》
音声認識部 50は、音源方向 Θ に対応して合成された音響モデル Η( Θ )を用 闺 H j いて、分離された各話者 HMjの音声あるいは入力音声力も抽出した特徴を認識して 文字情報とし、単語辞書 59を参照して言葉を認識し、認識結果を出力する。この音 声認識の方法は一般的な隠れマルコフモデルを利用した認識方法なので、詳細な 説明は省略する。
なお、マスキング部を特徴抽出部 30の中または後に設けて、 MFCCの各サブバン ドの信用度を示す指標 ωが付与されている場合には、音声認識部 50は、入力された 特徴に次式(21)のような処理を行って力 認識する。
[数 21]
= 1 - X
x n ( i ) = χ ( i ) ω ( i )
音声認識に用いる特徴
M F C C M F C Cの成分
Xのうち信用できない成分 そして、得られた出力確率と状態遷移確率を用いて、一般的な隠れマルコフモデ ルを利用した認識方法と同様に認識を行う。
[0093] 以上のように構成された、音声認識装置 1による動作を説明する。
図 1〖こ示すよう〖こ、ロボット RBのマイク M , Mに、複数の話者 HMj (図 3参照)の音
R L
声が入力される。
そして、マイク M , Mが検出した音響信号の音源方向が音源定位部 10で定位さ
R し
れる。音源定位は、前記したように周波数分析、ピーク抽出、調波構造の抽出、 IPD •IIDの計算の後、聴覚ェピポーラ幾何に基づいた仮説データを利用して確信度を 計算する。そして、 IPDと IIDの確信度を統合して最も可能性が高 、 Θ を音源方向
HMj
とする(図 2参照)。
[0094] 次に、音源分離部 20で、音源方向 Θ の音を分離する。音源分離は、通過帯域
HMj
関数を利用して、音源方向 Θ の IPD及び IIDのそれぞれの上限値 Δ (f ) , Δ p
HMj h h
(f)及び下限値 Δ φ (ί) , Δ P i(f)を求め、前記式(16)の条件と、この上限値、下限 値の条件とから、音源方向 Θ
HMjのスペクトルと推定されるサブバンド (選択スペクトル) を選択する。その後、選択サブバンドのスペクトルを逆 FFTにより変換すれば、音声 信号に変換できる。
[0095] 次に、特徴抽出部 30は、音源分離部 20が分離した選択スペクトルを、対数変換部 31、メル周波数変換部 32、コサイン変換部 33により MFCCに変換する。
[0096] 一方、音響モデル合成部 40は、音響モデル記憶部 49に記憶された方向依存音響 モデル Η( Θ )と、音源定位部 10が定位した音源方向 Θ とから、音源方向 Θ に n HMj HMj 適切と考えられる音響モデルを合成する。 すなわち、音響モデル合成部 40は、方向依存音響モデル Η( θ n)を、コサイン逆変 換部 41、線形変換部 42、及び指数変換部 43により、線形スペクトルに変換する。そ して、パラメータ合成部 44は、音源方向 Θ の重み W を音響モデル記憶部 49 闺 η Θ H j
力 読み出し、これと方向依存音響モデル Η( Θ )との内積をとつて、音源方向 Θ の
n HMj 音響モデル Η( Θ )を合成する。そして、この線形スペクトルで表された音響モデル
HMj
Η( θ )を、対数変換部 45,メル周波数変換部 46、及びコサイン変換部 47により Μ
HMj
FCCで表した音響モデル Η( Θ )に変換する。
HMj
[0097] 次に、音声認識部 50は、音響モデル合成部 40で合成された音響モデル Η( θ )
HMj を利用して、隠れマルコフモデルにより音声認識を行う。
[0098] このようにして、音声認識を行った結果の例力 表 4である。
[0099] [表 4]
Figure imgf000028_0001
[0100] 表 4に示すように、方向依存音響モデルを 90° — 90° まで 30° おきに用意して 、各音響モデルで 40° の方向から孤立単語を認識させたところ (従来手法)、最も認 識率が高くても 30° 方向の方向依存音響モデルを用いた 60%であった。これに対 し、本実施形態の手法を使用して 40° 方向の音響モデルを合成して、これを用いて 孤立単語を認識させたところ、 78%の高い認識率を示した。このように、本実施形態 の音声認識装置 1によれば、任意の方向から音声が発せられた場合であっても、そ の方向に適した音響モデルをその都度合成するので、高 ヽ認識率を実現することが できる。また、任意の方向の音声を認識できることから、移動している音源力もの音声 認識や、移動体 (ロボット RB)自身が移動しているときにも、高い認識率での音声認 識が可能である。
[0101] また、方向依存音響モデルを、断続的な数個、例えば音源方向にして 60° ごとや 30° ごとに記憶しておけば良ぐ音響モデルの学習に必要なコストを小さくすること ができる。
さらに、合成した音響モデル一つについて音声認識を行えば良いため、複数方向 の音響モデルについて音声認識を試みる並列処理も不要であり、計算コストを小さく することができる。そのため、実時間処理や、組み込み用途には好適である。
[0102] 以上、本発明の第 1実施形態について説明したが、本発明は第 1実施形態には限 定されず、以下の実施形態のように変形して実施することが可能である。
[0103] [第 2実施形態]
第 2実施形態では、第 1実施形態の音源定位部 10に代えて、相互相関のピークを 用いて音源方向を定位する音源定位部 110を備える。なお、他の部分については第
1実施形態と同様であるので説明を省略する。
《音源定位部 110》
第 2実施形態に係る音源定位部 110は、図 18に示すように、フレーム切り出し部 11 1、相互相関計算部 112、ピーク抽出部 113、方向推定部 114を有する。
[0104] 〈フレーム切り出し部 111〉
フレーム切り出し部 111は、左右のマイク M , Mに入力されたそれぞれの音響信
R し
号について、所定の時間長、例えば 100msecで切り出す処理を行う。切り出し処理 は、適当な時間間隔、例えば 30msecごとに行われる。
[0105] 〈相互相関計算部 112〉
相互相関計算部 112は、フレーム切り出し部 111が切り出した右マイク Mの音響
R
信号と、左マイク Mの音響信号とで、次式 (22)により相互相関を計算する
[数 22]
CC{T) = xL(t)xR(t + T)dt . . . ( 2 2 ) 但し、
CC (T) :x (t)と X (t)の相互相関
L R
T:フレーム長
X (t):フレーム長 Tで切り出された、マイク Lからの入力信号
X (t):フレーム長 Tで切り出された、マイク Rからの入力信号
R
[0106] 〈ピーク抽出部 113〉
ピーク抽出部 113は、得られた相互相関の結果力もピークを抽出する。抽出するピ 一クの数は、音源の数が予め分力つている場合は、その数に対応したピークを大きい ものから選択する。音源数が不明なときは、予め定めた閾値を超えたピークを全て抽 出する力、あるいは予め定めた所定数のピークを大きいものから順に選択する。
[0107] 〈方向推定部 114〉
音源方向 Θ は、得られたピークから、右マイク Mと左マイク Mに入力された音響
H j R L
信号の到達時間差 Dに音速 Vを掛けて、図 19に示す距離差 dを計算し、さらに、次式 により求める。
Θ =arcsin (d/ 2r)
HMj
[0108] このような相互相関を用いた音源定位部 110によっても、音源方向 0 の方向が
HMj 推定され、前記した音響モデル合成部 40により、音源方向 Θ に適した音響モデル
HMj
を合成することで、認識率の向上を図ることができる。
[0109] [第 3実施形態]
第 3実施形態では、第 1実施形態に加えて、音源定位部音源が同一音源から来て いることを確認しながら音声認識を行う機能を追加している。なお、第 1実施形態と同 じ部分については、同じ符号を付して説明を省略する。
第 3実施形態に係る音声認識装置 100は、図 20に示すように、第 1実施形態の音 声認識装置 1に加え、音源定位部 10が定位した音源方向を入力されて、音源を追 跡し、同じ音源力 音響が来続けているかを確認し、確認ができたなら、音源方向を 音源分離部 20へ出力するストリーム追跡部 60を有している。
[0110] 図 21に示すように、ストリーム追跡部 60は、音源方向履歴記憶部 61と、予測部 62 と、比較部 63とを有する。
[0111] 音源方向履歴記憶部 61は、図 22に示すような、時間と、その時間において認識さ れた音源の方向及び音源のピッチ (その音源の調波構造が持つ基本周波数 f
0 )とが 関連づけて記憶されて 、る。
[0112] 予測部 62は、音源方向履歴記憶部 61から、直前まで追跡していた音源の音源方 向の履歴を読み出し、直前までの履歴力 カルマンフィルタなどにより現時点 tlでの 音源方向 Θ 及び基本周波数 f とからなるストリーム特徴ベクトル ( Θ , f )を予測
HMj 0 HMj 0 し、比較部 63へ出力する。 [0113] 比較部 63は、音源定位部 10から、音源定位部 10で定位された現時点 tlの各話 者 HMjの音源方向 Θ と、その音源の基本周波数 f とが入力される。そして、予測
H j 0
部 62から入力された予測したストリーム特徴ベクトル ( Θ , f )と、音源定位部 10で
HMj 0
定位された音源方向及びピッチ力 求まるストリーム特徴ベクトル ( Θ , f )を比較し
HMj 0 て、その差 (距離)が予め定めた閾値よりも小さい場合に、音源方向 Θ を音源分離
HMj 部に出力する。また、ストリーム特徴ベクトル( Θ , f )を音源方向履歴記憶部 61へ
HMj 0
記憶させる。
前記した差 (距離)が、予め定めた閾値よりも大きい場合には、定位した音源方向 Θ を音源分離部 20へ出力しな 、ので、音声認識は行われな 、。なお、音源方向
HMj
Θ とは別に、音源の追跡ができている力否かを示すデータを、比較部 63から音源
HMj
分離部 20へ出力してもよい。
なお、基本周波数 f
0を用いず、音源方向 Θ
HMjだけで予測してもよ!/ヽ。
[0114] このようなストリーム追跡部 60を有する音声認識装置 100によれば、音源定位部 10 で音源方向が定位され、ストリーム追跡部 60へ音源方向とピッチが入力される。ストリ ーム追跡部 60では、予測部 62が、音源方向履歴記憶部 61に記憶された音源方向 の履歴を読み出して現時点 tlでのストリーム特徴ベクトル ( Θ , f )を予測する。比
HMj 0
較部 63は、予測部 62で予測されたストリーム特徴ベクトル( Θ , f )と、音源定位部
HMj 0
10から入力された値から求まるストリーム特徴ベクトル( Θ , f )とを比較して、その
HMj 0
差 (距離)が所定の閾値より小さければ、音源方向を音源分離部 20へ出力する。 音源分離部 20は、音源定位部 10から入力されたスペクトルのデータと、ストリーム 追跡部 60が出力した音源方向 Θ のデータに基づき、第 1実施形態と同様にして
HMj
音源を分離する。そして、以下、特徴抽出部 30、音響モデル合成部 40、音声認識 部 50でも、第 1実施形態と同様にして、処理を行う。
[0115] このように、本実施形態の音声認識装置 100は、音源が追跡できているか否かを確 認した上で音声認識を行うので、音源が移動している場合にも、同じ音源が発し続け ている音声を連続して認識するため、誤認識の可能性を低くすることができる。特に、 複数の移動する音源があって、それらの音源が交差する場合などに好適である。 また、音源方向を記憶、予測していることから、その方向の所定範囲についてのみ 音源を探索すれば、処理を少なくすることができる。
以上、本発明の実施形態について説明したが、本発明は、前記した実施形態には 限定されず適宜変更して実施される。
例えば、音声認識装置 1が、カメラと、公知の画像認識装置を有し、話者の顔を認 識して、誰が話しているかを自己が有するデータベース力 話者を特定する話者同 定部を備え、前記方向依存音響モデルを話者ごとに有していれば、話者に適した音 響モデルを合成することができるので、認識率をより高くする事ができる。あるいは、 カメラを使わず、ベクトル量子化 (VQ)を用いて、予め登録してある話者の音声をべク トルイ匕したものと、音源分離部 20で分離された音声をベクトルィ匕したものとを比較し、 最も距離の近!ヽ話者を結果として出力することで話者を同定してもよ!、。

Claims

請求の範囲
[1] 複数のマイクが検出した音響信号から、音声を認識して文字情報に変換する音声 認識装置であって、
前記複数のマイクが検出した音響信号に基づき、前記特定の話者の音源方向を特 定する音源定位部と、
前記複数のマイクが検出した 1つ以上の音響信号に基づき、その音響信号に含ま れる音声信号の特徴を抽出する特徴抽出部と、
断続的な複数の方向に対応した方向依存音響モデルを記憶した音響モデル記憶 部と、
前記音源定位部が特定した音源方向の音響モデルを、前記音響モデル記憶部の 方向依存音響モデルに基づ 、て合成し、前記音響モデル記憶部へ記憶させる音響 モデル合成部と、
前記音響モデル合成部が合成した音響モデルを使用して、前記特徴抽出部が抽 出した特徴について音声認識を行い、文字情報に変換する音声認識部と、を備える ことを特徴とする音声認識装置。
[2] 複数のマイクが検出した音響信号から、特定の話者の音声を認識して文字情報に 変換する音声認識装置であって、
前記複数のマイクが検出した音響信号に基づき、前記特定の話者の音源方向を特 定する音源定位部と、
前記音源定位部が特定した音源方向に基づき、前記特定の話者の音声信号を前 記音響信号から分離する音源分離部と、
前記音源分離部が分離した音声信号の特徴を抽出する特徴抽出部と、 断続的な複数の方向に対応した方向依存音響モデルを記憶した音響モデル記憶 部と、
前記音源定位部が特定した音源方向の音響モデルを、前記音響モデル記憶部の 方向依存音響モデルに基づ 、て合成し、前記音響モデル記憶部へ記憶させる音響 モデル合成部と、
前記音響モデル合成部が合成した音響モデルを使用して、前記特徴抽出部が抽 出した特徴について音声認識を行い、文字情報に変換する音声認識部と、を備える ことを特徴とする音声認識装置。
[3] 前記音源定位部は、前記マイクが検出した音響信号を周波数分析した後、調波構 造を抽出し、複数のマイクから抽出された調波構造の音圧差と位相差とを求め、この 音圧差と位相差のそれぞれ力 音源方向の確力 しさを求め、最も確からしい方向を 音源方向と判断するよう構成されたことを特徴とする請求の範囲第 1項または第 2項 に記載の音声認識装置。
[4] 前記音源定位部は、前記複数のマイクから検出された音響信号の音圧差と位相差 を用いて前記特定の話者の音源方向を特定するために、前記マイクが設けられる部 材の表面で散乱する音響信号を音源方向ごとにモデルィ匕した散乱理論を用いること を特徴とする請求の範囲第 1項から第 3項のいずれか 1項に記載の音声認識装置。
[5] 前記音源分離部は、前記音源定位部が特定した音源方向が、前記複数のマイクの 配置により決定される正面に近い場合には、狭い方向帯域の音声を分離し、正面か ら離れると広い方向帯域の音声を分離するアクティブ方向通過型フィルタを用いて音 声分離を行うよう構成されたことを特徴とする請求の範囲第 2項から第 4項のいずれ 力 1項に記載の音声認識装置。
[6] 前記音響モデル合成部は、前記音響モデル記憶部の方向依存音響モデルの重み 付き線形和により前記音源方向の音響モデルを合成するよう構成され、
前記線形和に使用する重みが、学習により決定されたことを特徴とする請求の範囲 第 1項から第 5項のいずれか 1項に記載の音声認識装置。
[7] 前記話者を特定する話者同定部をさらに備え、
前記音響モデル記憶部は、前記話者ごとに方向依存音響モデルを有し、 前記音響モデル合成部は、前記話者同定部が特定した話者の方向依存音響モデ ルと、前記音源定位部が特定した音源方向とに基づき、前記音源方向の音響モデル を前記音響モデル記憶部の方向依存音響モデルに基づ 、て求め、前記音響モデ ル記憶部へ記憶させるよう構成されたことを特徴とする請求項の範囲第 1項力 第 6 項の 、ずれか 1項に記載の音声認識装置。
[8] 複数のマイクが検出した音響信号から、特定の話者の音声を認識して文字情報に 変換する音声認識装置であって、
前記複数のマイクが検出した音響信号に基づき、前記特定の話者の音源方向を特 定する音源定位部と、
前記音源定位部が特定した音源方向を記憶して前記特定の話者の移動している 方向を推定し、その推定された方向から、現在の話者の位置を推定するストリーム追 跡部と、
前記ストリーム追跡部が推定した現在の話者の位置から定まる音源方向に基づき、 前記特定の話者の音声信号を前記音響信号から分離する音源分離部と、
前記音源分離部が分離した音声信号の特徴を抽出する特徴抽出部と、 断続的な複数の方向に対応した方向依存音響モデルを記憶した音響モデル記憶 部と、
前記音源定位部が特定した音源方向の音響モデルを、前記音響モデル記憶部の 方向依存音響モデルに基づ 、て合成し、前記音響モデル記憶部へ記憶させる音響 モデル合成部と、
前記音響モデル合成部が合成した音響モデルを使用して、前記特徴抽出部が抽 出した特徴について音声認識を行い、文字情報に変換する音声認識部と、を備える ことを特徴とする音声認識装置。
PCT/JP2004/016883 2003-11-12 2004-11-12 音声認識装置 WO2005048239A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE602004021716T DE602004021716D1 (de) 2003-11-12 2004-11-12 Spracherkennungssystem
JP2005515466A JP4516527B2 (ja) 2003-11-12 2004-11-12 音声認識装置
US10/579,235 US20090018828A1 (en) 2003-11-12 2004-11-12 Automatic Speech Recognition System
EP04818533A EP1691344B1 (en) 2003-11-12 2004-11-12 Speech recognition system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-383072 2003-11-12
JP2003383072 2003-11-12

Publications (1)

Publication Number Publication Date
WO2005048239A1 true WO2005048239A1 (ja) 2005-05-26

Family

ID=34587281

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/016883 WO2005048239A1 (ja) 2003-11-12 2004-11-12 音声認識装置

Country Status (5)

Country Link
US (1) US20090018828A1 (ja)
EP (1) EP1691344B1 (ja)
JP (1) JP4516527B2 (ja)
DE (1) DE602004021716D1 (ja)
WO (1) WO2005048239A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264328A (ja) * 2006-03-28 2007-10-11 Matsushita Electric Works Ltd 浴室装置及びそれに用いる音声操作装置
JP2009020352A (ja) * 2007-07-12 2009-01-29 Yamaha Corp 音声処理装置およびプログラム
JP2011146871A (ja) * 2010-01-13 2011-07-28 Hitachi Ltd 音源探索装置及び音源探索方法
WO2015029296A1 (ja) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声認識方法及び音声認識装置
JP2018517325A (ja) * 2015-04-09 2018-06-28 シンテフ ティーティーオー アクティーゼルスカブ 音声認識
US10880643B2 (en) 2018-09-27 2020-12-29 Fujitsu Limited Sound-source-direction determining apparatus, sound-source-direction determining method, and storage medium
JPWO2019138619A1 (ja) * 2018-01-09 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
TWI740315B (zh) * 2019-08-23 2021-09-21 大陸商北京市商湯科技開發有限公司 聲音分離方法、電子設備和電腦可讀儲存媒體
CN113576527A (zh) * 2021-08-27 2021-11-02 复旦大学 一种利用声控进行超声输入判断的方法

Families Citing this family (289)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE602005008005D1 (de) * 2005-02-23 2008-08-21 Harman Becker Automotive Sys Spracherkennungssytem in einem Kraftfahrzeug
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP2007318438A (ja) * 2006-05-25 2007-12-06 Yamaha Corp 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
CN101622663B (zh) * 2007-03-02 2012-06-20 松下电器产业株式会社 编码装置以及编码方法
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8532802B1 (en) * 2008-01-18 2013-09-10 Adobe Systems Incorporated Graphic phase shifter
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
KR101178801B1 (ko) * 2008-12-09 2012-08-31 한국전자통신연구원 음원분리 및 음원식별을 이용한 음성인식 장치 및 방법
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8175617B2 (en) 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
JP5622744B2 (ja) * 2009-11-06 2014-11-12 株式会社東芝 音声認識装置
US20110125497A1 (en) * 2009-11-20 2011-05-26 Takahiro Unno Method and System for Voice Activity Detection
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US8560309B2 (en) * 2009-12-29 2013-10-15 Apple Inc. Remote conferencing center
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US8676581B2 (en) * 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
CN102893327B (zh) * 2010-03-19 2015-05-27 数字标记公司 直觉计算方法和系统
US9378754B1 (en) 2010-04-28 2016-06-28 Knowles Electronics, Llc Adaptive spatial classifier for multi-microphone systems
KR101750338B1 (ko) * 2010-09-13 2017-06-23 삼성전자주식회사 마이크의 빔포밍 수행 방법 및 장치
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
KR101791907B1 (ko) * 2011-01-04 2017-11-02 삼성전자주식회사 위치 기반의 음향 처리 장치 및 방법
US9047867B2 (en) * 2011-02-21 2015-06-02 Adobe Systems Incorporated Systems and methods for concurrent signal recognition
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
JP5479655B2 (ja) * 2011-07-08 2014-04-23 ゴーアテック インコーポレイテッド 残留エコーを抑制するための方法及び装置
US9435873B2 (en) 2011-07-14 2016-09-06 Microsoft Technology Licensing, Llc Sound source localization using phase spectrum
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US9966088B2 (en) * 2011-09-23 2018-05-08 Adobe Systems Incorporated Online source separation
US8879761B2 (en) 2011-11-22 2014-11-04 Apple Inc. Orientation-based audio
BR112014015844A8 (pt) * 2011-12-26 2017-07-04 Intel Corp determinação das entradas de áudio e visuais de ocupantes baseada em veículo
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9881616B2 (en) * 2012-06-06 2018-01-30 Qualcomm Incorporated Method and systems having improved speech recognition
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US8831957B2 (en) * 2012-08-01 2014-09-09 Google Inc. Speech recognition models based on location indicia
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US9311640B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
DE112014002747T5 (de) 2013-06-09 2016-03-03 Apple Inc. Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
JP6148163B2 (ja) * 2013-11-29 2017-06-14 本田技研工業株式会社 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9338761B2 (en) * 2014-02-26 2016-05-10 Empire Technology Development Llc Presence-based device mode modification
US9390712B2 (en) * 2014-03-24 2016-07-12 Microsoft Technology Licensing, Llc. Mixed speech recognition
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9817634B2 (en) * 2014-07-21 2017-11-14 Intel Corporation Distinguishing speech from multiple users in a computer interaction
WO2016033269A1 (en) * 2014-08-28 2016-03-03 Analog Devices, Inc. Audio processing using an intelligent microphone
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
CN107112025A (zh) 2014-09-12 2017-08-29 美商楼氏电子有限公司 用于恢复语音分量的系统和方法
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9626001B2 (en) 2014-11-13 2017-04-18 International Business Machines Corporation Speech recognition candidate selection based on non-acoustic input
US9881610B2 (en) 2014-11-13 2018-01-30 International Business Machines Corporation Speech recognition system adaptation based on non-acoustic attributes and face selection based on mouth motion using pixel intensities
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
JP6543843B2 (ja) * 2015-06-18 2019-07-17 本田技研工業株式会社 音源分離装置、および音源分離方法
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
CN105005027A (zh) * 2015-08-05 2015-10-28 张亚光 一种区域范围内目标对象的定位系统
JP6543844B2 (ja) * 2015-08-27 2019-07-17 本田技研工業株式会社 音源同定装置および音源同定方法
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
KR102444061B1 (ko) * 2015-11-02 2022-09-16 삼성전자주식회사 음성 인식이 가능한 전자 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9826306B2 (en) 2016-02-22 2017-11-21 Sonos, Inc. Default playback device designation
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10142754B2 (en) 2016-02-22 2018-11-27 Sonos, Inc. Sensor on moving component of transducer
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
EP3434024B1 (en) * 2016-04-21 2023-08-02 Hewlett-Packard Development Company, L.P. Electronic device microphone listening modes
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
JP6703460B2 (ja) * 2016-08-25 2020-06-03 本田技研工業株式会社 音声処理装置、音声処理方法及び音声処理プログラム
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
JP6672114B2 (ja) * 2016-09-13 2020-03-25 本田技研工業株式会社 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム
US9794720B1 (en) 2016-09-22 2017-10-17 Sonos, Inc. Acoustic position measurement
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
JP6805037B2 (ja) * 2017-03-22 2020-12-23 株式会社東芝 話者検索装置、話者検索方法、および話者検索プログラム
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
CN107135443B (zh) * 2017-03-29 2020-06-23 联想(北京)有限公司 一种信号处理方法及电子设备
CN110603587A (zh) * 2017-05-08 2019-12-20 索尼公司 信息处理设备
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10649060B2 (en) 2017-07-24 2020-05-12 Microsoft Technology Licensing, Llc Sound source localization confidence estimation using machine learning
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10847149B1 (en) * 2017-09-01 2020-11-24 Amazon Technologies, Inc. Speech-based attention span for voice user interface
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
KR102469753B1 (ko) * 2017-11-30 2022-11-22 삼성전자주식회사 음원의 위치에 기초하여 서비스를 제공하는 방법 및 이를 위한 음성 인식 디바이스
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
WO2019169616A1 (zh) * 2018-03-09 2019-09-12 深圳市汇顶科技股份有限公司 语音信号处理方法及装置
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
CN109298642B (zh) * 2018-09-20 2021-08-27 三星电子(中国)研发中心 采用智能音箱进行监控的方法及装置
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10726830B1 (en) * 2018-09-27 2020-07-28 Amazon Technologies, Inc. Deep multi-channel acoustic modeling
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
CN111627425B (zh) * 2019-02-12 2023-11-28 阿里巴巴集团控股有限公司 一种语音识别方法及系统
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11482217B2 (en) * 2019-05-06 2022-10-25 Google Llc Selectively activating on-device speech recognition, and using recognized text in selectively activating on-device NLU and/or on-device fulfillment
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
KR20190089125A (ko) * 2019-07-09 2019-07-30 엘지전자 주식회사 커뮤니케이션 로봇 및 그의 구동 방법
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection
CN113838453B (zh) * 2021-08-17 2022-06-28 北京百度网讯科技有限公司 语音处理方法、装置、设备和计算机存储介质
CN116299179B (zh) * 2023-05-22 2023-09-12 北京边锋信息技术有限公司 一种声源定位方法、声源定位装置和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03274593A (ja) * 1990-03-26 1991-12-05 Ricoh Co Ltd 車載用音声認識装置
JPH0844387A (ja) * 1994-08-04 1996-02-16 Aqueous Res:Kk 音声認識装置
JPH11143486A (ja) * 1997-11-10 1999-05-28 Fuji Xerox Co Ltd 話者適応装置および方法
JP2000066698A (ja) * 1998-08-19 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> 音認識装置
JP2002041079A (ja) * 2000-07-31 2002-02-08 Sharp Corp 音声認識装置および音声認識方法、並びに、プログラム記録媒体
JP2002264051A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6471420B1 (en) * 1994-05-13 2002-10-29 Matsushita Electric Industrial Co., Ltd. Voice selection apparatus voice response apparatus, and game apparatus using word tables from which selected words are output as voice selections
US5828997A (en) * 1995-06-07 1998-10-27 Sensimetrics Corporation Content analyzer mixing inverse-direction-probability-weighted noise to input signal
DE69815067T2 (de) * 1997-12-12 2004-02-26 Philips Intellectual Property & Standards Gmbh Verfahren zur bestimmung modell-spezifischer faktoren für die mustererkennung im insbesonderen für sprachmuster
FI116505B (fi) * 1998-03-23 2005-11-30 Nokia Corp Menetelmä ja järjestelmä suunnatun äänen käsittelemiseksi akustisessa virtuaaliympäristössä
JP3195920B2 (ja) * 1999-06-11 2001-08-06 科学技術振興事業団 音源同定・分離装置及びその方法
DE10047718A1 (de) * 2000-09-27 2002-04-18 Philips Corp Intellectual Pty Verfahren zur Spracherkennung
US7076433B2 (en) * 2001-01-24 2006-07-11 Honda Giken Kogyo Kabushiki Kaisha Apparatus and program for separating a desired sound from a mixed input sound
JP2003131683A (ja) * 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP4195267B2 (ja) * 2002-03-14 2008-12-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置、その音声認識方法及びプログラム
AU2003274445A1 (en) * 2002-06-11 2003-12-22 Sony Electronics Inc. Microphone array with time-frequency source discrimination
KR100493172B1 (ko) * 2003-03-06 2005-06-02 삼성전자주식회사 마이크로폰 어레이 구조, 이를 이용한 일정한 지향성을갖는 빔 형성방법 및 장치와 음원방향 추정방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03274593A (ja) * 1990-03-26 1991-12-05 Ricoh Co Ltd 車載用音声認識装置
JPH0844387A (ja) * 1994-08-04 1996-02-16 Aqueous Res:Kk 音声認識装置
JPH11143486A (ja) * 1997-11-10 1999-05-28 Fuji Xerox Co Ltd 話者適応装置および方法
JP2000066698A (ja) * 1998-08-19 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> 音認識装置
JP2002041079A (ja) * 2000-07-31 2002-02-08 Sharp Corp 音声認識装置および音声認識方法、並びに、プログラム記録媒体
JP2002264051A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
KAZUHIRO NAKADAI ET AL.: "A humanoid Listens to three simultaneous talkers by Integrating Active Audition and Face Recognition", IJCAI-03 WORKSHOP ON ISSUES IN DESIGNING PHYSICAL AGENTS FOR DYNAMIC REAL-TIME ENVIRONMENTS: WORLD MODELING, PLANNING, LEARNING AND COMMUNICATING, pages 117 - 124
NAKADAI ET AL.: "Robot recognizes three simultaneous speech by active audition", PROCEEDINGS OF THE IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, vol. 1, 14 September 2003 (2003-09-14), pages 398 - 405, XP010667329, DOI: doi:10.1109/ROBOT.2003.1241628
NAKADAI K. ET AL.: "Active audition ni yoru fukusu ongen no teii bunri ninshiki", THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE KENKYUKAI SHIRYO SIG-CHALLENGE-0216-5, 22 November 2002 (2002-11-22), pages 25 - 32, XP002997485 *
NAKADAI K. ET AL.: "Kaisoteki na shichokaku togo to sanran riron o riyo chita robot ni yoru sanwasha doji hatsuwa ninshiki no kojo", THE ROBOTICS SOCIETY OF JAPAN GAKUJUTSU KOENKAI YOKOSHU, 20 September 2003 (2003-09-20), XP002997484 *
NAKADAI K. ET AL.: "Robot o taisho to shita sanran riron ni yoru sanwasha doji hatsuwa no teii bunri ninshiki no kojo", THE JAPANESE SOCIETY FOR ARTIFICIAL INTELLIGENCE KENKYUKAI SHIRYO SIG-CHALLENGE-0216-5, 13 November 2003 (2003-11-13), pages 33 - 38, XP002997486 *
NAKAGAI K. ET AL.: "Robot recognizes three simultaneous speech by activie audition", PROC. OF THE 2003 IEEE, 14 September 2003 (2003-09-14), pages 398 - 405, XP010667329 *
See also references of EP1691344A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264328A (ja) * 2006-03-28 2007-10-11 Matsushita Electric Works Ltd 浴室装置及びそれに用いる音声操作装置
JP2009020352A (ja) * 2007-07-12 2009-01-29 Yamaha Corp 音声処理装置およびプログラム
JP2011146871A (ja) * 2010-01-13 2011-07-28 Hitachi Ltd 音源探索装置及び音源探索方法
WO2015029296A1 (ja) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声認識方法及び音声認識装置
JPWO2015029296A1 (ja) * 2013-08-29 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声認識方法及び音声認識装置
US9818403B2 (en) 2013-08-29 2017-11-14 Panasonic Intellectual Property Corporation Of America Speech recognition method and speech recognition device
JP2018517325A (ja) * 2015-04-09 2018-06-28 シンテフ ティーティーオー アクティーゼルスカブ 音声認識
JPWO2019138619A1 (ja) * 2018-01-09 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7120254B2 (ja) 2018-01-09 2022-08-17 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US10880643B2 (en) 2018-09-27 2020-12-29 Fujitsu Limited Sound-source-direction determining apparatus, sound-source-direction determining method, and storage medium
TWI740315B (zh) * 2019-08-23 2021-09-21 大陸商北京市商湯科技開發有限公司 聲音分離方法、電子設備和電腦可讀儲存媒體
CN113576527A (zh) * 2021-08-27 2021-11-02 复旦大学 一种利用声控进行超声输入判断的方法

Also Published As

Publication number Publication date
JP4516527B2 (ja) 2010-08-04
JPWO2005048239A1 (ja) 2007-11-29
DE602004021716D1 (de) 2009-08-06
EP1691344A1 (en) 2006-08-16
US20090018828A1 (en) 2009-01-15
EP1691344A4 (en) 2008-04-02
EP1691344B1 (en) 2009-06-24

Similar Documents

Publication Publication Date Title
JP4516527B2 (ja) 音声認識装置
US10901063B2 (en) Localization algorithm for sound sources with known statistics
Pak et al. Sound localization based on phase difference enhancement using deep neural networks
Srinivasan et al. Binary and ratio time-frequency masks for robust speech recognition
JP5738020B2 (ja) 音声認識装置及び音声認識方法
Yamakawa et al. Environmental sound recognition for robot audition using matching-pursuit
Venkatesan et al. Binaural classification-based speech segregation and robust speaker recognition system
Yamamoto et al. Assessment of general applicability of robot audition system by recognizing three simultaneous speeches
Grondin et al. WISS, a speaker identification system for mobile robots
Okuno et al. Computational auditory scene analysis and its application to robot audition
Okuno et al. Robot audition: Missing feature theory approach and active audition
Kallasjoki et al. Mask estimation and sparse imputation for missing data speech recognition in multisource reverberant environments
Venkatesan et al. Deep recurrent neural networks based binaural speech segregation for the selection of closest target of interest
KR20090116055A (ko) 은닉 마코프 모델을 이용한 잡음 마스크 추정 방법 및 이를수행하는 장치
Kundegorski et al. Two-Microphone dereverberation for automatic speech recognition of Polish
JP2011081324A (ja) ピッチ・クラスター・マップを用いた音声認識方法
Asaei et al. Verified speaker localization utilizing voicing level in split-bands
Habib et al. Auditory inspired methods for localization of multiple concurrent speakers
Lee et al. Space-time voice activity detection
Okuno et al. Computational auditory scene analysis and its application to robot audition: Five years experience
Kim et al. Target speech detection and separation for humanoid robots in sparse dialogue with noisy home environments
Himawan Speech recognition using ad-hoc microphone arrays
Yamamoto et al. Genetic algorithm-based improvement of robot hearing capabilities in separating and recognizing simultaneous speech signals
Mahmoodzadeh et al. Binaural speech separation based on the time-frequency binary mask
Yoon et al. Acoustic model combination incorporated with mask-based multi-channel source separation for automatic speech recognition

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005515466

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 10579235

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004818533

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004818533

Country of ref document: EP