WO2002005266A1 - Systeme de reconnaissance de la parole, procede de reconnaissance de la parole et programme de reconnaissance de la parole - Google Patents

Systeme de reconnaissance de la parole, procede de reconnaissance de la parole et programme de reconnaissance de la parole Download PDF

Info

Publication number
WO2002005266A1
WO2002005266A1 PCT/JP2001/005950 JP0105950W WO0205266A1 WO 2002005266 A1 WO2002005266 A1 WO 2002005266A1 JP 0105950 W JP0105950 W JP 0105950W WO 0205266 A1 WO0205266 A1 WO 0205266A1
Authority
WO
WIPO (PCT)
Prior art keywords
level
voice
audio
digital
signal
Prior art date
Application number
PCT/JP2001/005950
Other languages
English (en)
French (fr)
Inventor
Tomoe Kawane
Takeo Kanamori
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to DE60122893T priority Critical patent/DE60122893T2/de
Priority to EP01947936A priority patent/EP1300832B1/en
Publication of WO2002005266A1 publication Critical patent/WO2002005266A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation

Definitions

  • Speech recognition device speech recognition method, and speech recognition program
  • the present invention relates to a voice recognition device, a voice recognition method, and a voice recognition program for recognizing voice uttered by a speaker.
  • This speech recognition means that a computer or machine automatically understands human speech.
  • a computer or a machine can be operated according to human voice, or human voice can be converted into characters.
  • a method is mainly used in which physical features such as a frequency spectrum of an uttered speech are extracted and compared with a previously stored physical feature type of a vowel, consonant, or word.
  • accurate voice recognition cannot be performed due to differences in physical characteristics of the voice due to individual differences among the speakers.
  • noise noise due to changes in the surrounding environment, such as day and night, or changes in physical characteristics of the voice due to the physical condition of the speaker, etc., make speech recognition difficult. This causes a reduction in the recognition rate at the time of performing, so that accurate voice recognition cannot be performed.
  • FIG. 13 is a schematic diagram showing an example of the relationship between the voice level and the recognition rate when performing voice recognition.
  • the vertical axis indicates the recognition rate (%)
  • the horizontal axis indicates the audio level (dB).
  • the audio level means an audio power level.
  • 0 dB means a load resistance of 600 ⁇ , a terminal voltage of 0.775 V, and a power consumption of 1 mW.
  • the recognition rate tends to decrease when the speech level is lower than 119 dB or when the speech level is higher than 12 dB.
  • the recognition rate is high near the speech level when the speech level, which is the type of a vowel, consonant, or physical feature of a word, is stored in advance. That is, since voice recognition is performed by comparing a previously stored voice level with an input voice level, an average high recognition rate cannot be obtained from low to high voice levels.
  • Japanese Utility Model Application Laid-Open No. 59-700700 always uses an AGC circuit (Auto Gain Controller) for the microphone opening amplifier used when inputting audio.
  • AGC circuit Auto Gain Controller
  • Japanese Utility Model Laid-Open No. 01-134 797 and Japanese Patent Application Laid-Open No. 63-2004 2000 disclose the speaker's voice level by appropriate means and provide the optimum voice level.
  • a voice recognition device that prompts the user to utter is disclosed.
  • noise other than speech that does not need to be amplified by the AGC circuit is also amplified, and the recognition rate is increased by the amplified noise. May decrease.
  • the input speech has accents that indicate the inflection of words for each word. For this reason, the input audio level is frequently amplified or not amplified by the AGC circuit, so that the waveform of the audio amplified to a substantially constant level is distorted. Due to the distortion of the speech waveform, accents indicating inflections of words included in each word are distorted and the recognition rate is reduced.
  • the speech recognition apparatus disclosed in Japanese Utility Model Laid-Open Publication No. 01-134 797 and Japanese Patent Laid-Open Publication No. 63-014200, changes in the surrounding environment or the physical condition of the speaker itself are considered.
  • the sound level input by the speaker may not reach a predetermined value due to an influence such as a defect.
  • the voice recognition device does not recognize the voice even when the speaker utters a predetermined voice level.
  • the sound level uttered by a speaker is a physical characteristic peculiar to an individual, and if the utterance is forcibly changed, the physical characteristics may be different, which may lower the recognition rate of voice recognition. Disclosure of the invention
  • An object of the present invention is to provide a voice recognition device, a voice recognition method, and a voice recognition program that can improve the recognition rate of voice recognition without being influenced by the voice level of a speaker.
  • a voice recognition device comprises: input means for inputting a digital voice signal; and estimating the voice level of the voice section based on the digital voice signal within a part of the time within the voice section input by the input means.
  • Voice level estimating means, and voice level adjusting means for adjusting the level of a digital voice signal in a voice section input by the input means based on the voice level estimated by the voice level estimating means and a preset target level.
  • Voice recognition means for performing voice recognition based on the digital voice signal adjusted by the voice level adjustment means.
  • a digital voice signal is input by the input means, and the voice level estimating means is based on the digital voice signal within a predetermined time within the voice section input by the input means.
  • the voice level of the voice section is estimated.
  • the level of the digital audio signal in the audio section input by the input means is adjusted by the audio level adjusting means, and Voice recognition is performed by voice recognition means based on the adjusted digital voice signal.
  • the entire audio level of the audio section is estimated based on the digital audio signal in a part of the time within the audio section, and the digital level of the audio section is estimated based on the estimated audio level and a preset target level.
  • the level of the audio signal is adjusted uniformly.
  • the voice level estimating means may be a means for estimating the voice level of the voice section based on the digital voice signal within the first predetermined time in the voice section input by the input means.
  • the entire sound level of the voice section can be determined from the rising portion of the voice level within the first predetermined time in the voice section. Therefore, the sound By estimating the voice level based on the digital voice signal within the first predetermined time in the voice section, the voice level in the voice section can be accurately estimated in a short time.
  • the audio level estimating means may estimate the average value of the digital audio signal within the first predetermined time in the audio section input by the input means as the audio level of the audio section.
  • the audio level adjusting means amplifies or amplifies the level of the digital audio signal in the audio section input by the input means at an amplification rate determined by a ratio between a preset target level and the audio level estimated by the audio level estimating means. It may be attenuated.
  • the audio level of the voice section can be set to the target level by increasing or attenuating the level of the digital signal in the voice section at an amplification factor determined by the ratio between the target level and the estimated voice level.
  • the voice recognition device delays the digital voice signal input by the input means so that the digital voice signal input by the input means is given to the voice level adjusting means in synchronization with the voice level estimated by the voice level estimating means.
  • a delay circuit may be further provided.
  • the audio level can be adjusted using the estimated value of the audio level corresponding to the digital audio signal.
  • the voice level of the voice section can be adjusted accurately.
  • the voice level estimating means includes a voice detecting unit for detecting a start point of a voice section input by the input means, and a voice based on a digital voice signal within a first predetermined time in the voice section input by the input means.
  • a voice level estimating unit for estimating a voice level of a section, a holding circuit for holding the voice level estimated by the voice level estimating unit, and a digital voice section input by the input means in response to detection by the voice detecting unit.
  • a storage circuit for storing the audio signal and outputting the digital audio signal of the stored audio section to the audio level adjusting means in synchronization with the audio level held in the holding circuit.
  • the start point of the digital audio signal in the audio section input by the input means is detected by the audio detection unit, and the audio level is determined based on the digital audio signal within the first predetermined time in the audio section input by the input means.
  • the estimating unit estimates the voice level of the voice section.
  • the audio level estimated by the audio level estimating section is held by the holding circuit, and the digital audio signal of the audio section input by the input means in response to the detection by the audio detecting section is stored and stored in the storage circuit.
  • the digital audio signal in the audio section is output to the audio level adjusting means by the storage circuit in synchronization with the audio level held in the holding circuit.
  • the digital audio signal is stored in the storage circuit from the start point of the audio section, and the audio level is adjusted using the estimated value of the audio level corresponding to the stored digital audio signal.
  • the digital audio signal can be adjusted to an accurate audio level, and the recognition rate of voice recognition can be improved.
  • the storage circuit includes a first buffer and a second buffer that alternately store digital audio signals of the audio section input by the input means and alternately output the stored digital audio signals of the audio section to the audio level adjustment means. May be included.
  • the digital speech signals of the speech section are alternately accumulated in the first and second buffers, and the speech section from the first or second buffer is input. Is output.
  • long-time speech including a plurality of words can be recognized using the first or second buffer having a small capacity.
  • the speech recognition means may return the speech recognition result to the speech level adjustment means, and the speech level adjustment means may change the degree of adjustment of the speech level based on the speech recognition result returned by the speech recognition means.
  • the voice level adjusting means may increase the gain of the voice level when voice recognition by the voice recognition means is impossible.
  • the voice recognition device deactivates the voice level adjusting means when the voice level estimated by the voice level estimating means is within a predetermined range, and the voice level estimated by the voice level estimating means is determined in advance.
  • a non-linear processing unit that activates the sound level adjusting means when the sound level is not within the predetermined range, changes the sound level estimated by the sound level estimating means to a sound level within a predetermined range, and gives the sound level to the sound level adjusting means. May be further included.
  • the sound level can be adjusted by changing to the sound level within the predetermined range.
  • the sound level can be adjusted by changing to the sound level within the predetermined range.
  • a voice recognition method includes a step of inputting a digital voice signal; a step of estimating a voice level of the voice section based on the input digital voice signal during a part of the time within the voice section; The method comprises the steps of adjusting the level of a digital audio signal in an audio section based on the estimated audio level and a preset target level, and performing speech recognition based on the adjusted digital audio signal. is there.
  • a digital voice signal is input, and the voice level of the voice section is estimated based on the digital voice signal within a part of the time within the voice section.
  • the level of the digital voice signal in the voice section is adjusted based on the estimated voice level and a preset target level, and voice recognition is performed based on the adjusted digital voice signal.
  • the entire audio level of the audio section is estimated based on the digital audio signal in a part of the time within the audio section, and the digital level of the audio section is estimated based on the estimated audio level and a preset target level.
  • the level of the audio signal is adjusted uniformly.
  • speech recognition can be performed without giving any distortion to the accent of the speaker's speech that indicates the intonation of words. Therefore, the recognition rate of speech recognition can be improved.
  • Estimating the audio level may include estimating the audio level of the audio section based on the digital audio signal within the first predetermined time in the audio section.
  • the entire sound level of the voice section can be determined from the rising portion of the voice level within the first predetermined time in the voice section. Therefore, by estimating the audio level based on the digital audio signal within the first predetermined time in the audio section, the audio level in the audio section can be accurately estimated in a short time.
  • Estimating the audio level may include estimating an average value of the digital audio signal within a first predetermined time in the audio section as an audio level of the audio section.
  • Adjusting the level of the digital audio signal may include amplifying or attenuating the level of the digital audio signal in the audio section at an amplification factor determined by a ratio between a preset target level and the estimated audio level. .
  • the audio level of the voice section can be set to the target level by increasing or attenuating the level of the digital signal in the voice section at an amplification factor determined by the ratio between the target level and the estimated voice level.
  • the speech recognition method further comprises the step of delaying the digital speech signal so as to be provided to the step of adjusting the level of the digital speech signal in synchronization with the estimated speech level of the digital speech signal in the speech section. It is.
  • the audio level can be adjusted using the estimated value of the audio level corresponding to the digital audio signal.
  • the voice level of the voice section can be adjusted accurately.
  • the steps of estimating the audio level include detecting a start point of the digital audio signal in the audio section, and estimating the audio level of the audio section based on the digital audio signal within the first predetermined time in the audio section. Holding the estimated voice level; storing the digital voice signal of the voice section in response to detecting the start point of the digital voice signal; and holding the digital voice signal of the stored voice section. And outputting in synchronism.
  • the start point of the digital voice signal in the voice section is detected, and the voice level of the voice section is estimated based on the digital voice signal within the first predetermined time in the voice section.
  • the estimated voice level is held, the digital voice signal of the voice section is stored in response to the detection of the start point of the digital voice signal of the voice section, and the voice that holds the stored digital voice signal of the voice section is held. Output in synchronization with the level.
  • the digital audio signal is stored in the storage circuit from the start point of the audio section, and the audio level is adjusted using the estimated value of the audio level corresponding to the stored digital audio signal. As a result, the digital audio signal can be adjusted to an accurate audio level, and the recognition rate of voice recognition can be improved.
  • the storing step includes alternately storing the digital voice signal of the voice section in the first and second buffers, and outputting the digital voice signal of the stored voice section alternately from the first and second buffers. Steps may be included.
  • the digital speech signals of the speech section are alternately accumulated in the first and second buffers, and the speech section from the first or second buffer is input. Is output.
  • long-time speech including a plurality of words can be recognized using the first or second buffer having a small capacity.
  • the step of performing speech recognition includes returning the speech recognition result to the step of adjusting the level of the digital speech signal, and the step of adjusting the level of the digital speech signal includes the step of adjusting the speech level based on the returned speech recognition result. It may also include changing the degree of adjustment.
  • Adjusting the level of the digital audio signal may include increasing the amplification of the audio level when speech recognition is not possible.
  • the voice recognition method deactivates adjusting the level of the digital voice signal when the estimated voice level is within a predetermined range, and when the estimated voice level is not within the predetermined range. Activating the adjusting step and changing the estimated audio level to an audio level within a predetermined range, and using the changed audio level to adjust the level of the digital audio signal. It is provided.
  • the sound level can be adjusted by changing to the sound level within the predetermined range.
  • the sound level can be adjusted by changing to the sound level within the predetermined range.
  • a voice recognition program is a computer-readable voice recognition program, comprising: a process of inputting a digital voice signal; and a process based on the digital voice signal in a part of time within the input voice section. Estimating the audio level of the audio section using the estimated audio level and adjusting the level of the digital audio signal of the input audio section based on the estimated audio level and a preset target level; And a process for performing voice recognition based on the voice signal.
  • a digital voice signal is input, and the voice level of the voice section is estimated based on the digital voice signal within a predetermined time within the input voice section.
  • the level of the digital voice signal in the voice section input based on the estimated voice level and a preset target level is adjusted, and voice recognition is performed based on the adjusted digital voice signal.
  • the entire audio level of the audio section is estimated based on the digital audio signal in a part of the time within the audio section, and the digital level of the audio section is estimated based on the estimated audio level and a preset target level.
  • the level of the audio signal is adjusted uniformly.
  • sound is generated based on a digital audio signal in a part of time within an audio section.
  • the voice level of the entire voice section is estimated, and the level of the digital voice signal in the voice section is uniformly adjusted based on the estimated voice level and a preset target level.
  • FIG. 1 is a block diagram showing an example of a voice recognition device according to the first embodiment of the present invention.
  • Figure 2 is a block diagram showing the configuration of a computer for executing a speech recognition program.
  • FIG. 3 is a waveform diagram showing a speech spectrum of "Rakubi-ichi" uttered by a speaker.
  • FIG. 4 is a block diagram showing a speech recognition device according to a second embodiment of the present invention. Is the output waveform diagram of the microphone in Fig. 4, and (b) is a diagram showing the ratio of the audio signal (signal component) to the noise component.
  • FIG. 6 is a flowchart showing the operation of the voice detection unit in FIG.
  • Figure 7 is a schematic diagram showing the input and output of digital audio signals in the buffer when the speaker utters two words.
  • FIG. 8 is a block diagram illustrating an example of a speech recognition device according to the third embodiment of the present invention.
  • FIG. 9 is a flowchart for explaining the operation of the audio level adjustment feedback section shown in FIG. 8 when adjusting the audio level.
  • FIG. 10 is a block diagram showing an example of a speech recognition device according to the fourth embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a relationship between an estimated value of a speech level input to the signal nonlinear processing unit in FIG. 10 and a recognition rate in the speech recognition unit in FIG. 10.
  • FIG. 12 is a flowchart showing the processing operation of the signal nonlinear processing unit.
  • Figure 13 is a schematic diagram showing an example of the relationship between the speech level and the recognition rate when performing speech recognition.
  • FIG. 1 is a block diagram showing an example of the speech recognition device according to the first embodiment of the present invention.
  • the speech recognition device includes a microphone 1, an A / D (analog-digital) converter 2, a signal delay unit 3, a speech level estimation unit 4, a speech level adjustment unit 5, and a speech recognition unit 6. .
  • a voice uttered by a speaker is collected by a microphone 1.
  • the collected sound is converted into an analog sound signal S A by the function of the microphone 1 and output to the A / D converter 2.
  • the AZD converter 2 converts the output analog audio signal SA into a digital audio signal DS, and supplies the digital audio signal DS to the signal delay unit 3 and the audio level estimation unit 4.
  • the audio level estimator 4 calculates an estimated audio level LVL from the digital audio signal DS provided.
  • the voice level means the level of voice power (voice energy). The calculation of the estimated value LVL of the audio level will be described later.
  • the signal delay unit 3 gives the digital audio signal DS delayed by a delay amount corresponding to a predetermined audio level rise time TL described later to the audio level adjustment unit 5.
  • the audio level adjustment unit 5 adjusts the audio level of the digital audio signal DS given by the signal delay unit 3 in synchronization with the audio level estimation value LVL given from the audio level estimation unit 4.
  • the audio level adjustment unit 5 supplies the output C TRL —OUT after the adjustment of the audio level to the audio recognition unit 6.
  • the speech recognition unit 6 performs speech recognition based on the output CTRL_ ⁇ UT after the speech level adjustment provided by the speech level adjustment unit 5.
  • the microphone 1 and the A / ⁇ (analog-to-digital) converter 2 correspond to input means
  • the signal delay unit 3 corresponds to a delay circuit
  • the speech level estimation unit 4 The voice level estimating unit corresponds to the voice level adjusting unit 5, the voice level adjusting unit 5 corresponds to the voice level adjusting unit, and the voice recognizing unit 6 corresponds to the voice recognizing unit.
  • the signal delay unit 3, the audio level estimation unit 4, the audio level adjustment unit 5, and the audio recognition unit 6 can be composed of a signal delay circuit, an audio level estimation circuit, an audio level adjustment circuit, and an audio recognition circuit, respectively. it can.
  • the signal delay unit 3, the voice level estimation unit 4, the voice level adjustment unit 5, and the voice recognition unit 6 can be expressed by a computer and a voice recognition program.
  • FIG. 2 is a block diagram showing a configuration of a computer for executing the speech recognition program.
  • the computer includes a CPU (central processing unit) 500, an input / output device 501, a ROM (read only memory) 502, a RAM (random access memory) 503, a recording medium 504, a recording medium drive 505, and an external recording device 506. .
  • the input / output device 501 transmits and receives information to and from other devices.
  • the input / output device 501 of the present embodiment inputs the digital audio signal DS from the AZD converter 2 of FIG.
  • the ROM 502 stores a system program.
  • the recording medium drive 505 includes a CD-ROM drive, a floppy disk drive and the like, and reads and writes data from and to a recording medium 504 such as a CD-R—M and a floppy disk.
  • the recording medium 504 stores a speech recognition program.
  • the external recording device 506 includes a hard disk device or the like, and records the voice recognition program read from the recording medium 504 via the recording medium driving device 505.
  • the CPU 500 executes the speech recognition program recorded on the external recording device 506 on the RAM 503. Thereby, the functions of the signal delay unit 3, the voice level estimation unit 4, the voice level adjustment unit 5, and the voice recognition unit 6 in FIG. 1 are executed.
  • X represents Q time points within a predetermined audio level rise time TL
  • DS (X) represents the value of the digital audio signal DS at the Q time points.
  • the voice level estimate LVL is It is expressed like a formula.
  • the estimated value LVL of the audio level is obtained by dividing the cumulative addition of the absolute value of the digital audio signal DS (X) at Q times within the predetermined audio level rise time TL by Q This is the average value obtained by performing In this way, the voice level estimating unit 4 calculates the estimated value LVL of the voice level.
  • a predetermined target value of the sound level is expressed as TRG-LVL.
  • the audio level adjustment value LVL-CTRL is represented by the following equation. '
  • L VL_CTRL TRG_L VL / L VL... (2)
  • the audio level adjustment value LVL-CTRL is calculated by dividing the predetermined audio level target value TRG-LVL by the audio level estimated value LVL.
  • the output CTRL-OUT after the adjustment of the audio level is expressed by the following equation using the adjustment value LVL-CTRL of the audio level.
  • CTRL— OUT (X) D S (X) XL VL_CTRL... (3) where X represents time. According to the equation (3), the output CT RL— OUT (X) after the audio level adjustment is added to the digital audio signal DS (X) at the predetermined audio level rise time TL by the audio level adjustment value LVL— CTRL Multiplied by. As described above, the audio level adjustment unit 5 adjusts the audio level and supplies the adjusted output CTRL-OUT (X) to the audio recognition unit 6.
  • Figure 3 is a waveform diagram showing the speech spectrum of "Ragubi-ichi" uttered by the speaker.
  • the vertical axis indicates the audio level
  • the horizontal axis indicates time.
  • the speech level of the part of "Ra” is higher.
  • the part with the higher voice level is the accent part that indicates the inflection of words for each word.
  • the time until the value of the voice level uttered from the start time TS of the voice uttered by the speaker reaches the peak value P is defined as the voice level rise time TL.
  • the audio level rise time TL is within Osec (seconds) to 100 msec (milliseconds). In the embodiment of the present invention, the audio level rise time TL is 100 msec.
  • the voice level rise time TL is set to a short time, the recognition rate of voice recognition will decrease.
  • the speech level rise time is set short as shown by TL '.
  • the audio level estimating unit 4 can obtain an appropriate estimated value LVL of the audio level. It is not calculated, and the estimated value of the sound level lower than the original target estimated sound level LVL is calculated.
  • the audio level adjusting unit 5 erroneously adjusts the audio level value of the digital audio signal DS.
  • an erroneous digital voice signal DS is input to the voice recognition unit 6, and the recognition rate of voice recognition decreases.
  • the voice level of the entire voice section can be calculated by the voice level estimating section 4.
  • the level of the digital voice signal DS in the voice section is uniformly adjusted, so that the voice recognition can be performed without distorting the accent that indicates the inflection of the words of the speaker's voice, and the voice recognition can be performed.
  • the recognition rate can be improved.
  • FIG. 4 is a block diagram showing a voice recognition device according to the second embodiment of the present invention.
  • the voice recognition device consists of a microphone 1, an AZD converter 2, a voice level estimator 4, a voice level adjuster 5, a voice recognizer 6, a voice detector 7, a voice Includes level holding section 8, selection sections 11 and 12, buffer 21 and buffer 22.
  • the voice uttered by the speaker is collected by the microphone 1.
  • the collected sound is converted into an analog sound signal SA by the function of the microphone 1 and output to the A / D converter 2.
  • the A / D converter 2 converts the output analog audio signal SA into a digital audio signal DS, and supplies the digital audio signal DS to the audio level estimating unit 4, the audio detecting unit 7, and the selecting unit 11.
  • the voice level estimating unit 4 calculates a voice level estimation value LVL from the given digital voice signal DS.
  • the calculation of the estimated value LVL of the sound level by the sound level estimating unit 4 in the second embodiment is the same as the method of calculating the estimated value LVL of the sound level by the sound level estimating unit 4 in the first embodiment.
  • the voice level estimating unit 4 calculates a voice level estimation value LVL for each word based on the digital voice signal DS given from the A / D converter 2, and sequentially calculates the calculated voice level estimation value LVL.
  • the audio level holding section 8 stores the previous audio level until the estimated value LVL of the audio level calculated by the audio level estimating section 4 is given to a holding register provided in the audio level holding section 8.
  • the voice level estimation value LVL calculated by the voice level estimating unit 4 is given, the value is newly given to a holding register holding the previous voice level estimation value LVL. Overwrite and save the estimated voice level LVL. Further, this holding register has a data capacity M.
  • the audio detector 7 detects the audio start time TS of FIG. 3 from the digital audio signal DS given by the AZD converter 2, and gives the digital audio signal DS given from the AZD converter 2 to the buffer 21. And a control signal CB 1 to the buffer 21 so as to store the digital audio signal DS provided by the selection unit 11.
  • the buffers 21 and 22 each have a capacity L.
  • the selector 11 supplies the buffer 21 with the digital audio signal DS supplied from the AZD converter 2 in response to the control signal CIS 1 supplied from the audio detector 7.
  • the buffer 21 responds to the control signal CB 1 given from the voice detector 7 and The digital audio signal DS provided through the selector 11 is stored. Then, when the buffer 21 accumulates the digital audio signal DS having the storable capacity L, the buffer 21 gives the audio detector 7 a full signal F1. As a result, the sound detection unit 7 supplies the control signal SL1 via the buffer 21 to the sound level holding unit 8 to output the estimated value LVL of the sound level.
  • the voice detection unit 7 supplies the control signal CIS to the selection unit 11 so as to provide the digital voice signal DS provided from the A / D converter 2 to the buffer 22. 2 and a control signal CB 2 to the buffer 22 so as to accumulate the digital audio signal DS supplied from the selector 11. Further, the voice detection unit 7 supplies the control signal CB # 1 to the buffer 21 and supplies the control signal COS1 to the selection unit 12.
  • the selector 11 supplies the buffer 22 with the digital audio signal DS given from the A / D converter 2 in response to the control signal CIS 2 given by the audio detector 7.
  • the buffer 22 accumulates the digital audio signal DS provided through the selector 11 in response to the control signal CB2 provided by the audio detector 7.
  • the buffer 21 responds to the control signal CBOl given by the audio detecting section 7 and supplies the digital audio signal DS stored in the buffer 21 to the audio level adjusting section 5 via the selecting section 12.
  • the buffer 22 accumulates the digital audio signal DS supplied via the selection unit 11 in response to the control signal CB2 supplied from the audio detection unit 7.
  • the buffer 22 stores the digital audio signal DS having a storage capacity L
  • the buffer 22 supplies a full signal F 2 to the audio detection unit 7.
  • the sound detection unit 7 supplies the control signal SL2 for outputting the estimated value LVL of the sound level to the sound level holding unit 8 via the buffer 22.
  • the voice detection unit 7 in response to the full signal F 2 provided from the buffer 22, the voice detection unit 7 provides a control signal to the selection unit 11 so as to provide the digital voice signal DS provided from the A / D converter 2 to the buffer 21. Give CIS one. Further, the voice detection unit 7 supplies a control signal CBO 2 to the buffer 22 and a control signal COS 2 to the selection unit 12. On the other hand, the buffer 22 responds to the control signal CB # 2 given by the audio detection unit 7 and supplies the digital audio signal DS stored in the buffer 22 to the audio level adjustment unit 5 via the selection unit 12.
  • the audio level holding unit 8 adjusts the audio level in response to the control signal SL1 supplied from the buffer 21 or the control signal SL2 supplied from the buffer 22 to the estimated value LVL of the audio level held in the internal holding register.
  • the digital audio signal DS given through the selecting unit 12
  • the corresponding voice level estimation value LVL is output from the voice level holding unit 8.
  • the audio level adjustment unit 5 adjusts the digital audio signal DS obtained via the selection unit 12 based on the estimated audio level LVL given by the audio level holding unit 8.
  • the method of adjusting the digital audio signal DS by the audio level adjusting unit 5 in the second embodiment is the same as the method of adjusting the digital audio signal ⁇ DS by the audio level adjusting unit 5 in the first embodiment.
  • the audio level adjuster 5 gives the output CTRL-OUT after the adjustment of the audio level to the audio recognizer 6.
  • the voice recognition unit 6 performs voice recognition based on the output CTRL-OUT after the voice level adjustment provided by the voice level adjustment unit 5.
  • the microphone 1 and the A / D (analog-to-digital) converter 2 correspond to input means
  • the speech level estimating unit 4 corresponds to speech level estimating means
  • the unit 5 corresponds to a voice level adjusting unit
  • the voice recognition unit 6 corresponds to a voice recognition unit
  • the voice detection unit 7 corresponds to a voice detection unit
  • the voice level holding unit 8 corresponds to a holding circuit
  • a buffer 21. , 22 correspond to the accumulation circuit.
  • Fig. 5 (a) is an output waveform diagram of the microphone 1 in Fig. 4, and Fig. 5 (b) shows the ratio (S / N) between the voice signal (signal component) (S) and the noise component (N).
  • FIG. 5 (b) shows the ratio (S / N) between the voice signal (signal component) (S) and the noise component (N).
  • the output waveform of the microphone 1 is composed of a noise component and a voice signal. Then, in the voice section including the voice signal, the value of the voice level of the output waveform becomes high.
  • the speech detection unit 7 when the SZN value, which is the ratio between the audio signal (speech component) and the noise component, is low, the speech detection unit 7 in FIG. If the S / N ratio, which is the ratio between the signal (speech component) and the noise component, is high, it is determined that the section is a speech section.
  • FIG. 6 is a flowchart showing the operation of the voice detection unit 7 in FIG.
  • the audio detection unit 7 determines whether or not the input digital audio signal DS is an audio signal (step S61). If the input digital audio signal DS is not an audio signal, the process waits until the next input digital audio signal DS is determined to be an audio signal. On the other hand, when it is determined that the input digital audio signal DS is an audio signal, the audio detection unit 7 selects the digital audio signal DS supplied to the selection unit 11 in FIG. 1 is given a control signal CIS 1 (step S62). Then, the sound detection unit 7 gives the control signal CB1 so as to store the digital sound signal DS in the buffer 21 (step S63).
  • the voice detection unit 7 determines whether or not the full signal F1 output when the digital voice signal DS having the capacity L that can be stored by the buffer 21 is stored is received (Step S64). If the full signal F1 has not been received from the buffer 21, the voice detector 7 continues to repeat step S63. On the other hand, when the full signal F 1 is received from the buffer 21, the voice detection unit 7 sends a control signal to the selection unit 11 so as to supply the digital voice signal DS supplied to the selection unit 11 in FIG. Issue CIS 2 (step S65). Then, the sound detection unit 7 further supplies the control signal CB2 to the buffer 22 so as to store the digital sound signal DS (Step S66). After outputting the control signal CIS 2 and the control signal CB 2, the audio detection unit 7 supplies the stored digital audio signal DS supplied from the buffer 21 to the selection unit 12 to the audio level adjustment unit 5. To the control signal COS 1 (step S67).
  • the sound detection unit 7 gives the control signal SL1 to the sound level holding unit 8 via the buffer 21 (Step S68).
  • the audio level holding unit 8 responds to the control signal SL1 supplied via the buffer 21 and holds the holding register in the audio level holding unit 8.
  • the estimated value LVL of the voice level repeatedly stored in the memory is supplied to the voice level adjusting unit 5.
  • the audio detection unit 7 supplies the control signal CBO1 to the buffer 21, and outputs the stored digital audio signal DS to the audio level adjustment unit 5 (Step S69). Subsequently, the audio detection unit 7 determines whether or not all the digital audio signals DS stored in the buffer 21 have been output to the audio level adjustment unit 5 (Step S70). Here, if all the digital audio signals DS are not output from the buffer 21, the control signal CBO 1 is supplied to the buffer 21 again, and the accumulated digital audio signals DS are output to the audio level adjustment unit 5. . On the other hand, when all the digital audio signals DS accumulated in the buffer 21 are output, the audio detection unit 7 gives the buffer 21 a control signal CR so as to erase (clear) the data in the buffer (step 21). S 7 1).
  • FIG. 7 is a schematic diagram showing the input and output of the digital audio signal DS in the buffers 21 and 22 when the speaker utters two words.
  • the control signal CB1 is given to the buffer 21 by the voice detection unit 7, and the digital signal DS Input starts.
  • the buffer 21 and the buffer 22 are configured by a FIFO (First In First Out) type memory, and the memory capacity L of the buffer 21 and the buffer 22 is almost the same.
  • the input of the digital audio signal DS to the buffer 21 is performed in almost all of one word (W1), and when the digital audio signal DS having a capacity L that can be stored in the buffer 21 is stored, the buffer 21 is switched to the voice detection unit. Outputs full signal F1 to 7. After outputting the full signal F 1, the buffer 21 outputs the digital audio signal DS stored in the buffer 21 in response to the control signal CBO 1 given by the audio detection unit 7. On the other hand, the buffer 22 starts accumulating the digital audio signal DS in response to the control signal CB2 given by the audio detection unit 7.
  • the buffer 22 outputs a full signal F2 to the audio detection unit 7 when the digital audio signal DS having a storage capacity L is accumulated.
  • the digital audio signal DS stored in the buffer 21 during the storage in the buffer 22 is all sent to the audio level adjustment unit 5.
  • the control signal CR is given by the voice detection unit 7, and the data in the buffer 21 is erased (cleared).
  • the control signal CB 1 for storing the digital audio signal DS again by the audio detection unit 7 is given to the buffer 21.
  • the digital audio signal is accumulated from the start point of the audio section, and the audio level can be accurately adjusted using the estimated audio level corresponding to the accumulated digital audio signal. Therefore, by adjusting the speech recognition at an accurate speech level, the recognition rate of the speech recognition can be improved.
  • the digital audio signal DS can be alternately stored and output. As a result, speech recognition can be performed even with a small-capacity buffer.
  • a buffer is used in the embodiment of the present invention, the present invention is not limited to this, and another storage circuit may be used. Further, a counter may be provided inside the buffer, and the sound detector 7 may monitor the counter inside the buffer to output the full signals F 1 and F 2 or the control signal CR.
  • FIG. 8 is a block diagram showing an example of the speech recognition device according to the third embodiment of the present invention.
  • the speech recognition device consists of a microphone 1, an A / D (analog-digital) converter 2, a signal delay unit 3, a speech level estimation unit 4, a speech level adjustment return unit 9, and a speech recognition feedback unit.
  • a microphone 1 an A / D (analog-digital) converter 2
  • a signal delay unit 3 a signal delay unit 3
  • a speech level estimation unit 4 a speech level adjustment return unit 9
  • a speech recognition feedback unit Including 10
  • the voice uttered by the speaker is collected by the microphone 1.
  • the collected sound is converted into an analog sound signal SA by the function of the microphone 1 and output to the AZD converter 2.
  • the AZD converter 2 converts the output analog audio signal SA into a digital audio signal DS, and supplies the digital audio signal DS to the signal delay unit 3 and the audio level estimation unit 4.
  • the audio level estimating unit 4 calculates an estimated value LVL of the audio level from the given digital audio signal DS.
  • the method of calculating the estimated value LVL of the sound level by the sound level estimating unit 4 in the embodiment of the third invention is the same as the estimated value of the sound level by the sound level estimating unit 4 in the first embodiment. This is the same as the method for calculating LVL.
  • the audio level estimating unit 4 calculates an estimated value LVL of the audio level and supplies it to the audio level adjusting / returning unit 9.
  • the audio level adjustment feedback section 9 synchronizes the level of the digital audio signal DS given by the signal delay section 3 in synchronization with the audio level estimation value LVL based on the audio level estimation value LVL given by the audio level estimation section 4. Make adjustments.
  • the voice level adjustment feedback unit 9 supplies the output CTRL-OUT after the voice level adjustment to the voice recognition feedback unit 10.
  • the voice recognition feedback unit 10 performs voice recognition based on the adjusted output CTRL-0UT provided by the voice level adjustment feedback unit 9, and outputs a voice level control signal RC when the voice recognition fails. Give to Part 9. The operation of the voice level adjustment feedback section 9 and the voice recognition feedback section 10 will be described later.
  • the microphone-mouth phone .1 and the AZD (analog-digital) converter 2 correspond to input means
  • the signal delay unit 3 corresponds to a delay circuit
  • the voice level estimating unit Reference numeral 4 corresponds to voice level estimating means
  • voice level adjustment feedback section 9 corresponds to voice level adjusting means
  • voice recognition feedback section 10 corresponds to voice recognition means.
  • FIG. 9 is a flowchart for explaining the operation of the audio level adjustment feedback section 9 shown in FIG. 8 when adjusting the audio level.
  • the voice level adjustment feedback unit 9 determines whether or not the voice level control signal RC from the voice recognition feedback unit 10 has been input (step S91). Next, when the voice level control signal RC is not input by the voice recognition and feedback recognition unit 10, the voice level adjustment feedback unit 9 determines that the voice level control signal RC by the voice recognition feedback unit 10 is input. Wait until it is done. On the other hand, when it is determined that the voice level control signal RC has been input from the voice recognition feedback unit 10, the voice level adjustment feedback unit 9 adds 1 to the variable K (step S92).
  • the target values of the audio levels in a plurality of stages are set in advance, and the variable K is a variable representing the plurality of stages.
  • the variable K has a value from 1 to R
  • the target value of the audio level TRG—L VL (K) can be: TRG—LVL (1) , TRG_L VL (2), ⁇ TRG—LVL (R).
  • the sound level adjustment feedback section 9 determines whether or not the variable K is larger than the maximum value R (Step S93).
  • the audio level adjustment feedback section 9 when determining that the variable K is larger than the maximum value R, the audio level adjustment feedback section 9 returns the variable K to the minimum value 1 (step S94), and sets the audio level target value TRG—L VL is set to TRG—L VL (1) (step S95).
  • the audio level adjustment feedback section 9 sets the audio level target value TRG—L VL to TRG—L VL (K) (steps, for example, It is assumed that the target level TRG—L VL is set to TRG—LVL (2), and if the speech recognition feedback unit 10 fails in speech recognition and cannot perform speech recognition, The control signal RC is output to the audio level adjustment feedback section 9.
  • the audio level adjustment feedback section 9 changes the audio level target value TRG—L VL (2) to the audio level target value TRG—L VL (3). And waits for another voice input from the speaker.
  • the target value of the sound level TRG_L VL is changed sequentially to TRG-L VL (2), T RG_L VL (3), and TRG-LVL (4), and when the speech recognition is successful, The target value TRG-LVL is fixed. Also, if speech recognition fails even if the target value of the sound level TRG—L VL is set to the maximum value TRG—L VL (R), then the target value of the sound level TRG—LVL is set to the minimum value. Return to TRG—LVL (1) and wait for another speaker to input speech.
  • the target value TRG-LVL of the voice level is set to an optimal value for voice recognition.
  • the speech level adjustment feedback unit 9 can sequentially increase the adjustment level of the speech level. Further, even if the adjustment level of the sound level reaches the predetermined maximum value of the sound level, the adjustment level can be sequentially increased by returning the sound level to the minimum value again. As a result, if the speech level adjustment is not appropriate and the speech recognition fails, the degree of speech level adjustment can be sequentially changed, so that the recognition rate of speech recognition can be improved.
  • the target value TRG-LVL (K) of the speech level is sequentially changed again by the speech input from the speaker. Not limited to this, a means for holding the speaker's speech input is provided, and if speech recognition fails, the speech input held by the means for holding the speech input is used to obtain a target speech level TRG-L. VL (K) may be changed sequentially.
  • FIG. 10 is a block diagram showing an example of the voice recognition device according to the fourth embodiment of the present invention.
  • the speech recognition device consists of a microphone 1, an A / D (analog-digital) converter 2, a signal delay unit 3, a speech level estimation unit 4, a speech level adjustment unit 5, a speech recognition unit 6, and a signal nonlinearity.
  • Processing unit 11 is included.
  • the voice uttered by the speaker is collected by the microphone 1.
  • the collected sound is converted into an analog sound signal SA by the function of the microphone 1 and output to the AZD computer 2.
  • the AZD converter 2 converts the output analog audio signal SA into a digital audio signal DS, and supplies the digital audio signal DS to the signal delay unit 3 and the audio level estimation unit 4.
  • the audio level estimating unit 4 calculates an estimated value LVL of the audio level from the given digital audio signal DS.
  • the method of calculating the estimated value LVL of the sound level by the sound level estimating unit 4 in the fourth embodiment is described in detail in the method of calculating the estimated value LVL of the sound level by the sound level estimating unit 4 in the first embodiment.
  • the audio level estimating section 4 gives the digital audio signal DS and the estimated value LVL of the audio level to the signal nonlinear processing section 11.
  • the signal nonlinear processing unit 11 performs nonlinear processing described later according to the estimated value LVL of the audio level given by the audio level estimating unit 4, and outputs the estimated value LVL of the nonlinearly processed audio level to the audio level adjusting unit 5.
  • the signal delay unit 3 supplies the digital audio signal DS delayed by the delay amount corresponding to the audio level rise time TL to the audio level adjustment unit 5.
  • the delay amount corresponding to the audio level rise time TL in the fourth embodiment is 100 ms ec.
  • the audio level adjusting unit 5 is provided from the signal nonlinear processing unit 11.
  • the audio level of the digital audio signal DS provided by the signal delay unit 3 is adjusted according to the estimated audio level L VL of the audio signal.
  • the audio level adjuster 5 gives the output CTRL-OUT after the audio level adjustment to the audio recognizer 6.
  • the speech recognition unit 6 performs speech recognition according to the output CTRL-OUT after the speech level adjustment provided by the speech level adjustment unit 5.
  • the microphone 1 and the A / D (analog-to-digital) converter 2 correspond to input means
  • the signal delay unit 3 corresponds to a delay circuit
  • the speech level estimation unit 4 The voice level adjusting unit 5 corresponds to the voice level adjusting unit
  • the voice recognizing unit 6 corresponds to the voice recognizing unit
  • the signal nonlinear processing unit 11 corresponds to the nonlinear processing unit.
  • FIG. 11 is a diagram showing the relationship between the estimated value LVL of the voice level input to the signal nonlinear processing unit 11 in FIG. 10 and the recognition rate in the voice recognition unit 6 in FIG.
  • the recognition rate in the speech recognition unit 6 in FIG. 10 depends on the estimated speech level LVL. If the estimated speech level LVL is in the range of -19 dB or more and 2 dB or less, the recognition rate indicates 80% or more. In particular, when the estimated speech level LVL is low (less than or equal to 19 dB) or when the estimated speech level LVL is high (more than 12 dB), the recognition rate of speech recognition drops sharply. Therefore, in the signal nonlinear processing section 11 according to the fourth embodiment of the present invention, it is assumed that the estimated value LVL of the input audio level exists in the range from ⁇ 19 dB to 12 dB. Adjust the estimated value LVL of the voice level.
  • FIG. 12 is a flowchart showing the processing operation of the signal nonlinear processing section 11.
  • the signal nonlinear processing unit 11 determines whether or not the estimated value LVL of the audio level input by the audio level estimating unit 4 is equal to or more than ⁇ 19 dB and equal to or less than ⁇ 2 dB. (Step S101).
  • the signal nonlinear processing unit 11 deactivates the audio level adjustment unit 5 when it determines that the estimated value LVL of the input audio level is a value of ⁇ 19 dB or more and 12 dB or less. That is, the audio level adjustment unit 5 sets the audio level adjustment value L VL-CTRL shown in Expression (2) to 1. On the other hand, if the signal nonlinear processing unit 11 determines that the input audio level estimation value LVL is not a value between ⁇ 19 dB and ⁇ 2 dB, the signal nonlinear processing unit 11 sets the audio level estimation value LVL to ⁇ 10 dB. (Step S102).
  • the signal nonlinear processing unit 11 is input to the speech recognition unit 6 in order to set the estimated value LVL of the speech level so that the estimated value LVL of the speech satisfies the recognition rate of 80% or more.
  • the recognition rate of voice recognition of the digital voice signal DS can be improved. That is, only when the estimated value LVL of the sound level is not within the predetermined range, the estimated sound level is changed to the estimated value of the sound level within the predetermined range, and the sound level is adjusted.
  • the audio level is adjusted by setting the amplification factor in the audio level adjustment unit 5 to 1 and deactivating the audio level adjustment unit 5. Absent. As a result, it is possible to easily prevent unnecessary distortion from being given to the accent, which is the inflection of the words of the speaker's voice, and perform the voice recognition, thereby improving the recognition rate of the voice recognition.
  • the estimated value of the audio level is adjusted from ⁇ 19 dB to ⁇ 2 dB.
  • the present invention is not limited to this. It is only necessary to adjust the estimated value to the estimated value or the estimated speech level with a high speech recognition rate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Control Of Amplification And Gain Control (AREA)
  • Telephone Function (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Navigation (AREA)

Description

明 細 書 音声認識装置、 音声認識方法および音声認識プログラム 技術分野
本発明は、 話者により発声された音声を認識する音声認識装置、 音声認識方法 および音声認識プログラムに関する。 背景技術
近年、 音声認識に関する技術の発展が著しい。 この音声認識とは、 コンピュー 夕または機械などが人間の音声を自動的に理解することである。 例えば、 この音 声認識を用いることにより、 コンピュータまたは機械などを人間の音声に応じて 動作させたり、 人間の音声を文字に変換させたりすることができる。
音声認識では、 発声された音声が有する周波数スぺクトルなどの物理的特徴を 抽出し、 予め記憶されている母音、 子音または単語の物理的特徴の型と比較する 方法が主に用いられる。 しかし、 複数の不特定の話者の音声認識を行う場合には 、 話者各々の個人差による音声の有する物理的特徴の相違が要因となり正確な音 声認識を行うことができない。 また、 特定の話者の音声認識を行う場合にも、 昼 夜などの周囲環境の変化による雑音 (ノイズ)、 または話者の体調などによる音 声の有する物理的特徴の変化が、 音声認識を行う際の認識率を低下させる要因と なり正確な音声認識を行うことができない。
図 1 3は音声認識を行う際の音声レベルと認識率との関係の一例を示す模式図 である。 図 1 3に示す模式図は、 縦軸が認識率 (%) を示し、 横軸が音声レベル ( d B ) を示す。 ここで、 音声レベルとは、 音声パワーのレベルを意味し、 例え ば 0 d Bは、 負荷抵抗 6 0 0 Ω、 端子間電圧 0 . 7 7 5 V、 消費電力 1 mWをい う。
図 1 3に示すように、 従来の音声認識では、 音声レベルが一 1 9 d Bよりも低 い場合、 または音声レベルが一 2 d Bよりも高い場合に認識率が低下する傾向が ある。 従来の音声認識においては、 母音、 子音または単語の物理的特徴の型である音 声レベルを予め記憶する際の音声レベルの近傍において認識率が高くなつている 。 すなわち、 予め記憶される音声レベルと入力される音声レベルとを比較して音 声認識を行うため、 音声レベルが低い場合から高い場合まで平均的に高い認識率 を得ることはできない。
そこで、 実開昭 5 9— 6 0 7 0 0号公報には、 音声を入力する際に使用するマ イク口アンプに A G C回路 (Auto Gain Cont oro l ler:自動利得制御回路) を用い て常に入力される音声レベルをほぼ一定にする音声認識装置が開示されている。 また、 実開平 0 1— 1 3 7 4 9 7号公報および特開昭 6 3— 0 1 4 2 0 0号公報 には、 適当な手段により話者に音声レベルを知らせ、 最適な音声レベルの発声を 行うように促す音声認識装置が開示されている。
しかしながら、 実開昭 5 9 - 6 0 7 0 0号公報に開示された音声認識装置では 、 A G C回路により増幅する必要のない音声以外の雑音 (ノイズ) も増幅され、 増幅された雑音によって認識率が低下する場合がある。 さらに、 入力される音声 には、 1単語ごとに言葉の抑揚を示すアクセントが存在する。 そのため、 入力さ れる音声レベルを A G C回路によって頻繁に増幅したり増幅しなかったりするこ とにより、 ほぼ一定のレベルに増幅された音声の波形に歪みが生じる。 この音声 の波形の歪みにより、 一単語ごとに含まれる言葉の抑揚を示すアクセントが歪み を生じ認識率が低下する。
一方、 実開平 0 1— 1 3 7 4 9 7号公報および特開昭 6 3— 0 1 4 2 0 0号公 報に開示された音声認識装置では、 周囲環境の変化または話者自身の体調不良な どの影響により、 話者によって入力される音声レベルが予め定められた規定値に 達しない場合がある。 また、 話者が予め定められた規定の音声レベルを発声して も、 音声認識装置が認識しない場合などがある。 例えば、 話者により発声される 音声レベルは個人特有の物理的特徴であり、 無理に発声を変化させると物理的特 徴が異質のものとなり、 かえって音声認識の認識率を低下させる場合などがある 発明の開示
本発明の目的は、 話者の音声レベルに左右されずに音声認識の認識率を向上さ せることができる音声認識装置、 音声認識方法および音声認識プログラムを提供 することである。
本発明の一局面に従う音声認識装置は、 デジタル音声信号を入力する入力手段 と、 入力手段により入力される音声区間内の一部の時間内のデジタル音声信号に 基づいて音声区間の音声レベルを推定する音声レベル推定手段と、 音声レベル推 定手段により推定された音声レベルおよび予め設定された目標レベルに基づいて 入力手段により入力される音声区間のデジタル音声信号のレベルを調整する音声 レベル調整手段と、 音声レベル調整手段により調整されたデジタル音声信号に基 づいて音声認識を行う音声認識手段とを備えたものである。
本発明に係る音声認識装置においては、 入力手段によりデジタル音声信号が入 力され、 入力手段により入力される音声区間内の予め定められた時間内のデジ夕 ル音声信号に基づいて音声レベル推定手段により音声区間の音声レベルが推定さ れる。 音声レベル推定手段により推定された音声レベルおよび予め設定された目 標レベルに基づいて入力手段により入力される音声区間のデジタル音声信号のレ ベルが音声レベル調整手段により調整され、 音声レベル調整手段により調整され たデジタル音声信号に基づいて音声認識手段により音声認識が行われる。
この場合、 音声区間内の一部の時間内のデジタル音声信号に基づいて音声区間 の全体の音声レベルが推定され、 推定された音声レベルおよび予め設定された目 標レベルに基づいて音声区間のデジタル音声信号のレベルが一律に調整される。 それにより、 話者の音声が有する言葉の抑揚を示すアクセントに歪みを与えるこ となく音声認識を行うことができる。 したがって、 音声認識の認識率を向上させ ることができる。
音声レベル推定手段は、 入力手段により入力される音声区間内の最初の所定時 間内のデジタル音声信号に基づいて音声区間の音声レベルを推定するものでもよ い。
この場合、 通常、 音声区間内の最初の所定時間内の音声レベルの立ち上がり部 分により音声区間の全体の音声レベルを判断することができる。 したがって、 音 声区間内の最初の所定時間内のデジタル音声信号に基づいて音声レベルの推定を 行うことにより、 音声区間内の音声レベルを短時間で正確に推定することができ る。
音声レベル推定手段は、 入力手段により入力される音声区間内の最初の所定時 間内のデジタル音声信号の平均値を音声区間の音声レベルとして推定するもので もよい。
この場合、 音声区間の最初の所定時間内のデジタル音声信号の平均値を算出す ることにより、 音声区間の音声レベルをより正確に推定することができる。 音声レベル調整手段は、 予め設定された目標レベルと音声レベル推定手段によ り推定される音声レベルとの比により定まる増幅率で入力手段により入力される 音声区間のデジタル音声信号のレベルを増幅または減衰させるものでもよい。
この場合、 目標レベルと推定された音声レベルとの比により定まる増幅率で音 声区間のデジタル信号のレベルを増加または減衰させることにより、 音声区間の 音声レベルを目標レベルに設定することができる。
音声認識装置は、 入力手段により入力されるデジタル音声信号が音声レベル推 定手段により推定される音声レベルとともに同期して音声レベル調整手段に与え られるように入力手段により入力されるデジタル音声信号を遅延させる遅延回路 をさらに備えたものでもよい。
この場合、 デジタル音声信号に対応した音声レベルの推定値を用いて音声レべ ルを調整することができる。 これにより、 音声区間の音声レベルを正確に調整す ることができる。
音声レベル推定手段は、 入力手段により入力される音声区間の開始点を検出す る音声検出部と、 入力手段により入力される音声区間内の最初の所定時間内のデ ジタル音声信号に基づいて音声区間の音声レベルを推定する音声レベル推定部と 、 音声レベル推定部により推定された音声レベルを保持する保持回路と、 音声検 出部による検出に応答して入力手段により入力される音声区間のデジタル音声信 号を蓄積するとともに蓄積された音声区間のデジタル音声信号を保持回路に保持 された音声レベルと同期させて音声レベル調整手段に出力する蓄積回路とを含む ものでもよい。 この場合、 入力手段により入力される音声区間のデジタル音声信号の開始点が 音声検出部により検出され、 入力手段により入力される音声区間内の最初の所定 時間内のデジタル音声信号に基づいて音声レベル推定部により音声区間の音声レ ベルが推定される。 音声レベル推定部により推定された音声レベルが保持回路に より保持され、 音声検出部による検出に応答して入力手段により入力される音声 区間のデジタル音声信号が蓄積回路に蓄積されるとともに蓄積された音声区間の デジタル音声信号が保持回路に保持された音声レベルと同期させて蓄積回路によ り音声レベル調整手段に出力される。
この場合、 音声区間の開始点からデジタル音声信号が蓄積回路に蓄積され、 蓄 積されたデジタル音声信号に対応した音声レベルの推定値を用いて音声レベルが 調整される。 これにより、 デジタル音声信号を正確な音声レベルに調整すること ができ、 音声認識の認識率を向上させることができる。
蓄積回路は、 入力手段により入力される音声区間のデジタル音声信号を交互に 蓄積するとともに蓄積された音声区間のデジタル音声信号を交互に音声レベル調 整手段に出力する第 1および第 2のバッファを含んでもよい。
この場合、 複数の単語を含む長い時間の音声が入力されても、 第 1および第 2 のバッファに音声区間のデジタル音声信号が交互に蓄積されるとともに第 1また は第 2のバッファから音声区間のデジタル音声信号が出力される。 これにより、 複数の単語を含む長い時間の音声の認識を小さな容量の第 1または第 2のバッフ ァを用いて行うことができる。
音声認識手段は、 音声認識結果を音声レベル調整手段に帰還させ、 音声レベル 調整手段は、 音声認識手段により帰還された音声認識結果に基づいて音声レベル の調整程度を変更するものでもよい。
この場合、 音声認識結果を再び音声レベルの調整に用いて音声レベルの調整程 度を変更することにより、 音声レベルの調整程度が適切でない場合に音声レベル の調整程度を適切な状態に近づけることができる。
音声レベル調整手段は、 音声認識手段による音声認識が不可能な場合に音声レ ベルの増幅率を上昇させるものでもよい。
この場合、 音声認識が不可能な場合に音声レベルの増幅率を上昇させることに より、 音声認識が不可能な音声レベルを音声認識が可能な音声レベルに調整する ことができる。
音声認識装置は、 音声レベル推定手段により推定された音声レベルが予め定め られた範囲内にある場合に音声レベル調整手段を不能動化し、 音声レベル推定手 段により推定された音声レベルが予め定められた範囲内にない場合に音声レベル 調整手段を能動化するとともに音声レベル推定手段により推定された音声レベル を予め定められた範囲内の音声レベルに変更して音声レベル調整手段に与える非 線形処理部をさらに含んでもよい。
この場合、 予め定められた範囲内にない音声レベルの場合にのみ、 予め定めら れた範囲内の音声レベルに変更して音声レベルの調整を行うことができる。 これ により、 話者の音声が有する言葉の抑揚を示すアクセントに無用な歪みを与える ことを防止することができる。
他の局面に従う音声認識方法は、 デジタル音声信号を入力するステップと、 音 声区間内の一部の時間内の入力されたデジタル音声信号に基づいて音声区間の音 声レベルを推定するステップと、 推定された音声レベルおよび予め設定された目 標レベルに基づいて音声区間のデジタル音声信号のレベルを調整するステップと 、 調整されたデジタル音声信号に基づいて音声認識を行うステップとを備えたも のである。
本発明に係る音声認識方法においては、 デジタル音声信号が入力され、 音声区 間内の一部の時間内のデジタル音声信号に基づいて音声区間の音声レベルが推定 される。 推定された音声レベルおよび予め設定された目標レベルに基づいて音声 区間のデジタル音声信号のレベルが調整され、 調整されたデジタル音声信号に基 づいて音声認識が行われる。
この場合、 音声区間内の一部の時間内のデジタル音声信号に基づいて音声区間 の全体の音声レベルが推定され、 推定された音声レベルおよび予め設定された目 標レベルに基づいて音声区間のデジタル音声信号のレベルが一律に調整される。 それにより、 話者の音声が有する言葉の抑揚を示すアクセントに歪みを与えるこ となく音声認識を行うことができる。 したがって、 音声認識の認識率を向上させ ることができる。 音声レベルを推定するステップは、 音声区間内の最初の所定時間内のデジタル 音声信号に基づいて音声区間の音声レベルを推定することを含んでもよい。
この場合、 通常、 音声区間内の最初の所定時間内の音声レベルの立ち上がり部 分により音声区間の全体の音声レベルを判断することができる。 したがって、 音 声区間内の最初の所定時間内のデジタル音声信号に基づいて音声レベルの推定を 行うことにより、 音声区間内の音声レベルを短時間で芷確に推定することができ る。
音声レベルを推定するステップは、 音声区間内の最初の所定時間内のデジタル 音声信号の平均値を音声区間の音声レベルとして推定することを含んでもよい。
この場合、 音声区間の最初の所定時間内のデジタル音声信号の平均値を算出す ることにより、 音声区間の音声レベルをより正確に推定することができる。 デジタル音声信号のレベルを調整するステップは、 予め設定された目標レベル と推定される音声レベルとの比により定まる増幅率で音声区間のデジタル音声信 号のレベルを増幅または減衰させることを含んでもよい。
この場合、 目標レベルと推定された音声レベルとの比により定まる増幅率で音 声区間のデジタル信号のレベルを増加または減衰させることにより、 音声区間の 音声レベルを目標レベルに設定することができる。
音声認識方法は、 音声区間のデジタル音声信号が推定される音声レベルととも に同期してデジタル音声信号のレベルを調整するステップに与えられるようにデ ジタル音声信号を遅延させるステップをさらに備えたものである。
この場合、 デジタル音声信号に対応した音声レベルの推定値を用いて音声レべ ルを調整することができる。 これにより、 音声区間の音声レベルを正確に調整す ることができる。
音声レベルを推定するステップは、 音声区間のデジタル音声信号の開始点を検 出するステップと、 音声区間内の最初の所定時間内のデジタル音声信号に基づい て音声区間の音声レベルを推定するステップと、 推定された音声レベルを保持す るステップと、 デジタル音声信号の開始点の検出に応答して音声区間のデジタル 音声信号を蓄積するとともに蓄積された音声区間のデジタル音声信号を保持され た音声レベルと同期させて出力するステップとを含んでもよい。 この場合、 音声区間のデジタル音声信号の開始点が検出され、 音声区間内の最 初の所定時間内のデジタル音声信号に基づいて音声区間の音声レベルが推定され る。 推定された音声レベルが保持され、 音声区間のデジタル音声信号の開始点の 検出に応答して音声区間のデジタル音声信号が蓄積されるとともに蓄積された音 声区間のデジタル音声信号が保持された音声レベルと同期させて出力される。 この場合、 音声区間の開始点からデジタル音声信号が蓄積回路に蓄積され、 蓄 積されたデジタル音声信号に対応した音声レベルの推定値を用いて音声レベルが 調整される。 これにより、 デジタル音声信号を正確な音声レベルに調整すること ができ、 音声認識の認識率を向上させることができる。
蓄積するステップは、 音声区間のデジタル音声信号を第 1および第 2のバッフ ァに交互に蓄積するとともに蓄積された音声区間のデジタル音声信号を第 1およ び第 2のバッファから交互に出力するステップを含んでもよい。
この場合、 複数の単語を含む長い時間の音声が入力されても、 第 1および第 2 のバッファに音声区間のデジタル音声信号が交互に蓄積されるとともに第 1また は第 2のバッファから音声区間のデジタル音声信号が出力される。 これにより、 複数の単語を含む長い時間の音声の認識を小さな容量の第 1または第 2のバッフ ァを用いて行うことができる。
音声認識を行うステップは、 音声認識結果をデジタル音声信号のレベルを調整 するステップに帰還させることを含み、 デジタル音声信号のレベルを調整するス テツプは、 帰還された音声認識結果に基づいて音声レベルの調整程度を変更する ことを含んでもよい。
この場合、 音声認識結果を再び音声レベルの調整に用いて音声レベルの調整程 度を変更することにより、 音声レベルの調整程度が適切でない場合に繰り返し音 声レベルの調整程度を適切なレベルに近づけることができる。
デジタル音声信号のレベルを調整するステップは、 音声認識が不可能な場合に 音声レベルの増幅率を上昇させることを含んでもよい。
この場合、 音声認識が不可能な場合に音声レベルの増幅率を上昇させることに より、 音声認識が不可能な音声レベルを音声認識が可能な音声レベルに調整する ことができる。 音声認識方法は、 推定された音声レベルが予め定められた範囲内にある場合に デジタル音声信号のレベルを調整することを不能動化し、 推定された音声レベル が予め定められた範囲内にない場合に調整するステツプを能動化するとともに推 定された音声レベルを予め定められた範囲内の音声レベルに変更して変更された 音声レベルをデジタル音声信号のレベルを調整するために用いるステップをさら に備えたものである。
この場合、 予め定められた範囲内にない音声レベルの場合にのみ、 予め定めら れた範囲内の音声レベルに変更して音声レベルの調整を行うことができる。 これ により、 話者の音声が有する言葉の抑揚を示すアクセントに無用な歪みを与える ことを防止することができる。
さらに他の局面に従う音声認識プログラムは、 コンピュータ読み取り可能な音 声認識プログラムであって、 デジタル音声信号を入力する処理と、 入力される音 声区間内の一部の時間内のデジタル音声信号に基づいて音声区間の音声レベルを 推定する処理と、 推定された音声レベルおよび予め設定された目標レベルに基づ いて入力される音声区間のデジタル音声信号のレベルを調整する処理と、 調整さ れたデジタル音声信号に基づいて音声認識を行う処理とをコンピュータに実行さ せるものである。
本発明に係る音声認識プログラムにおいては、 デジタル音声信号が入力され、 入力される音声区間内の予め定められた時間内のデジタル音声信号に基づいて音 声区間の音声レベルが推定される。 推定された音声レベルおよび予め設定された 目標レベルに基づいて入力される音声区間のデジタル音声信号のレベルが調整さ れ、 調整されたデジタル音声信号に基づいて音声認識が行われる。
この場合、 音声区間内の一部の時間内のデジタル音声信号に基づいて音声区間 の全体の音声レベルが推定され、 推定された音声レベルおよび予め設定された目 標レベルに基づいて音声区間のデジタル音声信号のレベルが一律に調整される。 それにより、 話者の音声が有する言葉の抑揚を示すアクセントに歪みを与えるこ となく音声認識を行うことができる。 したがって、 音声認識の認識率を向上させ ることができる。
本発明によれば、 音声区間内の一部の時間内のデジタル音声信号に基づいて音 声区間の全体の音声レベルが推定され、 推定された音声レベルおよび予め設定さ れた目標レベルに基づいて音声区間のデジタル音声信号のレベルが一律に調整さ れる。 それにより、 話者の音声が有する言葉の抑揚を示すアクセントに歪みを与 えることなく音声認識を行うことができる。 したがって、 音声認識の認識率を向 上させることができる。 図面の簡単な説明
図 1は、 本発明の第 1の実施の形態における音声認識装置の一実施例を示すブ ロック図
図 2は、 音声認識プログラムを実行するためのコンピュータの構成を示すプロ ック図
図 3は、 話者により発声された "らぐび一" の音声スペクトルを示す波形図 図 4は、 本発明の第 2の実施の形態における音声認識装置を示すプロック図 図 5は、 (a ) は図 4のマイクロホンの出力波形図、 (b ) は音声信号 (信号成 分) と雑音成分との比を示す図
図 6は、 図 4の音声検出部の動作を示すフローチャート
図 7は、 2単語を話者が発声した場合におけるバッファのデジタル音声信号の 入出力を表す模式図
図 8は、 本発明の第 3の実施の形態における音声認識装置の一例を示すブロッ ク図
図 9は、 図 8に示す音声レベル調整帰還部における音声レベルの調整を行う際 の動作を説明するフローチヤ一ト
図 1 0は、 本発明の第 4の実施の形態における音声認識装置の一例を示すプロ ック図
図 1 1は、 図 1 0の信号非線形処理部に入力される音声レベルの推定値と図 1 0の音声認識部における認識率との関係を示す図
図 1 2は、 信号非線形処理部の処理動作を示すフローチャート
図 1 3は、 音声認識を行う際の音声レベルと認識率との関係の一例を示す模式 発明を実施するための最良の形態
(第 1の実施の形態)
図 1は本発明の第 1の実施の形態における音声認識装置の一実施例を示すプロ ック図である。
図 1に示すように、 音声認識装置は、 マイクロホン 1、 A/D (アナログ—デ ジタル) コンバータ 2、 信号遅延部 3、 音声レベル推定部 4、 音声レベル調整部 5および音声認識部 6を含む。
図 1に示すように、 話者により発声された音声は、 マイクロホン 1により集音 される。 集音された音声は、 マイクロホン 1の働きによりアナログ音声信号 S A に変換され A/Dコンバータ 2に出力される。 AZDコンバータ 2は、 出力され るアナログ音声信号 S Aをデジタル音声信号 D Sに変換し、 信号遅延部 3および 音声レベル推定部 4に与える。 音声レベル推定部 4は、 与えられるデジタル音声 信号 D Sから音声レベルの推定値 L V Lの算出を行う。 ここで、 音声レベルとは 、 音声パワー (音声エネルギー) のレベルを意味する。 この音声レベルの推定値 L V Lの算出については後述する。
信号遅延部 3は、 後述する予め定められた音声レベル立ち上がり時間 T Lに相 当する遅延量分のみ遅延させたデジタル音声信号 D Sを音声レベル調整部 5に与 える。 音声レベル調整部 5は、 音声レベル推定部 4から与えられる音声レベルの 推定値 L V Lに同期して信号遅延部 3により与えられるデジタル音声信号 D Sの 音声レベルの調整を行う。 音声レベル調整部 5は、 音声レベルの調整後の出力 C T R L— O U Tを音声認識部 6に与える。 音声認識部 6は、 音声レベル調整部 5 により与えられる音声レベルの調整後の出力 C T R L _〇U Tに基づき音声認識 を行う。
第 1の実施の形態における音声認識装置においては、 マイクロホン 1および A /Ό (アナログ一デジタル) コンバータ 2が入力手段に相当し、 信号遅延部 3が 遅延回路に相当し、 音声レベル推定部 4が音声レベル推定手段に相当し、 音声レ ベル調整部 5が音声レベル調整手段に相当し、 音声認識部 6が音声認識手段に相 当する。 なお、 信号遅延部 3、 音声レベル推定部 4、 音声レベル調整部 5および音声認 識部 6は、 それぞれ信号遅延回路、 音声レベル推定回路、 音声レベル調整回路お よび音声認識回路により構成することができる。 また、 信号遅延部 3、 音声レべ ル推定部 4、 音声レベル調整部 5および音声認識部 6をコンピュータおよび音声 認識プログラムにより表現することができる。
ここで、 音声認識プログラムを実行するためのコンピュータについて説明する 。 図 2は音声認識プログラムを実行するためのコンピュータの構成を示すプロッ ク図である。 ·
コンピュータは、 CPU (中央演算処理装置) 500、 入出力装置 501、 R OM (リードオンリメモリ) 502、 RAM (ランダムアクセスメモリ) 503 、 記録媒体 504、 記録媒体駆動装置 505および外部記録装置 506を含む。 入出力装置 50 1は、 他の装置との間で情報の送受信を行う。 本実施の形態の 入出力装置 501は、 図 1の AZDコンバータ 2からデジタル音声信号 DSを入 力する。 ROM502にはシステムプログラムが記録される。 記録媒体駆動装置 505は、 CD— ROMドライブ、 フロッピィディスクドライブ等からなり、 C D— R〇M、 フロッピィディスク等の記録媒体 504に対してデータの読み書き を行う。 記録媒体 504には、 音声認識プログラムが記録されている。 外部記録 装置 506は、 ハードディスク装置などからなり、 記録媒体駆動装置 505を介 して記録媒体 504から読み込まれた音声認識プログラムを記録する。 CPU 5 00は、 外部記録装置 506に記録された音声認識プログラムを RAM 503上 で実行する。 これにより、 図 1の信号遅延部 3、 音声レベル推定部 4、 音声レべ ル調整部 5および音声認識部 6の機能が実行される。
次に、 図 1の音声レベル推定部 4による音声レベルの推定値 LVLの算出方法 および音声レベル調整部 5による音声レベルの調整方法について説明する。
まず、 音声レベル推定部 4による音声レベルの推定値 LVLの算出方法につい て説明を行う。 音声レベル推定部 4に入力されるデジタル音声信号 DSを、 DS (X) (x= 1 , 2, …, Q) とする。 ここで、 Xは、 予め定められた音声レべ ルの立ち上がり時間 TL内での Q個の時点を表し、 DS (X) は Q個の時点での デジタル音声信号 DSの値を表す。 この場合、 音声レベルの推定値 LVLは、 次 式のように表される。
L VL= (∑ ID S (x) \)/Q ··· (1)
式 (1) によれば、 音声レベルの推定値 LVLは、 予め定められた音声レベル 立ち上がり時間 TL内の Q個の時点でのデジタル音声信号 DS (X) の絶対値の 累積加算を Qで除算することにより得られる平均値である。 このようにして、 音 声レベル推定部 4において音声レベルの推定値 LVLが算出される。
次に、 音声レベル調整部 5による音声レベルの調整方法について説明する。 音 声レベル調整部 5において、 予め定められた音声レベルの目標値を TRG— L V Lと表す。 この場合、 音声レベルの調整値 LVL— CTRLは、 次式のように表 される。 '
L VL_CTRL=TRG_L VL/L VL … (2)
式 (2) によれば、 音声レベルの調整値 LVL— CTRLは、 予め定められた 音声レベルの目標値 TRG— L VLを音声レベルの推定値 L VLにより除算する ことにより算出される。
また、 音声レベルの調整後の出力 CTRL— OUTは、 音声レベルの調整値 L VL— CTRLを用いて次式のように表される。
CTRL— OUT (X) =D S (X) XL VL_CTRL … (3) ここで、 Xは時間を表す。 式 (3) によれば、 音声レベルの調整後の出力 CT RL— OUT (X) は、 予め定められた音声レベル立ち上がり時間 TLにおける デジタル音声信号 DS (X) に音声レベルの調整値 LVL— CTRLを乗算した 値となる。 このように、 音声レベル調整部 5は、 音声レベルの調整を行い調整後 の出力 CTRL— OUT (X) を音声認識部 6に与える。
次に、 図 1に示す信号遅延部 3の予め定められた音声レベル立ち上がり時間 T Lについて図を用いて説明する。
図 3は話者により発声された "らぐび一" の音声スペクトルを示す波形図であ る。 図 3において、 縦軸が音声レベルを示し、 横軸が時間を示す。
図 3に示すように、 "らぐび一" という一単語の音声スペクトルは、 "ら" の部 分の音声レベルが高くなつている。 すなわち、 音声レベルの高い部分が、 1単語 ごとに言葉の抑揚を示すアクセントの部分である。 ここで、 図 3に示すように、 話者により発声された音声の開始時間 TSから発声された音声レベルの値がピー ク値 Pに到達するまでの時間を音声レベル立ち上がり時間 TLとする。 一般に、 音声レベル立ち上がり時間 TLは Osec (秒) 〜100msec (ミリ秒) 以内に存 在し、 本発明の実施の形態では、 音声レベル立ち上がり時間 TLは、 100msec とする。
例えば、 この音声レベル立ち上がり時間 TLを短時間に設定すると音声認識の 認識率の低下を招くこととなる。 図 3に示すように "らぐび一" という単語を話 者が発声した場合、 音声レベル立ち上がり時間を TL' で示すように短く設定し た場合を考える。 この場合、 図 1に示す信号遅延部 3において入力されるデジタ ル音声信号 DSを音声レベル立ち上がり時間 TL' 分のみ遅延させても、 音声レ ベル推定部 4により適切な音声レベルの推定値 LVLが算出されず、 本来目標と する音声レベルの推定値 LVLよりも低い音声レベルの推定値が算出される。 そ の後、 音声レベル調整部 5に目標よりも低い音声レベルの推定値が与えられ、 音 声レベル調整部 5によりデジタル音声信号 D Sの音声レベルの値が誤つて調整さ れる。 これにより、 音声認識部 6に誤ったデジタル音声信号 DSが入力され音声 認識の認識率が低下する。
' 上記のように、 信号遅延部 3において音声区間の最初の音声レベル立ち上がり 時間 TLを 1 00msecに設定することにより、 音声区間全体の音声レベルを音 声レベル推定部 4により算出することができる。 これにより、 音声区間のデジタ ル音声信号 DSのレベルが一律に調整されるので、 話者の音声が有する言葉の抑 揚を示すアクセントに歪みを与えることなく音声認識を行うことができ音声認識 の認識率を向上させることができる。
(第 2の実施の形態)
次に、 本発明の第 2の実施の形態における音声認識装置について図を用いて説 明する。
図 4は本発明の第 2の実施の形態における音声認識装置を示すブロック図であ る。
図 4に示すように、 音声認識装置は、 マイクロホン 1、 AZDコンバータ 2、 音声レベル推定部 4、 音声レベル調整部 5、 音声認識部 6、 音声検出部 7、 音声 レベル保持部 8、 選択部 1 1, 1 2、 バッファ 2 1およびバッファ 22を含む。 図 4に示すように、 話者により発声された音声は、 マイクロホン 1により集音 される。 集音された音声は、 マイクロホン 1の働きによりアナログ音声信号 S A に変換され A/Dコンバータ 2に出力される。 A/Dコンバータ 2は、 出力され るアナログ音声信号 S Aをデジタル音声信号 DSに変換し、 音声レベル推定部 4 、 音声検出部 7および選択部 1 1に与える。 音声レベル推定部 4は、 与えられる デジタル音声信号 D Sから音声レベルの推定値 L V Lの算出を行う。 第 2の実施 の形態における音声レベル推定部 4による音声レベルの推定値 LVLの算出は、 第 1の実施の形態における音声レベル推定部 4による音声レベルの推定値 LVL の算出方法と同様である。
音声レベル推定部 4は、 A/Dコンバータ 2から与えられるデジタル音声信号 DSに基づいて、 一単語ごとに音声レベルの推定値 LVLを算出し、 算出される 音声レベルの推定値 LVLを順次音声レベル保持部 8に与える。 ここで、 音声レ ベル保持部 8は、 音声レベル保持部 8内に設けられる保持レジスタに、 次に音声 レベル推定部 4により算出される音声レベルの推定値 LVLが与えられるまで前 回の音声レベルの推定値 LVLを保持し、 音声レベル推定部 4によって算出され る音声レベルの推定値 LVLが与えられるごとに、 前回の音声レベルの推定値 L VLが保持されている保持レジスタに、 新たに与えられた音声レベルの推定値 L VLを上書き保存する。 また、 この保持レジス夕は、 データ容量 Mを有している 。
一方、 音声検出部 7は、 AZDコンバータ 2により与えられるデジタル音声信 号 DSから図 3の音声の開始時間 TSを検出し、 AZDコンバータ 2から与えら れるデジタル音声信号 DSをバッファ 2 1に与えるように選択部 1 1に制御信号 C I S 1を与えるとともに、 選択部 1 1により与えられるデジタル音声信号 DS を蓄積するようにバッファ 2 1に制御信号 CB 1を与える。 バッファ 2 1, 2 2 は、 ぞれぞれ容量 Lを有している。
選択部 1 1は、 音声検出部 7により与えられる制御信号 C I S 1に応答して、 AZDコンバータ 2から与えられるデジタル音声信号 DSをバッファ 2 1に与え る。 バッファ 2 1は、 音声検出部 7から与えられる制御信号 CB 1に応答して、 選択部 1 1を介して与えられるデジタル音声信号 DSを蓄積する。 そして、 バッ ファ 21は、 蓄積可能な容量 Lのデジタル音声信号 DSを蓄積した際に、 音声検 出部 7に満杯信号 F 1を与える。 それにより、 音声検出部 7は、 バッファ 21を 介して、 音声レベル保持部 8に音声レベルの推定値 LVLを出力させる制御信号 SL 1を与える。
また、 音声検出部 7は、 バッファ 21から与えられる満杯信号 F 1に応答して 、 A/Dコンバータ 2から与えられるデジタル音声信号 DSをバッファ 22に与 えるように選択部 1 1に制御信号 C I S 2を与えるとともに、 選択部 1 1から与 えられるデジタル音声信号 D Sを蓄積するようにバッファ 22に制御信号 CB 2 を与える。 さらに、 音声検出部 7は、 バッファ 2 1に制御信号 CB〇 1を与え、 選択部 12に制御信号 COS 1を与える。
選択部 1 1は、 音声検出部 7により与えられる制御信号 C I S 2に応答して、 A/Dコンバータ 2から与えられるデジタル音声信号 DSをバッファ 22に与え る。 バッファ 22は、 音声検出部 7により与えられる制御信号 CB 2に応答して 、 選択部 1 1を介して与えられるデジタル音声信号 DSを蓄積する。
一方、 バッファ 21は、 音声検出部 7により与えられる制御信号 CBO lに応 答して、 バッファ 21に蓄積されたデジタル音声信号 DSを選択部 12を介して 音声レベル調整部 5に与える。
そして、 バッファ 22は、 音声検出部 7から与えられる制御信号 CB 2に応答 して、 選択部 1 1を介して与えられるデジタル音声信号 DSを蓄積する。 バッフ ァ 22は、 蓄積可能な容量 Lのデジタル音声信号 DSを蓄積した際に、 音声検出 部 7に満杯信号 F 2を与える。 それにより、 音声検出部 7は、 バッファ 22を介 して音声レベル保持部 8に音声レベルの推定値 LVLを出力させる制御信号 S L 2を与える。
また、 音声検出部 7は、 バッファ 22から与えられる満杯信号 F 2に応答して 、 A/Dコンバータ 2から与えられるデジタル音声信号 DSをバッファ 2 1に与 えるように選択部 1 1に制御信号 C I S 1を与える。 さらに、 音声検出部 7は、 バッファ 22に制御信号 CBO 2を与え、 選択部 12に制御信号 COS 2を与え る。 一方、 バッファ 22は、 音声検出部 7により与えられる制御信号 CB〇 2に応 答して、 バッファ 22に蓄積されたデジタル音声信号 DSを選択部 12を介して 音声レベル調整部 5に与える。
音声レベル保持部 8は、 内部の保持レジスタに保持された音声レベルの推定値 L VLをバッファ 21から与えられる制御信号 S L 1またはバッファ 22から与 えられる制御信号 SL 2に応答して音声レベル調整部 5に与える。 ここで、 音声 レベル保持部 8内に設けられる保持レジスタの容量 Mとバッファ 21, 22の容 量 Lとは、 ほぼ同一の容量であるため、 選択部 12を介して与えられるデジタル 音声信号 D Sに対応する音声レベルの推定値 L V Lが、 音声レベル保持部 8から 出力される。
音声レベル調整部 5は、 音声レベル保持部 8により与えられる音声レベルの推 定値 LVLに基づいて、 選択部 12を介して得られるデジタル音声信号 DSの調 整を行う。 第 2の実施の形態における音声レベル調整部 5によるデジタル音声信 号 DSの調整方法は、 第 1の実施の形態における音声レベル調整部 5によるデジ タル音声信 ^DSの調整方法と同様である。 音声レベル調整部 5は、 音声レベル の調整後の出力 CTRL— OUTを音声認識部 6に与える。 音声認識部 6は、 音 声レベル調整部 5により与えられる音声レベルの調整後の出力 CTRL— OUT に基づき音声認識を行う。
第 2の実施の形態における音声認識装置においては、 マイクロホン 1および A /D (アナログ一デジタル) コンバータ 2が入力手段に相当し、 音声レベル推定 部 4が音声レベル推定手段に相当し、 音声レベル調整部 5が音声レベル調整手段 に相当し、 音声認識部 6が音声認識手段に相当し、 音声検出部 7が音声検出部に 相当し、 音声レベル保持部 8が保持回路に相当し、 バッファ 2 1, 22が蓄積回 路に相当する。
図 5 (a) は図 4のマイクロホン 1の出力波形図であり、 図 5 (b) は音声信 号 (信号成分) (S) と雑音成分 (N) との比 (Sノ N) を示す図である。
図 5 (a) に示すように、 マイクロホン 1の出力波形は、 雑音成分と音声信号 からなる。 そして、 音声信号を含む音声区間では、 出力波形の音声レベルの値が 高くなる。 また、 図 5 (b) に示すように、 図 4の音声検出部 7は、 音声信号 (音声成分 ) と雑音成分との比である SZN値が低い場合は雑音区間であると判定し、 音声 信号 (音声成分) と雑音成分との比である S/N値が高い場合は音声区間である と判定する。
図 6は図 4の音声検出部 7の動作を示すフローチャートである。
まず、 図 6に示すように、 音声検出部 7は、 入力されるデジタル音声信号 DS が音声信号であるか否かを判定する (ステップ S 6 1)。 入力されるデジタル音 声信号 DSが音声信号でない場合には、 次回に入力されるデジタル音声信号 DS が音声信号と判定されるまで待機する。 一方、 入力されるデジタル音声信号 DS が音声信号であると判定された場合、 音声検出部 7は、 図 4の選択部 1 1に与え られるデジタル音声信号 DSをバッファ 21に与えるように選択部 1 1に制御信 号 C I S 1を与える (ステップ S 62)。 そして、 音声検出部 7は、 バッファ 2 1にデジタル音声信号 DSを蓄積するように制御信号 CB 1を与える (ステップ S 63)。
次いで、 音声検出部 7は、 バッファ 21により蓄積可能な容量 Lのデジタル音 声信号 DSを蓄積した際に出力される満杯信号 F 1を受信したか否かを判定する (ステップ S 64)。 音声検出部 7は、 バッファ 2 1から満杯信号 F 1を受信し ていない場合には、 引き続きステップ S 63を繰り返す。 一方、 音声検出部 7は 、 バッファ 21から満杯信号 F 1を受信した場合には、 図 4の選択部 1 1に与え られるデジタル音声信号 D Sをバッファ 22に与えるように選択部 1 1に制御信 号 C I S 2を与える (ステップ S 65)。 そして、 音声検出部 7は、 さらにバッ ファ 22にデジタル音声信号 D Sを蓄積するように制御信号 CB 2を与える (ス テツプ S 66)。 また、 音声検出部 7は、 制御信号 C I S 2および制御信号 CB 2を出力した後に、 選択部 12にバッファ 2 1から与えられる蓄積されたデジ夕 ル音声信号 D Sを音声レベル調整部 5に与えるように制御信号 C O S 1を与える (ステップ S 67)。
次いで、 音声検出部 7は、 音声レベル保持部 8にバッファ 21を介して制御信 号 S L 1を与える (ステップ S 68)。 音声レベル保持部 8は、 バッファ 2 1を 介して与えられる制御信号 SL 1に応答して、 音声レベル保持部 8内の保持レジ ス夕に繰り返し記憶されている音声レベルの推定値 LVLを音声レベル調整部 5 に与える。
次いで、 音声検出部 7は、 バッファ 21に制御信号 CBO 1を与え、 蓄積され たデジタル音声信号 DSを音声レベル調整部 5に出力させる (ステップ S 69) 。 続いて、 音声検出部 7は、 バッファ 21に蓄積された全てのデジタル音声信号 DSが音声レベル調整部 5に出力されたか否かを判定する (ステップ S 70)。 ここで、 バッファ 21から全てのデジタル音声信号 DSが出力されていない場合 には、 再度、 バッファ 2 1に制御信号 CBO 1を与え蓄積されたデジタル音声信 号 DSを音声レベル調整部 5に出力させる。 一方、 バッファ 21に蓄積されたデ ジタル音声信号 DSが全て出力された場合、 音声検出部 7は、 バッファ 2 1にバ ッファ内のデータを消去 (クリア) するように制御信号 CRを与える (ステップ S 7 1)。
図 7は 2単語を話者が発声した場合におけるバッファ 21およびバッファ 22 のデジタル音声信号 D Sの入出力を表す模式図である。
図 7に示すように、 バッファ 21には、 音声区間 (S) の一単語 (W1) の開 始時点において、 音声検出部 7により制御信号 CB 1が与えられ、 バッファ 21 へのデジタル信号 DSの入力が開始される。 ここで、 バッファ 21およびバッフ ァ 22は F I FO (First In First Out) タイプのメモリで構成されており、 ま たバッファ 21およびバッファ 22のメモリ容量 Lはほぼ同一である。
バッファ 21へのデジタル音声信号 DSの入力は、 一単語 (W1) のほぼ全て において行われ、 バッファ 21に蓄積可能な容量 Lのデジタル音声信号 D Sが蓄 積されるとバッファ 2 1は音声検出部 7に満杯信号 F 1を出力する。 バッファ 2 1は、 満杯信号 F 1を出力した後、 バッファ 21内に蓄積されたデジタル音声信 号 DSを音声検出部 7により与えられる制御信号 CBO 1に応答して出力する。 一方、 バッファ 22は、 音声検出部 7により与えられる制御信号 CB 2に応答し てデジタル音声信号 D Sの蓄積を開始する。
バッファ 22は、 蓄積可能な容量 Lのデジタル音声信号 DSが蓄積された場合 に、 音声検出部 7に満杯信号 F 2を出力する。 一方、 バッファ 22の蓄積の間に バッファ 21に蓄積されたデジタル音声信号 DSは、 全て音声レベル調整部 5に 出力された後、 音声検出部 7により制御信号 C Rが与えられバッファ 2 1内のデ —夕が消去 (クリア) される。 それにより、 バッファ 2 1には、 音声検出部 7に より再度デジタル音声信号 D Sを蓄積させる制御信号 C B 1が与えられる。 上記のように、 音声区間の開始点からデジタル音声信号が蓄積され、 蓄積され たデジタル音声信号に対応した音声レベルの推定値を用いて音声レベルを正確に 調整することができる。 したがって、 音声認識を正確な音声レベルで調整するこ とにより音声認識の認識率を向上させることができる。
また、 複数の単語を含む長い時間のデジタル音声信号 D Sが入力されても、 交 互に蓄積および出力を行うことができる。 これにより、 小さい容量のバッファを 用いても音声認識を行うことができる。
なお、 本発明の実施の形態においては、 バッファを用いることとしたが、 これ に限らず、 他の蓄積回路を用いてもよい。 さらに、 バッファの内部にカウンタを 設けて、 音声検出部 7によりバッファの内部のカウンタを監視させて満杯信号 F 1 , F 2または制御信号 C Rを出力してもよい。
(第 3の実施の形態)
図 8は本発明の第 3の実施の形態における音声認識装置の一例を示すブロック 図である。
図 8に示すように、 音声認識装置は、 マイクロホン 1、 A/D (アナログ—デ ジタル) コンバータ 2、 信号遅延部 3、 音声レベル推定部 4、 音声レベル調整帰 還部 9および音声認識帰還部 1 0を含む。
図 8に示すように、 話者により発声された音声は、 マイクロホン 1により集音 される。 集音された音声は、 マイクロホン 1の働きによりアナログ音声信号 S A に変換され AZDコンバータ 2に出力される。 AZDコンバータ 2は、 出力され るアナログ音声信号 S Aをデジタル音声信号 D Sに変換し、 信号遅延部 3および 音声レベル推定部 4に与える。 音声レベル推定部 4は、 与えられるデジタル音声 信号 D Sから音声レベルの推定値 L V Lの算出を行う。 ここで、 第 3の発明の実 施の形態における音声レベル推定部 4による音声レベルの推定値 L V Lの算出方 法については、 第 1の実施の形態における音声レベル推定部 4による音声レベル の推定値 L V Lの算出方法と同様である。 音声レベル推定部 4は、 音声レベルの推定値 L V Lを算出し音声レベル調整帰 還部 9に与える。 音声レベル調整帰還部 9は、 音声レベル推定部 4により与えら れる音声レベルの推定値 L V Lに基づいて、 音声レベルの推定値 L V Lに同期し て信号遅延部 3により与えられるデジタル音声信号 D Sのレベルの調整を行う。 音声レベル調整帰還部 9は、 音声レベルの調整後の出力 CTRL— OUTを音声 認識帰還部 10に与える。 音声認識帰還部 10は、 音声レベル調整帰還部 9によ り与えられる調整後の出力 C T R L— 0 UTに基づき音声認識を行い、 音声認識 が失敗したときに音声レベル制御信号 RCを音声レベル調整帰還部 9に与える。 この音声レベル調整帰還部 9および音声認識帰還部 10の動作については後述す る。
第 3の実施の形態における音声認識装置においては、 マイク口ホン.1および A ZD (アナログ—デジタル) コンバータ 2が入力手段に相当し、 信号遅延部 3が 遅延回路に相当し、 音声レベル推定部 4が音声レベル推定手段に相当し、 音声レ ベル調整帰還部 9が音声レベル調整手段に相当し、 音声認識帰還部 1 0が音声認 識手段に相当する。
図 9は図 8に示す音声レベル調整帰還部 9における音声レベルの調整を行う際 の動作を説明するフローチャートである。
図 9に示すように、 まず、 音声レベル調整帰還部 9は、 音声認識帰還部 10に よる音声レベル制御信号 RCが入力されたか否かを判定する (ステップ S 9 1) 。 次に、 音声レベル調整帰還部 9は、 音声認帰還識部 10により音声レベル制御 信号 RCが入力されていない場合には、 音声認識帰還部 1 0による音声レベル制 御信号 RCが入力されたと判定されるまで待機する。 一方、 音声認識帰還部 10 から音声レベル制御信号 RCが入力されたと判定された場合には、 音声レベル調 整帰還部 9は、 変数 Kに 1を加算する (ステップ S 92)。
ここで、 複数の段階の音声レベルの目標値が予め設定されており、 変数 Kとは 、 この複数の段階を表す変数である。 ここで、 本実施の第 3の形態においては、 変数 Kは 1から Rまでの値を有し、 音声レベルの目標値 TRG— L VL (K) の 取りうる値は、 TRG— LVL (1), TRG_L VL (2), 〜TRG— LVL (R) とする。 次いで、 音声レベル調整帰還部 9は、 変数 Kが最大値 Rよりも大きいか否かを 判定する (ステップ S 93)。 ここで、 音声レベル調整帰還部 9は、 変数 Kが最 大値 Rよりも大きいと判定した場合には、 変数 Kを最小値 1に戻し (ステップ S 94)、 音声レベルの目標値 TRG— L VLを TRG— L VL (1) に設定する (ステップ S 95)。
一方、 音声レベル調整帰還部 9は、 変数 Kが最大値 R以下と判定した場合、 音 声レベルの目標値 TRG— L VLを TRG— L VL (K) に設定する (ステップ 例えば、 最初、 音声レベルの目標値 TRG— L VLが、 TRG— LVL (2) に設定されているとする。 そして、 音声認識帰還部 10が音声認識に失敗して音 声認識を行うことができない場合には、 制御信号 RCが音声レベル調整帰還部 9 に出力される。 音声レベル調整帰還部 9は、 音声レベルの目標値 TRG— L VL (2) を音声レベルの目標値 TRG— L VL (3) に変更し、 再度の話者からの 音声入力を待つ。
このように、 音声レベルの目標値 TRG_L VLを TRG— L VL (2), T RG_L VL (3), TRG— LVL (4) と順次に変更し、 音声認識が成功し た時点で音声レベルの目標値 TRG一 LVLが固定される。 また、 音声レベルの 目標値 TRG— L VLが最大値である TRG— L VL (R) に設定されても音声 認識に失敗した場合には、 次に音声レベルの目標値 TRG— LVLを最小値であ る TRG— LVL (1) に戻し、 再度の話者からの音声入力を待つ。
このようして、 音声レベルの目標値 TRG—LV Lが音声認識に最適な値に設 定される。
上記のように、 音声認識結果が失敗であった場合に、 再び音声レベル調整帰還 部 9において、 音声レベルの調整程度を順次上げていくことができる。 また、 音 声レベルの調整程度が、 予め定めた音声レベルの最大値に到達しても、 再度音声 レベルを最小値に戻して調整程度を順次上げることができる。 これにより、 音声 レベルの調整程度が適切でなく音声認識に失敗した場合には、 繰り返し音声レべ ルの調整程度を順次変更することができるので音声認識の認識率を向上させるこ とができる。 なお、 上記実施の形態においては、 音声認識に失敗した場合には、 再度話者か らの音声入力により音声レベルの目標値 TRG— LVL (K) を順次変更するこ ととしたが、 これに限らず、 話者の音声入力を保持する手段を設け、 音声認識に 失敗した場合には、 音声入力を保持する手段により保持されている音声入力を用 いることにより音声レベルの目標値 TRG— L VL (K) を順次変更させてもよ い。
(第 4の実施の形態)
図 10は本発明の第 4の実施の形態における音声認識装置の一例を示すプロッ ク図である。
図 10に示すように、 音声認識装置は、 マイクロホン 1、 A/D (アナログ— デジタル) コンバータ 2、 信号遅延部 3、 音声レベル推定部 4、 音声レベル調整 部 5、 音声認識部 6および信号非線形処理部 1 1を含む。
図 10に示すように、 話者により発声された音声は、 マイクロホン 1により集 音される。 集音された音声は、 マイクロホン 1の働きによりアナログ音声信号 S Aに変換され AZDコンパ一タ 2に出力される。 AZDコンバータ 2は、 出力さ れるアナログ音声信号 S Aをデジタル音声信号 DSに変換し、 信号遅延部 3およ び音声レベル推定部 4に与える。 音声レベル推定部 4は、 与えられるデジタル音 声信号 DSから音声レベルの推定値 LVLの算出を行う。 ここで、 第 4の実施の 形態における音声レベル推定部 4による音声レベルの推定値 LVLの算出方法に ついては、 第 1の実施の形態における音声レベル推定部 4による音声レベルの推 定値 LVLの算出方法と同様である。 音声レベル推定部 4は、 与えられるデジ夕 ル音声信号 DSおよび音声レベルの推定値 LVLを信号非線形処理部 1 1に与え る。 信号非線形処理部 1 1は、 音声レベル推定部 4により与えられる音声レベル の推定値 LVLに応じて後述する非線形処理を行い、 非線形処理を行った音声レ ベルの推定値 LVLを音声レベル調整部 5に与える。
一方、 信号遅延部 3は、 音声レベル立ち上がり時間 TLに相当する遅延量分の み遅延させたデジタル音声信号 DSを音声レベル調整部 5に与える。 ここで、 第 4の実施の形態における音声レベル立上り時間 TLに相当する遅延量分は、 10 0ms e cとする。 音声レベル調整部 5は、 信号非線形処理部 1 1から与えられ る音声レベルの推定値 L VLに応じて信号遅延部 3により与えられるデジタル音 声信号 DSの音声レベルの調整を行う。 音声レベル調整部 5は、 音声レベルの調 整後の出力 CTRL— OUTを音声認識部 6に与える。 音声認識部 6は、 音声レ ベル調整部 5により与えられる音声レベルの調整後の出力 C T R L— OU Tに応 じて音声認識を行う。
第 4の実施の形態における音声認識装置においては、 マイクロホン 1および A /D (アナログ一デジタル) コンバータ 2が入力手段に相当し、 信号遅延部 3が 遅延回路に相当し、 音声レベル推定部 4が音声レベル推定手段に相当し、 音声レ ベル調整部 5が音声レベル調整手段に相当し、 音声認識部 6が音声認識手段に相 当し、 信号非線形処理部 1 1が非線形処理部に相当する。
図 1 1は図 10の信号非線形処理部 1 1に入力される音声レベルの推定値 LV Lと図 10の音声認識部 6における認識率との関係を示す図である。
図 1 1に示すように、 図 10の音声認識部 6における認識率は、 音声レベルの 推定値 LVLに依存している。 音声レベルの推定値 LVLがー 19 dB以上— 2 d B以下の範囲にある場合には、 認識率が 80 %以上を示す。 そして、 特に音声 レベルの推定値 LVLが低い (一 19 dB以下) 場合、 または音声レベルの推定 値 LVLが高い (一 2 d B以上) 場合には、 音声認識の認識率が急激に低下する このことから、 本発明の第 4の実施の形態における信号非線形処理部 1 1にお いては、 入力される音声レベルの推定値 LVLがー 1 9 dBから一 2 dBまでの 範囲内に存在するように音声レベルの推定値 LVLを調整する。
図 12は信号非線形処理部 1 1の処理動作を示すフローチャートである。
図 12に示すように、 信号非線形処理部 1 1は、 音声レベル推定部 4により入 力される音声レベルの推定値 LVLが— 1 9 d B以上— 2 dB以下であるか否か を判定する (ステップ S 10 1)。
信号非線形処理部 1 1は、 入力される音声レベルの推定値 LVLが— 1 9 dB 以上一 2 dB以下の値であると判定した場合には、 音声レベル調整部 5を不能動 化させる。 すなわち、 音声レベル調整部 5において式 (2) に示す音声レベルの 調整値 L VL— CTRLは 1となる。 一方、 信号非線形処理部 1 1は、 入力される音声レベルの推定値 LVLがー 1 9 dB以上— 2 dB以下の値でないと判定した場合、 音声レベルの推定値 LVL を— 10 dBに設定する (ステップ S 102)。
上記のように、 信号非線形処理部 1 1は、 音声レベルの推定値 LVLが認識率 80%以上を満たすように、 音声レベルの推定値 LVLを設定するため、 音声認 識部 6において入力されるデジタル音声信号 DSの音声認識の認識率を向上させ ることができる。 すなわち、 音声レベルの推定値 LVLが予め定められた範囲内 にない場合にのみ、 音声レベルの推定値を予め定められた範囲内の音声レベルの 推定値に変更して音声レベルの調整を行い、 音声レベルの推定値が予め定められ た範囲内のにある場合には、 音声レベル調整部 5における増幅率を 1にして音声 レベル調整部 5を不能動化にすることにより音声レベルの調整を行わない。 これ により、 簡易に話者の音声が有する言葉の抑揚であるアクセントに無用な歪みを 与えることを防止し音声認識を行うことができるので音声認識の認識率を向上さ せることができる。
なお、 上記実施の形態においては、 音声レベルの推定値を一 1 9 d Bから— 2 dBに調整することとしたが、 これに限定されず、 音声認識を行う際に予め設定 される音声レベルの推定値または音声認識率の高い音声レベル推定値に調整すれ ばよい。

Claims

請 求 の 範 囲
1 . デジタル音声信号を入力する入力手段と、
前記入力手段により入力される音声区間内の一部の時間内のデジタル音声信号 に基づいて前記音声区間の音声レベルを推定する音声レベル推定手段と、 前記音声レベル推定手段により推定された音声レベルおよび予め設定された目 標レベルに基づいて前記入力手段により入力される前記音声区間のデジタル音声 信号のレベルを調整する音声レベル調整手段と、
前記音声レベル調整手段により調整されたデジタル音声信号に基づいて音声認 識を行う音声認識手段とを備えた、 音声認識装置。
2 . 前記音声レベル推定手段は、
前記入力手段により入力される前記音声区間内の最初の所定時間内のデジタル 音声信号に基づいて前記音声区間の音声レベルを推定する、 請求項 1記載の音声
3 . 前記音声レベル推定手段は、
前記入力手段により入力される前記音声区間内の最初の所定時間内のデジタル 音声信号の平均値を前記音声区間の音声レベルとして推定する、 請求項 2記載の
4 . 前記音声レベル調整手段は、
前記予め設定された目標レベルと前記音声レベル推定手段により推定される音 声レベルとの比により定まる増幅率で前記入力手段により入力される前記音声区 間のデジタル音声信号のレベルを増幅または減衰させる、 請求項 1記載の音声認
5 . 前記音声区間のデジタル音声信号が前記音声レベル推定手段により推定され る音声レベルとともに同期して前記音声レベル調整手段に与えられるように前記 入力手段により入力されるデジタル音声信号を遅延させる遅延回路をさらに備え た、 請求項 1記載の音声認識装置。
6 . 前記音声レベル推定手段は、
前記入力手段により入力される前記音声区間のデジタル音声信号の開始点を検 出する音声検出部と、
前記入力手段により入力される前記音声区間内の最初の所定時間内のデジタル 音声信号に基づいて前記音声区間の音声レベルを推定する音声レベル推定部と、 前記音声レベル推定部により推定された音声レベルを保持する保持回路と、 前記音声検出部による検出に応答して前記入力手段により入力される前記音声 区間のデジタル音声信号を蓄積するとともに蓄積された前記音声区間のデジタル 音声信号を前記保持回路に保持された音声レベルと同期させて前記音声レベル調 整手段に出力する蓄積回路とを含む、 請求項 1記載の音声認識装置。
7 . 前記蓄積回路は、
前記入力手段により入力される前記音声区間のデジタル音声信号を交互に蓄積 するとともに蓄積された前記音声区間のデジタル音声信号を交互に前記音声レべ ル調整手段に出力する第 1および第 2のバッファを含む、 請求項 6記載の音声認
8 . 前記音声認識手段は、 音声認識結果を前記音声レベル調整手段に帰還させ、 前記音声レベル調整手段は、 前記音声認識手段により帰還された音声認識結果 に基づいて前記音声レベルの調整程度を変更する、 請求項 1記載の音声認識装置
9 . 前記音声レベル調整手段は、 前記音声認識手段による音声認識が不可能な場 合に前記音声レベルの増幅率を上昇させる、 請求項 8記載の音声認識装置。
1 0 . 前記音声レベル推定手段により推定された音声レベルが予め定められた範 囲内にある場合に前記音声レベル調整手段を不能動化し、 前記音声レベル推定手 段により推定された音声レベルが予め定められた範囲内にない場合に前記音声レ ベル調整手段を能動化するとともに前記音声レベル推定手段により推定された音 声レベルを前記予め定められた範囲内の音声レベルに変更して前記音声レベル調 整手段に与える非線形処理部をさらに備えた、 請求項 1記載の音声認識装置。
1 1 . デジタル音声信号を入力するステップと、
音声区間内の一部の時間内の前記入力されたデジタル音声信号に基づいて前記 音声区間の音声レベルを推定するステップと、
前記推定された音声レベルおよび予め設定された目標レベルに基づいて前記音 声区間のデジタル音声信号のレベルを調整するステップと、
前記調整されたデジタル音声信号に基づいて音声認識を行うステップとを備え た、 音声認識方法。
1 2 . 前記音声レベルを推定するステップは、
前記音声区間内の最初の所定時間内のデジタル音声信号に基づいて前記音声区 間の音声レベルを推定することを含む、 請求項 1 1記載の音声認識方法。
1 3 . 前記音声レベルを推定するステップは、
前記音声区間内の最初の所定時間内のデジタル音声信号の平均値を前記音声区 間の音声レベルとして推定することを含む、 請求項 1 2記載の音声認識方法。
1 4 . 前記デジタル音声信号のレベルを調整するステップは、
前記予め設定された目標レベルと前記推定される音声レベルとの比により定ま る増幅率で前記音声区間のデジタル音声信号のレベルを增幅または減衰させるこ とを含む、 請求項 1 1記載の音声認識方法。
1 5 . 前記音声区間のデジタル音声信号が前記推定される音声レベルとともに同 期して前記デジタル音声信号のレベルを調整するステップに与えられるように前 記デジタル音声信号を遅延させるステップをさらに備えた、 請求項 1 1記載の音 声認識方法。
1 6 . 前記音声レベルを推定するステップは、
前記音声区間のデジタル音声信号の開始点を検出するステップと、
前記音声区間内の最初の所定時間内のデジタル音声信号に基づいて前記音声区 間の音声レベルを推定するステップと、
前記推定された音声レベルを保持するステップと、
前記デジタル音声信号の開始点の検出に応答して前記音声区間のデジタル音声 信号を蓄積するとともに蓄積された前記音声区間のデジタル音声信号を前記保持 された音声レベルと同期させて出力するステップとを含む、 請求項 1 1記載の音 声認識方法。
1 7 . 前記蓄積するステップは、
前記音声区間のデジタル音声信号を第 1および第 2のバッファに交互に蓄積す るとともに蓄積された前記音声区間のデジタル音声信号を第 1および第 2のバッ ファから交互に出力するステップを含む、 請求項 1 6記載の音声認識方法。
1 8 . 前記音声認識を行うステップは、 音声認識結果を前記デジタル音声信号の レベルを調整するステツプに帰還させることを含み、
前記デジタル音声信号のレベルを調整するステップは、 前記帰還された音声認 識結果に基づいて前記音声レベルの調整程度を変更することを含む、 請求項 1 1 記載の音声認識方法。
1 9 . 前記デジタル音声信号のレベルを調整するステップは、 前記音声認識が不 可能な場合に前記音声レベルの増幅率を上昇させることを含む、 請求項 1 8記載 の音声認識方法。
2 0 . 前記推定された音声レベルが予め定められた範囲内にある場合に前記デジ タル音声信号のレベルを調整することを不能動化し、 前記推定された音声レベル が予め定められた範囲内にない場合に前記調整するステツプを能動化するととも に前記推定された音声レベルを前記予め定められた範囲内の音声レベルに変更し て変更された音声レベルを前記デジタル音声信号のレベルを調整するために用い るステップをさらに備えた、 請求項 1 1のいずれかに記載の音声認識方法。
2 1 . コンピュータ読み取り可能な音声認識プログラムであって、
デジタル音声信号を入力する処理と、
前記入力される音声区間内の一部の時間内のデジタル音声信号に基づいて前記 音声区間の音声レベルを推定する処理と、
前記推定された音声レベルおよび予め設定された目標レベルに基づいて前記入 力される前記音声区間のデジタル音声信号のレベルを調整する処理と、
前記調整されたデジタル音声信号に基づいて音声認識を行う処理とを、 前記コンピュータに実行させる、 音声認識プログラム。
PCT/JP2001/005950 2000-07-10 2001-07-09 Systeme de reconnaissance de la parole, procede de reconnaissance de la parole et programme de reconnaissance de la parole WO2002005266A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE60122893T DE60122893T2 (de) 2000-07-10 2001-07-09 Verfahren, vorrichtung und programm zur sprecherkennung
EP01947936A EP1300832B1 (en) 2000-07-10 2001-07-09 Speech recognizer, method for recognizing speech and speech recognition program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2000208083 2000-07-10
JP2000-208083 2000-07-10
JP2001-203754 2001-07-04
JP2001203754A JP4880136B2 (ja) 2000-07-10 2001-07-04 音声認識装置および音声認識方法

Publications (1)

Publication Number Publication Date
WO2002005266A1 true WO2002005266A1 (fr) 2002-01-17

Family

ID=26595685

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/005950 WO2002005266A1 (fr) 2000-07-10 2001-07-09 Systeme de reconnaissance de la parole, procede de reconnaissance de la parole et programme de reconnaissance de la parole

Country Status (7)

Country Link
US (1) US20020173957A1 (ja)
EP (1) EP1300832B1 (ja)
JP (1) JP4880136B2 (ja)
KR (1) KR100482477B1 (ja)
CN (1) CN1227647C (ja)
DE (1) DE60122893T2 (ja)
WO (1) WO2002005266A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100406307B1 (ko) * 2001-08-09 2003-11-19 삼성전자주식회사 음성등록방법 및 음성등록시스템과 이에 기초한음성인식방법 및 음성인식시스템
JP3815388B2 (ja) * 2002-06-25 2006-08-30 株式会社デンソー 音声認識システムおよび端末
JP4552064B2 (ja) * 2003-10-15 2010-09-29 独立行政法人情報通信研究機構 音声レベル自動補正装置
US7925510B2 (en) * 2004-04-28 2011-04-12 Nuance Communications, Inc. Componentized voice server with selectable internal and external speech detectors
KR100705563B1 (ko) * 2004-12-07 2007-04-10 삼성전자주식회사 입력 레벨 자동 조절을 위한 음성 인식 시스템 및 이를이용한 음성 인식 방법
JP4667082B2 (ja) * 2005-03-09 2011-04-06 キヤノン株式会社 音声認識方法
KR100720337B1 (ko) 2005-09-06 2007-05-22 한국과학기술연구원 비선형 증폭기를 이용한 음성처리 시스템
US20080015104A1 (en) 2006-07-13 2008-01-17 Unimin Corporation Ultrafine nepheline syenite
KR20080078458A (ko) * 2007-02-23 2008-08-27 이선일 음성 인식 회로
JP5259622B2 (ja) * 2007-12-10 2013-08-07 パナソニック株式会社 収音装置、収音方法、収音プログラム、および集積回路
KR20160132574A (ko) 2015-05-11 2016-11-21 현대자동차주식회사 자동이득제어모듈, 그 제어방법, 이를 포함하는 차량, 및 그 제어방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6016200U (ja) * 1983-07-12 1985-02-02 カシオ計算機株式会社 音声認識装置に於けるリミツタアンプ
JPS63316097A (ja) * 1987-06-19 1988-12-23 日本電気株式会社 連続音声認識装置
JPH08115098A (ja) * 1994-10-18 1996-05-07 Hitachi Microcomput Syst Ltd 音声編集方法および装置
JP2500761Y2 (ja) * 1994-03-30 1996-06-12 株式会社アルファ 音声認識装置
JPH11126093A (ja) * 1997-10-24 1999-05-11 Hitachi Eng & Service Co Ltd 音声入力調整方法および音声入力システム
JP2975808B2 (ja) * 1993-05-31 1999-11-10 三洋電機株式会社 音声認識装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59223499A (ja) * 1983-06-02 1984-12-15 松下電器産業株式会社 音素認識装置
JPS6016200A (ja) * 1983-07-08 1985-01-26 池田 栄子 栄養群別カロリ−表示販売システム
JPS6262399A (ja) * 1985-09-13 1987-03-19 株式会社日立製作所 音声高能率符号化方式
JP2969862B2 (ja) * 1989-10-04 1999-11-02 松下電器産業株式会社 音声認識装置
JPH10198397A (ja) * 1997-01-08 1998-07-31 Meidensha Corp 音声認識処理装置および音声認識処理方法
JPH11212595A (ja) * 1998-01-23 1999-08-06 Olympus Optical Co Ltd 音声処理装置、音声認識プログラムを記録した記録媒体、処理プログラムを記録した記録媒体
US6353671B1 (en) * 1998-02-05 2002-03-05 Bioinstco Corp. Signal processing circuit and method for increasing speech intelligibility

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6016200U (ja) * 1983-07-12 1985-02-02 カシオ計算機株式会社 音声認識装置に於けるリミツタアンプ
JPS63316097A (ja) * 1987-06-19 1988-12-23 日本電気株式会社 連続音声認識装置
JP2975808B2 (ja) * 1993-05-31 1999-11-10 三洋電機株式会社 音声認識装置
JP2500761Y2 (ja) * 1994-03-30 1996-06-12 株式会社アルファ 音声認識装置
JPH08115098A (ja) * 1994-10-18 1996-05-07 Hitachi Microcomput Syst Ltd 音声編集方法および装置
JPH11126093A (ja) * 1997-10-24 1999-05-11 Hitachi Eng & Service Co Ltd 音声入力調整方法および音声入力システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1300832A4 *

Also Published As

Publication number Publication date
DE60122893T2 (de) 2007-03-15
JP2002091487A (ja) 2002-03-27
EP1300832B1 (en) 2006-09-06
EP1300832A4 (en) 2005-07-20
KR100482477B1 (ko) 2005-04-14
CN1386265A (zh) 2002-12-18
US20020173957A1 (en) 2002-11-21
CN1227647C (zh) 2005-11-16
DE60122893D1 (de) 2006-10-19
KR20020033791A (ko) 2002-05-07
EP1300832A1 (en) 2003-04-09
JP4880136B2 (ja) 2012-02-22

Similar Documents

Publication Publication Date Title
US10579327B2 (en) Speech recognition device, speech recognition method and storage medium using recognition results to adjust volume level threshold
WO2010131470A1 (ja) ゲイン制御装置及びゲイン制御方法、音声出力装置
US8755546B2 (en) Sound processing apparatus, sound processing method and hearing aid
JPH08110793A (ja) 特性ベクトルの前端正規化による音声認識の改良方法及びシステム
JP2013109346A (ja) 自動利得制御
WO2002005266A1 (fr) Systeme de reconnaissance de la parole, procede de reconnaissance de la parole et programme de reconnaissance de la parole
US7797157B2 (en) Automatic speech recognition channel normalization based on measured statistics from initial portions of speech utterances
JP5716595B2 (ja) 音声補正装置、音声補正方法及び音声補正プログラム
JP2000250565A (ja) 音声区間検出装置、音声区間検出方法、音声認識方法およびその方法を記録した記録媒体
CN104918181A (zh) 电平调整装置和方法
JPH08185196A (ja) 音声区間検出装置
US9754606B2 (en) Processing apparatus, processing method, program, computer readable information recording medium and processing system
JP7151724B2 (ja) 制御処理装置および制御処理方法、並びにプログラム
JP5614767B2 (ja) 音声処理装置
KR20060042386A (ko) Agc회로, agc회로의 이득 제어 방법, agc회로의 이득 제어 방법의 프로그램 및 agc회로의 이득 제어방법의 프로그램을 기록한 기록 매체
JP4548953B2 (ja) 音声自動利得制御装置、音声自動利得制御方法、音声自動利得制御用のアルゴリズムを持つコンピュータプログラムを格納する記憶媒体及び音声自動利得制御用のアルゴリズムを持つコンピュータプログラム
JPH11184491A (ja) 音声認識装置
JP5105912B2 (ja) 音声明瞭度改善装置およびその騒音レベル推定方法
JP4552368B2 (ja) 機器制御システム、音声認識装置及び方法、並びにプログラム
CN113555033A (zh) 语音交互系统的自动增益控制方法、装置及系统
JP2001228893A (ja) 音声認識装置
EP2466917B1 (en) Audio-signal processing apparatus and method, and program
CN112669872B (zh) 一种音频数据的增益方法及装置
JP4999267B2 (ja) 音声入力装置
JPH0855428A (ja) 録音信号処理装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 018019633

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020027003193

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2001947936

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020027003193

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 10069530

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001947936

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1020027003193

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2001947936

Country of ref document: EP