WO2001003115A1 - Decodeur audio et procede de compensation d'erreur de codage - Google Patents

Decodeur audio et procede de compensation d'erreur de codage Download PDF

Info

Publication number
WO2001003115A1
WO2001003115A1 PCT/JP2000/004323 JP0004323W WO0103115A1 WO 2001003115 A1 WO2001003115 A1 WO 2001003115A1 JP 0004323 W JP0004323 W JP 0004323W WO 0103115 A1 WO0103115 A1 WO 0103115A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameter
gain
decoding
decoding unit
lag
Prior art date
Application number
PCT/JP2000/004323
Other languages
English (en)
French (fr)
Inventor
Koji Yoshida
Hiroyuki Ehara
Masahiro Serizawa
Kazunori Ozawa
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd., Nec Corporation filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/018,317 priority Critical patent/US7171354B1/en
Priority to EP00942405A priority patent/EP1207519B1/en
Priority to CA2377597A priority patent/CA2377597C/en
Priority to AU57064/00A priority patent/AU5706400A/en
Publication of WO2001003115A1 publication Critical patent/WO2001003115A1/ja
Priority to US11/641,009 priority patent/US7499853B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients

Definitions

  • the present invention relates to a speech decoding device and a code error compensation method used for a mobile communication system, a speech recording device, and the like that encode and transmit a speech signal.
  • voice coding devices that compress voice information and encode it at a low bit rate are used for effective use of radio waves and storage media.
  • the decoding side detects the error and uses an error compensation method to suppress the deterioration of the decoded voice quality.
  • CS-ACELP code of ITU-T recommendation G.729 (“Coding of speech at 8 kbit / s using conjugate-structure algebraic-code-excited linear-prediction (CS-ACELP)")
  • CS-ACELP conjugate-structure algebraic-code-excited linear-prediction
  • FIG. 1 is a block diagram showing a configuration of a speech decoding apparatus including error compensation of the CS-ACELP coding scheme.
  • speech decoding is performed in 10 ms frame units (decoding units), and the presence or absence of error detection on the transmission path is notified to the speech decoding device in frame units.
  • the received coded data in a frame in which a transmission path error is not detected are separated in the data separation unit 1 into parameters required for decoding.
  • an adaptive excitation is generated by adaptive excitation codebook 3 using the lag parameter decoded by lag parameter overnight decoding section 2, and a fixed excitation is generated by fixed excitation codebook 4.
  • the driving sound source is generated by performing the multiplication in the arithmetic unit 6 and adding in the adder 7.
  • a decoded speech is generated via the LPC synthesis filter 9 and the post filter 10 using the LPC parameter data decoded by the LPC parameter data decoding unit 8.
  • an adaptive excitation is generated using the lag parameter of the previous frame in which no error was detected as a lag parameter, and A fixed excitation is generated by giving a random fixed excitation code to Codebook 4, and as a gain parameter, a driving excitation is generated using the adaptive excitation gain of the previous frame and the value obtained by attenuating the fixed excitation gain. Then, LPC synthesis and post-filter processing are performed using the LPC parameters of the previous frame as LPC parameters to obtain decoded speech.
  • the speech decoding apparatus can perform error compensation processing when a transmission path error occurs.
  • An object of the present invention is to provide a speech decoding apparatus and an error compensation method that can realize more improved decoded speech quality in a frame in which an error is detected.
  • An object of the present invention is to include mode information representing characteristics of each short section (frame) of a voice in a voice coding parameter, and a lag parameter used for voice decoding in a voice decoding apparatus according to the mode information. It is to adaptively calculate the evening and the gain parameter.
  • the subject of the present invention is that in a speech decoding device, according to the mode information, The purpose is to adaptively control the ratio between the adaptive sound source gain and the fixed sound source gain. Furthermore, the subject of the present invention is an adaptive sound source used for speech decoding according to the value of the decoding gain parameter in a normal decoding unit in which no error is detected immediately after a decoding unit in which an error is detected in the encoding data. It is to adaptively control the gain parameter and the fixed sound source gain parameter.
  • FIG. 1 is a block diagram showing the configuration of a conventional speech decoding apparatus
  • FIG. 2 is a block diagram illustrating a configuration of a wireless communication system including a speech encoding device and a speech decoding device according to an embodiment of the present invention
  • FIG. 3 is a block diagram showing the configuration of the speech decoding apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a block diagram showing an internal configuration of a lag parameter decoding section in the speech decoding apparatus according to Embodiment 1 of the present invention
  • FIG. 5 is a block diagram showing an internal configuration of a gain parameter overnight decoding unit in the speech decoding device according to Embodiment 1 of the present invention
  • FIG. 6 is a block diagram showing a configuration of a speech decoding apparatus according to Embodiment 2 of the present invention.
  • FIG. 7 is a block diagram showing an internal configuration of a gain parameter overnight decoding unit in the speech decoding apparatus according to Embodiment 2 of the present invention.
  • FIG. 8 is a block diagram showing a configuration of a speech decoding apparatus according to Embodiment 3 of the present invention.
  • FIG. 9 is a block diagram showing the internal configuration of the gain parameter overnight decoding unit in the speech decoding apparatus according to Embodiment 3 of the present invention.
  • FIG. 2 is a block diagram showing a configuration of a wireless communication device including the speech decoding device according to Embodiment 1 of the present invention.
  • the wireless communication device refers to a communication terminal device such as a base station device or a mobile station in a digital wireless communication system.
  • the voice is converted into an electric analog signal by a voice input device 101 such as a microphone on the transmitting side, and the analog voice signal output to the AZD converter 102 is converted into an AZD converter 102 Is converted into a digital audio signal and output to the audio encoding unit 103.
  • the voice coding unit 103 performs voice coding processing on the digital voice signal, and outputs the coded information to the modulation / demodulation unit 104.
  • the modulation and demodulation unit 104 digitally modulates the encoded voice signal and sends it to the radio transmission unit 105.
  • Radio transmission section 105 performs a predetermined radio transmission process on the modulated signal. This signal is transmitted via antenna 106.
  • the received signal received by antenna 107 is subjected to predetermined wireless reception processing by wireless receiving section 108, and sent to modem 104.
  • the modulation and demodulation section 104 performs demodulation processing on the received signal, and outputs the demodulated signal to the speech decoding section 109.
  • Speech decoding section 109 performs a decoding process on the demodulated signal to obtain a digital decoded speech signal, and outputs the digital decoded speech signal to DZA converter 110.
  • the DZA converter 110 converts the digitized decoded audio signal output from the audio decoding unit 109 into an analog decoded audio signal and outputs the analog decoded audio signal to an audio output device 111 such as a speaker.
  • the audio output device 111 converts the electrical analog decoded audio signal into decoded audio and outputs it.
  • FIG. 3 is a block diagram showing a configuration of the speech decoding device according to Embodiment 1 of the present invention.
  • the error compensation method in this speech decoding device is based on the assumption that an error is detected on the speech decoding side with respect to the encoded data obtained by encoding the input speech signal on the speech encoding side. It operates to suppress the quality degradation of the decoded speech during speech decoding.
  • speech decoding is performed in a fixed short section of about 10 to 50 ms (called a frame).
  • the detection result of whether an error has occurred in the received data is reported as an error detection flag in the frame unit.
  • CRC Cyclic Redundancy Check
  • Error detection shall be performed in advance outside the speech decoding device.Eligible data for error detection may be the entire encoded data for each frame, or only encoded data that is perceptually important. May be targeted.
  • At least one of the mode information and the speech signal representing the feature of each frame of the speech signal is included in the speech encoding parameter (transmission parameter).
  • the data separation unit 201 separates each of the voice coding parameters from the coded data. Then, mode information, LPC parameter overnight, lag parameter — evening, and gain parameter are decoded by mode information decoding section 202, LPC parameter decoding section 203, lag parameter decoding section 204, and gain parameter decoding section 205, respectively. .
  • the mode information indicates the state of the audio signal in units of frames.
  • modes such as voiced, unvoiced, and transient
  • the encoding side performs encoding according to these states.
  • the pitch prediction gain is set on the encoding side.
  • unvoiced, transient, voiced (weak periodicity), and voiced (strong periodicity) are classified into four modes: unvoiced, transient, voiced (weak periodicity), and voiced (strong periodicity), and encoding is performed according to the mode.
  • the adaptive excitation codebook 206 is used to generate an adaptive excitation signal based on the lag parameter
  • the fixed excitation codebook 207 is used to generate a fixed sound signal based on the fixed excitation code.
  • Each of the generated excitation signals is multiplied by a gain using a decoded gain parameter in a multiplier 209, and the two excitation signals are added in an adder 209. Decoded voice is generated and output by 10 and post-fill 2 11.
  • the data separating unit 201 separates the data into each encoded parameter.
  • the mode information decoding unit 202 extracts the decoding mode information of the previous frame and uses this as the mode information of the current frame.
  • the lag parameter overnight decoding section 204 and the gain parameter overnight decoding section 205 the lag parameter overnight code, gain parameter overnight code, and mode information of the current frame obtained by the data separation section 201 are obtained.
  • the lag parameter and the gain parameter used in the current frame are adaptively calculated according to the mode information. Details of this calculation method will be described later.
  • the decoding method of the LPC parameters and the fixed excitation parameters is arbitrary, but as in the conventional technique, the LPC parameters of the previous frame are used for the LPC parameters, and a random fixed excitation code is used for the fixed excitation parameters.
  • a fixed sound source signal generated by applying the above may be used.
  • An arbitrary noise signal generated by the random number generator may be used as the fixed sound source signal.
  • decoding may be performed using the fixed excitation code separated from the encoded data of the current frame as it is.
  • the decoded speech is generated via the driving excitation signal generation, LPC synthesis, and post-filling in the same way as when no error is detected.
  • FIG. 4 is a block diagram showing an internal configuration of lag parameter overnight decoding section 204 in the speech decoding apparatus shown in FIG.
  • the lag decoding unit 301 decodes the lag code of the current frame. I do.
  • the intra-frame and inter-frame lag change detection sections 302 and 303 measure changes in the decoded lag parameters within and between frames.
  • the lag parameter for one frame consists of a plurality of lag parameters corresponding to a plurality of sub-frames in one frame. This is done by detecting whether there is a difference.
  • lag change detection between frames is performed by comparing multiple lag parameters in a frame with lag parameters in the previous frame (last subframe) and detecting whether there is a difference greater than a certain threshold. I do.
  • the lag parameter overnight determining unit 304 finally determines a lag parameter used in the current frame.
  • a description will be given of a method of determining this lag parame.
  • the lag parameter used in the previous frame is unconditionally used as the value of the current frame.
  • the parameters decoded from the coded data of the current frame are used under the condition that the lag change within a frame and between frames is restricted.
  • the intra-frame lag fluctuates beyond the threshold
  • the inter-frame lag change is measured.
  • the variation from the previous frame (or previous sub-frame) is large (the difference exceeds the threshold).
  • L (is) indicates the decoding lag parameter overnight
  • L ′ (is) indicates the lag parameter overnight used in the current frame
  • NS indicates the number of subframes
  • Lprev indicates the previous frame (or previous subframe) lag parameter.
  • Tha and Thb indicate thresholds.
  • only the intra-frame lag change detection unit 302 or only the inter-frame lag change detection unit 303 is used to determine a lag parameter to be used in the current frame from only the intra-frame fluctuation information or the only inter-frame fluctuation information. Is also good.
  • the above processing may be applied only to the case where the mode information indicates a transition, and in the case of no voice, the lag parameter decoded from the encoded data of the current frame may be used as it is.
  • the lag change detection is performed on the lag parameter decoded from the lag code.
  • the lag change detection may be directly performed on the lag code value.
  • a transient frame is a frame in which the lag parameter plays an important role as the start of voice. For this reason, as described above, in the transient frame, the decoding lag parameter obtained from the encoded data of the current frame can be actively used conditionally so as to avoid deterioration due to an encoding error. As a result, it is possible to improve the decoded speech quality as compared with a method using the previous frame lag parameter unconditionally as in the related art.
  • FIG. 5 is a block diagram showing an internal configuration of gain parameter overnight decoding section 205 in the audio decoding apparatus shown in FIG.
  • the gain decoding unit 401 decodes the gain parameter data from the current parameter code of the current frame.
  • the gain decoding method differs according to the mode information (for example, the table used for decoding differs)
  • decoding is performed according to that.
  • the The mode information used at this time is the one decoded from the coded data of the current frame.
  • a method of expressing the gain parameter encoding method
  • a method of expressing the gain value by a combination of the parameter indicating the frame (or subframe) parameter information and the parameter indicating the relative relationship to the parameter is described.
  • the value of the previous frame or a value obtained by adding attenuation
  • the switching unit 402 switches the processing according to the error detection flag and the mode information.
  • the decoding gain parameter is output as is.
  • processing is switched according to mode information for frames in which errors are detected.
  • the voiced frame gain compensating unit 404 calculates a gain parameter used in the current frame.
  • the gain parameter 403 of the previous frame held in the gain buffer 403 may be attenuated by a certain value. Good.
  • the unvoiced'transient frame gain control unit 405 performs gain value control using the gain parameter decoded by the gain decoding unit 401. Specifically, based on the gain parameter of the previous frame obtained from the gain buffer 403, an upper limit and / or a lower limit (or any one) of a relative change from the value are set, and the upper limit (and the lower limit) are set.
  • the decoding gain parameter whose range is limited by (value) is used as the gain parameter of the current frame. Equation (2) below shows an example of the limiting method when setting the upper limit for the adaptive sound source gain and the fixed sound source gain.
  • G a Adaptive sound source gain parameter
  • Ge_prev Fixed sound source gain parameter of the previous sub-frame Tha, The: threshold
  • the gain parameter overnight code of the current frame which may include a code error is positively and conditionally combined with the lag parameter overnight decoding unit so as to avoid deterioration due to the coding error. use.
  • the gain parameter overnight code of the current frame which may include a code error is positively and conditionally combined with the lag parameter overnight decoding unit so as to avoid deterioration due to the coding error.
  • the lag parameter and gain parameter decoding sections decode the lag and gain parameters used for speech decoding.
  • the adaptive calculation based on the mode information it is possible to provide an error compensation method that realizes more improved decoded speech quality.
  • the lag parameter determination unit determines whether the mode information of the current frame indicates transient, or transient or unvoiced. And when there is little change in the decoding lag parameter within a frame or between frames, the decoding lag parameter decoded from the encoded data of the current frame is used as the current frame lag parameter, and other conditions
  • the past lag parameter as the current frame lag parameter, it is possible to provide an error compensation method that can improve the decoded speech quality, especially when the error detection frame is the rising edge of speech.
  • the unvoiced / transient frame gain control unit performs Includes errors by controlling the output gain by specifying the upper limit of increase or the lower limit of z and decrease from the gain parameter of the past for the gain parameter decoded from the encoded data of the frame It is possible to suppress the gain parameter decoded from the obtained encoded data from becoming an abnormal value due to an error, and to provide an error compensation method that realizes more improved decoded voice quality.
  • the error compensation method using the speech decoding apparatus shown in FIG. 3 is intended for a speech coding scheme that includes mode information representing features of each short section of a speech signal as coding parameters.
  • This error compensation method can also be applied to a speech coding scheme in which speech mode information is not included in the coding parameters.
  • the decoding side may be provided with a mode calculation unit that calculates mode information representing characteristics of each short section of the audio signal from the decoding parameters or the decoded signal.
  • the driving sound source is represented by the addition of an adaptive sound source and a fixed sound source, and the so-called CELP (Code Excited Linear prediction) type in which decoded speech is generated by LPC synthesis.
  • CELP Code Excited Linear prediction
  • the error compensating method of the present invention can be widely applied to any speech coding method in which pitch period information and gain information of a sound source or a speech signal are used as encoding parameters.
  • FIG. 6 is a block diagram showing a configuration of a speech decoding apparatus according to Embodiment 2 of the present invention.
  • the error compensation method in the speech decoding apparatus according to the present embodiment is similar to that in Embodiment 1, where an error is detected on the decoding side with respect to the encoded data obtained by encoding the input speech signal on the speech encoding side. In such a case, it operates to suppress the quality degradation of the decoded speech at the time of speech decoding in the speech decoding device.
  • speech decoding is performed in units of a fixed short section (called a frame) of about 10 to 50 ms, and it is detected whether or not an error has occurred in the received data overnight in that frame unit. The detection result is notified as an error detection flag.
  • the error detection is performed in advance outside the speech decoding apparatus, and the target data for the error detection may be all the coded data for each frame, or May be targeted only for coded data that is perceptually important.
  • the speech coding parameters include at least mode information indicating features of each frame of the speech signal
  • Targets include those that include gain parameters that represent the gain information of the sound source signal and the fixed sound source signal.
  • the coded data is first separated into respective coding parameters by a data separation unit 501.
  • the mode information decoding section 502 outputs the decoding mode information of the previous frame and uses this as the mode information of the current frame. This mode information is sent to gain parameter decoding section 505.
  • the lag parameter overnight decoding section 504 decodes the lag parameter used in the current frame.
  • the method is arbitrary, but the lag parameter of the previous frame in which no error was detected may be used as in the past.
  • the gain parameter decoding unit 505 calculates a gain parameter using the mode information by a method described later.
  • the decoding method for the LPC parameters and fixed sound source parameters is arbitrary.However, as in the past, the LPC parameters used for the previous frame are the LPC parameters for the previous frame, and the fixed sound source parameters are used for random fixed sound sources. A fixed excitation signal generated by giving a code may be used. Also, any noise signal generated by the random number generator may be used as the fixed sound source signal. Further, as the fixed excitation parameter, decoding may be performed using the fixed excitation code separated from the encoded data of the current frame as it is. As in the case where no error is detected, the decoded speech is generated from each parameter obtained through the generation of the driving sound source signal, the LPC synthesis, and the post-filling.
  • FIG. 7 is a block diagram showing the internal configuration of gain parameter overnight decoding section 505 in the speech decoding apparatus shown in FIG.
  • the gain decoding unit 601 decodes the gain parameter over time from the current parameter over time code of the current frame.
  • the gain decoding method is different according to the mode information (for example, the table used for decoding is different)
  • decoding is performed according to that.
  • the processing is switched by the switching unit 602 according to the error detection flag. For frames in which no errors are detected, the decoding gain parameter is output as is.
  • the adaptive sound source Z fixed sound source gain ratio control unit 604 controls the gain parameter of the previous frame held in the gain buffer 603 (adaptive sound source gain and fixed (Sound source gain), performs adaptive sound source fixed sound source gain ratio control according to the mode information, and outputs the gain parameters. Specifically, if the mode information of the current frame indicates voiced, control is performed so that the ratio of the gain of the adaptive sound source is high, and if the mode information indicates transient or unvoiced, the ratio of the gain of the adaptive sound source is reduced. .
  • the power of the driving sound source input to the LPC synthesis filter that adds the adaptive sound source and the fixed sound source should be the same as before the ratio control.
  • the error detection frames are continuous (including one continuous frame), it is preferable to perform control to attenuate the power of the driving sound source.
  • a gain code buffer 7 for holding a past gain code is provided, and in a frame in which an error is detected, the gain decoding unit 601 uses the gain code of the previous frame.
  • the gain may be decoded, and adaptive sound source fixed sound source gain ratio control may be performed on the decoded sound.
  • the adaptive sound source component when the current frame to be error-compensated is voiced, the adaptive sound source component is dominant to make it more voiced and stationary, and in the unvoiced 'transient mode, the fixed sound source component is dominated. By doing so, it is possible to suppress deterioration due to inappropriate periodic components due to the adaptive sound source, and to improve audible quality.
  • the adaptive excitation fixed gain control unit controls the gain parameters of the previous frame (adaptive excitation gain and fixed excitation gain).
  • the adaptive excitation fixed gain ratio control by performing the adaptive excitation fixed gain ratio control according to the mode information, it is possible to provide an error compensation method that realizes improved decoded speech quality.
  • the speech decoding apparatus shown in FIG. 6 has been described with respect to a speech encoding method including mode information representing characteristics of each short section of an audio signal as an encoding parameter, speech mode information is described.
  • the error compensation method of the present invention can also be applied to a speech coding method that does not include any in the coding parameters.
  • the decoding side may be provided with a mode calculation unit that calculates mode information representing characteristics of each short section of the audio signal from the decoding parameters or the decoded signal.
  • FIG. 8 is a block diagram showing a configuration of a voice decoding device according to Embodiment 3 of the present invention.
  • the error compensation method in the speech decoding apparatus according to the present embodiment is similar to that of the first and second embodiments.
  • the decoder operates to suppress the quality degradation of the decoded speech at the time of speech decoding in the speech decoder.
  • speech decoding is performed in units of a fixed short section (called a frame) of about 10 to 50 ms, and it is detected in each frame unit whether or not an error has occurred in the received data. The result is reported as an error detection flag.
  • the error detection is performed in advance outside the speech decoding apparatus, and the error detection target data may be the entire encoded data for each frame or the audibly important encoded data. It may be used only in the evening.
  • the speech coding parameters include at least gain parameters representing gain information of the adaptive excitation signal and the fixed excitation signal.
  • the speech coding parameters include at least gain parameters representing gain information of the adaptive excitation signal and the fixed excitation signal.
  • a driving sound source is generated by multiplying the gain by the multiplier 706 and adding by the adder 707, using the gain decoded by the gain parameter decoding unit 705 in the method described later. Is done. Then, using these sound sources and the LPC parameter data decoded by the LPC parameter data decoding unit 708, a decoded voice is generated via the LPC synthesis file 709 and the post-fill signal 710. Is done.
  • a decoded speech is generated in the same manner as a frame in which no error is detected.
  • the decoding method of each parameter except for the gain parameter is optional, but the parameter of the previous frame may be used for the LPC parameter and the lag parameter in the same manner as in the past.
  • the fixed sound source parameter uses a fixed sound source signal generated by giving a random fixed sound source code, an arbitrary noise signal generated by a random number generator as a fixed sound source signal, and a fixed sound source parameter as a fixed sound source parameter.
  • Decoding may be performed by using the fixed excitation code obtained by separating the encoded data of the current frame as it is.
  • FIG. 9 is a block diagram showing the internal configuration of gain parameter decoding section 705 in the speech decoding apparatus shown in FIG.
  • a gain decoding unit 801 decodes a gain parameter from the current parameter overnight code of the current frame.
  • the error state monitor unit 802 determines the state of error detection based on the presence or absence of error detection. This state means that the current frame is
  • the processing is switched by the switching unit 803 according to the above state.
  • the gain parameter decoded by the gain decoding unit 801 is output as it is.
  • the gain parameter in the error detection frame is calculated.
  • the calculation method is arbitrary, and a conventional value obtained by attenuating the adaptive sound source gain and the fixed sound source gain of the previous frame may be used. Also, decoding using the gain code of the previous frame may be performed and used as the gain parameter of the current frame. Further, a lag-gain parameter control according to a mode and a gain parameter ratio control according to a mode as described in the first or second embodiment may be used.
  • the adaptive sound source Z fixed sound source gain control unit 806 performs the following processing on the normal frame after the error detection.
  • control is performed in which an upper limit value is specified for the value of the adaptive excitation gain (coefficient value by which the adaptive excitation is multiplied).
  • a fixed value for example, 1.0
  • an upper limit value proportional to the decoded adaptive excitation gain value may be determined, or a combination thereof may be used.
  • the fixed sound source gain is also controlled so as to maintain the ratio between the adaptive sound source gain and the fixed sound source gain correctly.
  • An example of a specific implementation method is shown in the following equation (3).
  • Equation (3) if G a> 1.0
  • G a Adaptive sound source gain
  • the adaptive sound source gain is decoded depending on the decoded sound source of the previous frame.
  • the adaptive excitation gain differs from the original value due to the error compensation processing of the previous frame, and in some cases, the quality may be degraded due to abnormally increased amplitude of the decoded speech. With the upper limit, quality degradation can be suppressed.
  • the excitation signal in a normal frame after error detection is more accurate when there is no error. This is similar, and the decoded speech quality can be improved.
  • the error compensation method may be configured as software.
  • a program of the above error compensation method may be stored in a ROM, and the program may be operated according to an instruction of the CPU according to the program.
  • the program, the adaptive excitation codebook, and the fixed excitation codebook are stored in a computer-readable storage medium, and the program, the adaptive codebook, and the fixed excitation codebook of the storage medium are recorded in the RAM of the computer. It may be operated according to a program. In such a case, the same operation and effect as those of the first to third embodiments are exhibited.
  • a speech decoding apparatus includes: a receiving unit that receives a data having an encoded transmission parameter including a mode information, a lag parameter, and a gain parameter; and the mode information, a lag parameter, A decoding unit that decodes the gain parameter and a gain parameter; and in a decoding unit in which an error has been detected in the data, a lag parameter used in the decoding unit using mode information for a decoding unit that is earlier than the decoding unit. And a determining unit that adaptively determines one night and one gain parameter.
  • a lag parameter used for speech decoding and a gain parameter are adaptively calculated based on the decoded mode information. Therefore, it is possible to realize more improved decoded speech quality.
  • the determination unit includes a detection unit that detects a change in a lag parameter within the decoding unit and between Z or the decoding unit.
  • a configuration is adopted in which a lag parameter used in the decoding unit is determined based on information.
  • the lag parameter used for speech decoding is set to the decoded mode information, within the decoding unit, and between Z or between decoding units. Since the calculation is adaptively performed based on the fluctuation detection result, more improved decoded speech quality can be realized.
  • the mode indicated by the mode information may be a transient mode or a silent mode
  • the detection unit may change the lag parameter by more than a predetermined amount within the decoding unit and between Z or the decoding unit. If no lag parameter is detected, the lag parameter for the decoding unit is used, and in other cases, the lag parameter for the past decoding unit is used.
  • the determining unit may include an indicator for indicating mode information.
  • a limit control unit that limits the range of the gain parameter based on the gain parameter for the past decoding unit when the mode is the transient mode or the unvoiced mode. The configuration is determined as follows.
  • the gain parameter decoded from the coded data of the current decoding unit is not changed. Since the output gain is controlled by specifying the upper limit of increase and the lower limit of decrease from the past gain parameter, the gain parameter decoded from coded data that may contain errors may become an abnormal value due to error. Thus, it is possible to realize more improved decoded voice quality.
  • the speech decoding apparatus of the present invention receives data having coded transmission parameters including mode information, lag parameters, fixed excitation parameters, and gain parameters including an adaptive excitation gain and a fixed excitation gain.
  • a receiving unit a decoding unit that decodes the mode information, the lag parameter, the fixed sound source parameter, and the gain parameter; and a decoding unit in which an error is detected with respect to the data, And a ratio control unit that controls the ratio between the adaptive excitation gain and the fixed excitation gain using mode information for a decoding unit that is earlier than the decoding unit.
  • the ratio control unit may increase a ratio of an adaptive sound source gain when the mode information is in a voiced mode, and the mode information may be in a transient mode or in a transient mode.
  • the gain ratio is controlled so as to lower the ratio of the adaptive sound source gain.
  • the ratio between the adaptive excitation gain and the fixed excitation gain is adaptively controlled according to the mode information when decoding the gain parameter in a decoding unit in which an error is detected in the encoded data. Therefore, the decoded speech quality of the error detection decoding unit can be more audibly improved.
  • the audio decoding apparatus includes: a lag parameter; a fixed sound source parameter; A receiving unit that receives data having an encoded transmission parameter including a gain parameter including an adaptive excitation gain and a fixed excitation gain; and a decoding unit that decodes the lag parameter, the fixed excitation parameter, and the gain parameter. And a defining unit that defines an upper limit of a gain parameter in a normal decoding unit immediately after a decoding unit in which an error is detected.
  • control is performed so as to define the upper limit of the decoded adaptive excitation gain parameter in a normal decoding unit in which no error is detected immediately after a decoding unit in which an error is detected in the encoded data. Therefore, it is possible to suppress the deterioration of the decoded voice quality due to an abnormal increase in the amplitude of the decoded voice signal in the normal decoding unit immediately after the error detection.
  • the speech decoding device of the present invention in the above configuration, adopts a configuration in which the defining unit controls the fixed sound source gain so as to maintain a predetermined ratio with respect to the adaptive sound source gain in a range where the upper limit is defined.
  • the ratio between the adaptive excitation gain and the fixed excitation gain is controlled so as to be a value at the original decoding gain without error, so that the excitation signal in the normal decoding unit immediately after error detection has an error.
  • the result is more similar to the case without, and the decoded speech quality can be improved.
  • a voice decoding apparatus includes: a receiving unit that receives data having an encoded transmission parameter including a lag parameter and a gain parameter; and a decoding unit that decodes the lag parameter and a gain parameter.
  • a decoding unit that obtains mode information from a decoding parameter or a decoded signal obtained by decoding the decoding, and a decoding unit in which an error is detected in the data, the decoding unit being more than the decoding unit.
  • a determining unit that adaptively determines a lag parameter and a gain parameter to be used for the decoding unit using mode information for a past decoding unit.
  • the lag parameter and the gain parameter used for voice decoding are also used for a voice coding method that does not include voice mode information in the coding parameter. Can be adaptively calculated based on the mode information calculated on the decoding side, and more improved decoded speech quality can be realized.
  • a speech decoding apparatus for receiving data having an encoded transmission parameter including a lag parameter, a fixed source parameter, and a gain parameter including an adaptive source gain and a fixed source gain.
  • a decoding unit for decoding the lag parameter, the fixed sound source parameter, and the gain parameter, and a mode calculation for obtaining mode information from a decoded parameter or a decoded signal obtained by decoding the data. And controlling the ratio between the adaptive excitation gain and the fixed excitation gain in a decoding unit in which an error has been detected for the data, using mode information for a decoding unit that is earlier than the decoding unit. And a ratio control unit.
  • the gain parameter decoding in the decoding unit in which an error is detected in the coded data is performed. Since the ratio between the adaptive excitation gain and the fixed excitation gain is adaptively controlled according to the mode information calculated on the decoding side, the decoded speech quality of the error detection decoding unit can be more audibly improved.
  • the code error compensation method includes the following steps: the mode information, the lag parameter, and the gain parameter in the data transmission including the encoded transmission parameter including the mode information, the lag parameter, and the gain parameter. Decoding the evening, and in a decoding unit in which an error is detected in the data, using mode information on a decoding unit that is earlier than the decoding unit, and adapting a lag parameter and a gain parameter used in the decoding unit. And a step of determinatively determining.
  • a lag parameter and a gain parameter used for speech decoding are adaptively calculated based on the decoded mode information. Therefore, it is possible to realize more improved decoded speech quality.
  • the code error compensation method is the method as set forth above, wherein the lag parameter is simply decoded.
  • the lag parameter used for speech decoding is determined by the decoded mode information, within the decoding unit, and between the decoding units or between the decoding units. Since the calculation is adaptively performed based on the fluctuation detection result, more improved decoded speech quality can be realized.
  • the mode indicated by the mode information is a transient mode or a silent mode, and a variation of a predetermined amount or more within the decoding unit and between the decoding unit or the decoding unit over the lag parameter is detected. If not, use the above lag parameter for the decoding unit; otherwise, use the lag parameter for the past decoding unit.
  • the range of the gain parameter is limited based on the gain parameter for the past decoding unit, The gain parameter over the limited range is determined as the gain parameter.
  • the gain parameter decoded from the coded data of the current decoding unit is not changed. Therefore, since the output gain is controlled by specifying the upper limit of increase and the lower limit of decrease from the past gain parameter, the gain parameter decoded from coded data that may contain errors may become an abnormal value due to errors. Can be suppressed, and more improved decoded speech quality can be realized.
  • the code error compensation method according to the present invention receives data having coded transmission parameters including mode information, lag parameters, fixed excitation parameters, and gain parameters including an adaptive excitation gain and a fixed excitation gain.
  • the code error compensation method in the above method, when the mode indicated by the mode information is the voiced mode, the ratio of the adaptive excitation gain is increased, and the mode indicated by the mode information is the transient mode or the unvoiced mode. Then, the gain ratio between the adaptive sound source gain and the fixed sound source gain is controlled so as to lower the ratio of the adaptive sound source gain.
  • the ratio between the adaptive excitation gain and the fixed excitation gain is adaptively controlled in accordance with the mode information when performing gain parameter decoding in a decoding unit in which an error is detected in the encoded data. Therefore, the decoded speech quality of the error detection decoding unit can be more audibly improved.
  • the code error compensation method includes a step of receiving data having an encoded transmission parameter including a lag parameter, a fixed excitation parameter, and a gain parameter including an adaptive excitation gain and a fixed excitation gain. Decoding the lag parameter, fixed sound source parameter, and gain parameter, and defining an upper limit of the gain parameter in a normal decoding unit immediately after a decoding unit in which an error is detected; Is provided.
  • control is performed so as to define the upper limit of the decoded adaptive excitation gain parameter in a normal decoding unit in which no error is detected immediately after a decoding unit in which an error is detected in the coded data. Therefore, it is possible to suppress the deterioration of the decoded voice quality due to the abnormal increase in the amplitude of the decoded voice signal in the normal decoding unit immediately after the error detection.
  • the fixed excitation gain is controlled so as to maintain a predetermined ratio with respect to the adaptive excitation gain in a range in which the upper limit is defined.
  • the ratio between the adaptive sound source gain and the fixed sound source gain is Since the control is performed so that the value does not have the original decoding gain, the excitation signal in the normal decoding unit immediately after the error detection becomes more similar when there is no error, and the decoded voice quality can be improved.
  • a code error compensation method includes the steps of: receiving data having an encoded transmission parameter including a lag parameter and a gain parameter; decoding the lag parameter and the gain parameter; Calculating mode information from a decoding parameter or a decoded signal obtained by decoding the decoding unit; and, for a decoding unit in which an error is detected in the data, using mode information for a decoding unit that is earlier than the decoding unit. Adaptively determining a lag parameter and a gain parameter used for the decoding unit.
  • the lag parameter and the gain parameter used for speech decoding are added to the mode information calculated on the decoding side even for a speech coding method that does not include the speech mode information in the coding parameter. It can be adaptively calculated based on the above, and it is possible to realize more improved decoded speech quality.
  • a recording medium of the present invention is a recording medium that stores a program and is readable by a computer, and the program has encoded transmission parameters including mode information, a lag parameter, and a gain parameter.
  • the lag parameter and the gain parameter used for speech decoding are adaptively determined based on the decoded mode information. Since the calculation is performed, more improved decoded speech quality can be realized.
  • a recording medium is a recording medium that stores a program and is readable by a computer, and the program includes mode information, lag parameters, Decoding the mode information, the lag parameter, and the gain parameter in the data having the coded transmission parameter including the gain parameter and the decoding parameter; and a decoding unit in which an error is detected in the data.
  • mode information for the decoding unit in the past than the decoding unit, when the mode indicated by the mode information is the voiced mode, the ratio of the adaptive sound source gain is increased, and the mode indicated by the mode information is set. Controlling the gain ratio between the adaptive sound source gain and the fixed sound source gain so as to reduce the ratio of the adaptive sound source gain when is in the transient mode or the unvoiced mode.
  • the ratio between the adaptive excitation gain and the fixed excitation gain is adaptively controlled according to the mode information when performing the gain parameter decoding in the decoding unit in which an error is detected in the encoded data.
  • the decoded speech quality of the error detection decoding unit can be more audibly improved.
  • the recording medium of the present invention is a recording medium that stores a program and is readable by a computer, wherein the program includes a lag parameter, and a gain parameter.
  • the procedure for decoding the lag parameter and the gain parameter, and the upper limit of the gain parameter for the normal decoding unit immediately after the decoding unit in which the error was detected, and adaptation in the range where the upper limit is specified Controlling the fixed sound source gain so as to maintain a predetermined ratio with respect to the sound source gain.
  • this medium it is possible to suppress the deterioration of the decoded speech quality due to the abnormal increase in the amplitude of the decoded speech signal in the normal decoding unit immediately after the error detection.
  • the speech decoding apparatus and the code error compensation method of the present invention when speech is decoded in a frame in which an error has been detected in encoded data, the lag parameter decoding unit and the gain parameter decoding unit Then, the lag parameter and the gain parameter used for speech decoding are adaptively calculated based on the decoded mode information. Thereby, more improved decoded speech quality can be realized. Further, according to the present invention, the gain in a frame in which an error is detected in encoded data is determined. In the parameter decoding, the ratio between the adaptive excitation gain and the fixed excitation gain is adaptively controlled according to the mode information in the gain parameter decoding unit.
  • the decoded sound quality of the error detection frame can be more audibly improved by controlling the gain ratio of the adaptive sound source to be low. it can.
  • the gain parameter decoding unit for a normal frame in which no error is detected immediately after the frame in which the error has been detected in the encoded data, audio is output in accordance with the value of the decoding gain parameter.
  • the adaptive excitation gain parameter and the fixed excitation gain parameter used for decoding are adaptively controlled. More specifically, control is performed so as to define the upper limit of the decoded adaptive excitation gain parameter. As a result, it is possible to suppress the deterioration of the decoded voice quality due to the abnormal increase in the amplitude of the decoded voice signal in the normal frame after the error detection.
  • the present invention can be applied to a base station device and a communication terminal device in a digital wireless communication system. As a result, wireless communication that is resistant to transmission errors can be performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

明 細 書 音声復号化装置及び符号誤り補償方法 技術分野
本発明は、 音声信号を符号化して伝送する移動通信システムや音声録音装置 などに用いられる音声復号化装置及び符号誤り補償方法に関する。 背景技術
ディジタル移動通信や音声蓄積の分野においては、 電波や記憶媒体の有効利 用のために音声情報を圧縮し、 低いビットレートで符号化する音声符号化装置 が用いられている。 その際、 伝送路 (又は記録媒体) に誤りが生じた際に、 復 号側において、 その誤りを検出し、 復号音声品質の劣化を抑えるための誤り補 償方法が用いられる。
そのような従来の技術として、 I TU—T勧告 G. 729 ("Coding of speech at 8kbit/s using con jugate- structure algebraic - code-excited linear-prediction ( CS- ACELP ) " ) の CS— ACELP 符号化方式に記載された誤り補償方法がある。
図 1は、 CS— ACELP符号化方式の誤り補償を含んだ音声復号化装置の 構成を示すブロック図である。 図 1において、 音声復号は、 10msのフレ一 ム単位 (復号単位) で行われ、 そのフレーム単位で伝送路の誤り検出の有無が 音声復号化装置に通知されるものとする。
まず、 伝送路誤りが検出されないフレームでの受信符号化デ一夕は、 データ 分離部 1において、 復号に必要な各パラメ一夕に分離される。 そして、 ラグパ ラメ一夕復号部 2により復号されたラグパラメ一夕を用いて適応音源符号帳 3により適応音源が生成され、 また固定音源符号帳 4により固定音源が生成さ れる。 また、 ゲインパラメータ復号部 5により復号されたゲインを用いて、 乗 算器 6で乗算を行い、 加算器 7で加算することにより駆動音源が生成される。 また、 L P Cパラメ一夕復号部 8により復号された L P Cパラメ一夕を用いて L P C合成フィルタ 9及びポストフィルタ 1 0を経由して復号音声が生成さ れる。
一方、 伝送路誤りが検出されたフレームでの受信符号化データに対しては、 ラグパラメ一夕として、 誤りが検出されなかった前フレームのラグパラメータ を用いて適応音源を生成し、 また、 固定音源符号帳 4に対してランダムな固定 音源符号を与えることで固定音源を生成し、 ゲインパラメ一夕として、 前フレ ームの適応音源ゲイン及び固定音源ゲインを減衰させた値を用いて駆動音源 を生成し、 L P Cパラメータとして、 前フレーム L P Cパラメ一夕を用いて L P C合成及びポストフィルタ処理を行って復号音声を得る。
このようにして、 上記音声復号化装置において、 伝送路誤り時に、 誤り補償 処理を行うことができる。
しかしながら、 上記従来の音声符号化装置では、 誤りが検出されたフレーム における音声の特性 (有声や無声など) に関わらず同様な補償処理を行ってい ると共に、 主として過去のパラメ一夕のみを用いて誤り補償を行っているため、 誤り補償時の復号音声品質劣化の改善に限界がある。 発明の開示
本発明の目的は、 誤りが検出されたフレームにおいて、 より改善された復号 音声品質を実現することができる音声複号化装置及び誤り補償方法を提供す ることである。
本発明の主題は、 音声の短区間 (フレーム) 毎の特徴を表すモード情報を音 声符号化パラメ一夕に含み、 音声復号化装置において、 そのモード情報に応じ て、 音声復号に用いるラグパラメ一夕及びゲインパラメ一夕を適応的に算出す ることである。
また、 本発明の主題は、 音声復号化装置において、 そのモード情報に応じて、 適応音源ゲインと固定音源ゲインの比率を適応的に制御することである。 さらに、 本発明の主題は、 符号化デ一夕に誤りが検出された復号単位の直後 の、 誤りが検出されない正常な復号単位において、 復号ゲインパラメ一夕の値 に応じて音声復号に用いる適応音源ゲインパラメ一夕及び固定音源ゲインパ ラメ一夕を適応的に制御することである。 図面の簡単な説明
図 1は、 従来の音声復号化装置の構成を示すブロック図;
図 2は、 本発明の実施の形態に係る音声符号化装置及び音声復号化装置を備 えた無線通信システムの構成を示すブロック図;
図 3は、 本発明の実施の形態 1に係る音声復号化装置の構成を示すプロック 図;
図 4は、 本発明の実施の形態 1に係る音声復号化装置におけるラグパラメ一 夕復号部の内部構成を示すブロック図;
図 5は、 本発明の実施の形態 1に係る音声復号化装置におけるゲインパラメ 一夕復号部の内部構成を示すブロック図;
図 6は、 本発明の実施の形態 2に係る音声複号化装置の構成を示すプロック 図;
図 7は、 本発明の実施の形態 2に係る音声複号化装置におけるゲインパラメ 一夕復号部の内部構成を示すブロック図;
図 8は、 本発明の実施の形態 3に係る音声復号化装置の構成を示すプロック 図;並びに
図 9は、 本発明の実施の形態 3に係る音声複号化装置におけるゲインパラメ 一夕復号部の内部構成を示すブロック図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 添付図面を参照して詳細に説明する。 (実施の形態 1 )
図 2は、 本発明の実施の形態 1に係る音声復号化装置を備えた無線通信装置 の構成を示すブロック図である。 ここで、 無線通信装置とは、 ディジタル無線 通信システムにおける基地局装置や移動局のような通信端末装置などをいう。 この無線通信装置において、 送信側で音声がマイクなどの音声入力装置 1 0 1によって電気的アナログ信号に変換され、 AZD変換器 1 0 2に出力される アナログ音声信号は、 AZD変換器 1 0 2によってディジタル音声信号に変換 され、 音声符号化部 1 0 3に出力される。 音声符号化部 1 0 3は、 ディジタル 音声信号に対して音声符号化処理を行い、 符号化した情報を変復調部 1 0 4に 出力する。 変復調部 1 0 4は、 符号化された音声信号をディジタル変調して、 無線送信部 1 0 5に送る。 無線送信部 1 0 5では、 変調後の信号に所定の無線 送信処理を施す。 この信号は、 アンテナ 1 0 6を介して送信される。
一方、 無線通信装置の受信側では、 アンテナ 1 0 7で受信した受信信号は、 無線受信部 1 0 8で所定の無線受信処理が施され、 変復調部 1 0 4に送られる。 変復調部 1 0 4では、 受信信号に対して復調処理を行い、 復調後の信号を音声 復号化部 1 0 9に出力する。 音声復号化部 1 0 9は、 復調後の信号に復号処理 を行ってディジ夕ル復号音声信号を得て、 そのディジタル復号音声信号を DZ A変換器 1 1 0へ出力する。 DZA変換器 1 1 0は、 音声復号化部 1 0 9から 出力されたディジ夕ル復号音声信号をアナログ復号音声信号に変換してスピ 一力などの音声出力装置 1 1 1に出力する。 最後に音声出力装置 1 1 1が電気 的アナログ復号音声信号を復号音声に変換して出力する。
図 3に本発明の実施の形態 1に係る音声復号化装置の構成を示すプロック 図である。 この音声複号化装置における誤り補償方法は、 音声符号化部側で入 力音声信号を符号化した符号化デ一夕に対して、 音声複号化側で誤りが検出さ れた場合に、 音声復号化時に復号音声の品質劣化を抑えるように動作するもの である。
ここで、音声復号は、 1 0〜 5 0 m s程度の一定の短区間(フレームと呼ぶ) の単位で行われ、 そのフレーム単位で受信データに誤りが生じているかどうか の検出結果が誤り検出フラグとして通知される。 この誤り検出方法としては、 通常、 CRC (Cyclic Redundancy Check) などが用いられる。 誤り検出 は、 本音声復号化装置の外部で予め行われるものとし、 誤り検出の対象データ として、 フレーム毎の符号化デ一夕の全てを対象としても、 あるいは聴感的に 重要な符号化データのみを対象としても良い。
また、 本発明の誤り補償方法を適用する音声符号化方式においては、 その音 声符号化パラメ一夕 (伝送パラメ一夕) に、 少なくとも、 音声信号のフレーム 毎の特徴を表すモード情報、 音声信号のピッチ周期又は適応音源に関する情報 を表すラグパラメータ、 及び音源信号又は音声信号のゲイン情報を表すゲイン パラメ一夕を少なくとも含むものを対象とする。
まず、 音声復号を行う現フレームの符号化データに誤りが検出されない場合 について説明する。 この場合は、 誤り補償の動作は行われず、 通常の音声復号 が行われる。 図 3において、 データ分離部 201により符号化データから各音 声符号化パラメ一夕に分離される。 そして、 モード情報復号部 202、 LPC パラメータ復号部 203、 ラグパラメ一夕復号部 204、 及びゲインパラメ一 タ復号部 205により、 それぞれモード情報、 LPCパラメ一夕、 ラグパラメ —夕、 及びゲインパラメータが復号される。
ここで、 モード情報とは、 フレーム単位での音声信号の状態を表すもので、 典型的には、 有声、 無声、 過渡といったモードが存在し、 符号化側でこれらの 状態に応じた符号化が行われる。 例えば、 I SOZI ECで標準化された規格 I SOZ I EC 14496— 3 (MP EG— 4 Audio)の MP E (Multi Pulse Excitation)モードでの CE LP符号化においては、 符号化側でピッ チ予測ゲインに基づいて無声、 過渡、 有声 (弱い周期性) 、 有声 (強い周期性) の 4つのモードに分類され、 モードに応じた符号化が行われている。
そして、 適応音源符号帳 206を用いてラグパラメ一夕に基づいて適応音源 信号を生成し、 固定音源符号帳 207を用いて固定音源符号に基づいて固定音 源信号を生成する。 生成された各音源信号に対して、 復号されたゲインパラメ 一夕を用いてゲインが乗算器 2 0 8で乗じられ、 2つの音源信号が加算器 2 0 9で加算された後、 L P C合成フィルタ 2 1 0及びポストフィル夕 2 1 1によ り復号音声が生成され出力ざれる。
一方、 現フレームの符号化データに誤りが検出された場合には、 まず、 デー 夕分離部 2 0 1により各符号化パラメ一夕に分離する。 次に、 モード情報復号 部 2 0 2において、 前フレームにおける復号モード情報を抽出し、 これを現フ レームのモード情報として用いる。
また、 ラグパラメ一夕復号部 2 0 4及びゲインパラメ一夕復号部 2 0 5にお いて、 データ分離部 2 0 1で得られた現フレームのラグパラメ一夕符号、 ゲイ ンパラメ一夕符号、 及びモード情報を用いて、 現フレームで用いるラグパラメ 一夕及びゲインパラメ一夕をモード情報に応じて適応的に算出する。 この算出 方法についての詳細は後述する。
また、 L P Cパラメータ及び固定音源パラメ一夕の復号方法は任意であるが、 従来技術と同様、 L P Cパラメ一夕には前フレームの L P Cパラメータを用い、 固定音源パラメ一夕にはランダムな固定音源符号を与えて生成した固定音源 信号を用いても良い。 また、 乱数発生器により発生させた任意の雑音信号を固 定音源信号としてもよい。 さらに、 固定音源パラメ一夕として、 現フレームの 符号化データから分離され得られた固定音源符号をそのまま使用して復号し てもよい。
このようにして得られた各パラメ一夕から、 誤りが検出されない場合と同様 に、 駆動音源信号の生成、 L P C合成、 ポストフィル夕を経由して、 復号音声 が生成される。
次に、 図 4を用いて、 誤りが検出された場合の、 現フレームで用いるラグパ ラメ一夕の算出方法について説明する。 図 4は、 図 3に示す音声復号化装置に おけるラグパラメ一夕復号部 2 0 4の内部の構成を示すブロック図である。 図 4において、 まず、 ラグ復号部 3 0 1により現フレームのラグ符号を復号 する。 そして、 フレーム内ラグ変化検出部 302及びフレーム間ラグ変化検出 部 303により、 フレーム内及びフレーム間の復号ラグパラメ一夕の変化を測 定する。
1フレーム分のラグパラメ一夕は、 1フレーム内の複数のサブフレームに対 応した複数のラグパラメ一夕からなり、 フレーム内のラグ変化検出は、 それら 複数のラグパラメ一夕間で、 ある閾値以上の差があるかどうかを検出すること により行う。 また、 フレーム間のラグ変化検出は、 フレ一ム内の複数のラグパ ラメ一夕を、 前フレーム (最終サブフレーム) のラグパラメ一夕と比較し、 あ る閾値以上の差があるかどうかを検出する。 そして、 ラグパラメ一夕決定部 3 04において、 最終的に現フレームで用いるラグパラメータを決定する。 次に、 このラグパラメ一夕の決定方法について説明する。
まず、 モード情報が有声を示している場合には、 無条件に、 前フレームで用 いられたラグパラメ一夕を現フレームの値として用いる。 次に、 モード情報が 無声又は過渡を示している場合には、 フレーム内及びフレーム間のラグ変化に 制限を加える条件で、 現フレームの符号化データから復号されたパラメ一夕を 用いる。
具体的には、 一例として式 (1) に示すように、 フレーム内復号ラグパラメ —夕 L (is)がすべて閾値内の変化に収まっている場合には、それらをそのまま 現フレームラグパラメ一夕 L '(is)として用いる。
一方、 フレーム内ラグが閾値を超えた変動をしている場合には、 フレーム間 ラグ変化を測定する。 このフレーム間ラグ変化の検出結果に応じて、 前フレー ム (又は前サブフレーム) からの変動が大きい (差が閾値を超えた) サブフレ ームのラグパラメ一夕には、 前フレーム (又は前サブフレーム) のラグパラメ 一夕 Lprev を用い、 変動が少ないサブフレームのラグパラメ一夕はそのまま 使用する。
if I L (D + 1)-L ( j) |<Tha for all j = l〜NS-2,
L ' (is)^L (is) (is = 0~NS-l) Else 式 ( 1 )
L ' (is)— L (is) , if I L (is) - Lprev| <T hb
— Lprev otherwise
ここで、 L (is)は復号ラグパラメ一夕を示し、 L ' (is)は現フレームで用いる ラグパラメ一夕を示し、 NSはサブフレーム数を示し、 Lprev は前フレーム (又は前サブフレーム) ラグパラメ一夕を示し、 Tha, Thbは閾値を示す。 なお、 フレーム内ラグ変化検出部 302のみ、 又はフレーム間ラグ変化検出 部 303のみを用いて、 フレーム内変動のみの情報又はフレーム間変動のみの 情報から、 現フレームで用いるラグパラメ一夕を決定しても良い。 また、 上記 処理をモード情報が過渡を示す場合に対してのみ適用し、 無声の場合には現フ レームの符号化データから復号されたラグパラメ一夕をそのまま使用するよ うにしても良い。
上記説明は、 ラグ変化検出をラグ符号から復号したラグパラメータに対して 行う場合ものであるが、 ラグ変化検出をラグ符号値に対して直接行うこともで きる。 過渡フレームは、 音声の立ち上がりとしてラグパラメ一夕が重要な働き をするフレームである。 このため、 上記のように過渡フレームにおいて、 現フ レームの符号化データから得られた復号ラグパラメ一夕を、 符号化誤りによる 劣化を避けるよう条件付きで積極的に使用することができる。 その結果、 従来 技術のような無条件に前フレームラグパラメータを用いた方法に比べて、 復号 音声品質の改善を図ることができる。
次に、 図 5を用いて、 誤りが検出された場合の、 現フレームで用いるゲイン パラメータの算出方法を説明する。 図 5は、 図 3に示す音声複号化装置におけ るゲインパラメ一夕復号部 205の内部の構成を示すブロック図である。 図 5 において、 まず、 ゲイン復号部 40 1において、 現フレームの現パラメ一夕符 号からゲインパラメ一夕を復号する。
その場合、 モード情報に応じてゲイン復号方法が異なる (例えば、 復号に用 いるテーブルが異なるなど) ときには、 それに応じた復号を行う。 なお、 その 際に用いるモード情報は、 現フレームの符号化デ一夕から復号されたものを用 いる。但し、 ゲインパラメ一夕の表現方法(符号化方法) として、 フレーム (又 はサブフレーム) のパヮ情報を表すパラメ一夕とそれに対する相対関係を表す パラメ一夕との組み合わせでゲイン値を表現する方式(例えば、 MPEG— 4 Audioの MP Eモードの CE LP符号化) の場合には、 パヮ情報パラメータは 前フレームの値 (又はそれに減衰を加えた値) を用いる。
そして、 切り替え部 402により、 誤り検出フラグ及びモード情報に応じて 処理を切り替える。 誤りが検出されないフレームに対しては、 復号ゲインパラ メータをそのまま出力する。 一方、 誤りが検出されたフレームに対しては、 モ —ド情報に応じて処理を切り替える。
まず、 モード情報が有声を示す場合には、 有声フレームゲイン補償部 404 により現フレームで用いるゲインパラメータが算出される。 方法は任意である が、 従来例のように、 ゲインバッファ 403で保持されている前フレームのゲ インパラメ一夕 (適応音源ゲイン及び固定音源ゲイン) に対してある一定値で 減衰させた値としてもよい。
次に、 モード情報が過渡又は無声を示す場合には、 無声'過渡フレームゲイ ン制御部 405において、 ゲイン復号部 401で復号されたゲインパラメ一夕 を用いたゲイン値制御を行う。 具体的には、 ゲインバッファ 403から得られ る前フレームのゲインパラメ一夕を基準に、 その値からの相対的な変化の上限 及び下限 (又はそのいずれか) を設け、 それらの上限値 (及び下限値) で範囲 制限した復号ゲインパラメ一夕を現フレームのゲインパラメータとして用い る。 下記式 (2) に適応音源ゲイン及び固定音源ゲインに上限を設定する場合 の制限方法の一例を示す。
if G a〉Th a
Ge— Th aZGa
G a— Th a
If Ge>Th e *Ge— prev 式 (2) G a— ( T h e * G e— prev) / G e
G e— T h e * Ge_prev
ここで、
G a : 適応音源ゲインパラメ一夕
G e : 固定音源ゲインパラメータ
Ge_prev : 前サブフレームの固定音源ゲインパラメ一夕 T h a , T h e : 閾値
このように、 誤りが検出されたフレームにおいて、 前記ラグパラメ一夕復号 部と組み合わせて、 符号誤りを含み得る現フレームのゲインパラメ一夕符号を、 符号化誤りによる劣化を避けるよう条件付きで積極的に使用する。 これにより、 従来技術のような無条件に前フレームゲインパラメ一夕を用いた方法に比べ て、 復号音声品質の改善を図ることができる。
以上のように、 符号化データに誤りが検出されたフレームでの音声復号の際 に、 ラグパラメ一夕復号部及びゲインパラメ一夕復号部において、 音声復号に 用いるラグパラメータ及びゲインパラメータを、 復号されたモード情報に基づ いて適応的に算出することで、 より改善された復号音声品質を実現する誤り補 償方法を提供できる。
より具体的には、 符号化データに誤りが検出されたフレームでの音声復号に 用いるラグパラメ一夕として、 前記ラグパラメータ決定部において、 現フレー ムのモード情報が過渡を示す場合、 又は過渡若しくは無声を示す場合で、 かつ、 フレーム内又はフレーム間の復号ラグパラメ一夕の変化が少ないときに、 現フ レームの符号化データから復号された復号ラグパラメ一夕を現フレームラグ パラメータとし、 それ以外の条件では過去のラグパラメータを現フレームラグ パラメ一夕とすることで、 特に誤り検出フレームが音声の立ち上がりである場 合における復号音声品質の改善を実現できる誤り補償方法を提供できる。
また、 現フレームの符号化データに誤りが検出され、 かつモード情報が過渡 又は無声を示す場合には、 前記無声 ·過渡フレームゲイン制御部において、 現 フレームの符号化デー夕から復号したゲインパラメ一夕に対して、 過去のゲイ ンパラメータからの増加の上限又は z及び減少の下限を規定して出力するゲ ィンを制御することにより、 誤りを含む得る符号化データから復号したゲイン パラメ一夕が誤りによる異常な値となることを抑えることができ、 より改善さ れた復号音声品質を実現する誤り補償方法を提供できる。
なお、 上記図 3に示す音声複号化装置を用いた誤り補償方法では、 音声信号 の短区間毎の特徴を表すモード情報を符号化パラメ一タとして含む音声符号 化方式を対象としているが、 本誤り補償方法は、 音声のモード情報を符号化パ ラメ一夕に含まない音声符号化方式に対しても適用することができる。 その場 合には、 復号側で復号パラメ一夕又は復号信号から、 音声信号の短区間毎の特 徴を表すモード情報を算出するモード算出部を備えるようにすればよい。
また、 上記図 3に示す音声復号化装置では、 駆動音源が適応音源と固定音源 の加算で表され、 L P C合成により復号音声を生成するいわゆる C E L P ( Code Excited Linear prediction )型にっレて説明してレ ^る力 本発明 の誤り補償方法は、 ピッチ周期情報と、 音源又は音声信号のゲイン情報とを符 号化パラメ一夕とする任意の音声符号化方式に対して広く適用できる。
(実施の形態 2 )
図 6は、 本発明の実施の形態 2に係る音声複号化装置の構成を示すプロック 図である。 本実施の形態の音声復号化装置における誤り補償方法は、 実施の形 態 1と同様、 音声符号化側で入力音声信号を符号化した符号化データに対して、 復号側で誤りが検出された場合に、 音声複号化装置における音声復号時に、 復 号音声の品質劣化を抑えるように動作するものである。
ここで、 音声復号は 1 0〜5 0 m s程度の一定の短区間 (フレームと呼ぶ) の単位で行われ、 そのフレーム単位で受信デ一夕に誤りが生じているかどうか の検出がなされ、 その検出結果が誤り検出フラグとして通知される。
誤り検出は、 本音声復号化装置の外部で予め行われるものとし、 誤り検出の 対象データとして、 フレーム毎の符号化データの全てを対象としても、 あるい は聴感的に重要な符号化データのみを対象としても良い。 また、 本実施の形態 の誤り補償方法を適用する音声符号化方式として、 その音声符号化パラメ一夕 (伝送パラメ一夕) に、 少なくとも、 音声信号のフレーム毎の特徴を表すモー ド情報、 適応音源信号及び固定音源信号のゲイン情報を表すゲインパラメ一夕 を含むものを対象とする。
音声復号を行うフレーム (現フレーム) の符号化デ一夕に誤りが検出されな い場合については、 上記実施の形態 1と同様であるので説明を省略する。
現フレームの符号化デ一夕に誤りが検出された場合には、 まず、 デ一夕分離 部 5 0 1により符号化デ一夕を各符号化パラメータに分離する。 次いで、 モ一 ド情報復号部 5 0 2において、 前フレームにおける復号モード情報を出力し、 これを現フレームのモード情報として用いる。 このモード情報は、 ゲインパラ メータ復号部 5 0 5に送られる。
また、 ラグパラメ一夕復号部 5 0 4において、 現フレームで用いるラグパラ メータを復号する。 その方法は任意であるが、 従来と同様に、 誤りが検出され なかった前フレームのラグパラメータを用いるようにしてもよい。 次いで、 ゲ インパラメ一タ復号部 5 0 5において、 後述する方法により、 モード情報を用 いてゲインパラメータを算出する。
また、 L P Cパラメータ及び固定音源パラメ一夕の復号方法は任意であるが、 従来と同様に、 L P Cパラメ一夕は前フレームの L P Cパラメ一夕を用い、 固 定音源パラメ一夕はランダムな固定音源符号を与えて生成した固定音源信号 を用いても良い。 また、 乱数発生器により発生させた任意の雑音信号を固定音 源信号としても良い。 さらに、 固定音源パラメ一夕として、 現フレームの符号 化データから分離され得られた固定音源符号をそのまま使用して復号しても 良い。 これにより得られた各パラメ一夕から、 誤りが検出されない場合と同様 に、 駆動音源信号の生成、 L P C合成、 ポストフィル夕を経由して、 復号音声 が生成される。
次に、 図 7を用いて、 誤りが検出された場合の、 現フレームで用いるゲイン パラメ一夕の算出方法を説明する。 図 7は、 図 6に示す音声復号化装置におけ るゲインパラメ一夕復号部 5 0 5の内部の構成を示すブロック図である。 図 7において、 まず、 ゲイン復号部 6 0 1において、 現フレームの現パラメ 一夕符号からゲインパラメ一夕を復号する。 その場合、 モード情報に応じてゲ イン復号方法が異なる (例えば、 復号に用いるテーブルが異なるなど) 場合に は、 それに応じた復号を行う。 そして、 切り替え部 6 0 2により、 誤り検出フ ラグに応じて処理を切り替える。 誤りが検出されないフレームに対しては、 復 号ゲインパラメータをそのまま出力する。
一方、 誤りが検出されたフレームに対しては、 適応音源 Z固定音源ゲイン比 率制御部 6 0 4により、 ゲインバッファ 6 0 3で保持されている前フレームの ゲインパラメ一夕 (適応音源ゲイン及び固定音源ゲイン) に対して、 モード情 報に応じた適応音源 固定音源ゲイン比率制御を行い、 ゲインパラメ一夕を出 力する。 具体的には、 現フレームのモード情報が有声を示す場合には、 適応音 源のゲインの比率を高く、 過渡又は無声を示す場合には、 適応音源のゲインの 比率を低くするように制御する。
但し、 比率制御にあたっては、 適応音源及び固定音源を加算した L P C合成 フィル夕へ入力される駆動音源のパワーが比率制御前と同等になるようにす る。 なお、 誤り検出フレームが連続する (1連続も含む) 場合には、 駆動音源 のパワーを減衰させるような制御もあわせて行うことが好ましい。
なお、 ゲインバッファ 6 0 3を設ける代わりに、 過去のゲイン符号を保持す るゲイン符号バッフ 7を設けて、 誤りが検出されたフレームでは前フレームの ゲイン符号を用いてゲイン復号部 6 0 1でゲインを復号し、 それに対して適応 音源 固定音源ゲイン比率制御を行うようにしても良い。
このように、 誤り補償される現フレームが有声の場合は、 適応音源の成分を 支配的にすることにより、 より有声定常的にし、 また、 無声'過渡のモードで は、 固定音源の成分を支配的にすることにより、 適応音源による不適切な周期 性成分による劣化を抑え、 聴感的な品質の改善を図ることができる。 以上のように、 符号化データに誤りが検出されたフレームでの音声復号の際 に、 適応音源ノ固定音源ゲイン比率制御部により、 前フレームのゲインパラメ 一夕 (適応音源ゲイン及び固定音源ゲイン) に対して、 モード情報に応じた適 応音源ノ固定音源ゲイン比率制御を行うことにより、 より改善された復号音声 品質を実現する誤り補償方法を提供できる。
なお、 上記図 6に示す音声復号化装置では、 音声信号の短区間毎の特徴を表 すモード情報を符号化パラメ一夕として含む音声符号化方式を対象として説 明したが、 音声のモード情報を符号化パラメ一夕に含まない音声符号化方式に 対しても、 本発明の誤り補償方法を適用できる。 その場合には、 復号側で復号 パラメータ又は復号信号から、 音声信号の短区間毎の特徴を表すモード情報を 算出するモード算出部を備えるようにすれば良い。
(実施の形態 3 )
図 8は、 本発明の実施の形態 3に係る音声複号化装置の構成を示すプロック 図である。 本実施の形態に係る音声復号化装置における誤り補償方法は、 実施 の形態 1, 2と同様に、 音声符号化側で入力音声信号を符号化した符号化デ一 夕に対して、 復号側で誤りが検出された場合に、 音声復号器における音声復号 時に、 復号音声の品質劣化を抑えるように動作するものである。
ここで、音声復号は、 1 0〜5 0 m s程度の一定の短区間(フレームと呼ぶ) の単位で行われ、 そのフレーム単位で受信データに誤りが生じているかどうか の検出がなされ、 その検出結果が誤り検出フラグとして通知される。 誤り検出 は、 本音声復号化装置の外部で予め行われるものとし、 誤り検出の対象データ として、 フレーム毎の符号化デ一夕の全てを対象としても、 あるいは聴感的に 重要な符号化デ一夕のみを対象としても良い。
また、 本実施の形態の誤り補償方法を適用する音声符号化方式として、 その 音声符号化パラメ一夕 (伝送パラメータ) に、 少なくとも、 適応音源信号及び 固定音源信号のゲイン情報を表すゲインパラメータを含むものを対象とする。 まず、 伝送路誤りが検出されないフレームにおいては、 符号化データは、 デ 一夕分離部 7 0 1で、 復号に必要な各パラメ一夕に分離される。 そして、 ラグ パラメ一夕復号部 7 0 2により復号されたラグパラメ一夕を用いて適応音源 符号帳 7 0 3により適応音源が生成され、 また固定音源符号帳 7 0 4により固 定音源が生成される。
また、 ゲインパラメータ復号部 7 0 5により、 後述するような方法で復号さ れたゲインを用いて、 乗算器 7 0 6によるゲインの乗算及び加算器 7 0 7によ る加算により駆動音源が生成される。 そして、 これらの音源及び L P Cパラメ 一夕復号部 7 0 8により復号された L P Cパラメ一夕を用いて L P C合成フ ィル夕 7 0 9及びポストフィル夕 7 1 0を経由して復号音声が生成される。 一方、 伝送路誤りが検出されたフレームに対しては、 各々の復号パラメ一夕 を生成した後、 誤りが検出されないフレームと同様にして復号音声を生成する。 ゲインパラメ一夕を除く各々のパラメ一夕の復号方法は任意であるが、 L P C パラメ一夕やラグパラメ一夕は従来と同様に、 前フレームのパラメ一夕を用い ても良い。
また、 固定音源パラメ一夕は、 ランダムな固定音源符号を与えて生成した固 定音源信号を用いる、 乱数発生器により発生させた任意の雑音信号を固定音源 信号とする、 固定音源パラメ一夕として現フレームの符号化データから分離さ れ得られた固定音源符号をそのまま使用して復号する、 などとしても良い。 次に、 ゲインパラメータ復号部におけるゲインパラメ一夕の復号方法につい て、 図 9を用いて説明する。 図 9は、 図 8に示す音声復号化装置におけるゲイ ンパラメータ復号部 7 0 5の内部構成を示すブロック図である。 図 9において、 まず、 ゲイン復号部 8 0 1で、 現フレームの現パラメ一夕符号からゲインパラ メータを復号する。 また、 誤り状態モニタ部 8 0 2により、 誤り検出の有無に 基づいて、 誤り検出の状態を判別する。 この状態とは、 現フレームが、
状態 1 ) 誤り検出フレーム、
状態 2 ) 誤り検出フレームの直後の、 連続 (1連続の場合も含む) する正 常 (誤りが検出されない) フレーム、
状態 3 ) それ以外の誤りが検出されないフレーム
のいずれかの場合である。
そして、 上記状態に応じて、 切り替え部 803により処理を切り替える。 ま ず、 状態 3) の場合には、 ゲイン復号部 801で復号されたゲインパラメータ がそのまま出力される。
次に、 状態 1) の場合には、 誤り検出フレームにおけるゲインパラメ一夕を 算出する。 その算出方法は任意であり、 従来のような前フレームの適応音源ゲ イン及び固定音源ゲインを減衰させた値を用いても良い。 また、 前フレームの ゲイン符号を用いた復号を行い、 現フレームのゲインパラメ一夕として用いて も良い。 さらに、 実施の形態 1又は 2に示すような、 モードに応じたラグ ·ゲ ィンパラメータ制御、 及びモードに応じたゲインパラメータ比率制御を用いて も良い。
そして、 状態 2) においては、 誤り検出後の正常フレームに対して、 適応音 源 Z固定音源ゲイン制御部 806で下記に示すような処理を行う。 まず、 ゲイ ン復号部 801で復号されたゲインパラメータのうち、 適応音源ゲインの値 (適応音源に乗ずる係数値) に対して上限値を規定した制御を行う。 具体的に は、 上限値として固定値 (例えば、 1. 0) を規定したり、 復号適応音源ゲイ ン値に比例するような上限値を定めたり、 それらを組み合わせたりしても良い。 さらに、 上記のような適応音源ゲインの上限値制御に伴って、 固定音源ゲイン も同時に、 適応音源ゲインと固定音源ゲインの比率を正しく保つように制御す る。 具体的な実現方法の一例を下記式 (3) に示す。
状態 2) における最初の一定数のサブフレームに対して、
if Ga〉l. 0
Ge— (1. OZGa) *Ge
Ga— 1. 0
状態 2における上記を越えるサブフレームに対して、 式 (3) if G a> 1. 0
Ge— { ( (Ga+ 1. 0) / 2) Ga} * Ge
Ga— (Ga+ 1. 0) / 2
ここで、
G a : 適応音源ゲイン
Ge : 固定音源ゲイン
ゲインパラメ一夕の表現方法 (符号化方法) として、 フレーム (又はサブフ レーム) のパヮ情報を表すパラメ一夕とそれに対する相対関係を表すパラメ一 夕との組み合わせでゲイン値を表現する方式 (例えば、 MPEG— 4 Audio の MP Eモードの CE LP符号化) を採用する場合においては、 適応音源ゲイ ンが前フレームの復号音源に依存して復号されるため、 誤り検出後の正常フレ ームにおいては、 前フレームの誤り補償処理により適応音源ゲインが本来の値 とは異なり、 場合によっては復号音声の異常な振幅増大による品質劣化を生じ ることがあるが、 本実施の形態のように、 ゲインの上限制限により、 品質劣化 を抑えることができる。
また、 適応音源ゲインと固定音源ゲインとの比率を、 誤りのない本来の復号 ゲインでの値になるように制御することにより、 誤り検出後の正常フレームで の音源信号が、 誤りのない場合により類似することとなり、 復号音声品質の改 善を図ることができる。
なお、 上記実施の形態 1〜3に係る符号誤り補償方法は、 この誤り補償方法 をソフトウェアとして構成しても良い。 例えば、 上記誤り補償方法のプロダラ ムを ROMに格納し、 そのプログラムにしたがって CPUの指示により動作さ せるように構成しても良い。 また、 プログラム, 適応音源符号帳, 及び固定音 源符号帳をコンピュータで読み取り可能な記憶媒体に格納し、 この記憶媒体の プログラム, 適応符号帳, 及び固定音源符号帳をコンピュータの RAMに記録 して、 プログラムにしたがって動作させるようにしても良い。 このような場合 においても、 上記実施の形態 1〜3と同様の作用、 効果を呈する。 本発明の音声復号化装置は、 モード情報、 ラグパラメ一夕、 及びゲインパラ メータを含む符号化された伝送パラメ一夕を有するデ一夕を受信する受信手 段と、 前記モード情報、 ラグパラメ一夕、 及びゲインパラメ一夕を復号化する 復号化部と、 前記データに対して誤りが検出された復号単位において、 前記復 号単位よりも過去の復号単位に対するモード情報を用い、 前記復号単位に用い るラグパラメ一夕及びゲインパラメ一夕を適応的に決定する決定部と、 を具備 する構成を採る。
この構成によれば、 符号化デ一夕に誤りが検出された復号単位での音声復号 の際に、 音声復号に用いるラグパラメ一夕及びゲインパラメータを復号された モード情報に基づいて適応的に算出するので、 より改善された復号音声品質を 実現することができる。
本発明の音声復号化装置は、 上記構成において、 決定部が、 ラグパラメータ の復号単位内及び Z又は復号単位間の変動を検出する検出部を具備し、 前記検 出部の検出結果と前記モード情報に基づいて前記復号単位で用いるラグパラ メータを決定する構成を採る。
この構成によれば、 符号化データに誤りが検出された復号単位での音声復号 の際に、 音声復号に用いるラグパラメ一夕を、 復号されたモード情報、 復号単 位内及び Z又は復号単位間の変動検出結果に基づいて適応的に算出するので、 より改善された復号音声品質を実現することができる。
本発明の音声復号化装置は、 上記構成において、 モード情報の示すモードが 過渡モード又は無声モードであって、 前記検出部がラグパラメータの復号単位 内及び Z又は復号単位間の所定量以上の変動を検出しない場合に、 復号単位に ついての前記ラグパラメ一夕を用い、 その他の場合に、 過去の復号単位に対す るラグパラメ一夕を用いる構成を採る。
この構成によれば、 特に誤り検出復号単位が音声の立ち上がりである場合に おける復号音声品質の改善を実現することができる。
本発明の音声復号化装置は、 上記構成において、 決定部が、 モード情報の示 すモードが過渡モード又は無声モードである場合に、 過去の復号単位に対する ゲインパラメ一夕に基づいてゲインパラメ一夕の範囲制限を行う制限制御部 を有し、 範囲制限されたゲインパラメ一夕をゲインパラメ一夕として決定する 構成を採る。
この構成によれば、 現復号単位の符号化データに誤りが検出され、 かつモー ド情報が過渡又は無声を示す場合には、 現復号単位の符号化データから復号し たゲインパラメ一夕に対して、 過去のゲインパラメ一夕からの増加の上限又は 及び減少の下限を規定して出力ゲインを制御するので、 誤りを含む得る符号 化データから復号したゲインパラメ一夕が誤りによる異常な値となることを 抑えることができ、 より改善された復号音声品質を実現することができる。 本発明の音声復号化装置は、 モード情報、 ラグパラメ一夕、 固定音源パラメ 一夕、 並びに適応音源ゲインと固定音源ゲインとからなるゲインパラメ一夕を 含む符号化された伝送パラメータを有するデータを受信する受信部と、 前記モ ード情報、 ラグパラメ一夕、 固定音源パラメ一夕及びゲインパラメ一夕を復号 化する複号化部と、 前記デ一夕に対して誤りが検出された復号単位において、 前記復号単位よりも過去の復号単位に対するモード情報を用い、 前記適応音源 ゲインと前記固定音源ゲインとの比率を制御する比率制御部と、 を具備する構 成を採る。
本発明の音声復号化装置は、 上記構成において、 前記比率制御部が、 前記モ 一ド情報が有声モードである場合に、 適応音源ゲインの比率を高くし、 前記モ 一ド情報が過渡モード又は無声モードである場合に、 適応音源ゲインの比率を 低くするようにゲイン比率を制御する構成を採る。
これらの構成によれば、 符号化デー夕に誤りが検出された復号単位でのゲイ ンパラメータ復号の際に、 適応音源ゲインと固定音源ゲインの比率を、 モード 情報に応じて適応的に制御するので、 誤り検出復号単位の復号音声品質を聴感 的により改善させることができる。
本発明の音声復号化装置は、 ラグパラメ一夕、 固定音源パラメ一夕、 並びに 適応音源ゲインと固定音源ゲインとからなるゲインパラメ一夕を含む符号化 された伝送パラメ一夕を有するデータを受信する受信部と、 前記ラグパラメ一 夕、 固定音源パラメータ及びゲインパラメ一夕を復号化する復号化部と、 誤り が検出された復号単位直後の正常な復号単位において、 ゲインパラメ一夕の上 限を規定する規定部と、 を具備する構成を採る。
この構成によれば、 符号化デ一夕に誤りが検出された復号単位直後の、 誤り が検出されない正常な復号単位において、 復号された適応音源ゲインパラメ一 夕の上限値を規定するように制御するので、 誤り検出直後の正常復号単位での 復号音声信号の異常な振幅増大による復号音声品質の劣化を抑えることがで きる。
本発明の音声復号化装置は、 上記構成において、 前記規定部が、 上限が規定 された範囲における適応音源ゲインに対して所定の比率を保つように固定音 源ゲインを制御する構成を採る。
この構成によれば、 適応音源ゲインと固定音源ゲインとの間の比率を誤りの ない本来の復号ゲインでの値になるように制御するので、 誤り検出直後の正常 復号単位での音源信号が誤りのない場合により類似することとなり、 復号音声 品質の改善を図ることができる。
本発明の音声複号化装置は、 ラグパラメ一夕及びゲインパラメ一夕を含む符 号化された伝送パラメ一夕を有するデータを受信する受信部と、 前記ラグパラ メータ及びゲインパラメータを復号化する複号化部と、 前記デ一夕を復号化し て得られる復号化パラメ一夕又は復号化信号からモード情報を求めるモード 算出部と、 前記データにおいて誤りが検出された復号単位について、 前記復号 単位よりも過去の復号単位に対するモード情報を用い、 前記復号単位に用いる ラグパラメ一夕及びゲインパラメ一夕を適応的に決定する決定部と、 を具備す る構成を採る。
この構成によれば、 音声のモード情報を符号化パラメ一夕に含まない音声符 号化方式に対しても、 音声復号に用いるラグパラメ一夕及びゲインパラメ一夕 を、 復号側で算出したモード情報に基づいて適応的に算出することができ、 よ り改善された復号音声品質を実現することができる。
本発明の音声復号化装置は、 ラグパラメ一夕、 固定音源パラメ一夕、 並びに 適応音源ゲインと固定音源ゲインとからなるゲインパラメ一夕を含む符号化 された伝送パラメ一夕を有するデータを受信する受信部と、 前記ラグパラメ一 夕、 固定音源パラメータ及びゲインパラメ一夕を復号化する復号化部と、 前記 データを復号化して得られる復号化パラメ一夕又は複号化信号からモード情 報を求めるモード算出部と、 前記データに対して誤りが検出された復号単位に おいて、 前記復号単位よりも過去の復号単位に対するモード情報を用い、 前記 適応音源用ゲインと前記固定音源用ゲインとの比率を制御する比率制御部と、 を具備する構成を採る。
この構成によれば、 音声のモード情報を符号化パラメ一夕に含まない音声符 号化方式に対しても、 符号化データに誤りが検出された復号単位でのゲインパ ラメ一夕復号の際に、 適応音源ゲインと固定音源ゲインの比率を、 復号側で算 出したモード情報に応じて適応的に制御するので、 誤り検出復号単位の復号音 声品質を聴感的により改善させることができる。
本発明の符号誤り補償方法は、 モード情報、 ラグパラメ一夕、 及びゲインパ ラメ一夕を含む符号化された伝送パラメ一夕を有するデ一夕における前記モ ード情報、 ラグパラメ一夕、 及びゲインパラメ一夕を復号化する工程と、 前記 データに対して誤りが検出された復号単位において、 前記復号単位よりも過去 の復号単位に対するモード情報を用い、 前記復号単位に用いるラグパラメ一夕 及びゲインパラメータを適応的に決定する工程と、 を具備する。
この方法によれば、 符号化データに誤りが検出された復号単位での音声復号 の際に、 音声復号に用いるラグパラメ一夕及びゲインパラメ一夕を復号された モード情報に基づいて適応的に算出するので、 より改善された復号音声品質を 実現することができる。
本発明の符号誤り補償方法は、 上記方法において、 ラグパラメータの復号単 位内及びノ又は復号単位間の変動を検出する工程を具備し、 検出結果と前記モ —ド情報に基づいて前記復号単位で用いるラグパラメ一夕を決定する。
この方法によれば、 符号化データに誤りが検出された復号単位での音声復号 の際に、 音声復号に用いるラグパラメ一夕を、 復号されたモード情報、 復号単 位内及びノ又は復号単位間の変動検出結果に基づいて適応的に算出するので、 より改善された復号音声品質を実現することができる。
本発明の符号誤り補償方法は、 上記方法において、 モード情報の示すモード が過渡モード又は無声モードであって、 ラグパラメ一夕の復号単位内及びノ又 は復号単位間の所定量以上の変動を検出しない場合に、 復号単位についての前 記ラグパラメ一夕を用い、 その他の場合に、 過去の復号単位に対するラグパラ メータを用いる。
この方法によれば、 特に誤り検出復号単位が音声の立ち上がりである場合に おける復号音声品質の改善を実現することができる。
本発明の符号誤り補償方法は、 上記方法において、 モード情報の示すモード が過渡モード又は無声モードである場合に、 過去の復号単位に対するゲインパ ラメ一夕に基づいてゲインパラメ一夕の範囲制限を行い、 範囲制限されたゲイ ンパラメ一夕をゲインパラメータとして決定する。
この方法によれば、 現復号単位の符号化データに誤りが検出され、 かつモー ド情報が過渡又は無声を示す場合には、 現復号単位の符号化デー夕から復号し たゲインパラメ一夕に対して、 過去のゲインパラメ一夕からの増加の上限又は 及び減少の下限を規定して出力ゲインを制御するので、 誤りを含む得る符号 化データから復号したゲインパラメ一夕が誤りによる異常な値となることを 抑えることができ、 より改善された復号音声品質を実現することができる。 本発明の符号誤り補償方法は、 モード情報、 ラグパラメ一夕、 固定音源パラ メータ、 並びに適応音源ゲインと固定音源ゲインとからなるゲインパラメ一夕 を含む符号化された伝送パラメ一夕を有するデータを受信する工程と、 前記モ ード情報、 ラグパラメ一夕、 固定音源パラメータ及びゲインパラメ一夕を復号 化する工程と、 前記デ一夕に対して誤りが検出された復号単位において、 前記 復号単位よりも過去の復号単位に対するモード情報を用い、 前記適応音源ゲイ ンと前記固定音源ゲインとの比率を制御する工程と、 を具備する。
本発明の符号誤り補償方法は、 上記方法において、 モード情報の示すモード が有声モードである場合に、 適応音源ゲインの比率を高くし、 前記モード情報 の示すモードが過渡モード又は無声モードである場合に、 適応音源ゲインの比 率を低くするように、 適応音源ゲインと固定音源ゲインとの間のゲイン比率を 制御する。
これらの方法によれば、 符号化データに誤りが検出された復号単位でのゲイ ンパラメ一夕復号の際に、 適応音源ゲインと固定音源ゲインの比率を、 モード 情報に応じて適応的に制御するので、 誤り検出復号単位の復号音声品質を聴感 的により改善させることができる。
本発明の符号誤り補償方法は、 ラグパラメ一夕、 固定音源パラメ一夕、 並び に適応音源ゲインと固定音源ゲインとからなるゲインパラメータを含む符号 化された伝送パラメ一タを有するデータを受信する工程と、 前記ラグパラメ一 夕、 固定音源パラメ一夕及びゲインパラメ一夕を復号化する工程と、 誤りが検 出された復号単位直後の正常な復号単位において、 ゲインパラメ一夕の上限を 規定する工程と、 を具備する。
この方法によれば、 符号化デ一夕に誤りが検出された復号単位直後の、 誤り が検出されない正常な復号単位において、 復号された適応音源ゲインパラメ一 夕の上限値を規定するように制御するので、 誤り検出直後の正常復号単位での 復号音声信号の異常な振幅増大による復号音声品質の劣化を抑えることがで さる。
本発明の符号誤り補償方法は、 上記方法において、 上限が規定された範囲に おける適応音源ゲインに対して所定の比率を保つように固定音源ゲインを制 御する。
この方法によれば、 適応音源ゲインと固定音源ゲインとの間の比率を誤りの ない本来の復号ゲインでの値になるように制御するので、 誤り検出直後の正常 復号単位での音源信号がより誤りのない場合により類似することとなり、 復号 音声品質の改善を図ることができる。
本発明の符号誤り補償方法は、 ラグパラメータ及びゲインパラメ一夕を含む 符号化された伝送パラメータを有するデータを受信する工程と、 前記ラグパラ メータ及びゲインパラメ一タを復号化する工程と、 前記デ一夕を復号化して得 られる復号化パラメ一夕又は複号化信号からモード情報を求める工程と、 前記 データにおいて誤りが検出された復号単位について、 前記復号単位よりも過去 の復号単位に対するモード情報を用い、 前記復号単位に用いるラグパラメータ 及びゲインパラメ一夕を適応的に決定する工程と、 を具備する。
この方法によれば、 音声のモード情報を符号化パラメ一夕に含まない音声符 号化方式に対しても、 音声復号に用いるラグパラメ一夕及びゲインパラメ一夕 を、 復号側で算出したモード情報に基づいて適応的に算出することができ、 よ り改善された復号音声品質を実現することができる。
本発明の記録媒体は、 プログラムを格納し、 コンピュータにより読み取り可 能な記録媒体であって、 前記プログラムは、 モード情報、 ラグパラメ一夕、 及 びゲインパラメ一夕を含む符号化された伝送パラメータを有するデータにお ける前記モード情報、 ラグパラメ一夕、 及びゲインパラメ一夕を複号化する手 順と、 前記データに対して誤りが検出された復号単位において、 前記復号単位 よりも過去の復号単位に対するモード情報を用い、 前記復号単位に用いるラグ パラメ一夕及びゲインパラメ一夕を適応的に決定する手順と、 を含む。
この媒体によれば、 符号化デ一夕に誤りが検出された復号単位での音声復号 の際に、 音声復号に用いるラグパラメ一夕及びゲインパラメ一夕を復号された モード情報に基づいて適応的に算出するので、 より改善された復号音声品質を 実現することができる。
本発明の記録媒体は、 プログラムを格納し、 コンピュータにより読み取り可 能な記録媒体であって、 前記プログラムは、 モード情報、 ラグパラメータ、 及 びゲインパラメータを含む符号化された伝送パラメータを有するデ一夕にお ける前記モード情報、 ラグパラメータ、 及びゲインパラメ一夕を復号化する手 順と、 前記データに対して誤りが検出された復号単位において、 前記復号単位 よりも過去の復号単位に対するモード情報を用い、 前記モ一ド情報の示すモー ドが有声モードである場合に、 適応音源ゲインの比率を高くし、 前記モード情 報の示すモードが過渡モード又は無声モードである場合に、 適応音源ゲインの 比率を低くするように、 適応音源ゲインと固定音源ゲインとの間のゲイン比率 を制御する手順と、 を含む。
この媒体によれば、 符号化データに誤りが検出された復号単位でのゲインパ ラメ一夕復号の際に、 適応音源ゲインと固定音源ゲインの比率を、 モード情報 に応じて適応的に制御するので、 誤り検出復号単位の復号音声品質を聴感的に より改善させることができる。
本発明の記録媒体は、 プログラムを格納し、 コンピュータにより読み取り可 能な記録媒体であって、 前記プログラムは、 ラグパラメ一夕、 及びゲインパラ メ一夕を含む符号化された伝送パラメータを有するデータにおける前記ラグ パラメ一夕、 及びゲインパラメ一夕を復号化する手順と、 誤りが検出された復 号単位直後の正常な復号単位について、 ゲインパラメ一夕の上限を規定し、 上 限が規定された範囲における適応音源ゲインに対して所定の比率を保つよう に固定音源ゲインを制御する手順と、 を含む。
この媒体によれば、 誤り検出直後の正常復号単位での復号音声信号の異常な 振幅増大による復号音声品質の劣化を抑えることができる。
以上説明したように本発明の音声復号化装置及び符号誤り補償方法によれ ば、 符号化データに誤りが検出されたフレームでの音声復号の際に、 ラグパラ メータ復号部及びゲインパラメ一夕復号部において、 音声復号に用いるラグパ ラメ一夕及びゲインパラメータを、 復号されたモード情報に基づいて適応的に 算出する。 これにより、 より改善された復号音声品質を実現することができる。 また、 本発明によれば、 符号化データに誤りが検出されたフレームでのゲイ ンパラメータ復号の際に、 ゲインパラメータ復号部において、 適応音源ゲイン と固定音源ゲインの比率を、 モード情報に応じて適応的に制御する、 より具体 的には、 現フレームが有声を示す場合には、 適応音源のゲインの比率を高く、 過渡又は無声を示す場合には、 適応音源のゲインの比率を低くするように制御 することにより、 誤り検出フレームの復号音声品質を聴感的により改善させる ことができる。
さらに、 本発明によれば、 ゲインパラメ一夕復号部において、 符号化データ に誤りが検出されたフレームの直後の、 誤りが検出されない正常なフレームに ついて、 復号ゲインパラメ一夕の値に応じて、 音声復号に用いる適応音源ゲイ ンパラメータ及び固定音源ゲインパラメータを適応的に制御する。 より具体的 には、 復号された適応音源ゲインパラメ一夕の上限値を規定するように制御す る。 これにより、 誤り検出後の正常フレームでの復号音声信号の異常な振幅増 大による復号音声品質の劣化を抑えることができる。 さらに、 適応音源ゲイン と固定音源ゲインとの比率を誤りのない本来の復号ゲインでの値になるよう に制御することにより、 誤り検出後の正常フレームでの音源信号が誤りのない 場合により類似することとなり、 復号音声品質の改善を図ることができる。 本明細書は、 1 9 9 9年 6月 3 0日出願の特願平 1 1— 1 8 5 7 1 2に基づ く。 この内容はすべてここに含めておく。 産業上の利用可能性
本発明は、 ディジタル無線通信システムにおける基地局装置及び通信端末装 置に適用することができる。 これにより、 伝送誤りに対する耐性のある無線通 信を行うことができる。

Claims

請求の範囲
1 . モード情報、 ラグパラメ一夕、 及びゲインパラメータを含む符号化された 伝送パラメ一夕を有するデータを受信する受信手段と、 前記モード情報、 ラグ パラメータ、 及びゲインパラメータを複号化する復号化手段と、 前記データに 対して誤りが検出された復号単位において、 前記復号単位よりも過去の復号単 位に対するモ一ド情報を用い、 前記復号単位に用いるラグパラメ一夕及びゲイ ンパラメ一夕を適応的に決定する決定手段と、 を具備する音声復号化装置。
2 . 決定手段は、 ラグパラメ一夕の復号単位内及び/又は復号単位間の変動を 検出する検出手段を具備し、 前記検出手段の検出結果と前記モード情報に基づ いて前記復号単位で用いるラグパラメータを決定する請求項 1記載の音声復 号化装置。
3 . モード情報の示すモードが過渡モード又は無声モードであって、 前記検出 手段がラグパラメ一夕の復号単位内及び Z又は復号単位間の所定量以上の変 動を検出しない場合に、 復号単位における前記ラグパラメータを用い、 その他 の場合に、 過去の復号単位に対するラグパラメ一夕を用いる請求項 2記載の音 声複号化装置。
4 . 決定手段は、 モード情報の示すモードが過渡モード又は無声モードである 場合に、 過去の復号単位に対するゲインパラメ一夕に基づいてゲインパラメ一 夕の範囲制限を行う制限制御手段を有し、 範囲制限されたゲインパラメ一夕を ゲインパラメ一夕として決定する請求項 1記載の音声復号化装置。
5 . モード情報、 ラグパラメータ、 固定音源パラメ一夕、 並びに適応音源ゲイ ンと固定音源ゲインとからなるゲインパラメ一夕を含む符号化された伝送パ ラメ一夕を有するデータを受信する受信手段と、 前記モード情報、 ラグパラメ 一夕、 固定音源パラメータ及びゲインパラメ一夕を復号化する復号化手段と、 前記データに対して誤りが検出された復号単位において、 前記復号単位よりも 過去の復号単位に対するモード情報を用い、 前記適応音源ゲインと前記固定音 源ゲインとの比率を制御する比率制御手段と、 を具備する音声復号化装置。
6 . 前記比率制御手段は、 前記モード情報が有声モードである場合に、 適応音 源ゲインの比率を高くし、 前記モード情報が過渡モード又は無声モードである 場合に、 適応音源ゲインの比率を低くするようにゲイン比率を制御する請求項 5記載の音声復号化装置。
7 . ラグパラメ一夕、 固定音源パラメ一夕、 並びに適応音源ゲインと固定音源 ゲインとからなるゲインパラメータを含む符号化された伝送パラメ一夕を有 するデータを受信する受信手段と、 前記ラグパラメ一夕、 固定音源パラメ一夕 及びゲインパラメ一夕を複号化する複号化手段と、 誤りが検出された復号単位 直後の正常な復号単位において、 ゲインパラメ一夕の上限を規定する規定手段 と、 を具備する音声複号化装置。
8 . 前記規定手段は、 上限が規定された範囲における適応音源ゲインに対して 所定の比率を保つように固定音源ゲインを制御することを特徴とする請求項 7記載の音声復号化装置。
9 . ラグパラメ一夕及びゲインパラメ一夕を含む符号化された伝送パラメ一夕 を有するデータを受信する受信手段と、 前記ラグパラメータ及びゲインパラメ 一夕を復号化する復号化手段と、 前記データを複号化して得られる復号化パラ メータ又は復号化信号からモード情報を求めるモード算出手段と、 前記デ一夕 において誤りが検出された復号単位について、 前記復号単位よりも過去の復号 単位に対するモード情報を用い、 前記復号単位に用いるラグパラメ一夕及びゲ インパラメ一夕を適応的に決定する決定手段と、 を具備する音声復号化装置。
1 0 . ラグパラメータ、 固定音源パラメ一夕、 並びに適応音源ゲインと固定音 源ゲインとからなるゲインパラメ一夕を含む符号化された伝送パラメ一夕を 有するデータを受信する受信手段と、 前記ラグパラメ一夕、 固定音源パラメ一 夕及びゲインパラメ一夕を復号化する復号化手段と、 前記デー夕を復号化して 得られる復号化パラメ一夕又は復号化信号からモード情報を求めるモード算 出手段と、 前記データに対して誤りが検出された復号単位において、 前記復号 単位よりも過去の復号単位に対するモード情報を用い、 前記適応音源用ゲイン と前記固定音源用ゲインとの比率を制御する比率制御手段と、 を具備する音声 復号化装置。
1 1 . モード情報、 ラグパラメ一夕、 及びゲインパラメ一夕を含む符号化され た伝送パラメ一夕を有するデータにおける前記モード情報、 ラグパラメータ、 及びゲインパラメータを復号化する工程と、 前記データに対して誤りが検出さ れた復号単位において、 前記復号単位よりも過去の復号単位に対するモード情 報を用い、 前記復号単位に用いるラグパラメータ及びゲインパラメータを適応 的に決定する工程と、 を具備する符号誤り補償方法。
1 2 . ラグパラメータの復号単位内及び Z又は復号単位間の変動を検出するェ 程を具備し、 検出結果と前記モード情報に基づいて前記復号単位で用いるラグ パラメ一夕を決定する請求項 1 1記載の符号誤り補償方法。
1 3 . モード情報の示すモードが過渡モード又は無声モードであって、 ラグパ ラメ一夕の復号単位内及びノ又は復号単位間の所定量以上の変動を検出しな い場合に、 復号単位についての前記ラグパラメ一夕を用い、 その他の場合に、 過去の復号単位に対するラグパラメータを用いる請求項 1 2記載の符号誤り 補償方法。
1 4. モード情報の示すモードが過渡モード又は無声モードである場合に、 過 去の復号単位に対するゲインパラメ一夕に基づいてゲインパラメ一夕の範囲 制限を行い、 範囲制限されたゲインパラメータをゲインパラメ一夕として決定 する請求項 1 1記載の符号誤り補償方法。
1 5 . モード情報、 ラグパラメータ、 固定音源パラメ一夕、 並びに適応音源ゲ インと固定音源ゲインとからなるゲインパラメ一夕を含む符号化された伝送 パラメ一夕を有するデータを受信する工程と、 前記モード情報、 ラグパラメ一 夕、 固定音源パラメ一夕及びゲインパラメ一タを復号化する工程と、 前記デ一 夕に対して誤りが検出された復号単位において、 前記復号単位よりも過去の復 号単位に対するモード情報を用い、 前記適応音源ゲインと前記固定音源ゲイン との比率を制御する工程と、 を具備する符号誤り補償方法。
1 6 . モード情報の示すモードが有声モードである場合に、 適応音源ゲインの 比率を高くし、 前記モード情報の示すモードが過渡モ一ド又は無声モードであ る場合に、 適応音源ゲインの比率を低くするように、 適応音源ゲインと固定音 源ゲインとの間のゲイン比率を制御する請求項 1 5記載の符号誤り補償方法。
1 7 . ラグパラメ一夕、 固定音源パラメ一夕、 並びに適応音源ゲインと固定音 源ゲインとからなるゲインパラメータを含む符号化された伝送パラメ一夕を 有するデ一夕を受信する工程と、 前記ラグパラメ一夕、 固定音源パラメ一夕及 びゲインパラメ一夕を復号化する工程と、 誤りが検出された復号単位直後の正 常な復号単位において、 ゲインパラメ一夕の上限を規定する工程と、 を具備す る符号誤り補償方法。
1 8 . 上限が規定された範囲における適応音源ゲインに対して所定の比率を保 つように固定音源ゲインを制御する請求項 1 7記載の符号誤り補償方法。
1 9 . ラグパラメータ及びゲインパラメ一夕を含む符号化された伝送パラメ一 夕を有するデータを受信する工程と、 前記ラグパラメ一夕及びゲインパラメ一 タを復号化する工程と、 前記データを復号化して得られる復号化信号からモー ド情報を求める工程と、 前記デ一夕において誤りが検出された復号単位につい て、 前記復号単位よりも過去の復号単位に対するモード情報を用い、 前記復号 単位に用いるラグパラメ一夕及びゲインパラメータを適応的に決定する工程 と、 を具備する符号誤り補償方法。
2 0 . プログラムを格納し、 コンピュータにより読み取り可能な記録媒体であ つて、 前記プログラムは、 モード情報、 ラグパラメ一夕、 及びゲインパラメ一 夕を含む符号化された伝送パラメータを有するデータにおける前記モード情 報、 ラグパラメ一夕、 及びゲインパラメータを複号化する手順と、 前記データ に対して誤りが検出された復号単位において、 前記復号単位よりも過去の復号 単位に対するモード情報を用い、 前記復号単位に用いるラグパラメ一夕及びゲ インパラメ一夕を適応的に決定する手順と、 を含む。
2 1 . プログラムを格納し、 コンピュータにより読み取り可能な記録媒体であ つて、 前記プログラムは、 モード情報、 ラグパラメ一夕、 及びゲインパラメ一 夕を含む符号化された伝送パラメ一夕を有するデータにおける前記モード情 報、 ラグパラメ一夕、 及びゲインパラメ一タを復号化する手順と、 前記データ に対して誤りが検出された復号単位において、 前記復号単位よりも過去の復号 単位に対するモード情報を用い、 前記モード情報の示すモードが有声モードで ある場合に、 適応音源ゲインの比率を高くし、 前記モード情報の示すモードが 過渡モード又は無声モ一ドである場合に、 適応音源ゲインの比率を低くするよ うに、 適応音源ゲインと固定音源ゲインとの間のゲイン比率を制御する手順と、 を含む。
2 2 . プログラムを格納し、 コンピュータにより読み取り可能な記録媒体であ つて、 前記プログラムは、 ラグパラメータ、 及びゲインパラメ一夕を含む符号 化された伝送パラメ一夕を有するデータにおける前記ラグパラメータ、 及びゲ ィンパラメ一夕を復号化する手順と、 誤りが検出された復号単位直後の正常な 復号単位について、 ゲインパラメ一夕の上限を規定し、 上限が規定された範囲 における適応音源ゲインに対して所定の比率を保つように固定音源ゲインを 制御する手順と、 を含む。
PCT/JP2000/004323 1999-06-30 2000-06-30 Decodeur audio et procede de compensation d'erreur de codage WO2001003115A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US10/018,317 US7171354B1 (en) 1999-06-30 2000-06-30 Audio decoder and coding error compensating method
EP00942405A EP1207519B1 (en) 1999-06-30 2000-06-30 Audio decoder and coding error compensating method
CA2377597A CA2377597C (en) 1999-06-30 2000-06-30 Speech decoder and code error compensation method
AU57064/00A AU5706400A (en) 1999-06-30 2000-06-30 Audio decoder and coding error compensating method
US11/641,009 US7499853B2 (en) 1999-06-30 2006-12-19 Speech decoder and code error compensation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP18571299A JP4464488B2 (ja) 1999-06-30 1999-06-30 音声復号化装置及び符号誤り補償方法、音声復号化方法
JP11/185712 1999-06-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/641,009 Continuation US7499853B2 (en) 1999-06-30 2006-12-19 Speech decoder and code error compensation method

Publications (1)

Publication Number Publication Date
WO2001003115A1 true WO2001003115A1 (fr) 2001-01-11

Family

ID=16175542

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/004323 WO2001003115A1 (fr) 1999-06-30 2000-06-30 Decodeur audio et procede de compensation d'erreur de codage

Country Status (8)

Country Link
US (2) US7171354B1 (ja)
EP (2) EP1207519B1 (ja)
JP (1) JP4464488B2 (ja)
KR (1) KR100439652B1 (ja)
CN (1) CN1220177C (ja)
AU (1) AU5706400A (ja)
CA (1) CA2377597C (ja)
WO (1) WO2001003115A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7447639B2 (en) * 2001-01-24 2008-11-04 Nokia Corporation System and method for error concealment in digital audio transmission
US7069208B2 (en) 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
JP4433668B2 (ja) 2002-10-31 2010-03-17 日本電気株式会社 帯域拡張装置及び方法
CN1989548B (zh) * 2004-07-20 2010-12-08 松下电器产业株式会社 语音解码装置及补偿帧生成方法
KR100686174B1 (ko) 2005-05-31 2007-02-26 엘지전자 주식회사 오디오 에러 은닉 방법
FR2897977A1 (fr) 2006-02-28 2007-08-31 France Telecom Procede de limitation de gain d'excitation adaptative dans un decodeur audio
AU2007318506B2 (en) * 2006-11-10 2012-03-08 Iii Holdings 12, Llc Parameter decoding device, parameter encoding device, and parameter decoding method
CN101286319B (zh) * 2006-12-26 2013-05-01 华为技术有限公司 改进语音丢包修补质量的语音编码方法
US8688437B2 (en) 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
CN101226744B (zh) 2007-01-19 2011-04-13 华为技术有限公司 语音解码器中实现语音解码的方法及装置
KR101411900B1 (ko) * 2007-05-08 2014-06-26 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 장치
US8204753B2 (en) * 2007-08-23 2012-06-19 Texas Instruments Incorporated Stabilization and glitch minimization for CCITT recommendation G.726 speech CODEC during packet loss scenarios by regressor control and internal state updates of the decoding process
CN101552008B (zh) * 2008-04-01 2011-11-16 华为技术有限公司 语音编码方法及装置、语音解码方法及装置
US9197181B2 (en) * 2008-05-12 2015-11-24 Broadcom Corporation Loudness enhancement system and method
US8645129B2 (en) * 2008-05-12 2014-02-04 Broadcom Corporation Integrated speech intelligibility enhancement system and acoustic echo canceller
KR20100006492A (ko) 2008-07-09 2010-01-19 삼성전자주식회사 부호화 방식 결정 방법 및 장치
WO2010130093A1 (zh) * 2009-05-13 2010-11-18 华为技术有限公司 编码处理方法、编码处理装置与发射机
US8762136B2 (en) * 2011-05-03 2014-06-24 Lsi Corporation System and method of speech compression using an inter frame parameter correlation
KR102070430B1 (ko) 2011-10-21 2020-01-28 삼성전자주식회사 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
CA2928974C (en) 2013-10-31 2020-06-02 Jeremie Lecomte Audio decoder and method for providing a decoded audio information using an error concealment modifying a time domain excitation signal
ES2746034T3 (es) * 2013-10-31 2020-03-04 Fraunhofer Ges Forschung Decodificador de audio y método para proporcionar una información de audio decodificada usando un ocultamiento de error sobre la base de una señal de excitación de dominio de tiempo
US9953660B2 (en) * 2014-08-19 2018-04-24 Nuance Communications, Inc. System and method for reducing tandeming effects in a communication system
JP6516099B2 (ja) * 2015-08-05 2019-05-22 パナソニックIpマネジメント株式会社 音声信号復号装置および音声信号復号方法
WO2020201040A1 (en) * 2019-03-29 2020-10-08 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for error recovery in predictive coding in multichannel audio frames

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430200A (ja) * 1990-05-28 1992-02-03 Nec Corp 音声復号化方法
JPH05113798A (ja) * 1991-07-15 1993-05-07 Nippon Telegr & Teleph Corp <Ntt> 音声復号方法
JPH0744200A (ja) * 1993-07-29 1995-02-14 Nec Corp 音声符号化方式
JPH07239699A (ja) * 1994-02-28 1995-09-12 Hitachi Ltd 音声符号化方法およびこの方法を用いた音声符号化装置
JPH08211895A (ja) * 1994-11-21 1996-08-20 Rockwell Internatl Corp ピッチラグを評価するためのシステムおよび方法、ならびに音声符号化装置および方法
JPH08320700A (ja) * 1995-05-26 1996-12-03 Nec Corp 音声符号化装置
JPH09134798A (ja) * 1995-11-08 1997-05-20 Jeol Ltd 高周波装置
JPH09185396A (ja) * 1995-12-28 1997-07-15 Olympus Optical Co Ltd 音声符号化装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657418A (en) * 1991-09-05 1997-08-12 Motorola, Inc. Provision of speech coder gain information using multiple coding modes
US5495555A (en) * 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec
JP2746033B2 (ja) 1992-12-24 1998-04-28 日本電気株式会社 音声復号化装置
US5574825A (en) 1994-03-14 1996-11-12 Lucent Technologies Inc. Linear prediction coefficient generation during frame erasure or packet loss
JP3616432B2 (ja) * 1995-07-27 2005-02-02 日本電気株式会社 音声符号化装置
JP3308783B2 (ja) 1995-11-10 2002-07-29 日本電気株式会社 音声復号化装置
JP3092652B2 (ja) 1996-06-10 2000-09-25 日本電気株式会社 音声再生装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430200A (ja) * 1990-05-28 1992-02-03 Nec Corp 音声復号化方法
JPH05113798A (ja) * 1991-07-15 1993-05-07 Nippon Telegr & Teleph Corp <Ntt> 音声復号方法
JPH0744200A (ja) * 1993-07-29 1995-02-14 Nec Corp 音声符号化方式
JPH07239699A (ja) * 1994-02-28 1995-09-12 Hitachi Ltd 音声符号化方法およびこの方法を用いた音声符号化装置
JPH08211895A (ja) * 1994-11-21 1996-08-20 Rockwell Internatl Corp ピッチラグを評価するためのシステムおよび方法、ならびに音声符号化装置および方法
JPH08320700A (ja) * 1995-05-26 1996-12-03 Nec Corp 音声符号化装置
JPH09134798A (ja) * 1995-11-08 1997-05-20 Jeol Ltd 高周波装置
JPH09185396A (ja) * 1995-12-28 1997-07-15 Olympus Optical Co Ltd 音声符号化装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1207519A4 *

Also Published As

Publication number Publication date
JP2001013998A (ja) 2001-01-19
KR100439652B1 (ko) 2004-07-12
CN1359513A (zh) 2002-07-17
EP1207519B1 (en) 2013-02-27
CN1220177C (zh) 2005-09-21
US20070100614A1 (en) 2007-05-03
CA2377597C (en) 2011-06-28
EP2276021B1 (en) 2012-10-24
EP1207519A4 (en) 2005-08-24
JP4464488B2 (ja) 2010-05-19
EP2276021A3 (en) 2011-01-26
US7171354B1 (en) 2007-01-30
CA2377597A1 (en) 2001-01-11
EP2276021A2 (en) 2011-01-19
AU5706400A (en) 2001-01-22
KR20020027378A (ko) 2002-04-13
EP1207519A1 (en) 2002-05-22
US7499853B2 (en) 2009-03-03

Similar Documents

Publication Publication Date Title
US7499853B2 (en) Speech decoder and code error compensation method
EP2070082B1 (en) Methods and apparatus for frame erasure recovery
US9318117B2 (en) Method and arrangement for controlling smoothing of stationary background noise
US7426465B2 (en) Speech signal decoding method and apparatus using decoded information smoothed to produce reconstructed speech signal to enhanced quality
US10607624B2 (en) Signal codec device and method in communication system
EP1096476B1 (en) Speech signal decoding
JP3568255B2 (ja) 音声符号化装置及びその方法
US8195469B1 (en) Device, method, and program for encoding/decoding of speech with function of encoding silent period
JP2001265390A (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法
JP3660676B2 (ja) 音声符号化装置及びその方法
JPH11272297A (ja) ピッチ強調方法及びその装置
JP3571709B2 (ja) 音声符号化装置及びその方法
JP3475958B2 (ja) 無音声符号化を含む音声符号化・復号装置、復号化方法及びプログラムを記録した記録媒体
JP3817562B2 (ja) 音声復号化装置及びその方法
JP3936369B2 (ja) 音声復号化装置及びその方法
JP2005316497A (ja) 音声復号化装置及びその方法
JP2004078235A (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置
JPH05173595A (ja) コード励振線形予測符号化方法
JP2004004946A (ja) 音声復号装置
JPH09297600A (ja) 音声復号装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00809773.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 10018317

Country of ref document: US

Ref document number: IN/PCT/2001/1336/KOL

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2377597

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2000942405

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020017016812

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020017016812

Country of ref document: KR

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWP Wipo information: published in national office

Ref document number: 2000942405

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1020017016812

Country of ref document: KR