WO2006009074A1 - 音声復号化装置および補償フレーム生成方法 - Google Patents

音声復号化装置および補償フレーム生成方法 Download PDF

Info

Publication number
WO2006009074A1
WO2006009074A1 PCT/JP2005/013051 JP2005013051W WO2006009074A1 WO 2006009074 A1 WO2006009074 A1 WO 2006009074A1 JP 2005013051 W JP2005013051 W JP 2005013051W WO 2006009074 A1 WO2006009074 A1 WO 2006009074A1
Authority
WO
WIPO (PCT)
Prior art keywords
gain
acb
frame
vector
signal
Prior art date
Application number
PCT/JP2005/013051
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Ehara
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/632,770 priority Critical patent/US8725501B2/en
Priority to JP2006529149A priority patent/JP4698593B2/ja
Priority to EP05765791.8A priority patent/EP1775717B1/en
Priority to CN2005800244876A priority patent/CN1989548B/zh
Publication of WO2006009074A1 publication Critical patent/WO2006009074A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation

Definitions

  • the present invention relates to a speech decoding apparatus and a compensation frame generation method.
  • the result of pitch analysis performed by a post filter is used to determine the voiced mode Z unvoiced mode based on the magnitude of the pitch prediction gain. For example, if the previous normal frame is the voiced mode, the adaptive code A sound source vector of the synthesis filter is generated using a book.
  • the ACB (adaptive codebook) vector is generated from the adaptive codebook based on the pitch lag generated for the frame erasure compensation process, and is multiplied by the pitch gain generated for the frame erasure compensation process to become a sound source vector. .
  • the pitch lag for frame erasure compensation processing an increment of the decoding pitch lag used immediately before is used.
  • the pitch loss for the frame erasure compensation processing the one obtained by multiplying the decoding pitch gain used immediately before by a constant multiplication is used.
  • the conventional speech decoding apparatus uses a frame based on the past pitch gain.
  • a pitch gain for erasure compensation processing is determined.
  • the pitch gain is not necessarily a parameter that reflects the energy change of the signal. For this reason, the generated pitch gain for frame loss compensation processing does not take into account the past signal energy changes.
  • the pitch gain for frame erasure compensation processing is attenuated regardless of the energy change of the past signal. In other words, the energy change of the past signal is not taken into account, and the pitch gain is attenuated at a constant rate, so that the compensated frame does not maintain the continuity of the energy of the past signal force. It is easy to produce a feeling. Therefore, the sound quality of the decoded signal is deteriorated.
  • an object of the present invention is to provide a speech decoding apparatus and compensation frame generation capable of improving the sound quality of a decoded signal in consideration of the energy change of the past signal in erasure compensation processing. Is to provide a method.
  • the speech decoding apparatus includes an adaptive codebook that generates a sound source signal, a calculation unit that calculates an energy change between subframes of the sound source signal, and the adaptive based on V based on the energy change.
  • a configuration includes a determination unit that determines a gain of a codebook, and a generation unit that generates a compensation frame for a lost frame using the gain of the adaptive codebook.
  • FIG. 1 is a block diagram showing the main configuration of a compensation frame generation unit according to Embodiment 1
  • FIG. 2 is a block diagram showing the main configuration inside the noisy addition section according to Embodiment 1.
  • FIG. 3 is a block diagram showing the main configuration of a speech decoding apparatus according to Embodiment 2.
  • FIG. 6 is a block diagram showing the main configuration of a compensation frame generation unit according to Embodiment 3.
  • FIG. 7 is a block diagram showing the main configuration inside the noisy addition section according to Embodiment 3.
  • FIG. 8 is a block diagram showing the main configuration inside the ACB component generation section according to Embodiment 3.
  • FIG. 9 is a block diagram showing the main configuration inside the FCB component generation section according to Embodiment 3.
  • FIG. 11 is a block diagram showing a main configuration of a lost frame concealment processing section according to Embodiment 3. [FIG. 11] A block diagram showing a main configuration inside a mode determination section according to Embodiment 3.
  • FIG. 12 is a block diagram showing main configurations of a wireless transmission device and a wireless reception device according to Embodiment 4.
  • the speech coding apparatus is buffered in an adaptive codebook, and checks the energy change of a sound source signal generated in the past, so that the continuity of energy is maintained.
  • Pitch gain that is, adaptive codebook gain (ACB gain).
  • ACB gain adaptive codebook gain
  • FIG. 1 shows a compensation frame generation unit in the speech decoding apparatus according to Embodiment 1 of the present invention.
  • the compensation frame generation unit 100 includes an adaptive codebook 106, a vector generation unit 115, a noise addition unit 116, a multiplier 132, an ACB gain generation unit 135, and an energy change calculation unit 143.
  • Energy change calculation section 143 calculates the average energy of the sound source signal for one pitch period from the end of the ACB (adaptive codebook) vector output from adaptive codebook 106.
  • the internal energy of the energy change calculation unit 143 holds the average energy of the sound source signal for one pitch period calculated in the same manner in the immediately preceding subframe. Therefore, the energy change calculation unit 143 calculates the ratio of the average energy of the sound source signals for one pitch period between the current subframe and the immediately preceding subframe. This average energy may be the square root or logarithm of the energy of the sound source signal.
  • the energy change calculation unit 143 further calculates the calculated ratio. Smoothing processing is performed between subframes, and the smoothed ratio is output to ACB gain generation section 135.
  • Energy change calculation section 143 updates the energy of the sound source signal for one pitch period calculated in the immediately preceding subframe with the energy of the sound source signal for one pitch period calculated in the current subframe. For example, Ec is calculated according to (Equation 1) below.
  • Lacb Adaptive codebook buffer length
  • energy continuity is maintained by calculating the energy change and determining the ACB gain. Then, if a sound source is generated from only the adaptive codebook using the determined ACB gain, a sound source vector maintaining energy continuity can be generated.
  • ACB gain generation section 135 is defined by the concealment processing ACB gain defined using the ACB gain decoded in the past or the energy change rate information output from energy change calculation section 143. One of the concealment processing ACB gains is selected, and the final concealment processing ACB gain is output to the multiplier 132.
  • the energy change rate information includes the average amplitude A (— 1) obtained from the last 1-pitch period force of the immediately preceding subframe and the average amplitude A (2) obtained from the last 1-pitch period 2 subframes before. ), That is, A (— 1) ZA (— 2), which is smoothed between subframes, and represents the change in the path of the past decoded signal.
  • a (— 1) ZA (— 2) which is smoothed between subframes, and represents the change in the path of the past decoded signal.
  • This basically the ACB gain.
  • the ACB gain for use may be selected as the final ACB gain for concealment processing. If the ratio of A (— 1) ZA (— 2) above exceeds the upper limit, clipping is performed at the upper limit. For example, 0.98 is used as the upper limit value.
  • Vector generation section 115 generates a corresponding ACB vector from adaptive codebook 106.
  • the compensation frame generation unit 100 described above determines the ACB gain only by the energy change of the past signal related to the strength of voicedness. Therefore, although the sense of sound interruption is eliminated, the ACB gain may be high although the voicedness is weak, and in this case, a strong buzzer sound is generated.
  • a noisy addition unit 116 for adding noisy to a vector generated from adaptive codebook 106 is added to adaptive codebook 106.
  • a noisy addition unit 116 for adding noisy to a vector generated from adaptive codebook 106 is added to adaptive codebook 106.
  • Noise generation of the excitation vector in the noisy addition unit 116 is performed by noise generation of a specific frequency band component of the excitation vector generated from the adaptive codebook 106. More specifically, a high-frequency component is removed by applying a low-pass filter to the excitation vector generated from the adaptive codebook 106, and a noise signal having the same energy as the signal energy of the removed high-frequency component is added. This noise signal is generated by applying a high-pass filter to the excitation vector generated from the fixed codebook and removing the low-frequency component. For the low-pass filter and high-pass filter, a completely reconstructed filter bank force whose stopband and passband are opposite to each other, or the equivalent is used.
  • FIG. 2 is a block diagram showing a main configuration inside noisy adding section 116.
  • This noise addition unit 116 includes multipliers 110 and 111, an ACB component generation unit 134, an FCB gain generation unit 139, an FCB component generation unit 141, a fixed codebook 145, a vector generation unit 146, and a calorie. Arithmetic 147 is provided.
  • ACB component generation section 134 passes the ACB vector output from vector generation section 115 through a low-pass filter, and generates a component in a band to which no noise is added from the ACB vector output from vector generation section 115. This component is output as an ACB component.
  • ACB vector A after passing through the low-pass filter is output to multiplier 110 and FCB gain generation section 139.
  • FCB component generation section 141 passes the FCB (fixed codebook) vector output from vector generation section 146 through a high-pass filter, and in the band to which noise is added in the FCB output from vector generation section 146. Generate component and output this component as FCB component.
  • the FCB vector F after passing through the high-pass filter is output to the multiplier 111 and the FCB gain generator 139.
  • the low-pass filter and the high-pass filter described above are linear phase FIR filters.
  • FCB gain generation section 139 provides ACB gain for concealment processing output from ACB gain generation section 135, ACB vector A for concealment processing output from ACB component generation section 134, and ACB component generation section 134
  • the concealment processing FCB gain is calculated from the input ACB vector before processing in the ACB component generation unit 134 and the FCB vector F output from the FCB component generation unit 141 as follows.
  • FCB gain generation section 139 calculates energy Ed (sum of squares of elements of vector D) of difference vector D between ACB vectors before and after processing in ACB component generation section 134.
  • the FCB gain generation unit 139 calculates the energy Ef of the FCB vector F (the sum of squares of each element of the vector F).
  • the FCB gain generation unit 139 cross-correlates Raf (the inner product of the vectors A and F) between the ACB vector A input from the ACB component generation unit 134 and the FCB vector F input from the FCB component generation unit 141. ) Is calculated.
  • FCB gain generation unit 139 calculates a cross-correlation R ad (inner product of the vectors A and D) between the ACB vector A input from the ACB component generation unit 134 and the difference vector D described above.
  • FCB gain generation section 139 calculates the gain by the following (Equation 2).
  • FCB gain generation unit 139 multiplies the gain obtained in (Equation 2) above by the concealment processing ACB gain generated by the ACB gain generation unit 135 to obtain a concealment processing FCB gain.
  • the two vectors are a vector obtained by multiplying the original ACB vector input to the ACB component generator 134 by the ACB gain for concealment processing, and the other is the concealment of the ACB vector A.
  • This is the sum vector of the vector multiplied by the processing ACB gain and the vector obtained by multiplying the FCB vector F by the concealment processing FCB gain (unknown and subject to calculation here).
  • Adder 147 multiplies ACB vector A (ACB component of the sound source vector) generated by octave component generation unit 1 34 by the eight gains determined by ACB gain generation unit 135 and FCB.
  • the ACB vector input to ACB component generator 134 (before the low-pass filter processing) is multiplied by the ACB gain for concealment processing, and fed back to adaptive codebook 106 to provide adaptive codebook 106 as ACB vector.
  • the vector obtained by the adder 147 is used as the driving sound source of the synthesis filter.
  • processing for enhancing the phase periodicity and pitch periodicity may be added to the driving sound source of the synthesis filter.
  • the AC B gain is determined based on the energy change rate of the past decoded speech signal, and equal to the energy of the ACB vector generated by the gain! / Therefore, the energy change of the decoded speech becomes smooth before and after the lost frame, so that a feeling of sound interruption can be generated.
  • adaptive codebook 106 is updated only with the adaptive code vector, and therefore, for example, the subsequent frame generated when adaptive codebook 106 is updated with a random noise source vector. Noise can be reduced.
  • the concealment process in the voiced stationary part of the audio signal is mainly high. Since noise is added only to the frequency range (eg, 3 kHz or higher), the noise can be made less likely to occur than the conventional method of adding noise to the entire frequency range.
  • the compensation frame generation unit has been described in detail as an example of the configuration of the compensation frame generation unit according to the present invention.
  • Embodiment 2 of the present invention shows an example of the configuration of a speech code encoder when the compensation frame generator according to the present invention is mounted on a speech encoder. Note that the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • FIG. 3 is a block diagram showing the main configuration of the speech decoding apparatus according to Embodiment 2 of the present invention.
  • the speech decoding apparatus performs a normal decoding process when the input frame is a normal frame, and when the input frame is not a normal frame (the frame is lost). Performs a concealment process on the lost frame.
  • the switching switches 121 to 127 switch according to BFI (Bad Frame Indicat or) indicating whether or not the input frame is a normal frame, and enable the above two processes.
  • the switch state shown in FIG. 3 shows the position of the switch in the normal decoding process.
  • the demultiplexing unit 101 demultiplexes the code bit stream into each parameter (LPC code, pitch code, pitch gain code, FCB code, and FCB gain code), and a corresponding decoding unit To supply.
  • the LPC decoding unit 102 decodes the LPC coding power LPC parameters supplied from the demultiplexing unit 101.
  • the pitch period decoding unit 103 also decodes the pitch period with the pitch coding power supplied from the demultiplexing unit 101.
  • the ACB gain decoding unit 104 decodes the ACB gain from the ACB code supplied from the demultiplexing unit 101.
  • the FCB gain decoding unit 105 decodes the FCB gain from the FCB gain code supplied from the demultiplexing unit 101.
  • Adaptive codebook 106 generates an A CB vector using the pitch period output from pitch period decoding section 103 and outputs the A CB vector to multiplication section 110.
  • Multiplier 110 is an ACB gain decoder 10
  • the ACB gain output from 4 is multiplied by the ACB vector output from adaptive codebook 106, and the ACB vector after gain adjustment is supplied to excitation generator 108.
  • fixed codebook 107 also generates an FCB vector for the fixed codebook coding power output from demultiplexing section 101 and outputs the FCB vector to multiplication section 111.
  • Multiplication section 111 multiplies the FCB gain output from FCB gain decoding section 105 by the FCB vector output from fixed codebook 107, and supplies the gain-adjusted FCB vector to sound source generation section 108.
  • the excitation generator 108 adds the two vectors output from the multipliers 110 and 111 to generate an excitation vector, feeds it back to the adaptive codebook 106, and outputs it to the synthesis filter 109.
  • Sound source generator 108 obtains ACB vector after multiplication of ACB gain for concealment processing from multiplier 110, and FCB vector after multiplication of FCB gain for concealment processing from multiplier 111, and adds both of them. Is a sound source vector. If there is no error, excitation generator 108 feeds back the added vector to adaptive codebook 106 as an excitation signal and outputs it to synthesis filter 109.
  • the synthesis filter 109 is a linear prediction filter configured with a linear prediction coefficient (LPC) input via the switch 124.
  • the synthesis filter 109 receives the driving excitation vector output from the excitation generator 108 and performs filtering processing. And output a decoded audio signal.
  • LPC linear prediction coefficient
  • the output decoded speech signal becomes a final output of the speech decoding apparatus after post-processing such as a post filter. Further, it is also output to a zero crossing rate calculation unit (not shown) in the lost frame concealment processing unit 112.
  • the decoding parameters (LPC parameters, pitch period, pitch period decoding unit 103, ACB gain decoding unit 104, FCB gain decoding unit 105) ACB gain and FCB gain) are supplied to the lost frame concealment processing unit 112.
  • the lost frame concealment processing unit 112 stores these four types of decoding parameters, the decoded speech of the previous frame (the output of the synthesis filter 109), and the past generated excitation signal held in the adaptive codebook 106.
  • the ACB vector generated for the current frame (lost frame) and the FCB vector generated for the current frame (lost frame) are input. .
  • the erasure frame concealment processing unit 112 performs erasure frame concealment processing described later using these parameters, and obtains the obtained LPC parameters, pitch period, ACB gain, fixed codebook code, FCB gain, ACB vector, and FCB vector. Output.
  • An ACB vector for concealment processing, an ACB gain for concealment processing, an FCB vector for concealment processing, and an FCB gain for concealment processing are generated, and the ACB vector for concealment processing is supplied to multiplier 110 and ACB gain for concealment processing Are output to the multiplier 110, the concealment processing FCB vector is output to the multiplier 111 via the switching switch 125, and the concealment processing FCB gain is output to the multiplier 111 via the switching switch 126.
  • sound source generation section 108 feeds back to ACB component generation section 134 an ACB vector (before LPF processing) multiplied by concealment processing ACB gain to adaptive codebook 106 (The adaptive codebook 106 is updated only with the ACB vector), and the vector obtained by the above addition process is used as the driving sound source of the synthesis filter.
  • the driving sound source of the synthesis filter may be added with a phase spreading process or a process for enhancing the pitch periodicity.
  • lost frame concealment processing section 112 and sound source generation section 108 correspond to the compensation frame generation section in the first embodiment.
  • the fixed codebook used in the noise addition process (fixed codebook 145 in the first embodiment) is substituted by fixed codebook 107 of the speech decoding apparatus.
  • the compensation frame generation unit according to the present invention can be mounted in a speech decoding apparatus.
  • a process corresponding to an FCB code generation unit 140 described later is performed by randomly generating a bit string for one frame before starting a decoding process for one frame. It is not necessary to provide a means for generating only the FCB code individually.
  • the excitation signal output to synthesis filter 109 and the excitation signal fed back to adaptive codebook 106 are not necessarily the same.
  • phase spreading processing may be applied to the FCB vector, or processing for enhancing pitch periodicity may be added, as in the AMR method.
  • the method for generating the signal output to the adaptive codebook 106 matches the configuration on the encoder side. Make it. Thereby, subjective quality may be improved more.
  • the force that the FCB gain is input from FCB gain decoding section 105 to lost frame concealment processing section 112 is not necessarily required. This is necessary when the temporary concealment processing FCB gain is obtained because the provisional concealment processing FCB gain is required before the concealment processing FCB gain is calculated by the method described above. Alternatively, in the case of finite word length fixed-point arithmetic, it is also necessary to multiply the FCB vector F by the temporary concealment processing FCB gain in advance in order to narrow the dynamic range and prevent deterioration in arithmetic accuracy. It becomes.
  • the excitation vector generated from these codebooks It is desirable to generate a compensation frame by mixing.
  • such an intermediate signal may have low noise due to noise, may be low in voice due to a change in power, or may become transient
  • the structure is such that the sound source signal is generated by using a fixed codebook generated randomly. As a result, a sense of noise is generated in the decoded speech and the subjective quality deteriorates.
  • CELP speech decoding a sound source signal generated in the past is stored in an adaptive codebook, and a model representing the sound source signal for the current input signal is generated using this sound source signal. To do. That is, the excitation signal stored in the adaptive codebook is used recursively. Therefore, once the sound source signal becomes noisy, there is a problem that the influence is propagated in subsequent frames and becomes noisy.
  • the ACB is obtained in the previous frame which is a normal frame. This means that the gain and FCB gain cannot be used as they are! This is because the gain of the synthesis vector of the excitation vector generated from the adaptive codebook and the fixed codebook that is not band-limited is different from the gain of the sound source vector generated from the adaptive codebook and the fixed codebook that are band-limited. Therefore, in order to prevent the energy between frames from becoming discontinuous, the compensation frame generation unit shown in the first embodiment is required.
  • the noisy addition unit shown in the first embodiment can be diverted.
  • the signal band for performing the noise generation of the decoded excitation signal in accordance with the characteristics (audio mode) of the audio signal. For example, in a mode with low periodicity and high noise, the signal band to which noise is added is widened. In a mode with high periodicity and high voicedness, the signal band to which noise is added is narrowed, so that the decoded synthesized speech signal The subjective quality can be made more natural.
  • FIG. 6 is a block diagram showing the main configuration of compensation frame generation section 100a according to Embodiment 3 of the present invention.
  • the compensation frame generation unit 100a has the same basic configuration as the compensation frame generation unit 100 shown in the first embodiment, and the same components are denoted by the same reference numerals, and the description thereof is omitted. Is omitted.
  • the mode determination unit 138 includes a history of past decoding pitch periods, a zero-crossing rate of past decoded synthesized speech signals, a past smoothed decoding ACB gain, and an energy change rate of past decoded excitation signals.
  • the mode determination of the decoded speech signal is performed using the number of consecutive lost frames.
  • the noise addition unit 116a switches the signal band to which noise is added based on the mode determined by the mode determination unit 138.
  • FIG. 7 is a block diagram showing the main configuration inside noisy adding section 116a.
  • the noisy adding unit 116a has the same basic configuration as the noisy adding unit 116 shown in the first embodiment, and the same components are denoted by the same reference numerals and the description thereof is omitted. .
  • Filter cutoff frequency switching section 137 determines a filter cutoff frequency based on the mode determination result output from mode determination section 138, and sets filter coefficients corresponding to ACB component generation section 134 and FCB component generation section 141. Output.
  • FIG. 8 is a block diagram showing a main configuration inside ACB component generation section 134 described above.
  • ACB component generation section 134 passes the ACB vector output from vector generation section 115 through LPF (low-pass filter) 161 when BFI indicates an erasure frame, thereby preventing noise from being added.
  • LPF 161 is a linear phase FIR filter constituted by filter coefficients output from the filter cutoff frequency switching unit 137.
  • the filter cutoff frequency switching unit 137 stores filter coefficient sets corresponding to a plurality of types of cutoff frequencies.
  • the filter cutoff frequency switching unit 137 selects a filter coefficient corresponding to the mode determination result output from the mode determination unit 138 and outputs the filter coefficient to the LPF 161.
  • the correspondence relationship between the cutoff frequency of the filter and the sound mode is, for example, as follows. This is an example of a three-mode voice mode with telephone band voice.
  • Cutoff frequency 3kHz
  • Other modes: cutoff frequency lkHz
  • FIG. 9 is a block diagram showing a main configuration inside FCB component generation section 141 described above.
  • the FCB vector output from the vector generation unit 146 is input to the high-pass filter (HPF) 171 when the BFI indicates a lost frame.
  • HPF 171 is a linear phase FIR filter configured by filter coefficients output from the filter cutoff frequency switching unit 137.
  • the filter cut-off frequency switching unit 137 stores filter coefficient sets corresponding to a plurality of types of cut-off frequencies, selects the filter coefficient corresponding to the mode determination result output from the mode determination unit 138, and outputs it to the HPF 171. .
  • the correspondence relationship between the cutoff frequency of the filter and the audio mode is, for example, as follows. Again, this is an example of a three-band configuration with voice band and voice mode.
  • Cutoff frequency lkHz
  • the final FCB vector is effective when a signal having periodicity is generated, assuming that periodicity is emphasized by pitch periodicization processing as shown in (Equation 3) below. Is.
  • FIG. 10 is a block diagram showing the main configuration of lost frame concealment processing section 112 inside the speech decoding apparatus according to the present embodiment.
  • the block diagrams already described are denoted by the same reference numerals and the description thereof is basically omitted.
  • the LPC generation unit 136 generates a concealment processing LPC parameter based on decoded LPC information input in the past, and outputs this to the synthesis filter 109 via the switching switch 124.
  • the concealment processing LPC parameter generation method is, for example, in the AMR method, the concealment processing LSP parameter is the one that brings the previous LSP parameter close to the average LSP parameter, and the concealment processing LPC parameter is concealed.
  • the pitch cycle generation unit 131 generates a pitch cycle after the mode determination in the mode determination unit 138. Specifically, in the AMR method 12.2 kbps mode, the decoding pitch period (integer accuracy) of the previous normal subframe is output as the pitch period in the lost frame. To help. That is, the pitch period generation unit 131 includes a memory that holds the decoding pitch, updates the value for each subframe, and outputs the value of the notifier as the pitch period at the time of concealment processing when an error occurs. Adaptive codebook 106 generates a corresponding ACB vector from this pitch period output from pitch period generation section 131.
  • FCB code generation section 140 outputs the generated FCB code to fixed codebook 107 via switching switch 127.
  • Fixed codebook 107 outputs the FCB vector corresponding to the FCB code to the FCB component generator 141.
  • the zero crossing rate calculating unit 142 receives the combined signal output from the combining filter, calculates the zero crossing rate, and outputs the zero crossing rate to the mode determining unit 138.
  • the zero-crossing rate is calculated using the immediately preceding 1 pitch period in order to extract the characteristics of the signal in the immediately preceding 1 pitch period (to reflect the characteristics of the part closest to the time in time). good.
  • the concealment processing ACB vector is multiplied to the multiplier 110 via the switching switch 123, and the concealment processing ACB gain is multiplied via the switching switch 122.
  • the concealment processing FCB vector is output to the multiplier 110 via the switching switch 125 to the multiplier 111, and the concealment processing FCB gain is output to the multiplier 111 via the switching switch 126.
  • FIG. 11 is a block diagram showing the main configuration inside mode determining section 138.
  • the mode determination unit 138 performs mode determination using the result of the pitch history analysis, the smoothed pitch gain, the energy change information, the zero crossing rate information, and the number of consecutive lost frames. Since the mode determination of the present invention is for frame erasure concealment processing, if it is performed once in a frame (from the end of normal frame decoding processing until the concealment processing using mode information for the first time). In the present embodiment, it is performed at the beginning of the sound source decoding process of the first subframe.
  • Pitch history analysis section 182 holds decoded pitch period information for a plurality of past subframes in a buffer, and determines voiced steadiness based on whether the variation of the past pitch period is large or small. More specifically, the difference between the maximum pitch period and the minimum pitch period in the notch is a predetermined threshold (for example, 15% of the maximum pitch period or 10 samples (8 kHz sample If the sound falls within the range of 1), the voiced stationarity is judged to be high.
  • a predetermined threshold for example, 15% of the maximum pitch period or 10 samples (8 kHz sample If the sound falls within the range of 1
  • the pitch period can be updated once per frame (generally at the end of frame processing). This can be done once per frame (generally at the end of subframe processing).
  • the number of pitch periods to be held is about the last 4 subframes (20 ms).
  • Smoothing ACB gain calculation section 183 performs inter-subframe smoothing processing for suppressing the inter-subframe fluctuation of the decoded ACB gain to some extent. For example, the smoothing process to the extent expressed by the following equation is used.
  • Determination unit 184 further performs mode determination using energy change information and zero-crossing rate information in addition to the above parameters. Specifically, voicing steadiness is high in the pitch history analysis results, smoothing ACB gain threshold processing results in high voicing, energy change is less than threshold (for example, less than 2), and zero crossing When the rate is less than the threshold (for example, less than 0.7), it is determined as the voiced (steady voiced) mode. In other cases, it is determined as other (rise 'transient) mode.
  • the mode determination unit 138 determines the final mode determination result based on how many consecutive frames the current frame is an erased frame. Specifically, the above mode determination result is used as the final mode determination result until the second consecutive frame. If the mode determination result is voiced mode in the third consecutive frame, the mode is changed to the other mode and the final mode determination result is obtained. The noise mode is used for the fourth and subsequent frames. Based on this final mode determination, a buzzer is used when burst frames are lost (when 3 or more frames have been lost). The generation of sound can be prevented, and the decoded signal can be naturally noised with time, so that subjective discomfort can be reduced.
  • the number of consecutive lost frames is set to the counter value. This can be determined by referring to it.
  • the AMR system has a state machine, so you can refer to the state of the state machine! ,.
  • noise is prevented from occurring during the concealment process of the voiced part, and even when the gain of the immediately preceding subframe is a small value by chance, the concealment process is performed. It is possible to prevent sound interruption.
  • the mode determination unit 138 can perform mode determination without performing pitch analysis on the decoder side, and therefore, without performing pitch analysis at the decoder, An increase in the amount of calculation during application can be reduced.
  • FIG. 12 is a block diagram showing the main configuration of radio transmitting apparatus 300 and radio receiving apparatus 310 corresponding thereto when speech decoding apparatus according to the present invention is applied to a radio communication system.
  • the wireless transmission device 300 includes an input device 301, an AZD conversion device 302, a speech encoding device 303, a signal processing device 304, an RF modulation device 305, a transmission device 306, and an antenna 307.
  • the input terminal of the AZD conversion device 302 is connected to the output terminal of the input device 301.
  • the input terminal of speech encoding device 303 is connected to the output terminal of AZD conversion device 302.
  • the input terminal of the signal processing device 304 is connected to the output terminal of the speech encoding device 303.
  • the input terminal of the RF modulation device 305 is connected to the output terminal of the signal processing device 304.
  • the input terminal of the transmitter 306 is connected to the output terminal of the RF modulator 305.
  • the antenna 307 is connected to the output terminal of the transmission device 306.
  • the input device 301 receives an audio signal and converts it into an analog audio signal that is an electrical signal. In other words, it is given to the AZD converter 302.
  • the AZD conversion device 302 converts the analog audio signal from the input device 301 into a digital audio signal, and supplies this to the audio encoding device 303.
  • the speech encoding device 303 encodes the digital speech signal from the AZD conversion device 302 to generate a speech code bit sequence, and provides it to the signal processing device 304.
  • the signal processing device 304 performs channel code processing, packet processing, transmission buffer processing, and the like on the speech code bit sequence from the speech encoding device 303, and then RF-modulates the speech code sequence bit sequence. To device 305.
  • the RF modulation device 305 modulates the signal of the speech code key bit string that has been subjected to the channel code processing from the signal processing device 304 and provides the modulated signal to the transmission device 306.
  • the transmitter 306 transmits the modulated voice code signal from the RF modulator 305 as a radio wave (RF signal) via the antenna 307.
  • the digital audio signal obtained via AZD conversion device 302 is processed in units of several tens of milliseconds. If the network that constitutes the system is a packet network, one frame or several frames of code data is put into one packet and the packet is sent to the packet network. If the network is a circuit switching network, packet processing and transmission buffer processing are not required.
  • the wireless reception device 310 includes an antenna 311, a reception device 312, an RF demodulation device 313, a signal processing device 314, a speech decoding device 315, a DZA conversion device 316, and an output device 317. Note that the speech decoding apparatus according to the present embodiment is used for speech decoding apparatus 315.
  • the input terminal of receiving apparatus 312 is connected to antenna 311.
  • the input terminal of the RF demodulator 313 is connected to the output terminal of the receiver 312.
  • the input terminal of the signal processing device 314 is connected to the output terminal of the RF demodulation device 313.
  • the input terminal of the speech decoding device 315 is connected to the output terminal of the signal processing device 314.
  • the input terminal of DZA transformer device 3 16 is connected to the output terminal of speech decoding apparatus 315.
  • the input terminal of the output device 317 is connected to the output terminal of the DZA converter 316.
  • Receiving device 312 receives a radio wave (RF signal) including voice code key information via antenna 311 and generates a received voice code key signal that is an analog electrical signal. Give to recovery device 313. Radio waves (RF signals) received via the antenna 311 are transmitted through the transmission path. If there is no signal attenuation or noise superposition, the radio wave (RF signal) transmitted from the audio signal transmitting apparatus 300 is exactly the same.
  • the RF demodulator 313 demodulates the received speech encoded signal from the receiver 312 and provides it to the signal processor 314.
  • the signal processing device 314 performs jitter absorption buffering processing of the received speech code signal from the RF demodulation device 313, packet assembly processing, channel decoding processing, etc., and performs speech decoding on the received speech encoded bit string.
  • the speech decoding apparatus 315 performs a decoding process on the received speech code bit sequence from the signal processing apparatus 314 to generate a decoded speech signal and supplies it to the DZA converter 316.
  • the DZA conversion device 316 converts the digital decoded audio signal from the audio decoding device 315 into an analog decoded audio signal and gives it to the output device 317.
  • the output device 317 converts the analog decoded audio signal from the DZA converter 316 into air vibrations and outputs it as sound waves so that it can be heard by human ears.
  • the speech decoding apparatus can be applied to a radio communication system. Needless to say, the speech decoding apparatus according to the present embodiment can be applied not only to a wireless communication system but also to a wired communication system, for example.
  • the speech decoding apparatus and the compensation frame generation method according to the present invention are not limited to the above Embodiments 1 to 4, and can be implemented with various modifications.
  • the speech decoding apparatus, radio transmission apparatus, radio reception apparatus, and compensation frame generation method according to the present invention can be installed in a communication terminal apparatus and a base station apparatus in a mobile communication system.
  • a communication terminal device, a base station device, and a mobile communication system having the same effects as described above.
  • the speech decoding apparatus can also be used in a wired communication system, thereby providing a wired communication system having the same effects as described above.
  • the present invention can also be realized by software.
  • the algorithm of the compensation frame generation method according to the present invention is described in a programming language, the program is stored in a memory, and is executed by the information processing means, so that the audio recovery according to the present invention is performed.
  • a function similar to that of the signal generator can be realized.
  • Each functional block used in the description of each of the above embodiments is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include some or all of them.
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general-purpose processors is also possible. It is also possible to use a field programmable gate array (FPGA) that can be programmed after LSI manufacturing, or a reconfigurable processor that can reconfigure the connection or setting of circuit cells inside the LSI.
  • FPGA field programmable gate array
  • the speech decoding apparatus and compensation frame generation method according to the present invention can be applied to applications such as a mobile communication system.

Abstract

 消失補償処理において、過去の信号のエネルギ変化を考慮して復号信号の音質を向上させることができる音声復号化装置を開示する。この装置において、エネルギ変化算出部(143)は、適応符号帳(106)より出力されるACBベクトルの末尾から1ピッチ周期分の音源信号の平均エネルギを算出する。また、エネルギ変化算出部(143)は、現サブフレームと直前サブフレームの平均エネルギの比を計算し、ACB利得生成部(135)へ出力する。ACB利得生成部(135)は、過去に復号されたACB利得、またはエネルギ変化算出部(143)から出力されるエネルギ変化率情報、のいずれかによって定義される隠蔽処理用ACB利得を乗算器(132)へ出力する。

Description

音声復号化装置および補償フレーム生成方法
技術分野
[0001] 本発明は、音声復号化装置および補償フレーム生成方法に関する。
背景技術
[0002] インターネット等において行われるパケット通信では、伝送路においてパケットを消 失する等して復号ィ匕装置で符号ィ匕情報を受信できな力つた場合、このパケットの消 失補償 (隠蔽)処理を行うのが一般的である。
[0003] 例えば、音声符号化の分野では、 ITU— T勧告 G. 729において、(1)合成フィル タ係数を繰り返し使用し、 (2)ピッチ利得および固定符号帳利得 (FCB利得)を徐々 に減衰させ、(3) FCB利得予測器の内部状態を徐々に減衰させ、(4)直前の正常フ レームにおける有声モード Z無声モードの判定結果に基づき、適応符号帳もしくは 固定符号帳のいずれか一方を用いて音源信号を生成するフレーム消失隠蔽処理が 規定されている (例えば、特許文献 1参照)。
[0004] この方式では、ポストフィルタで行われるピッチ分析結果を用いて、ピッチ予測利得 の大小で有声モード Z無声モードを判定し、例えば、直前の正常フレームが有声モ ードの場合、適応符号帳を用いて合成フィルタの音源ベクトルを生成する。 ACB (適 応符号帳)ベクトルは、フレーム消失補償処理用に生成されたピッチラグに基づ 、て 適応符号帳から生成され、フレーム消失補償処理用に生成されるピッチゲインを乗じ て音源ベクトルとなる。フレーム消失補償処理用のピッチラグには、直前に用いた復 号ピッチラグをインクリメントしたものが使用される。フレーム消失補償処理用ピッチゲ インには、直前に用いた復号ピッチゲインを定数倍して減衰させたものが使用される 特許文献 1:特開平 9 - 120298号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、従来の音声復号化装置は、過去のピッチゲインに基づ 、てフレーム 消失補償処理用のピッチゲインを決定している。ところが、ピッチゲインは必ずしも信 号のエネルギ変化を反映したパラメータではない。そのため、生成されたフレーム消 失補償処理用のピッチゲインは過去の信号のエネルギ変化を考慮したものにならな い。さらに、一定の比率でピッチゲインを減衰させているため、過去の信号のェネル ギ変化と関係なくフレーム消失補償処理用のピッチゲインが減衰する。すなわち、過 去の信号のエネルギ変化が考慮されず、かつ、一定の割合でピッチゲインが減衰さ れるため、補償したフレームは過去の信号力ゝらのエネルギの連続性が保たれ難ぐ音 切れ感を生じ易い。よって、復号信号の音質が劣化する。
[0006] よって、本発明の目的は、消失補償処理にお!、て、過去の信号のエネルギ変化を 考慮して復号信号の音質を向上させることができる音声復号化装置および補償フレ ーム生成方法を提供することである。
課題を解決するための手段
[0007] 本発明の音声復号化装置は、音源信号を生成する適応符号帳と、前記音源信号 のサブフレーム間のエネルギ変化を算出する算出手段と、前記エネルギ変化に基づ V、て前記適応符号帳の利得を決定する決定手段と、前記適応符号帳の利得を用い て消失フレームに対する補償フレームを生成する生成手段と、を具備する構成を採 る。
発明の効果
[0008] 本発明によれば、消失補償処理にお!、て、過去の信号のエネルギ変化を考慮する ことができ、復号信号の音質を向上させることができる。
図面の簡単な説明
[0009] [図 1]実施の形態 1に係る補償フレーム生成部の主要な構成を示すブロック図
[図 2]実施の形態 1に係る雑音性付加部内部の主要な構成を示すブロック図
[図 3]実施の形態 2に係る音声復号ィ匕装置の主要な構成を示すブロック図
[図 4]適応符号帳および固定符号帳の双方を用いて補償フレームを生成する例 [図 5]適応符号帳で生成される音源のうち、一部の周波数帯域のみを固定符号帳で 生成される雑音的な信号で置換する例
[図 6]実施の形態 3に係る補償フレーム生成部の主要な構成を示すブロック図 [図 7]実施の形態 3に係る雑音性付加部内部の主要な構成を示すブロック図
[図 8]実施の形態 3に係る ACB成分生成部内部の主要な構成を示すブロック図 [図 9]実施の形態 3に係る FCB成分生成部内部の主要な構成を示すブロック図 [図 10]実施の形態 3に係る消失フレーム隠蔽処理部の主要な構成を示すブロック図 [図 11]実施の形態 3に係るモード判定部内部の主要な構成を示すブロック図
[図 12]実施の形態 4に係る無線送信装置および無線受信装置の主要な構成を示す ブロック図 発明を実施するための最良の形態
[0010] 以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
[0011] (実施の形態 1)
本発明の実施の形態 1に係る音声符号化装置は、適応符号帳にバッファリングされ て 、る過去に生成した音源信号のエネルギ変化を調べ、エネルギの連続性が保た れるように適応符号帳のピッチゲイン、すなわち、適応符号帳利得 (ACB利得)を生 成する。これにより、消失フレームの補償フレーム用に生成される音源ベクトルの過 去の信号力 のエネルギ連続性が改善されると共に、適応符号帳に保存される信号 のエネルギ連続性が保たれる。
[0012] 図 1は、本発明の実施の形態 1に係る音声復号ィ匕装置内部の補償フレーム生成部
100の主要な構成を示すブロック図である。
[0013] この補償フレーム生成部 100は、適応符号帳 106、ベクトル生成部 115、雑音性付 加部 116、乗算器 132、 ACB利得生成部 135、およびエネルギ変化算出部 143を 備える。
[0014] エネルギ変化算出部 143は、適応符号帳 106より出力される ACB (適応符号帳) ベクトルの末尾から 1ピッチ周期分の音源信号の平均エネルギを算出する。一方、ェ ネルギ変化算出部 143の内部メモリには、直前サブフレームにお 、て同様に算出さ れた 1ピッチ周期分の音源信号の平均エネルギが保持されている。そこで、エネルギ 変化算出部 143は、現サブフレームと直前サブフレームの 1ピッチ周期分の音源信 号の平均エネルギの比を計算する。なお、この平均エネルギは、音源信号のェネル ギの平方根でも対数でも良い。エネルギ変化算出部 143は、計算された比をさらに サブフレーム間において平滑ィ匕処理し、平滑ィ匕された比を ACB利得生成部 135へ 出力する。
[0015] エネルギ変化算出部 143は、直前サブフレームにおいて算出された 1ピッチ周期分 の音源信号のエネルギを現サブフレームで算出された 1ピッチ周期分の音源信号の エネルギで更新する。例えば、以下の(式 1)に従って Ecを計算する。
Ec = ( (∑ (ACB[Lacb-i])2) /Pc) …(式 1)
(ここで、 ACB[0 :Lacb- l]:適応符号帳バッファ、
Lacb:適応符号帳バッファ長、
Pc:現サブフレームにおけるピッチ周期、
Ec:現サブフレームにおける過去 1ピッチ周期の音源信号の平均振幅
(エネルギの平方根)、
i= l, 2, · ··, Pc)
次に、エネルギ変化算出部 143は、直前サブフレームで計算した Ecを Epとして保 持しておき、エネルギ変化率 Reを Re = Ec/Epとして算出する。そして、エネルギ変 ィ匕算出咅 は、 Reを 0. 98でクリッピングして、 Sre = 0. 7 X Sre + 0. 3 XReのよう な式で平滑ィ匕し、平滑ィ匕エネルギ変化率 Sreを ACB利得生成部 135へ出力する。 エネルギ変化算出部 143は、最後に Ep=Ecとして、 Epを更新する。
[0016] このように、エネルギ変化を算出して ACB利得を決定することにより、エネルギ連続 性が保持される。そして、決定された ACB利得を用いて適応符号帳のみカゝら音源生 成を行えば、エネルギ連続性が保持された音源ベクトルを生成できる。
[0017] ACB利得生成部 135は、過去に復号された ACB利得を用いて定義される隠蔽処 理用 ACB利得、または、エネルギ変化算出部 143から出力されるエネルギ変化率情 報によって定義される隠蔽処理用 ACB利得、のいずれか一方を選択し、最終的な 隠蔽処理用 ACB利得を乗算器 132へ出力する。
[0018] ここで、エネルギ変化率情報とは、直前サブフレームの末尾 1ピッチ周期力 求め た平均振幅 A (— 1)と、 2サブフレーム前の末尾 1ピッチ周期から求めた平均振幅 A ( 2)との比、すなわち A (— 1) ZA (— 2)をサブフレーム間で平滑化したものであり、 過去の復号信号のパヮ変化を表すものであり、これを基本的に ACB利得とする。た だし、過去に復号された ACB利得を用いて定義された隠蔽処理用 ACB利得の方が 上記のエネルギ変化率情報より大き ヽ場合は、過去に復号された ACB利得を用い て定義された隠蔽処理用 ACB利得を最終的な隠蔽処理用 ACB利得として選択す るようにしても良い。また、上記の A (— 1) ZA (— 2)の比が上限値を超える場合は、 上限値でクリッピングする。上限値としては例えば 0. 98を用いる。
[0019] ベクトル生成部 115は、適応符号帳 106から、対応する ACBベクトルを生成する。
[0020] ところで、上記の補償フレーム生成部 100は、有声性の強弱に関係なぐ過去の信 号のエネルギ変化のみで ACB利得を決定している。よって、音切れ感は解消される ものの、有声性が弱いのに ACB利得が高くなることがあり、この場合強いブザー音を 生成してしまう。
[0021] そこで、本実施の形態では、自然な音質を目指すために、適応符号帳 106から生 成されたベクトルに雑音性を付加するための雑音性付加部 116を、適応符号帳 106 へのフィードバックループとは別系統として備える。
[0022] 雑音性付加部 116における音源ベクトルの雑音化は、適応符号帳 106から生成さ れた音源ベクトルの特定の周波数帯域成分を雑音化することによって行う。より具体 的には、適応符号帳 106から生成された音源ベクトルに低域通過フィルタをかけて高 域成分を取り除き、取り除かれた高域成分の信号エネルギと同じエネルギを有する 雑音信号を加算する。この雑音信号は固定符号帳から生成された音源ベクトルに高 域通過フィルタをかけて低域成分を取り除 ヽて生成される。低域通過フィルタと高域 通過フィルタは、その阻止域と通過域とが相互に反対になって ヽる完全再構成フィル タバンク力、それに準ずるものを用いる。
[0023] 上記の構成により、最後に正常受信した音源波形の特徴を適応符号帳 106に保存 したまま、任意に雑音性を付加し、生成される音源ベクトルの特徴を任意に加工でき る。また、音源べ外ルに対して雑音性を付加しても、雑音性が付加される前の音源 ベクトルのエネルギは保存されるので、エネルギ連続性を損なうことがな 、。
[0024] 図 2は、雑音性付加部 116内部の主要な構成を示すブロック図である。
[0025] この雑音性付加部 116は、乗算器 110、 111、 ACB成分生成部 134、 FCB利得生 成部 139、 FCB成分生成部 141、固定符号帳 145、ベクトル生成部 146、およびカロ 算器 147を備える。
[0026] ACB成分生成部 134は、ベクトル生成部 115から出力された ACBベクトルを低域 通過フィルタに通し、ベクトル生成部 115から出力された ACBベクトルのうち雑音を 付加しない帯域の成分を生成し、この成分を ACB成分として出力する。低域通過フ ィルタを通過した後の ACBベクトル Aは、乗算器 110および FCB利得生成部 139に 出力される。
[0027] FCB成分生成部 141は、ベクトル生成部 146から出力された FCB (固定符号帳) ベクトルを高域通過フィルタに通し、ベクトル生成部 146から出力された FCBのうち 雑音を付加する帯域の成分を生成し、この成分を FCB成分として出力する。高域通 過フィルタを通過した後の FCBベクトル Fは、乗算器 111および FCB利得生成部 13 9に出力される。
[0028] なお、上記の低域通過フィルタおよび高域通過フィルタは、直線位相 FIRフィルタ である。
[0029] FCB利得生成部 139は、 ACB利得生成部 135から出力される隠蔽処理用 ACB 利得と、 ACB成分生成部 134から出力される隠蔽処理用 ACBベクトル Aと、 ACB成 分生成部 134へ入力される ACB成分生成部 134での処理を行う前の ACBベクトル と、 FCB成分生成部 141から出力される FCBベクトル Fとから、以下のようにして隠蔽 処理用 FCB利得を算出する。
[0030] FCB利得生成部 139は、 ACB成分生成部 134における処理前と処理後の ACB ベクトルの差ベクトル Dのエネルギ Ed (ベクトル Dの各要素の二乗和)を算出する。次 に、 FCB利得生成部 139は、 FCBベクトル Fのエネルギ Ef (ベクトル Fの各要素の二 乗和)を算出する。次に、 FCB利得生成部 139は、 ACB成分生成部 134から入力さ れた ACBベクトル Aと、 FCB成分生成部 141から入力された FCBベクトル Fとの相互 相関 Raf (ベクトル Aと Fとの内積)を算出する。次に、 FCB利得生成部 139は、 ACB 成分生成部 134から入力された ACBベクトル Aと上記の差ベクトル Dとの相互相関 R ad (ベクトル Aと Dとの内積)を算出する。次に、 FCB利得生成部 139は、以下の(式 2)により、利得を算出する。
(-Raf+ " (Raf X Raf + Ef X Ed + 2 X Ef X Rad) ) /Ef …(式 2)
ただし、解が虚数や負の数になる場合は、 (EdZEf)を利得とする。最後に FCB 利得生成部 139は、上記の(式 2)で求めた利得に ACB利得生成部 135で生成され た隠蔽処理用 ACB利得を乗じて隠蔽処理用 FCB利得を得る。
[0031] 上記の記載は、以下の 2つのベクトルのエネルギが等しくなるように隠蔽処理用 FC B利得を算出する方法の一例である。ここで、 2つのベクトルとは、 1つは、 ACB成分 生成部 134へ入力された元々の ACBベクトルに隠蔽処理用 ACB利得を乗じたベタ トルであり、もう 1つは、 ACBベクトル Aに隠蔽処理用 ACB利得を乗じたベクトルと、 F CBベクトル Fに隠蔽処理用 FCB利得 (未知であり、ここで算出する対象である)を乗 じたベクトルとの和ベクトルである。
[0032] 加算器 147は、 ACB利得生成部 135で決定された八じ8利得を八じ 成分生成部1 34で生成された ACBベクトル A (音源ベクトルの ACB成分)に乗じたものと、 FCB利 得生成部 139で決定された FCB利得を FCB成分生成部 141で生成された FCBベ タトル F (音源ベクトルの FCB成分)に乗じたものと、の和ベクトルを最終的な音源べク トルとして合成フィルタへ出力する。また、 ACB成分生成部 134へ入力される (低域 通過フィルタ処理前の) ACBベクトルに隠蔽処理用 ACB利得を乗じたベクトル、を適 応符号帳 106にフィードバックして適応符号帳 106を ACBベクトルのみで更新し、加 算器 147によって得られたベクトルを合成フィルタの駆動音源とする。
[0033] なお、合成フィルタの駆動音源には、位相拡散処理やピッチ周期性強化を図る処 理を加えても良い。
[0034] このように、本実施の形態によれば、過去の復号音声信号のエネルギ変化率で AC B利得を決定し、その利得で生成される ACBベクトルのエネルギに等し!/、音源べタト ルを生成するようにして 、るため、消失フレームの前後にお 、て復号音声のエネルギ 変化が滑らかとなり、音切れ感を生じに《することができる。
[0035] また、以上の構成において、適応符号帳 106の更新を適応符号ベクトルでのみ行 うため、例えば、ランダムに雑音化された音源ベクトルで適応符号帳 106を更新する 場合に生じる後続フレームの雑音感を抑えることができる。
[0036] また、以上の構成にぉ 、て、音声信号の有声定常部での隠蔽処理は、主として高 域 (例えば、 3kHz以上)にのみ雑音を付加するので、従来の全域に雑音を付加する 方式に比べて雑音感を生じ難くすることができる。
[0037] (実施の形態 2)
実施の形態 1では、本発明に係る補償フレーム生成部の構成の一例として、補償フ レーム生成部を単独で採り上げて詳細に説明した。本発明の実施の形態 2では、本 発明に係る補償フレーム生成部を音声符号ィ匕装置に搭載する場合の音声符号ィ匕装 置の構成の一例を示す。なお、実施の形態 1と同一の構成要素には同一の符号を付 し、その説明を省略する。
[0038] 図 3は、本発明の実施の形態 2に係る音声復号化装置の主要な構成を示すブロッ ク図である。
[0039] 本実施の形態に係る音声復号化装置は、入力フレームが正常フレームであった場 合、通常の復号化処理を行い、入力フレームが正常フレームでなかった(フレームを 消失した)場合には、この消失フレームに対する隠蔽処理を行う。切替えスィッチ 121 〜127は、入力フレームが正常フレームであるか否かを示す BFI (Bad Frame Indicat or)に従って切り替わり、上記の 2つの処理を可能とする。
[0040] まず、通常の復号化処理における本実施の形態に係る音声復号化装置の動作に ついて説明する。図 3に示したスィッチの状態は、通常の復号ィ匕処理におけるスイツ チの位置を示したものである。
[0041] 多重化分離部 101は、符号ィ匕ビットストリームを各パラメータ (LPC符号、ピッチ符 号、ピッチ利得符号、 FCB符号、および FCB利得符号)に分離して、それぞれを対 応する復号部に供給する。 LPC復号部 102は、多重化分離部 101から供給された L PC符号力 LPCパラメータを復号する。ピッチ周期復号部 103は、多重化分離部 1 01から供給されたピッチ符号力もピッチ周期を復号する。 ACB利得復号部 104は、 多重化分離部 101から供給された ACB符号から ACB利得を復号する。 FCB利得復 号部 105は、多重化分離部 101から供給された FCB利得符号から FCB利得を復号 する。
[0042] 適応符号帳 106は、ピッチ周期復号部 103から出力されたピッチ周期を用いて、 A CBベクトルを生成し、乗算部 110に出力する。乗算部 110は、 ACB利得復号部 10 4から出力された ACB利得を、適応符号帳 106から出力された ACBベクトルに乗じ 、ゲイン調整後の ACBベクトルを音源生成部 108へ供給する。一方、固定符号帳 10 7は、多重化分離部 101から出力された固定符号帳符号力も FCBベクトルを生成し、 乗算部 111に出力する。乗算部 111は、 FCB利得復号部 105から出力された FCB 利得を、固定符号帳 107から出力された FCBベクトルに乗じ、ゲイン調整後の FCB ベクトルを音源生成部 108へ供給する。音源生成部 108は、乗算部 110、 111から 出力された 2つのベクトルを加算して音源ベクトルを生成し、これを適応符号帳 106 へフィードバックすると共に、合成フィルタ 109へ出力する。
[0043] 音源生成部 108は、乗算器 110から隠蔽処理用 ACB利得乗算後の ACBベクトル を、乗算器 111から隠蔽処理用 FCB利得乗算後の FCBベクトルを、それぞれ取得し 、両者を加算したものを音源ベクトルとする。誤りなしの場合は、音源生成部 108は、 この加算したベクトルを音源信号として適応符号帳 106にフィードバックすると共に、 合成フィルタ 109へ出力する。
[0044] 合成フィルタ 109は、スィッチ 124を介して入力される線形予測係数 (LPC)で構成 される線形予測フィルタであり、音源生成部 108から出力された駆動音源ベクトルを 入力してフィルタ処理を行って、復号音声信号を出力する。
[0045] 出力された復号音声信号は、ポストフィルタなどの後処理の後、音声復号化装置の 最終出力となる。また、消失フレーム隠蔽処理部 112内の零交差率算出部(図示せ ず)にも出力される。
[0046] 次に、隠蔽処理における本実施の形態に係る音声復号化装置の動作について説 明する。この処理は、主に消失フレーム隠蔽処理部 112が司る。
[0047] 通常の復号ィ匕処理においても、 LPC復号部 102、ピッチ周期復号部 103、 ACB利 得復号部 104、および FCB利得復号部 105で得られる各復号パラメータ (LPCパラ メータ、ピッチ周期、 ACB利得、および FCB利得)は、消失フレーム隠蔽処理部 112 に供給されている。消失フレーム隠蔽処理部 112には、これらの 4種類の復号パラメ ータと、前フレームの復号音声 (合成フィルタ 109の出力)と、適応符号帳 106に保持 されて 、る過去の生成音源信号と、現フレーム(消失フレーム)用に生成された ACB ベクトルと、現フレーム(消失フレーム)用に生成された FCBベクトルと、が入力される 。消失フレーム隠蔽処理部 112は、これらのパラメータを用いて後述の消失フレーム の隠蔽処理を行い、得られる LPCパラメータ、ピッチ周期、 ACB利得、固定符号帳 符号、 FCB利得、 ACBベクトル、および FCBベクトルを出力する。
[0048] 隠蔽処理用 ACBベクトル、隠蔽処理用 ACB利得、隠蔽処理用 FCBベクトル、およ び隠蔽処理用 FCB利得が生成され、隠蔽処理用 ACBベクトルは乗算器 110へ、隠 蔽処理用 ACB利得は乗算器 110へ、隠蔽処理用 FCBベクトルは切替えスィッチ 12 5を介して乗算器 111へ、隠蔽処理用 FCB利得は切替えスィッチ 126を介して乗算 器 111へ、それぞれ出力される。
[0049] 音源生成部 108は、隠蔽処理時に、 ACB成分生成部 134へ入力される(LPF処 理前の) ACBベクトルに隠蔽処理用 ACB利得を乗じたベクトルを適応符号帳 106に フィードバックし (適応符号帳 106は ACBベクトルのみで更新する)、上記の加算処 理によって得られたベクトルを合成フィルタの駆動音源とする。なお、誤りなしの場合 と同様、合成フィルタの駆動音源には位相拡散処理やピッチ周期性強化を図る処理 を加えても良い。
[0050] なお、上記の説明において、消失フレーム隠蔽処理部 112および音源生成部 108 が実施の形態 1における補償フレーム生成部に相当する。また、雑音性付加の処理 において使用される固定符号帳 (実施の形態 1では固定符号帳 145)は、音声復号 化装置の固定符号帳 107で代用されている。
[0051] このように、本実施の形態によれば、本発明に係る補償フレーム生成部を音声復号 化装置に搭載することができる。
[0052] なお、 AMR方式では、後述の FCB符号生成部 140に相当する処理は、 1フレーム の復号処理を開始する前に 1フレーム分のビット列をランダムに生成することによって 行われており、必ずしも FCB符号のみを個別に生成する手段を備える必要はない。
[0053] また、合成フィルタ 109に出力される音源信号と、適応符号帳 106へフィードバック される音源信号とは必ずしも同じものである必要はない。例えば、合成フィルタ 109 へ出力される音源信号の生成時には、 AMR方式のように、 FCBベクトルに対して位 相拡散処理を適用したり、ピッチ周期性強化を図る処理を加えたりしても良い。このと き、適応符号帳 106へ出力される信号の生成方法は、エンコーダ側の構成と一致さ せる。これにより、主観的品質をより改善できる場合がある。
[0054] また、本実施の形態では、消失フレーム隠蔽処理部 112に FCB利得復号部 105か ら FCB利得が入力されている力 これは必ずしも必要ない。上述した方法で隠蔽処 理用 FCB利得を算出する前に仮の隠蔽処理用 FCB利得が必要な場合のために、 仮の隠蔽処理用 FCB利得を求めるような場合に必要となる。あるいは、有限語長の 固定小数点演算の場合に、ダイナミックレンジを狭めて演算精度の劣化を防ぐため に、上記 FCBベクトル Fにこの仮の隠蔽処理用 FCB利得を予め乗算しておく場合に も必要となる。
[0055] (実施の形態 3)
有声と無声の間の中間的な性質を有する消失フレームに対しては、図 4に示すよう に、適応符号帳および固定符号帳の双方を用いて、これらの符号帳から生成される 音源ベクトルをミキシングして補償フレームを生成することが望ましい。しかし、例えば 、こういう中間的な信号は、雑音性を有するため有声性が低くなつている場合もあれ ば、パヮが変化しているため有声性が低くなつている場合、または過渡部 ·立ち上が り付近'語尾付近であるために有声性が低くなつている場合等、様々なケースがあり 、ランダムに生成した固定符号帳を固定的に使用して音源信号を生成するという構 成を採ると、復号音声に雑音感を生じて主観品質が劣化する。
[0056] 一方、 CELP方式の音声復号化は、過去に生成した音源信号を適応符号帳に記 憶しておいて、この音源信号を用いて現在の入力信号に対する音源信号を表すモ デルを生成する。すなわち、適応符号帳に記憶された音源信号を再帰的に用いるこ ととなる。よって、一旦音源信号が雑音的なものとなると、後続のフレームにおいても 影響が伝播して雑音的になるという問題がある。
[0057] そこで、本実施の形態では、図 5に示すように、適応符号帳で生成される音源のう ち、一部の周波数帯域のみを固定符号帳で生成される雑音的な信号で置換すること により、雑音が主観品質に与える影響を極力少なくする。より具体的には、適応符号 帳で生成される音源の高域のみを固定符号帳で生成される雑音的な信号で置換す る。高域成分が雑音的であることは実際の音声信号において観察されることであり、 全帯域を均一的に雑音化するよりも自然な主観品質を得やすいからである。 [0058] また、本実施の形態では、雑音性を付加するにあたり、モード判定部を新たに備え 、判定された音声モードに基づいて雑音性付加部において雑音を付加する信号帯 域を切り替え、付加する雑音性に強弱を付ける。
[0059] なお、帯域制限した適応符号帳および固定符号帳から生成される音源ベクトルを 用いて音源信号を合成すると 、うことは、正常フレームである前フレームにお ヽて求 まって 、る ACB利得および FCB利得をそのまま使用できな ヽと 、うことを意味して!/ヽ る。帯域制限しない適応符号帳および固定符号帳から生成される音源ベクトルの合 成ベクトルの利得は、帯域制限した適応符号帳および固定符号帳から生成される音 源ベクトルの利得とは異なるからである。そこで、フレーム間のエネルギが不連続とな ることを防止するためには、実施の形態 1で示した補償フレーム生成部が必要となる
[0060] また、固定符号帳によって生成される音源ベクトルをミキシングするに際し、実施の 形態 1で示した雑音性付加部を転用することができる。
[0061] これにより、音声信号の特徴 (音声モード)に応じて復号音源信号の雑音化を行う 信号帯域を切り替えることができる。例えば、周期性が低く雑音性が高いモードでは 雑音を付加する信号帯域を広くし、周期性が強く有声性が高いモードでは雑音を付 加する信号帯域を狭くすることで、復号合成音声信号の主観的な品質をより自然性 の高 、ものにすることができる。
[0062] 図 6は、本発明の実施の形態 3に係る補償フレーム生成部 100aの主要な構成を示 すブロック図である。なお、この補償フレーム生成部 100aは、実施の形態 1に示した 補償フレーム生成部 100と同様の基本的構成を有しており、同一の構成要素には同 一の符号を付し、その説明を省略する。
[0063] モード判定部 138は、過去の復号ピッチ周期の履歴と、過去の復号合成音声信号 の零交差率と、過去の平滑化復号 ACB利得と、過去の復号音源信号のエネルギ変 化率と、連続消失フレーム数と、を用いて復号音声信号のモード判定を行う。雑音性 付加部 116aは、モード判定部 138で判定されたモードに基づいて、雑音を付加する 信号帯域を切り替える。
[0064] 図 7は、雑音性付加部 116a内部の主要な構成を示すブロック図である。なお、この 雑音性付加部 116aは、実施の形態 1に示した雑音性付加部 116と同様の基本的構 成を有しており、同一の構成要素には同一の符号を付し、その説明を省略する。
[0065] フィルタ遮断周波数切替え部 137は、モード判定部 138から出力されるモード判定 結果に基づいてフィルタ遮断周波数を決定し、 ACB成分生成部 134および FCB成 分生成部 141に対応するフィルタ係数を出力する。
[0066] 図 8は、上記の ACB成分生成部 134内部の主要な構成を示すブロック図である。
[0067] ACB成分生成部 134は、ベクトル生成部 115から出力された ACBベクトルを、 BFI が消失フレームを示す場合に LPF (低域通過フィルタ) 161を通過させることで雑音 を付カ卩しない帯域の成分を ACB成分として生成する。この LPF161は、フィルタ遮断 周波数切替え部 137から出力されるフィルタ係数によって構成される直線位相 FIRフ ィルタである。フィルタ遮断周波数切替え部 137は、複数種類の遮断周波数に対応 したフィルタ係数セットを格納しており、モード判定部 138から出力されたモード判定 結果に対応するフィルタ係数を選んで LPF 161に出力する。
[0068] フィルタの遮断周波数と音声モードとの対応関係は、例えば以下のようなものであ る。これは、電話帯域音声で音声モードが 3モード構成の例である。
有声モード:遮断周波数 = 3kHz
雑音モード:遮断周波数 = OHz (全帯域遮断 = ACBベクトルはゼロベクトル) その他モード:遮断周波数 = lkHz
[0069] 図 9は、上記の FCB成分生成部 141内部の主要な構成を示すブロック図である。
[0070] ベクトル生成部 146から出力された FCBベクトルは、 BFIが消失フレームを示す場 合に高域通過フィルタ(HPF) 171に入力される。 HPF171は、フィルタ遮断周波数 切替え部 137から出力されるフィルタ係数によって構成される直線位相 FIRフィルタ である。フィルタ遮断周波数切替え部 137は、複数種類の遮断周波数に対応したフ ィルタ係数セットを格納しており、モード判定部 138から出力されたモード判定結果 に対応するフィルタ係数を選んで HPF 171に出力する。
[0071] フィルタの遮断周波数と音声モードとの対応関係は、例えば以下のようなものであ る。ここでも、電話帯域音声で音声モードが 3モード構成の例である。
有声モード:遮断周波数 = 3kHz 雑音モード:遮断周波数 = OHz (全帯域通過 =入力した FCBベクトルをそのまま 出力)
その他モード:遮断周波数 = lkHz
[0072] このとき、最終的な FCBベクトルは、以下の(式 3)で示されるようなピッチ周期化処 理によって周期性を強調したものとすると周期性を有する信号を生成する場合に効 果的である。
c(n) = c(n)+ j8 c(n-T) [n=T, T+ l, · ··, L— 1] …(式 3)
(ただし、 c(n)は FCBベクトル、 /3はピッチ周期ィ匕利得係数、 Tはピッチ周期、 Lは サブフレーム長)
[0073] 本実施の形態に係る補償フレーム生成部を実施の形態 2で示した音声復号化装置 に搭載すると次のようになる。図 10は、本実施の形態に係る音声復号化装置内部の 消失フレーム隠蔽処理部 112の主要な構成を示すブロック図である。なお、既に説 明したブロック図については、同じ符号を付し、その説明を基本的に省略する。
[0074] LPC生成部 136は、過去に入力された復号 LPC情報に基づいて隠蔽処理用 LPC パラメータを生成し、これを切替えスィッチ 124を介して合成フィルタ 109へ出力する 。例えば、隠蔽処理用 LPCパラメータの生成方法は、例えば、 AMR方式では直前 の LSPパラメータを平均的な LSPパラメータに近づけたものを隠蔽処理用 LSPパラ メータとし、これを LPCパラメータに変換したものを隠蔽処理用 LPCパラメータとする 。なお、フレーム消失が長時間(例えば、 20msフレームで 3フレーム以上)続く場合 は、 LPCパラメータに重みづけを行い、合成フィルタの帯域幅の拡張を行って白色 化を行っても良い。この重みづけは、 LPC合成フィルタの伝達関数を lZA(z)とす れば、 ΙΖΑ(ΖΖ Ύ )で表され、 0の値は 0. 99-0. 97程度の値か、その値を初期 値として徐々に下げていくものとする。なお、 lZA(z)は、以下の(式 4)に従う。
l/A(z) = l/ (l +∑a (i) z_i) …(式 4)
(ただし、 i= l, · ··, p (pは LPC分析次数))
[0075] ピッチ周期生成部 131は、モード判定部 138におけるモード判定の後、ピッチ周期 を生成する。具体的には、 AMR方式の 12. 2kbpsモードの場合、直前の正常サブ フレームの復号ピッチ周期 (整数精度)を消失フレームにおけるピッチ周期として出 力する。すなわち、ピッチ周期生成部 131は、復号ピッチを保持するメモリを備え、サ ブフレーム毎にその値を更新し、誤り時にそのノ ッファの値を隠蔽処理時のピッチ周 期として出力する。なお、適応符号帳 106は、ピッチ周期生成部 131から出力された このピッチ周期から、対応する ACBベクトルを生成する。
[0076] FCB符号生成部 140は、生成した FCB符号を切替えスィッチ 127を介して固定符 号帳 107に出力する。
[0077] 固定符号帳 107は、 FCB符号に対応する FCBベクトルを FCB成分生成部 141〖こ 出力する。
[0078] 零交差率算出部 142は、合成フィルタから出力された合成信号を入力し、零交差 率を計算してモード判定部 138に出力する。ここで、零交差率は、直前 1ピッチ周期 の信号の特徴を抽出するため(一番時間的に近 、部分での特徴を反映させるため) に、直前 1ピッチ周期を用いて算出するのが良い。
[0079] 上記のように生成された各パラメータ、具体的には、隠蔽処理用 ACBベクトルは切 替えスィッチ 123を介して乗算器 110へ、隠蔽処理用 ACB利得は切替えスィッチ 12 2を介して乗算器 110へ、隠蔽処理用 FCBベクトルは切替えスィッチ 125を介して乗 算器 111へ、隠蔽処理用 FCB利得は切替えスィッチ 126を介して乗算器 111へ、そ れぞれ出力される。
[0080] 図 11は、モード判定部 138内部の主要な構成を示すブロック図である。
[0081] モード判定部 138は、ピッチ履歴分析の結果と、平滑化ピッチ利得と、エネルギ変 化情報と、零交差率情報と、消失フレームの連続数と、を用いてモード判定を行う。 本発明のモード判定は、フレーム消失隠蔽処理用のものであるので、フレームで 1回 (正常フレームの復号処理が終わってから、最初にモード情報が使われる隠蔽処理 を行うまでの間)行えば良ぐ本実施の形態では第 1サブフレームの音源復号処理の 冒頭で行う。
[0082] ピッチ履歴分析部 182は、過去複数サブフレーム分の復号ピッチ周期情報をバッ ファに保持しており、過去のピッチ周期の変動が大きいか小さいかによつて有声定常 性を判定する。より具体的には、ノ ッファ内の最大ピッチ周期と最小ピッチ周期との 差が所定の閾値 (例えば、最大ピッチ周期の 15%または 10サンプル (8kHzサンプリ ング時)の 、ずれか小さ 、方)以内におさまって ヽれば有声定常性が高 、と判定する
。ピッチ周期のバッファ更新は、 1フレーム分のピッチ周期情報をバッファリングしてい るのであれば 1フレームに 1回(一般的にはフレーム処理の最後で)行えば良いし、そ うでない場合はサブフレームに 1回(一般的にはサブフレーム処理の最後で)行えば 良い。保持するピッチ周期の数は直前 4サブフレーム(20ms)程度とする。ピッチ変 化の大きさだけで判定する事により、倍ピッチ誤り(ピッチ周期を半分に誤る)ゃ半ピ ツチ誤り (ピッチ周期を 2倍に誤る)時は有声定常とは判定されず、倍ピッチや半ピッ チの情報を用いて隠蔽処理を行った場合に生じる「声が裏返る」ようなことがなくなる
[0083] 平滑化 ACB利得算出部 183は、復号 ACB利得のサブフレーム間変動をある程度 抑えるためのサブフレーム間平滑ィ匕処理を行う。例えば、次式で表される程度の平 滑化処理とする。
(平滑化 ACB利得) =0. 7 X (平滑化 ACB利得) +0. 3 X (復号 ACB利得) 算出された平滑化 ACB利得が閾値 (例えば 0. 7)を超える場合は有声性が高いと 判定する。
[0084] 判定部 184は、上記のパラメータに加え、さらに、エネルギ変化情報と零交差率情 報を用いてモード判定を行う。具体的には、ピッチ履歴分析結果で有声定常性が高 ぐかつ、平滑化 ACB利得の閾値処理の結果有声性が高ぐかつ、エネルギ変化が 閾値以下 (例えば 2未満)で、かつ、零交差率が閾値以下 (例えば 0. 7未満)の場合 に有声 (有声定常)モードと判定し、零交差率が閾値以上 (例えば 0. 7以上)の場合 は雑音 (雑音性信号)モードと判定し、それ以外の場合はその他 (立ち上がり '過渡) モードと判定する。
[0085] モード判定部 138は、モード判定を行った後、現フレームが連続何フレーム目の消 失フレームかにより最終モード判定結果を決定する。具体的には、連続 2フレーム目 までは上記モード判定結果を最終モード判定結果とし、連続 3フレーム目では上記 モード判定結果が有声モードであった場合はその他モードに変更して最終モード判 定結果とし、連続 4フレーム目以降は雑音モードとする。このような最終モード判定に より、バーストフレーム消失時(3フレーム以上フレーム消失が続いた場合)にブザー 音が発生することを防ぎ、あわせて時間と共に自然に復号信号が雑音化されるように して、主観的な違和感を和らげることができる。連続何フレーム目の消失フレームか は、現フレームが正常フレームだったらカウンタを 0クリアし、そうでない場合にカウン タを 1ずつ増やすような連続消失フレーム数カウンタを備えれば、そのカウンタの値を 参照することで判断できる。なお、 AMR方式の場合は、ステートマシンを備えている のでステートマシンのステートを参照すれば良!、。
[0086] このように、本実施の形態によれば、有声部の隠蔽処理時に雑音感の発生を防止 し、直前サブフレームの利得が偶然小さい値になっているような場合でも、隠蔽処理 時に音切れが生じることを防止することができる。
[0087] また、以上の構成にぉ 、て、モード判定部 138は、デコーダ側でピッチ分析を行わ ずにモード判定を行うことができるので、デコーダでのピッチ分析を行わな 、コーデッ クへの適用時に演算量の増加を少なくすることができる。
[0088] また、以上の構成において、消失フレームの連続数によって付加する雑音の帯域 を変化させるので、隠蔽処理によるブザー音の発生を抑える事ができる。
[0089] (実施の形態 4)
図 12は、本発明に係る音声復号ィ匕装置を無線通信システムに適用した場合の、無 線送信装置 300およびこれに対応する無線受信装置 310の主要な構成を示すプロ ック図である。
[0090] 無線送信装置 300は、入力装置 301、 AZD変換装置 302、音声符号化装置 303 、信号処理装置 304、 RF変調装置 305、送信装置 306、およびアンテナ 307を有し ている。
[0091] AZD変換装置 302の入力端子は、入力装置 301の出力端子に接続されている。
音声符号化装置 303の入力端子は、 AZD変換装置 302の出力端子に接続されて いる。信号処理装置 304の入力端子は、音声符号化装置 303の出力端子に接続さ れている。 RF変調装置 305の入力端子は、信号処理装置 304の出力端子に接続さ れている。送信装置 306の入力端子は、 RF変調装置 305の出力端子に接続されて いる。アンテナ 307は、送信装置 306の出力端子に接続されている。
[0092] 入力装置 301は、音声信号を受けてこれを電気信号であるアナログ音声信号に変 換し、 AZD変換装置 302に与える。 AZD変換装置 302は、入力装置 301からのァ ナログの音声信号をディジタル音声信号に変換し、これを音声符号化装置 303へ与 える。音声符号化装置 303は、 AZD変換装置 302からのディジタル音声信号を符 号ィ匕して音声符号ィ匕ビット列を生成し信号処理装置 304に与える。信号処理装置 30 4は、音声符号ィ匕装置 303からの音声符号ィ匕ビット列にチャネル符号ィ匕処理ゃパケ ットイ匕処理及び送信バッファ処理等を行った後、その音声符号ィ匕ビット列を RF変調 装置 305に与える。 RF変調装置 305は、信号処理装置 304からのチャネル符号ィ匕 処理等が行われた音声符号ィ匕ビット列の信号を変調して送信装置 306に与える。送 信装置 306は、 RF変調装置 305からの変調された音声符号ィ匕信号を、アンテナ 30 7を介して電波 (RF信号)として送出する。
[0093] 無線送信装置 300においては、 AZD変換装置 302を介して得られるディジタル音 声信号に対して数十 msのフレーム単位で処理が行われる。システムを構成するネッ トワークがパケット網である場合には、 1フレーム又は数フレームの符号ィ匕データを 1 つのパケットに入れこのパケットをパケット網に送出する。なお、前記ネットワークが回 線交換網の場合には、パケットィ匕処理や送信バッファ処理は不要である。
[0094] 無線受信装置 310は、アンテナ 311、受信装置 312、 RF復調装置 313、信号処理 装置 314、音声復号化装置 315、 DZA変換装置 316、および出力装置 317を有し ている。なお、音声復号化装置 315に、本実施の形態に係る音声復号化装置が使 用されている。
[0095] 受信装置 312の入力端子は、アンテナ 311に接続されている。 RF復調装置 313の 入力端子は、受信装置 312の出力端子に接続されている。信号処理装置 314の入 力端子は、 RF復調装置 313の出力端子に接続されている。音声復号化装置 315の 入力端子は、信号処理装置 314の出力端子に接続されている。 DZA変器案装置 3 16の入力端子は、音声復号ィ匕装置 315の出力端子に接続されている。出力装置 31 7の入力端子は、 DZA変換装置 316の出力端子に接続されている。
[0096] 受信装置 312は、アンテナ 311を介して音声符号ィ匕情報を含んでいる電波 (RF信 号)を受けてアナログの電気信号である受信音声符号ィ匕信号を生成し、これを RF復 調装置 313に与える。アンテナ 311を介して受けた電波 (RF信号)は、伝送路におい て信号の減衰や雑音の重畳がなければ、音声信号送信装置 300において送出され た電波 (RF信号)と全く同じものになる。 RF復調装置 313は、受信装置 312からの受 信音声符号化信号を復調し信号処理装置 314に与える。信号処理装置 314は、 RF 復調装置 313からの受信音声符号ィ匕信号のジッタ吸収バッファリング処理、パケット 組みたて処理およびチャネル復号化処理等を行!ヽ、受信音声符号化ビット列を音声 復号ィ匕装置 315に与える。音声復号化装置 315は、信号処理装置 314からの受信 音声符号ィ匕ビット列の復号ィ匕処理を行って復号音声信号を生成し DZA変換装置 3 16へ与える。 DZA変換装置 316は、音声復号化装置 315からのディジタル復号音 声信号をアナログ復号音声信号に変換して出力装置 317に与える。出力装置 317 は、 DZA変換装置 316からのアナログ復号音声信号を空気の振動に変換し音波と して人間の耳に聞こえる様に出力する。
[0097] このように、本実施の形態に係る音声復号化装置は、無線通信システムに適用する ことができる。なお、本実施の形態に係る音声復号化装置は、無線通信システムに限 らず、例えば、有線通信システムにも適用できることは言うまでもない。
[0098] 以上、本発明の各実施の形態について説明した。
[0099] 本発明に係る音声復号化装置および補償フレーム生成方法は、上記の実施の形 態 1〜4に限定されず、種々変更して実施することが可能である。
[0100] また、本発明に係る、音声復号化装置、無線送信装置、無線受信装置、および補 償フレーム生成方法は、移動体通信システムにおける通信端末装置および基地局 装置に搭載することが可能であり、これにより上記と同様の作用効果を有する通信端 末装置、基地局装置、および移動体通信システムを提供することができる。
[0101] また、本発明に係る音声復号化装置は、有線通信システムにおいても利用可能で あり、これにより、上記と同様の作用効果を有する有線通信システムを提供することが できる。
[0102] なお、ここでは、本発明をノヽードウエアで構成する場合を例にとって説明したが、本 発明はソフトウェアで実現することも可能である。例えば、本発明に係る補償フレーム 生成方法のアルゴリズムをプログラミング言語によって記述し、このプログラムをメモリ に記憶しておいて情報処理手段によって実行させることにより、本発明に係る音声復 号ィ匕装置と同様の機能を実現することができる。
[0103] また、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路 である LSIとして実現される。これらは個別に 1チップ化されても良いし、一部または 全てを含むように 1チップィ匕されても良い。
[0104] また、ここでは LSIとした力 集積度の違いによって、 IC、システム LSI、スーパー L
SI、ウノレ卜ラ LSI等と呼称されることちある。
[0105] また、集積回路化の手法は LSIに限るものではなぐ専用回路または汎用プロセッ サで実現しても良い。 LSI製造後に、プログラム化することが可能な FPGA (Field Pro grammable Gate Array)や、 LSI内部の回路セルの接続もしくは設定を再構成可能な リコンフィギユラブル ·プロセッサを利用しても良 、。
[0106] さらに、半導体技術の進歩または派生する別技術により、 LSIに置き換わる集積回 路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積ィ匕を行って も良い。バイオ技術の適応等が可能性としてあり得る。
[0107] 本明細書は、 2004年 7月 20日出願の特願 2004— 212180に基づく。この内容は すべてここに含めておく。
産業上の利用可能性
[0108] 本発明に係る音声復号化装置および補償フレーム生成方法は、移動体通信シス テム等の用途に適用できる。

Claims

請求の範囲
[1] 音源信号を生成する適応符号帳と、
前記音源信号のサブフレーム間のエネルギ変化を算出する算出手段と、 前記エネルギ変化に基づいて前記適応符号帳の利得を決定する決定手段と、 前記適応符号帳の利得を用いて消失フレームに対する補償フレームを生成する生 成手段と、
を具備する音声復号化装置。
[2] 前記補償フレームの一部の周波数帯域を雑音化する雑音化手段、
をさらに具備する請求項 1記載の音声復号化装置。
[3] 前記雑音化手段は、
前記補償フレームの高周波数帯域を雑音化する、
請求項 2記載の音声復号化装置。
[4] 前記雑音化手段は、
前記消失フレームより過去のフレームの音声モードに従 、、雑音化する前記一部 の周波数帯域を決定する、
請求項 2記載の音声復号化装置。
[5] 前記雑音化手段は、
消失フレームの連続数に従い、雑音化する前記一部の周波数帯域を広げる、 請求項 2記載の音声復号化装置。
[6] 請求項 1記載の音声復号化装置を具備する通信端末装置。
[7] 請求項 1記載の音声復号化装置を具備する基地局装置。
[8] 適応符号帳で生成される音源信号のサブフレーム間のエネルギ変化を算出する算 出ステップと、
前記エネルギ変化に基づいて前記適応符号帳の利得を決定する決定ステップと、 前記適応符号帳の利得を用いて消失フレームに対する補償フレームを生成する生 成ステップと、
を具備する補償フレーム生成方法。
PCT/JP2005/013051 2004-07-20 2005-07-14 音声復号化装置および補償フレーム生成方法 WO2006009074A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US11/632,770 US8725501B2 (en) 2004-07-20 2005-07-14 Audio decoding device and compensation frame generation method
JP2006529149A JP4698593B2 (ja) 2004-07-20 2005-07-14 音声復号化装置および音声復号化方法
EP05765791.8A EP1775717B1 (en) 2004-07-20 2005-07-14 Speech decoding apparatus and compensation frame generation method
CN2005800244876A CN1989548B (zh) 2004-07-20 2005-07-14 语音解码装置及补偿帧生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-212180 2004-07-20
JP2004212180 2004-07-20

Publications (1)

Publication Number Publication Date
WO2006009074A1 true WO2006009074A1 (ja) 2006-01-26

Family

ID=35785187

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/013051 WO2006009074A1 (ja) 2004-07-20 2005-07-14 音声復号化装置および補償フレーム生成方法

Country Status (5)

Country Link
US (1) US8725501B2 (ja)
EP (1) EP1775717B1 (ja)
JP (1) JP4698593B2 (ja)
CN (1) CN1989548B (ja)
WO (1) WO2006009074A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203783A (ja) * 2007-02-22 2008-09-04 Fujitsu Ltd 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム
JP2009116332A (ja) * 2007-11-05 2009-05-28 Huawei Technologies Co Ltd 信号処理方法、処理装置および音声復号器
JP2009175693A (ja) * 2007-11-05 2009-08-06 Huawei Technologies Co Ltd 減衰率を取得する方法および装置
JP2009528563A (ja) * 2006-02-28 2009-08-06 フランス テレコム オーディオ・デコーダにおける適応励起利得を制限する方法
JP4846712B2 (ja) * 2005-03-14 2011-12-28 パナソニック株式会社 スケーラブル復号化装置およびスケーラブル復号化方法
WO2012070340A1 (ja) * 2010-11-26 2012-05-31 株式会社エヌ・ティ・ティ・ドコモ 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム
JP2016513290A (ja) * 2013-02-21 2016-05-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 補間係数セットを決定するためのシステムおよび方法
WO2017022151A1 (ja) * 2015-08-05 2017-02-09 パナソニックIpマネジメント株式会社 音声信号復号装置および音声信号復号方法
JP2019164366A (ja) * 2014-03-19 2019-09-26 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン パワー補償を使用してエラー隠し信号を生成する装置及び方法
US11423913B2 (en) 2014-03-19 2022-08-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating an error concealment signal using an adaptive noise estimation

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
CN1989548B (zh) * 2004-07-20 2010-12-08 松下电器产业株式会社 语音解码装置及补偿帧生成方法
US8326614B2 (en) * 2005-09-02 2012-12-04 Qnx Software Systems Limited Speech enhancement system
FR2907586A1 (fr) * 2006-10-20 2008-04-25 France Telecom Synthese de blocs perdus d'un signal audionumerique,avec correction de periode de pitch.
JP5166425B2 (ja) * 2006-10-24 2013-03-21 ヴォイスエイジ・コーポレーション 音声信号中の遷移フレームの符号化のための方法およびデバイス
US8121830B2 (en) * 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8508357B2 (en) * 2008-11-26 2013-08-13 The Nielsen Company (Us), Llc Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking
CN101604525B (zh) * 2008-12-31 2011-04-06 华为技术有限公司 基音增益获取方法、装置及编码器、解码器
US8666528B2 (en) 2009-05-01 2014-03-04 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
US8718804B2 (en) * 2009-05-05 2014-05-06 Huawei Technologies Co., Ltd. System and method for correcting for lost data in a digital audio signal
CN101741402B (zh) * 2009-12-24 2014-10-22 北京韦加航通科技有限责任公司 一种无线通信系统下适用于超大动态范围的无线接收机
RU2510974C2 (ru) 2010-01-08 2014-04-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования, способ декодирования, устройство кодера, устройство декодера, программа и носитель записи
ES2600313T3 (es) * 2010-10-07 2017-02-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y método para la estimación de nivel de tramas de audio codificadas en un dominio de flujo de bits
US8868432B2 (en) * 2010-10-15 2014-10-21 Motorola Mobility Llc Audio signal bandwidth extension in CELP-based speech coder
US8924200B2 (en) * 2010-10-15 2014-12-30 Motorola Mobility Llc Audio signal bandwidth extension in CELP-based speech coder
CN102480760B (zh) * 2010-11-23 2014-09-10 中兴通讯股份有限公司 系统间链路协议帧丢帧处理、补偿帧判别方法及装置
JP5664291B2 (ja) * 2011-02-01 2015-02-04 沖電気工業株式会社 音声品質観測装置、方法及びプログラム
JP5752324B2 (ja) * 2011-07-07 2015-07-22 ニュアンス コミュニケーションズ, インコーポレイテッド 雑音の入った音声信号中のインパルス性干渉の単一チャネル抑制
CN102915737B (zh) * 2011-07-31 2018-01-19 中兴通讯股份有限公司 一种浊音起始帧后丢帧的补偿方法和装置
JP5973582B2 (ja) 2011-10-21 2016-08-23 サムスン エレクトロニクス カンパニー リミテッド フレームエラー隠匿方法及びその装置、並びにオーディオ復号化方法及びその装置
KR102138320B1 (ko) * 2011-10-28 2020-08-11 한국전자통신연구원 통신 시스템에서 신호 코덱 장치 및 방법
US9972325B2 (en) * 2012-02-17 2018-05-15 Huawei Technologies Co., Ltd. System and method for mixed codebook excitation for speech coding
US9082398B2 (en) * 2012-02-28 2015-07-14 Huawei Technologies Co., Ltd. System and method for post excitation enhancement for low bit rate speech coding
KR102238376B1 (ko) * 2013-02-05 2021-04-08 텔레폰악티에볼라겟엘엠에릭슨(펍) 오디오 프레임 손실 은폐를 제어하기 위한 방법 및 장치
EP3011561B1 (en) 2013-06-21 2017-05-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for improved signal fade out in different domains during error concealment
PL3011555T3 (pl) * 2013-06-21 2018-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Rekonstrukcja ramki sygnału mowy
KR101757338B1 (ko) * 2013-06-21 2017-07-26 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. 오디오 신호의 대체 프레임에 대한 스펙트럼 계수들을 획득하기 위한 방법과 장치, 오디오 디코더, 오디오 수신기 및 오디오 신호들의 전송을 위한 시스템
SG11201510463WA (en) * 2013-06-21 2016-01-28 Fraunhofer Ges Forschung Apparatus and method for improved concealment of the adaptive codebook in acelp-like concealment employing improved pitch lag estimation
CN107818789B (zh) 2013-07-16 2020-11-17 华为技术有限公司 解码方法和解码装置
CN108364657B (zh) 2013-07-16 2020-10-30 超清编解码有限公司 处理丢失帧的方法和解码器
PT3288026T (pt) 2013-10-31 2020-07-20 Fraunhofer Ges Forschung Descodificador áudio e método para fornecer uma informação de áudio descodificada utilizando uma ocultação de erro baseada num sinal de excitação no domínio de tempo
KR101854296B1 (ko) 2013-10-31 2018-05-03 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 시간 도메인 여기 신호를 변형하는 오류 은닉을 사용하여 디코딩된 오디오 정보를 제공하기 위한 오디오 디코더 및 방법
EP2922055A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
CN107369454B (zh) 2014-03-21 2020-10-27 华为技术有限公司 语音频码流的解码方法及装置
CN105225666B (zh) 2014-06-25 2016-12-28 华为技术有限公司 处理丢失帧的方法和装置
EP2980798A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Harmonicity-dependent controlling of a harmonic filter tool
CN107846691B (zh) * 2016-09-18 2022-08-02 中兴通讯股份有限公司 一种mos测量方法、装置及分析仪
WO2018198454A1 (ja) * 2017-04-28 2018-11-01 ソニー株式会社 情報処理装置、および情報処理方法
CN108922551B (zh) * 2017-05-16 2021-02-05 博通集成电路(上海)股份有限公司 用于补偿丢失帧的电路及方法
WO2020089302A1 (en) 2018-11-02 2020-05-07 Dolby International Ab An audio encoder and an audio decoder
WO2020164753A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and decoding method selecting an error concealment mode, and encoder and encoding method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130999A (ja) * 1992-10-22 1994-05-13 Oki Electric Ind Co Ltd コード励振線形予測復号化装置
JPH09321783A (ja) * 1996-03-29 1997-12-12 Mitsubishi Electric Corp 音声符号化伝送システム
JPH10232699A (ja) * 1997-02-21 1998-09-02 Japan Radio Co Ltd Lpcボコーダ
JP2000267700A (ja) * 1999-03-17 2000-09-29 Yrp Kokino Idotai Tsushin Kenkyusho:Kk 音声符号化復号方法および装置
JP2001013998A (ja) * 1999-06-30 2001-01-19 Matsushita Electric Ind Co Ltd 音声復号化装置及び符号誤り補償方法
JP2001051698A (ja) * 1999-08-06 2001-02-23 Yrp Kokino Idotai Tsushin Kenkyusho:Kk 音声符号化復号方法および装置
JP2001166800A (ja) * 1999-12-09 2001-06-22 Nippon Telegr & Teleph Corp <Ntt> 音声符号化方法及び音声復号化方法
JP2004102074A (ja) * 2002-09-11 2004-04-02 Matsushita Electric Ind Co Ltd 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0243562B1 (en) * 1986-04-30 1992-01-29 International Business Machines Corporation Improved voice coding process and device for implementing said process
CA2005115C (en) 1989-01-17 1997-04-22 Juin-Hwey Chen Low-delay code-excited linear predictive coder for speech or audio
US5235669A (en) * 1990-06-29 1993-08-10 At&T Laboratories Low-delay code-excited linear-predictive coding of wideband speech at 32 kbits/sec
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
JP3557662B2 (ja) * 1994-08-30 2004-08-25 ソニー株式会社 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置
US5732389A (en) * 1995-06-07 1998-03-24 Lucent Technologies Inc. Voiced/unvoiced classification of speech for excitation codebook selection in celp speech decoding during frame erasures
JP3653826B2 (ja) * 1995-10-26 2005-06-02 ソニー株式会社 音声復号化方法及び装置
JPH1091194A (ja) * 1996-09-18 1998-04-10 Sony Corp 音声復号化方法及び装置
US5960389A (en) * 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
SE9700772D0 (sv) * 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
JP4308345B2 (ja) * 1998-08-21 2009-08-05 パナソニック株式会社 マルチモード音声符号化装置及び復号化装置
US7072832B1 (en) * 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6714907B2 (en) * 1998-08-24 2004-03-30 Mindspeed Technologies, Inc. Codebook structure and search for speech coding
US6377915B1 (en) * 1999-03-17 2002-04-23 Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. Speech decoding using mix ratio table
US6636829B1 (en) * 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
AU2547201A (en) * 2000-01-11 2001-07-24 Matsushita Electric Industrial Co., Ltd. Multi-mode voice encoding device and decoding device
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
WO2002045078A1 (en) * 2000-11-30 2002-06-06 Matsushita Electric Industrial Co., Ltd. Audio decoder and audio decoding method
EP1235203B1 (en) * 2001-02-27 2009-08-12 Texas Instruments Incorporated Method for concealing erased speech frames and decoder therefor
US6871176B2 (en) * 2001-07-26 2005-03-22 Freescale Semiconductor, Inc. Phase excited linear prediction encoder
US6732389B2 (en) * 2002-05-28 2004-05-11 Edwin Drexler Bed sheet with traction areas
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
WO2003107591A1 (en) * 2002-06-14 2003-12-24 Nokia Corporation Enhanced error concealment for spatial audio
CN1989548B (zh) * 2004-07-20 2010-12-08 松下电器产业株式会社 语音解码装置及补偿帧生成方法
US20080243496A1 (en) * 2005-01-21 2008-10-02 Matsushita Electric Industrial Co., Ltd. Band Division Noise Suppressor and Band Division Noise Suppressing Method
US20070147518A1 (en) * 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
MX2007012187A (es) * 2005-04-01 2007-12-11 Qualcomm Inc Sistemas, metodos y aparatos para deformacion en tiempo de banda alta.
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
US8219392B2 (en) * 2005-12-05 2012-07-10 Qualcomm Incorporated Systems, methods, and apparatus for detection of tonal components employing a coding operation with monotone function
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
US8135047B2 (en) * 2006-07-31 2012-03-13 Qualcomm Incorporated Systems and methods for including an identifier with a packet associated with a speech signal
WO2008032828A1 (fr) * 2006-09-15 2008-03-20 Panasonic Corporation Dispositif de codage audio et procédé de codage audio
US8364472B2 (en) * 2007-03-02 2013-01-29 Panasonic Corporation Voice encoding device and voice encoding method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06130999A (ja) * 1992-10-22 1994-05-13 Oki Electric Ind Co Ltd コード励振線形予測復号化装置
JPH09321783A (ja) * 1996-03-29 1997-12-12 Mitsubishi Electric Corp 音声符号化伝送システム
JPH10232699A (ja) * 1997-02-21 1998-09-02 Japan Radio Co Ltd Lpcボコーダ
JP2000267700A (ja) * 1999-03-17 2000-09-29 Yrp Kokino Idotai Tsushin Kenkyusho:Kk 音声符号化復号方法および装置
JP2001013998A (ja) * 1999-06-30 2001-01-19 Matsushita Electric Ind Co Ltd 音声復号化装置及び符号誤り補償方法
JP2001051698A (ja) * 1999-08-06 2001-02-23 Yrp Kokino Idotai Tsushin Kenkyusho:Kk 音声符号化復号方法および装置
JP2001166800A (ja) * 1999-12-09 2001-06-22 Nippon Telegr & Teleph Corp <Ntt> 音声符号化方法及び音声復号化方法
JP2004102074A (ja) * 2002-09-11 2004-04-02 Matsushita Electric Ind Co Ltd 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1775717A4 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4846712B2 (ja) * 2005-03-14 2011-12-28 パナソニック株式会社 スケーラブル復号化装置およびスケーラブル復号化方法
JP2009528563A (ja) * 2006-02-28 2009-08-06 フランス テレコム オーディオ・デコーダにおける適応励起利得を制限する方法
US8438035B2 (en) 2007-02-22 2013-05-07 Fujitsu Limited Concealment signal generator, concealment signal generation method, and computer product
JP2008203783A (ja) * 2007-02-22 2008-09-04 Fujitsu Ltd 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム
KR101168648B1 (ko) * 2007-11-05 2012-07-25 후아웨이 테크놀러지 컴퍼니 리미티드 감쇠 인자를 취득하기 위한 방법 및 장치
US7957961B2 (en) 2007-11-05 2011-06-07 Huawei Technologies Co., Ltd. Method and apparatus for obtaining an attenuation factor
JP2010176142A (ja) * 2007-11-05 2010-08-12 Huawei Technologies Co Ltd 減衰率を取得する方法および装置
JP2009175693A (ja) * 2007-11-05 2009-08-06 Huawei Technologies Co Ltd 減衰率を取得する方法および装置
US8320265B2 (en) 2007-11-05 2012-11-27 Huawei Technologies Co., Ltd. Method and apparatus for obtaining an attenuation factor
JP2009116332A (ja) * 2007-11-05 2009-05-28 Huawei Technologies Co Ltd 信号処理方法、処理装置および音声復号器
WO2012070340A1 (ja) * 2010-11-26 2012-05-31 株式会社エヌ・ティ・ティ・ドコモ 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム
JP2016513290A (ja) * 2013-02-21 2016-05-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated 補間係数セットを決定するためのシステムおよび方法
JP2019164366A (ja) * 2014-03-19 2019-09-26 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン パワー補償を使用してエラー隠し信号を生成する装置及び方法
JP2020204779A (ja) * 2014-03-19 2020-12-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン パワー補償を使用してエラー隠し信号を生成する装置及び方法
JP7116521B2 (ja) 2014-03-19 2022-08-10 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン パワー補償を使用してエラー隠し信号を生成する装置及び方法
US11423913B2 (en) 2014-03-19 2022-08-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating an error concealment signal using an adaptive noise estimation
WO2017022151A1 (ja) * 2015-08-05 2017-02-09 パナソニックIpマネジメント株式会社 音声信号復号装置および音声信号復号方法

Also Published As

Publication number Publication date
JPWO2006009074A1 (ja) 2008-05-01
JP4698593B2 (ja) 2011-06-08
EP1775717A1 (en) 2007-04-18
EP1775717B1 (en) 2013-09-11
CN1989548B (zh) 2010-12-08
US8725501B2 (en) 2014-05-13
CN1989548A (zh) 2007-06-27
EP1775717A4 (en) 2009-06-17
US20080071530A1 (en) 2008-03-20

Similar Documents

Publication Publication Date Title
JP4698593B2 (ja) 音声復号化装置および音声復号化方法
US10249313B2 (en) Adaptive bandwidth extension and apparatus for the same
JP3653826B2 (ja) 音声復号化方法及び装置
JP4740260B2 (ja) 音声信号の帯域幅を疑似的に拡張するための方法および装置
JP4112027B2 (ja) 再生成位相情報を用いた音声合成
RU2420817C2 (ru) Системы, способы и устройство для ограничения коэффициента усиления
RU2667382C2 (ru) Улучшение классификации между кодированием во временной области и кодированием в частотной области
US5873059A (en) Method and apparatus for decoding and changing the pitch of an encoded speech signal
JP5165559B2 (ja) オーディオコーデックポストフィルタ
US5778335A (en) Method and apparatus for efficient multiband celp wideband speech and music coding and decoding
EP2209114B1 (en) Speech coding/decoding apparatus/method
US20070299669A1 (en) Audio Encoding Apparatus, Audio Decoding Apparatus, Communication Apparatus and Audio Encoding Method
KR20070028373A (ko) 음성음악 복호화 장치 및 음성음악 복호화 방법
JPH04233600A (ja) 32Kb/sワイドバンド音声の低遅延コード励起線型予測符号化
EP3174051B1 (en) Systems and methods of performing noise modulation and gain adjustment
JPH1097296A (ja) 音声符号化方法および装置、音声復号化方法および装置
WO2014131260A1 (en) System and method for post excitation enhancement for low bit rate speech coding
JP5289319B2 (ja) 隠蔽フレーム(パケット)を生成するための方法、プログラムおよび装置
EP2951824B1 (en) Adaptive high-pass post-filter
JP2005091749A (ja) 音源信号符号化装置、及び音源信号符号化方法
JP3510168B2 (ja) 音声符号化方法及び音声復号化方法
JP4230550B2 (ja) 音声符号化方法及び装置、並びに音声復号化方法及び装置
RU2574849C2 (ru) Устройство и способ для кодирования и декодирования аудиосигнала с использованием выровненной части опережающего просмотра
KR100421816B1 (ko) 음성복호화방법 및 휴대용 단말장치
EP1164577A2 (en) Method and apparatus for reproducing speech signals

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006529149

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005765791

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580024487.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005765791

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11632770

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11632770

Country of ref document: US