EP0801789A1 - Speech coding method using synthesis analysis - Google Patents

Speech coding method using synthesis analysis

Info

Publication number
EP0801789A1
EP0801789A1 EP96901009A EP96901009A EP0801789A1 EP 0801789 A1 EP0801789 A1 EP 0801789A1 EP 96901009 A EP96901009 A EP 96901009A EP 96901009 A EP96901009 A EP 96901009A EP 0801789 A1 EP0801789 A1 EP 0801789A1
Authority
EP
European Patent Office
Prior art keywords
bits
pulses
excitation
segments
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP96901009A
Other languages
German (de)
French (fr)
Other versions
EP0801789B1 (en
Inventor
William Navarro
Michel Mauc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nortel Networks France SAS
Original Assignee
Matra Communication SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matra Communication SA filed Critical Matra Communication SA
Publication of EP0801789A1 publication Critical patent/EP0801789A1/en
Application granted granted Critical
Publication of EP0801789B1 publication Critical patent/EP0801789B1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation

Definitions

  • the present invention relates to speech coding using synthesis analysis.
  • a linear prediction of the speech signal is carried out to obtain the coefficients of a short-term synthesis filter modeling the transfer function of the vocal tract. These coefficients are transmitted to the decoder, as well as parameters characterizing an excitation to be applied to the short-term synthesis filter.
  • further research is carried out on the longer-term correlations of the speech signal in order to characterize a long-term synthesis filter accounting for the pitch of the speech.
  • the excitation indeed has a predictable component which can be represented by the past excitation, delayed by TP samples of the> speech signal and affected by a gain g P.
  • the remaining, unpredictable part of the excitation is called stochastic excitation.
  • stochastic excitation consists of a vector searched for in a predetermined dictionary.
  • MPLPC Multi-Pulse Linear Prediction Coding
  • the stochastic excitation comprises a certain number of pulses whose positions are sought by the coder.
  • CELP coders are preferred for low transmission rates, but they are more complex to implement than MPLPC coders.
  • An object of the present invention is to provide a speech coding method in which the search for stochastic excitation is simplified.
  • the invention thus proposes a coding method with analysis by synthesis of a speech signal digitized in successive frames divided into sub-frames of lst samples, in which a linear prediction analysis is carried out for each frame to determine the coefficients of a short-term synthesis filter, and an excitation sequence with no contributions each associated with a respective gain is determined for each sub-frame so that the excitation sequence subjected to the short-term synthesis filter produces a synthetic signal representative of the speech signal, the ne contributions of the excitation sequence and the associated gains being determined by an iterative process in which the iteration n (0 ⁇ n ⁇ nc) comprises:
  • F p denotes a line vector with lst components equal to the products of convolution between a possible value of the contribution n and the impulse response of a filter composed of the short-term synthesis filter and a weighting filter perceptual
  • B n b n , where B n is a symmetric matrix with n + 1 rows and n + 1 columns whose component B n (i, j) (0 ⁇ i, j ⁇ n) is equal to the scalar product F p ( i) .F p (j) T where F p (i) and F p (j) respectively designate the line vectors equal to the convolution products between the contributions i and j previously determined and the impulse response of the compound filter, and b n is a line vector with n + 1 components b n (i) (0 ⁇ i ⁇ n) respectively equal to the scalar products between the vectors F p (i) and the initial target vector X,
  • ne gains associated with ne contributions of the excitation sequence being those calculated during the nc-1 iteration.
  • L n , R n and K n denote matrices with n + 1 rows and n + 1 columns corresponding respectively to the first n + 1 rows and to the first n + 1 columns of said matrices L, R and K, the matrices L and R being lower triangular, the matrix K being diagonal, and the matrix L having only 1 on its main diagonal
  • we calculate the line n of the matrix L inverse of the matrix L, and we calculate the n + 1 gains according to the relation g n b n .K n .
  • L n -1 designates the matrix with n + 1 rows and n + 1 columns corresponding respectively to the first N + 1 rows and to the n + 1 first columns of the inverse matrix L -1 .
  • This excitation search mode limits the complexity of the calculations required to determine the excitation sequence, by making it possible to carry out only one division or inversion by iteration.
  • the contributions can be impulse contributions.
  • This excitation search mode is not however applicable exclusively to MPLPC coders. It is applicable for example to so-called VSELP coders where the contributions to stochastic excitation are vectors chosen from a predetermined dictionary (see I. Gerson and M. Jasiuk: "Vector Sum Excited Linear Prediction (VSELP) Speech Coding at 8 kb / s ", Proc. Int. Conf. on Acoustics, Speech and Signal Processing, Albuquerque 1990, Vol. 1, pages 461-464). Furthermore, the contributions cannot include the contribution corresponding to the delayed excitation delayed by TP samples, whose associated gain g P is recalculated during successive iterations, or several contributions of this nature if several LTP delays are determined.
  • FIG. 1 is a block diagram of a radio station incorporating a speech encoder implementing the invention
  • FIG. 2 is a block diagram of a radio station capable of receiving a signal produced by that of Figure 1;
  • FIGS. 3 to 6 are flowcharts illustrating an open loop LTP analysis process applied in the speech coder of Figure 1;
  • FIG. 7 is a flowchart illustrating a process for determining the impulse response of the weighted synthesis filter applied in the speech coder of Figure 1;
  • FIGS. 8 to 11 are flowcharts illustrating a process for finding the stochastic excitation applied in the speech coder of FIG. 1.
  • a speech coder implementing the invention is applicable in various types of speech transmission and / or storage systems using a digital compression technique.
  • the speech coder 16 is part of a mobile radio station.
  • the speech signal S is a digital signal sampled at a frequency typically equal to 8 kHz.
  • the signal S comes from an analog-digital converter 18 receiving the amplified and filtered output signal from a microphone 20.
  • the converter 18 puts the speech signal S in the form of successive frames themselves subdivided into nst sub-frames of the samples.
  • the speech signal S can also be subjected to conventional shaping treatments such as Hamming filtering.
  • the speech coder 16 delivers a binary sequence of bit rate significantly lower than that of the speech signal S, and addresses this sequence to a channel coder 22 the function of which is to introduce redundancy bits into the signal in order to allow detection and / or correction of possible transmission errors.
  • the output signal from the channel encoder 22 is then modulated on a carrier frequency by the modulator 24, and the modulated signal is transmitted on the air interface.
  • the speech coder 16 is a synthesis analysis coder.
  • the coder 16 determines on the one hand parameters characterizing a short-term synthesis filter modeling the speaker's vocal tract, and on the other hand an excitation sequence which, applied to the short-term synthesis filter, provides a synthetic signal constituting an estimate of the speech signal S according to a perceptual weighting criterion.
  • the short-term synthesis filter has a transfer function of the form 1 / A (z), with:
  • the coefficients a i are determined by a module 26 for short-term linear prediction analysis of the speech signal S.
  • the a i are the linear prediction coefficients of the speech signal S.
  • the order q of the linear prediction is typically of the order of 10.
  • the methods applicable by module 26 for short-term linear prediction are well known in the field of speech coding.
  • Module 26, for example, implements the Durbin-Levinson algorithm (see J. Makhoul: "Linear Prediction: A tutorial review", Proc. IEEE, Vol. 63, N ° 4, April 1975, p. 561-580 ).
  • the coefficients a i obtained are supplied to a module 28 which converts them into spectral line parameters (LSP).
  • the representation of the prediction coefficients a i by LSP parameters is frequently used in speech coders with analysis by synthesis.
  • the LSP parameters can be obtained by the conversion module 28 by the classical method of Chebyshev polynomials (see P. Kabal and RP Ramachandran: "The computation of a spectral frequencies using Chebyshev polynomials", IEEE Trans. ASSP, Vol.34, No. 6, 1986, pages 14191426). These are quantization values of the LSP parameters, obtained by a quantization module 30, which are transmitted to the decoder so that the latter finds the coefficients a i of the short-term synthesis filter. The coefficients a i can be found simply, given that:
  • LST t (nst-1) LSP t for sub -frames 0, 1, 2, ..., nst-1 of frame t.
  • the coefficients a i of the filter 1 / A (z) are then determined, sub-frame by sub-frame from the interpolated LSP parameters.
  • the non-quantified LSP parameters are supplied by the module 28 to a module 32 for calculating the coefficients of a perceptual weighting filter 34.
  • the coefficients of the perceptual weighting filter are calculated by the module 32 for each subframe after interpolation of the LSP parameters received from the module 28.
  • the perceptual weighting filter 34 receives the speech signal S and delivers a perceptually weighted signal SW which is analyzed by modules 36, 38, 40 to determine the excitation sequence.
  • the excitation sequence of the short-term filter consists of an excitation predictable by a long-term synthesis filter modeling the pitch (pitch) of the speech, and a non-predictable stochastic excitation, or innovation sequence. .
  • Module 36 performs long-term prediction
  • the weighting filter 34 intervenes upstream of the open-loop analysis module, but it could be otherwise: the module 36 could operate directly on the speech signal S or even on the signal S cleared of its short-term correlations by a transfer function filter A (z).
  • the modules 38 and 40 operate in closed loop, that is to say that they contribute directly to the minimization of the perceptually weighted error.
  • a fractional resolution is provided for the smallest delay values so as to avoid discernible differences in terms of voicing frequency.
  • We use for example a resolution 1/6 between rmin-21 and 33 + 5/6, a resolution 1/3 between 34 and 47 + 2/3, a resolution 1/2 between 48 and 88 + 1/2, and a integer resolution between 89 and rmax 142.
  • the long-term prediction delay is determined in two stages.
  • the open loop LTP analysis module 36 detects the voiced frames of the speech signal and determines, for each voiced frame, a degree of voicing MV and a search interval for the long-term prediction delay.
  • the search interval is defined by a central value represented by its quantization index ZP and by a width in the domain of the quantization indexes, depending on the degree of voicing MV.
  • the module 30 operates the quantization of the LSP parameters which have previously been determined for this frame.
  • This quantification is for example vector, that is to say it consists in selecting, in one or more quantification tables predetermined, a set of quantized parameters LSP Q which has a minimum distance from the set of parameters LSP provided by the module 28.
  • the quantization tables differ according to the degree of voicing MV provided to the quantization module 30 by the open loop analyzer 36.
  • a set of quantization tables for a degree of voicing MV is determined, during prior tests, so as to be statistically representative of frames having this degree MV. These sets are stored both in the coders and in the decoders implementing the invention.
  • the module 30 delivers the set of quantized parameters LSP Q as well as its index Q in the applicable quantification tables.
  • the speech coder 16 further comprises a module 42 for calculating the impulse response of the filter composed of the short-term synthesis filter and the perceptual weighting filter.
  • This compound filter has the transfer function W (z) / A (z).
  • the module 42 takes for the perceptual weighting filter W (z) that corresponding to the LSP parameters interpolated but not quantified, that is to say the one whose coefficients were calculated by the module 32, and for the synthesis filter 1 / A (z) that corresponding to the LSP parameters quantized and interpolated, that is to say the one that will be effectively reconstructed by the decoder.
  • the TP delay index is ZP + DP.
  • closed-loop LTP analysis consists in determining, in the search interval for long-term prediction delays T, the delay TP which maximizes, for each sub-frame of a voiced frame, the normalized correlation:
  • x (i) denotes the weighted speech signal SW of the subframe from which the memory of the weighted synthesis filter has been subtracted (i.e. the response to a zero signal, due to its initial states, of the filter whose impulse response was calculated by module 42), and y T (i) denotes the convolution product:
  • u (j-T) designating the predictable component of the delayed excitation sequence of T samples, estimated by the well-known technique of the adaptive codebook. For delays T less than the length of a subframe, the missing values of u (j-T) can be extrapolated from the previous values. Fractional delays are taken into account by oversampling the signal u (j-T) in the adaptive repertoire. An oversampling of a factor m is obtained by means of polyphase interpolating filters.
  • the gain g P of long-term prediction could be determined by the module 38 for each sub-frame, by applying the known formula:
  • the gain g P is calculated by the stochastic analysis module 40.
  • the stochastic excitation determined for each subframe by the module 40 is of the multi-pulse type.
  • An innovation sequence of lst samples comprises np pulses of positions p (n) and of amplitude g (n).
  • the positions and gains calculated by the module 40 of stochastic analysis are quantified by a module 44.
  • a bit scheduling module 46 receives the various parameters which will be useful to the decoder, and constitutes the binary sequence transmitted to the channel coder 22. These parameters are:
  • a module 48 is thus provided in the encoder which receives the various parameters and which adds to some of them redundancy bits making it possible to detect and / or correct any transmission errors. For example, the degree of voicing MV coded on two bits being a critical parameter, we want it to reach the decoder with as few errors as possible. For this reason, redundancy bits are added to this parameter by the module 48. It is for example possible to add a parity bit to the two bits coding MV and to repeat once the three bits thus obtained. This example of redundancy makes it possible to detect all the single or double errors and to correct all the simple errors and 75% of the double errors.
  • the allocation of the bit rate per 20 ms frame is for example that indicated in Table I.
  • the channel coder 22 is that used in the pan-European system of radiocommunication with mobiles (GSM).
  • GSM pan-European system of radiocommunication with mobiles
  • This channel coder described in detail in Recommendation GSM 05.03, was developed for a 13 kbit / s speech coder of RPE-LTP type which also produces 260 bits per 20 ms frame. The sensibility of each of the 260 bits was determined from listening tests.
  • the bits from the source encoder have been grouped into three categories. The first of these categories IA groups 50 bits which are coded convolutionally on the basis of a generator polynomial giving a redundancy of one half with a constraint length equal to 5. Three parity bits are calculated and added to the 50 bits of the category IA before convolutional coding.
  • the second category (IB) has 132 bits which are protected at a rate of a half by the same polynomial as the previous category.
  • the third category (II) contains 78 unprotected bits. After application of the convolutional code, the bits (456 per frame) are subjected to interleaving.
  • the scheduling module 46 of the new source coder implementing the invention distributes the bits in the three categories according to the subjective importance of these bits.
  • a mobile radio station capable of receiving the speech signal processed by the source encoder 16 is shown diagrammatically in FIG. 2.
  • the received radio signal is first processed by a demodulator 50 then by a channel decoder 52 which performs the dual operations those of the modulator 24 and of the channel coder 22.
  • the channel decoder 52 supplies the speech decoder 54 with a binary sequence which, in the absence of transmission errors or when the possible errors have been corrected by the channel decoder 52, corresponds to the binary sequence delivered by the scheduling module 46 at the level of the coder 16.
  • the decoder 54 comprises a module 56 which receives this binary sequence and which identifies the parameters relating to the different frames and subframes.
  • the module 56 also performs some checks on the parameters received. In particular, the module 56 examines the redundancy bits introduced by the module 48 of the coder, to detect and / or correct the errors affecting the parameters associated with these redundancy bits.
  • a pulse generator 62 receives the positions p (n) of the np pulses of the stochastic excitation.
  • the generator 62 delivers pulses of unit amplitude which are each multiplied by 64 by the associated gain g (n).
  • the output of amplifier 64 is addressed to the long-term synthesis filter 66.
  • This filter 66 has an adaptive directory structure.
  • the output samples u of the filter 66 are stored in the adaptive directory 68 so as to be available for the subsequent subframes.
  • the delay TP relative to a subframe, calculated from the quantization indices ZP and DP, is supplied to the adaptive repertoire 68 to produce the signal u suitably delayed.
  • the amplifier 70 multiplies the signal thus delayed by the gain g P of long-term prediction.
  • the long-term filter 66 finally comprises an adder 72 which adds the outputs of amplifiers 64 and 70 to provide the excitation sequence u.
  • the excitation sequence is addressed to the short-term synthesis filter 60, and the resulting signal can also, in known manner, be subjected to a post-filter 74 whose coefficients depend on the synthesis parameters received, to form the signal of synthetic speech S '.
  • the output signal S 'of the decoder 54 is then converted into analog by the converter 76 before being amplified to control a loudspeaker 78.
  • the module 36 also determines, for each sub-frame st, the entire delay K st which maximizes the open-loop estimation P st (k) of the long-term prediction gain on the sub-frame st, excluding the delays k for which the autocorrelation C st (k) is negative or smaller than a small fraction ⁇ of the energy R0 st of the subframe.
  • the estimate P st (k) expressed in decibels is written:
  • step 94 the degree of voicing MV of the current frame is taken equal to 0 in step 94, which in this case ends the operations performed by the module 36 on this frame. If on the contrary the threshold S0 is exceeded in step 92, the current frame is detected as voiced and the degree MV will be equal to 1, 2 or 3. The module 36 then calculates, for each subframe st, a list I st containing candidate delays to constitute the ZP center of the search interval for long-term prediction delays.
  • the module 36 determines the basic delay rbf in full resolution for the rest of the processing. This basic delay could be taken equal to the integer K st obtained in step 90. The fact of finding the basic delay in fractional resolution around K st however makes it possible to gain in precision.
  • Step 100 thus consists in finding, around the integer delay K st obtained in step 90, the fractional delay which maximizes the expression C st 2 / G st .
  • This search can be carried out at the maximum resolution of the fractional delays (1/6 in the example described here) even if the entire delay K st is not in the domain where this resolved maximum tion applies.
  • the autocorrelations C st (T) and the delayed energies G st (T) are obtained by interpolation from the values stored in step 90 for the whole delays.
  • the basic delay relating to a sub-frame could also be determined in fractional resolution from step 90 and taken into account in the first estimation of the overall prediction gain on the frame.
  • step 102 the address j in the list I st and the index m of the submultiple are initialized to 0 and 1, respectively.
  • a comparison 104 is made between the submultiple rbf / m and the minimum delay rmin. The submultiple rbf / m is to be examined if it is greater than rmin.
  • step 90 the delay r i is not taken into account, and we go directly to step 110 of incrementing the index m before carrying out the comparison 104 again for the next submultiple. If test 108 shows that P st (r i ) ⁇ SE st , the delay r i is retained and step 112 is executed before incrementing the index m in step 110. In step 112, we stores index i at address j in the list I st , the value m is given to the integer m0 intended to be equal to the index of the smallest submultiple retained, then the address j is incremented by one.
  • the examination of the sub-multiples of the basic delay is finished when the comparison 104 shows rbf / m ⁇ rmin.
  • We then examine the multiple delays of the smallest rbf / m0 of the submultiples previously selected according to the process illustrated in FIG. 5. This examination begins with an initialization 114 of the index n of the multiple: n 2.
  • a comparison 116 is made between the multiple n.rbf / m0 and the maximum delay rmax. If n.rbf / m0> rmax, test 118 is carried out to determine whether the index m0 of the smallest sub-multiple is an integer multiple of n.
  • step 120 the delay n.rbf / m0 has already been examined when examining the sub-multiples of rbf, and we go directly to step 120 of incrementing the index n before carrying out again comparison 116 for the next multiple. If test 118 shows that m0 is not an integer multiple of n, the multiple n.rbf / m0 is to be examined. We then take for the integer i the value of the index of the quantized delay r i closest to n.rbf / m0 (step 122), then we compare, at 124, the estimated value of the prediction gain P st ( r i ) at the selection threshold SE st .
  • step 120 If P st (r i ) ⁇ SE st , the delay r i is not taken into account, and we go directly to step 120 of incrementing the index n. If test 124 shows that P st (r i ) ⁇ SE st , the delay r i is retained and step 126 is executed before incrementing the index n in step 120. In step 126, we stores the index i at address j in the list I st , then the address j is incremented by one.
  • the list I st contains j candidate delay index. If we wish to limit the maximum length of the list I st to jmax for the following steps, we can take the length j st of this list equal to min (j, jmax) (step 128) and then, in step 130, order the list l st in the order of gains C st 2 (r Ist (j) ) / G st 2 (r Is t (j) ) decreasing for 0 ⁇ j ⁇ j st so as to keep only the j st delays providing the largest gain values.
  • the value of jmax is chosen according to the compromise sought between the efficiency of the search for LTP delays and the complexity of this search. Typical values of jmax range from 3 to 5.
  • the analysis module 36 calculates a quantity Ymax determining a second open-loop estimate of the prediction gain at long term over the entire frame, as well as ZP, ZP0 and ZP1 indexes in a phase 132, the progress of which is detailed in FIG. 6.
  • This phase 132 consists in testing search intervals of length NI to determine which one maximizes a second estimate of the overall prediction gain on the frame. The intervals tested are those whose centers are the candidate delays contained in the list I st calculated during phase 101.
  • Phase 132 begins with a step 136 where the address j in the list l st is initialized to 0.
  • step 138 we check if the index I st (j) has already been encountered by testing a previous interval centered on I st' (j ') with st' ⁇ st and 0 ⁇ j ' ⁇ j st' , in order to d '' Avoid testing the same interval twice. If test 138 reveals that I st (j) already appeared in a list I st . with st ' ⁇ st, the address j is directly incremented in step 140, then it is compared to the length j st of the list I st . If the comparison 142 shows that j ⁇ j st , we return to step 138 for the new value of the address j.
  • step 152 is executed before incrementing the address j in step 140.
  • the index ZP is taken equal to I st (j) and the indexes ZP0 and ZP1 are respectively taken equal to the smallest and the largest of the indexes i st . determined in step 148.
  • the index st is incremented by one unit (step 154) then compared, in step 156, to the number nst of sub-frames per frame. If st ⁇ nst, we return to step 98 to carry out the operations relating to the next sub-frame.
  • the index ZP designates the center of the search interval which will be supplied to the module 38 of LTP analysis in closed loop
  • ZP0 and ZP1 are indices whose deviation is representative the dispersion of the optimal delays by sub-frame in the interval centered on ZP.
  • Gp 20. log 10 (RO / RO-Ymax).
  • Two other thresholds S1 and S2 are used. If Gp ⁇ S1, the degree of voicing MV is taken equal to 1 for the current frame.
  • the ZP + DP index of the TP delay finally determined can therefore in some cases be smaller than 0 or greater than 255. This allows the closed-loop LTP analysis to also relate to some TP delays smaller than rmin or more larger than rmax. This improves the subjective quality of the reproduction of so-called pathological voices and non-voice signals (DTMF voice frequencies or signaling frequencies used by the switched telephone network).
  • Reducing the delay search interval for very closely spaced frames reduces the complexity of the closed loop LTP analysis performed by the module 38 by reducing the number of convolutions y T (i) to be calculated according to formula (1).
  • Another possibility is to provide a parity bit for the delay TP and / or the gain g P , making it possible to detect possible errors affecting these parameters.
  • the first optimizations carried out in step 90 relative to the different sub-frames are replaced by a single optimization relating to the entire frame.
  • the autocorrelations C (k) and the delayed energies G (k) for the entire frame are also calculated:
  • P (K) 20.log 10 [R0 / [R0-X (K)]].
  • Phase 132 is then performed only once for this list I, distinguishing the subframes only in steps 148, 150 and 152.
  • This variant embodiment has the advantage of reducing the complexity of the analysis in open loop.
  • nz basic delays K 1 ', ..., K nz ' in full resolution.
  • the voiced / unvoiced decision (step 92) is taken on the basis of that of the basic delays K i 'which provides the greatest value for the first open-loop estimate of the long-term prediction gain.
  • the basic delays in fractional resolution are determined by the same process as in step 100, but only allowing the quantized delay values. Examination 101 of the submultiples and multiples is not carried out. For the phase 132 of calculating the second estimate of the prediction gain, the nz basic delays previously determined are taken as candidate delays. This second variant makes it possible to dispense with the systematic examination of the submultiples and of the multiples which are generally taken into account by virtue of the subdivision of the domain of possible delays.
  • phase 132 is modified in that, in optimization steps 148, the index i st is determined on the one hand, which maximizes C st ' 2 (r i ) / G sf' (r i ) for I st . (j) -N1 / 2 ⁇ i ⁇ I st (j) + N1 / 2 and 0 ⁇ i ⁇ N, and on the other hand, during the same maximization loop, the index k st ' which maximizes this same quantity over a reduced interval Ist (j) -N3 / 2 ⁇ i ⁇ I st (j) + N3 / 2 and 0 ⁇ i ⁇ N.
  • Step 152 is also modified: the ZP0 indexes are no longer stored and
  • Gp' 20. log 10 [R0 / (R0-Ymax ')].
  • a fourth variant of the open loop LTP analysis process mainly concerns weakly voiced frames
  • MV 1).
  • These frames often correspond to a start or an end of a voicing area. Frequently, these frames can comprise from one to three sub-frames for which the gain coefficient of the long-term synthesis filter is zero or even negative. It is proposed not to perform LTP analysis in closed loop for the sub-frames in question, in order to reduce the average complexity of the coding. This can be achieved by storing in step 152 of FIG. 6 nst pointers indicating for each subframe st 'whether the autocorrelation C st , corresponding to the index delay i st , is negative or even very small.
  • the sub-frames for which the prediction gain is negative or negligible can be identified by consulting the nst pointers. If applicable, module 38 is deactivated for subframes corresponding. This does not affect the quality of the LTP analysis since the prediction gain corresponding to these subframes will be almost zero anyway.
  • Another aspect of the invention relates to the module 42 for calculating the impulse response of the weighted synthesis filter.
  • the closed loop LTP analysis module 38 needs this impulse response h over the duration of a subframe to calculate the convolutions y T (i) according to formula (1).
  • the stochastic analysis module 40 also needs it to calculate convolutions as will be seen below.
  • the operations performed by the module 42 are for example in accordance with the flowchart of FIG. 7.
  • the truncated energies of the impulse response are also calculated:
  • the components h (i) of the impulse response and the truncated energies Eh (i) can be obtained by filtering a unitary pulse by means of a transfer function filter W (z) / A (z) of zero initial states , or by recurrence:
  • the coefficients a i are those used in the perceptual weighting filter, i.e. the linear prediction coefficients interpolated but not quantified, while in expression (3), the coefficients ai. are those applied to the synthesis filter, i.e. the quantized and interpolated linear prediction coefficients.
  • the module 42 determines the smallest length L ⁇ such that the energy Eh (L ⁇ -1) of the truncated impulse response to L ⁇ samples is at least equal to a proportion ⁇ of its total energy Eh (pst-l) estimated on pst samples.
  • a typical value of ⁇ is 98%.
  • the number L ⁇ is initialized to pst in step 162 and decremented by one as 166 as Eh (L ⁇ -2)> ⁇ .
  • Eh (pst-1) (test 164).
  • the length L ⁇ sought is obtained when test 164 shows that Eh (L ⁇ -2) ⁇ a. Eh (pst-1).
  • a correcting term ⁇ (MV) is added to the value of L ⁇ which has been obtained (step 168).
  • This corrective term is preferably an increasing function of the degree of voicing.
  • ⁇ (0) - 5
  • ⁇ (3) + 7.
  • the length of truncation Lh of the impulse response is taken equal to L ⁇ if L ⁇ snst and to nst otherwise.
  • a third aspect of the invention relates to the stochastic analysis module 40 used to model the unpredictable part of the excitation.
  • the stochastic excitation considered here is of the multi-pulse type.
  • Stochastic excitement relating to a subframe is represented by np pulses of positions p (n) and of amplitudes, or gains, g (n) (1 ⁇ n ⁇ np).
  • the gain g P of long-term prediction can also be calculated during the same process.
  • the excitation sequence relating to a sub-frame comprises ne contributions associated respectively with ne gains.
  • the contributions are lst sample vectors which, weighted by the associated and summed gains correspond to the excitation sequence of the short-term synthesis filter.
  • One of the contributions can be predictable, or several in the case of a long-term synthesis filter with several takes ("multi-tap pitch synthesis filter").
  • the other contributions are in the present case np vectors comprising only 0 except an impulse of amplitude 1.
  • the line vectors F p (n) (0 ⁇ n ⁇ nc) are weighted contributions having as components i (0 ⁇ i ⁇ lst) the products of convolution between the contribution n to the excitation sequence and the impulse response h from the filter weighted summary;
  • the vectors F p (n) are simply constituted by the vector of the impulse response h shifted by p (n) samples. Truncating the impulse response as described above therefore makes it possible to significantly reduce the number of operations useful for calculating scalar products involving these vectors F p (n) .
  • the gains g nc-1 (i) are the selected gains and the minimized quadratic error E is equal to the energy of the target vector e nc-1 .
  • the stochastic analysis relating to a subframe of a voiced frame can therefore take place as indicated in FIGS. 8 to 11.
  • the contribution index n is initialized to 0 in step 180 and the vector F p (0) is taken equal to the long-term contribution Y TP provided by the module 38. If n> 0, the iteration n begins with the determination 182 of the position p (n) of the pulse n which maximizes the quantity:
  • e (e (0), ..., e (lst-1)) is a target vector calculated during the previous iteration.
  • the maximization of (F p .e T ) 2 / (F p .F p T ) is performed on all the possible positions p in the subframe.
  • the maximization is carried out in step 182 on the set of possible positions excluding the segments in which the positions p (1), ..., p (n have been found respectively) -1) pulses during previous iterations.
  • the module 40 proceeds to the calculation 184 of the line n of the matrices L, R and K involved in the decomposition of the matrix B, which makes it possible to complete the matrices L n , R n and K n defined above.
  • the decomposition of the matrix B makes it possible to write: for the component located in row n and in column j. We can therefore write, for j increasing from 0 to n-1:
  • the column index j is first initialized at 0, in step 186.
  • the variable tmp is first initialized at the value of component B (n, j), that is:
  • step 188 the integer k is also initialized to 0.
  • a comparison 190 is then made between the integers k and j. If k ⁇ j, we add the term L (n, k). R (j, k) to the variable tmp, then we increment the whole k by one unit (step 192) before re-performing the comparison 190.
  • step 196 If j ⁇ n, the component R (n, j) is taken equal to tmp and the component L (n, j) to tmp.K (j) in step 196, then the column index j is incremented d 'a unit before returning to step 188 to calculate the following components.
  • K (n) is taken equal to 1 / tmp if tmp ⁇ 0 (step 198) and to 0 otherwise.
  • the calculation 184 requires at most one division 198, to obtain K (n).
  • any singularity of the matrix B n does not cause instabilities since we avoid divisions by 0.
  • step 204 the term Linv (j ') is initialized to -L (n, j ") and the integer k' to j '+ 1.
  • a comparison 206 is then made between the integers k' and n. If k ' ⁇ n, we subtract the term L (k', j '). Linv (k') to Linv (j '), then we increment the whole k' by one unit (step 208) before re-executing comparison 206.
  • the inversion 200 is followed by the calculation 214 of the reoptimized gains and of the target vector E for the following iteration.
  • the computation of the reoptimized gains is also very simplified by the decomposition retained for the matrix B.
  • One can indeed compute the vector g n (g n (0), ..., g n (n)) solution of g n .
  • B n b n according to: and
  • g n (i ') g n-1 (i') + L -1 ⁇ n, i ') ⁇ g n (n) for 0 ⁇ i' ⁇ n.
  • the calculation 214 is detailed in FIG. 11.
  • the component b (n) of the vector b is first calculated:
  • b (n) serves as the initialization value for the variable tmq.
  • the index i is also initialized to 0.
  • the comparison 218 is then carried out between the integers i and n. If i ⁇ n, we add the term b (i). Linv (i) to the variable tmq and we increment i by one unit (step 220) before returning to the comparison 218.
  • Segmental pulse search significantly decreases the number of pulse positions to be evaluated during steps 182 of the search for stochastic excitation. It also allows efficient quantification of positions found.
  • ns> np also has the advantage that good robustness to transmission errors can be obtained with regard to the positions of the pulses, by virtue of a separate quantification of the sequence numbers of the occupied segments and of the relative positions pulses in each occupied segment.
  • the possible binary words are stored in a quantization table in which the read addresses are the received quantization indexes.
  • the order in this table determined once and for all, can be optimized so that a transmission error affecting a bit of the index (the most frequent error case, especially when an interleaving is implemented in the channel coder 22) has, on average, minimal consequences according to a neighborhood criterion.
  • the neighborhood criterion is for example that a word of ns bits can only be replaced by "neighboring" words, distant from a Hamming distance at most equal to a threshold np-2 ⁇ , so as to keep all the pulses except ⁇ of them at valid positions in the event of an error in transmission of the index relating to a single bit.
  • Other criteria could be used in substitution or in addition, for example that two words are considered to be neighbors if the replacement of one by the other does not modify the order of allocation of the gains associated with the pulses.
  • the order in the word quantification table can be determined from arithmetic considerations or, if this is insufficient, by simulating the error scenarios on a computer (exhaustively or by statistical sampling of the type Monte-Carlo according to the number of possible error cases).
  • simulating the error scenarios on a computer it is also possible to take advantage of the different protection categories offered by the channel encoder 22, in particular if the neighborhood criterion cannot be satisfactorily verified for all cases. possible errors affecting a bit of the index.
  • the scheduling module 46 can thus put in the minimum protection category, or in the unprotected category, a certain number nx of the bits of the index which, if affected by a transmission error, give rise to a wrong word but checking the neighborhood criterion with a probability deemed satisfactory, and putting the other bits of the index in a more protected category.
  • This procedure calls for a different ordering of the words in the quantification table.
  • This scheduling can also be optimized by means of simulations if it is desired to maximize the number nx of the bits of the index assigned to the least protected category.
  • One possibility is to start by constituting a list of words of ns bits by counting in Gray code from 0 to 2 ns -1, and to obtain the ordered quantification table by deleting from this list the words having no weight of Hamming of np.
  • the table thus obtained is such that two consecutive words have a Hamming distance of np-2. If the indexes in this table have a binary representation in Gray code, any error on the least significant bits makes vary the index of ⁇ 1 and thus involves the replacement of the words of effective occupation by a neighbor word in the sense of the np-2 threshold on the Hamming distance, and an error on the i-th least significant bit also varies the index by ⁇ 1 with a probability of approximately 2 1-i .
  • a possible transmission error affecting one of these bits leads to the replacement of the busy word by a neighboring word with a probability at least equal.
  • nx (1 + 1/2 + ... + 1/2 nx-1 ) / nx. This minimum probability decreases from 1 to (2 / nb) (1-1 / 2 nb ) for nx increasing from 1 to nb.
  • the errors affecting the nb-nx most significant bits of the index will most often be corrected thanks to the protection applied to them by the channel coder.
  • the value of nx is in this case chosen according to a compromise between robustness to errors (small values) and a reduced size of the protected categories (large values).
  • the possible binary words to represent the occupation of the segments are arranged in ascending order in a search table.
  • An indexing table associates with each address the serial number, in the quantification table stored at the decoder, of the binary word having this address in the search table.
  • the content of the search table and of the indexing table is given in table III (in decimal values).
  • the quantification of the occupation word of the segments deduced from the np positions provided by the stochastic analysis module 40 is carried out in two stages by the quantization module 44.
  • a dichotomous search is first carried out in the search table to determine the address in this table of the word to be quantified.
  • the quantization index is then obtained at the address determined in the indexing table and then supplied to the bit scheduling module 46.
  • the module 44 also performs the quantification of the gains calculated by the module 40.
  • the greatest absolute value Gs of the gains g (1), ..., g (np) is quantified over 5 bits, for example by taking 32 quantization values in geometric progression in the interval [0; 32767], and each of the relative gains g (1) / Gs, ..., g (np) / Gs in the interval is quantified
  • the quantization bits of Gs are placed in a category protected by the channel coder 22, as are the most significant bits of the quantization indexes of the relative gains.
  • the relative gain quantization bits are ordered so as to allow their assignment to the associated pulses belonging to the segments located by the busy word.
  • the segmental search according to the invention also makes it possible to effectively protect the relative positions of the pulses associated with the greatest gain values.
  • the decoder 54 To reconstruct the impulse contributions of the excitation, the decoder 54 first locates the segments by means of the occupation word received; he then attributes the associated winnings; then it assigns the positions relative to the impulses on the basis of the order of importance of the gains.
  • the 13 kbit / s speech coder requires around 15 million instructions per second (Mips) in fixed point. This will therefore typically be done by programming a commercial digital signal processor (DSP), as well as the decoder which requires only around 5 Mips.
  • DSP digital signal processor

Abstract

The method involves using a digitiser (18) to form a speech signal into successive frames divided into typically 4 subframes of 40 samples of 16 bits. A coder (16) delivers a binary sequence at a substantially slower rate to a channel encoder (22), introducing error detection and/or correction bits. Each frame is analysed by short-term linear prediction (26) to determine coeffts. of a short-term synthesis filter. For each subframe, an excitation sequence is determined which after filtering produces a synthetic signal representing the speech. The subframe is divided into segments corresp. to pulses of stochastic excitation (40), and the positions of these pulses are found so that there is at most one in each segment.

Description

PROCEDE DE CODAGE DE PAROLE A ANALYSE PAR SYNTHESE  SYNTHESIS ANALYSIS SPEECH CODING METHOD
La présente invention concerne le codage de la parole utilisant l'analyse par synthèse. The present invention relates to speech coding using synthesis analysis.
La demanderesse a notamment décrit de tels codeurs de parole qu'elle a développés dans ses demandes de brevet européen 0 195 487, 0 347 307 et 0 469 997.  The applicant has in particular described such speech coders which it developed in its European patent applications 0 195 487, 0 347 307 and 0 469 997.
Dans un codeur de parole à analyse par synthèse, on effectue une prédiction linéaire du signal de parole pour obtenir les coefficients d'un filtre de synthèse à court terme modélisant la fonction de transfert du conduit vocal. Ces coefficients sont transmis au décodeur, ainsi que des paramètres caractérisant une excitation à appliquer au filtre de synthèse à court terme. Dans la plupart des codeurs actuels, on recherche en outre les corrélations à plus long terme du signal de parole pour caractériser un filtre de synthèse à long terme rendant compte de la hauteur tonale de la parole. Lorsque le signal est voisé, l'excitation comporte en effet une composante prédictible pouvant être représentée par l'excitation passée, retardée de TP échantillons du signal de >parole et affectée d'un gain gP. Le filtre de synthèse à long terme, également reconstitué au décodeur, a alors une fonction de transfert de la forme 1/B(z) avec B(z) =1-gP.z-TP. La partie restante, non prédictible, de l'excitation est appelée excitation stochastique. Dans les codeurs dits CELP ("Code Excited Linear Prédiction"), l'excitation stochastique est constituée par un vecteur recherché dans un dictionnaire prédéterminé. Dans les codeurs dits MPLPC ("Multi-Pulse Linear Prédiction Coding"), l'excitation stochastique comporte un certain nombre d'impulsions dont les positions sont recherchées par le codeur. En général, les codeurs CELP sont préférés pour les bas débits de transmission, mais ils sont plus complexes à mettre en oeuvre que les codeurs MPLPC. In a speech coder with synthesis analysis, a linear prediction of the speech signal is carried out to obtain the coefficients of a short-term synthesis filter modeling the transfer function of the vocal tract. These coefficients are transmitted to the decoder, as well as parameters characterizing an excitation to be applied to the short-term synthesis filter. In most of the current coders, further research is carried out on the longer-term correlations of the speech signal in order to characterize a long-term synthesis filter accounting for the pitch of the speech. When the signal is voiced, the excitation indeed has a predictable component which can be represented by the past excitation, delayed by TP samples of the> speech signal and affected by a gain g P. The long-term synthesis filter, also reconstituted at the decoder, then has a transfer function of the form 1 / B (z) with B (z) = 1-g P .z -TP . The remaining, unpredictable part of the excitation is called stochastic excitation. In so-called CELP ("Code Excited Linear Prediction") coders, stochastic excitation consists of a vector searched for in a predetermined dictionary. In so-called MPLPC ("Multi-Pulse Linear Prediction Coding") coders, the stochastic excitation comprises a certain number of pulses whose positions are sought by the coder. In general, CELP coders are preferred for low transmission rates, but they are more complex to implement than MPLPC coders.
Un but de la présente invention est de proposer un procédé de codage de parole dans lequel la recherche de l'excitation stochastique soit simplifiée. An object of the present invention is to provide a speech coding method in which the search for stochastic excitation is simplified.
L'invention propose ainsi un procédé de codage à analyse par synthèse d'un signal de parole numérisé en trames successives divisées en sous-trames de lst échantillons, dans lequel on effectue pour chaque trame une analyse par prédiction linéaire pour déterminer les coefficients d'un filtre de synthèse à court terme, et on détermine pour chaque sous-trame une séquence d'excitation à ne contributions associées chacune à un gain respectif de façon que la séquence d'excitation soumise au filtre de synthèse à court terme produise un signal synthétique représentatif du signal de parole, les ne contributions de la séquence d'excitation et les gains associés étant déterminés par un processus itératif dans lequel l'itération n(0≤n<nc) comprend :  The invention thus proposes a coding method with analysis by synthesis of a speech signal digitized in successive frames divided into sub-frames of lst samples, in which a linear prediction analysis is carried out for each frame to determine the coefficients of a short-term synthesis filter, and an excitation sequence with no contributions each associated with a respective gain is determined for each sub-frame so that the excitation sequence subjected to the short-term synthesis filter produces a synthetic signal representative of the speech signal, the ne contributions of the excitation sequence and the associated gains being determined by an iterative process in which the iteration n (0≤n <nc) comprises:
- la détermination de la contribution n qui maximise la quantité (Fp· en -1 T) 2/Fp . Fp T) où Fp désigne un vecteur ligne à lst composantes égales aux produits de convolution entre une valeur possible de la contribution n et la réponse impulsionnelle d'un filtre composé du filtre de synthèse à court terme et d'un filtre de pondération perceptuelle, et en-1 désigne un vecteur-cible déterminé lors de l'itération n-1 si n≥1 et e- 1=X est un vecteur-cible initial ; et - the determination of the contribution n which maximizes the quantity (F p · e n -1 T ) 2 / F p . F p T ) where F p denotes a line vector with lst components equal to the products of convolution between a possible value of the contribution n and the impulse response of a filter composed of the short-term synthesis filter and a weighting filter perceptual, and e n-1 denotes a target vector determined during the iteration n-1 if n≥1 and e - 1 = X is an initial target vector; and
- le calcul de n+1 gains formant un vecteur ligne gn= (gn(0) , ... ,gn(n) ) en résolvant le système linéaire gn . Bn=bn , où Bn est une matrice symétrique à n+1 lignes et n+1 colonnes dont la composante Bn(i,j) (0≤i,j≤n) est égale au produit scalaire Fp(i) .Fp(j) T où Fp(i) et Fp(j) désignent respectivement les vecteurs-ligne égaux aux produits de convolution entre les contributions i et j précédemment déterminées et la réponse impulsionnelle du filtre composé, et bn est un vecteur ligne à n+1 composantes bn(i) (0≤i≤n) respectivement égales aux produits scalaires entre les vecteurs Fp(i) et le vecteur-cible initial X, - the calculation of n + 1 gains forming a line vector g n = (g n (0), ..., g n (n)) by solving the linear system g n . B n = b n , where B n is a symmetric matrix with n + 1 rows and n + 1 columns whose component B n (i, j) (0≤i, j≤n) is equal to the scalar product F p ( i) .F p (j) T where F p (i) and F p (j) respectively designate the line vectors equal to the convolution products between the contributions i and j previously determined and the impulse response of the compound filter, and b n is a line vector with n + 1 components b n (i) (0≤i≤n) respectively equal to the scalar products between the vectors F p (i) and the initial target vector X,
les ne gains associés aux ne contributions de la séquence d'excitation étant ceux calculés lors de l'itération nc-1. A chaque itération n (0≤n<nc), on calcule les lignes n de trois matrices L, R et K à ne lignes et ne colonnes telles que Bn = Ln.Rn τ et Ln= Rn.Kn où Ln, Rn et Kn désignent des matrices à n+1 lignes et n+1 colonnes correspondant respectivement aux n+1 premières lignes et aux n+1 premières colonnes desdites matrices L, R et K, les matrices L et R étant triangulaires inférieures, la matrice K étant diagonale, et la matrice L n'ayant que des 1 sur sa diagonale principale, on calcule la ligne n de la matrice L inverse de la matrice L, et on calcule les n+1 gains selon la relation gn=bn.Kn.(Ln -1)T.Ln -1 où Ln -1 désigne la matrice à n+1 lignes et n+1 colonnes correspondant respectivement aux N+1 premières lignes et aux n+1 premières colonnes de la matrice inverse L-1. the ne gains associated with ne contributions of the excitation sequence being those calculated during the nc-1 iteration. At each iteration n (0≤n <nc), we calculate the rows n of three matrices L, R and K with no rows and no columns such as B n = L n .R n τ and L n = R n .K n where L n , R n and K n denote matrices with n + 1 rows and n + 1 columns corresponding respectively to the first n + 1 rows and to the first n + 1 columns of said matrices L, R and K, the matrices L and R being lower triangular, the matrix K being diagonal, and the matrix L having only 1 on its main diagonal, we calculate the line n of the matrix L inverse of the matrix L, and we calculate the n + 1 gains according to the relation g n = b n .K n . (L n -1 ) T .L n -1 where L n -1 designates the matrix with n + 1 rows and n + 1 columns corresponding respectively to the first N + 1 rows and to the n + 1 first columns of the inverse matrix L -1 .
Ce mode de recherche de l'excitation limite la complexité des calculs requis pour déterminer la séquence d'excitation, en permettant de ne réaliser qu'au plus une division ou inversion par itération. Dans le cas d'un codeur MPLPC, les contributions peuvent être des contributions impulsionnelles. Ce mode de recherche de l'excitation n'est toutefois pas applicable exclusivement aux codeurs MPLPC. Il est applicable par exemple aux codeurs dits VSELP où les contributions à l'excitation stochastique sont des vecteurs choisis dans un dictionnaire prédéterminé (voir I. Gerson et M. Jasiuk : "Vector Sum Excited Linear Prédiction (VSELP) Speech Coding at 8 kb/s", Proc. Int. Conf. on Acoustics, Speech and Signal Processing, Albuquerque 1990, Vol.1, pages 461-464). Par ailleurs, les ne contributions peuvent comprendre la contribution correspondant à l'excitation passée retardée de TP échantillons, dont le gain associé gP est recalculé lors des itérations successives, ou plusieurs contributions de cette nature si plusieurs retards LTP sont déterminés. This excitation search mode limits the complexity of the calculations required to determine the excitation sequence, by making it possible to carry out only one division or inversion by iteration. In the case of an MPLPC coder, the contributions can be impulse contributions. This excitation search mode is not however applicable exclusively to MPLPC coders. It is applicable for example to so-called VSELP coders where the contributions to stochastic excitation are vectors chosen from a predetermined dictionary (see I. Gerson and M. Jasiuk: "Vector Sum Excited Linear Prediction (VSELP) Speech Coding at 8 kb / s ", Proc. Int. Conf. on Acoustics, Speech and Signal Processing, Albuquerque 1990, Vol. 1, pages 461-464). Furthermore, the contributions cannot include the contribution corresponding to the delayed excitation delayed by TP samples, whose associated gain g P is recalculated during successive iterations, or several contributions of this nature if several LTP delays are determined.
D'autres particularités et avantages de l'invention apparaîtront dans la description ci-après d'exemples de réalisation préférés, mais non limitatifs, en référence aux dessins annexés, dans lesquels : Other features and advantages of the invention will appear in the description below of preferred, but non-limiting, examples of embodiment, with reference to annexed drawings, in which:
- la figure 1 est un schéma synoptique d'une station de radiocommunication incorporant un codeur de parole mettant en oeuvre l'invention ;  - Figure 1 is a block diagram of a radio station incorporating a speech encoder implementing the invention;
- la figure 2 est un schéma synoptique d'une station de radiocommunication apte à recevoir un signal produit par celle de la figure 1 ;  - Figure 2 is a block diagram of a radio station capable of receiving a signal produced by that of Figure 1;
- les figures 3 à 6 sont des organigrammes illustrant un processus d'analyse LTP en boucle ouverte appliqué dans le codeur de parole de la figure 1 ;  - Figures 3 to 6 are flowcharts illustrating an open loop LTP analysis process applied in the speech coder of Figure 1;
- la figure 7 est un organigramme illustrant un processus de détermination de la réponse impulsionnelle du filtre de synthèse pondéré appliqué dans le codeur de parole de la figure 1 ;  - Figure 7 is a flowchart illustrating a process for determining the impulse response of the weighted synthesis filter applied in the speech coder of Figure 1;
- les figures 8 à 11 sont des organigrammes illustrant un processus de recherche de l'excitation stochastique appliqué dans le codeur de parole de la figure 1.  FIGS. 8 to 11 are flowcharts illustrating a process for finding the stochastic excitation applied in the speech coder of FIG. 1.
Un codeur de parole mettant en oeuvre l'invention est applicable dans divers types de systèmes de transmission et/ou de stockage de parole faisant appel à une technique de compression numérique. Dans l'exemple de la figure 1, le codeur de parole 16 fait partie d'une station mobile de radiocommunication. Le signal de parole S est un signal numérique échantillonné à une fréquence typiquement égale à 8kHz. Le signal S est issu d'un convertisseur analogique- numérique 18 recevant le signal de sortie amplifié et filtré d'un microphone 20. Le convertisseur 18 met le signal de parole S sous forme de trames successives elles-mêmes subdivisées en nst sous-trames de l st échantillons. Une trame de 20 ms comporte typiquement nst=4 sous-trames de lst=40 échantillons de 16 bits à 8kHz. En amont du codeur 16, le signal de parole S peut également être soumis à des traitements classiques de mise en forme tels qu'un filtrage de Hamming. Le codeur de parole 16 délivre une séquence binaire de débit sensiblement plus faible que celui du signal de parole S, et adresse cette séquence à un codeur canal 22 dont la fonction est d'introduire des bits de redondance dans le signal afin de permettre une détection et/ou une correction d'éventuelles erreurs de transmission. Le signal de sortie du codeur canal 22 est ensuite modulé sur une fréquence porteuse par le modulateur 24, et le signal modulé est émis sur l'interface air. A speech coder implementing the invention is applicable in various types of speech transmission and / or storage systems using a digital compression technique. In the example of Figure 1, the speech coder 16 is part of a mobile radio station. The speech signal S is a digital signal sampled at a frequency typically equal to 8 kHz. The signal S comes from an analog-digital converter 18 receiving the amplified and filtered output signal from a microphone 20. The converter 18 puts the speech signal S in the form of successive frames themselves subdivided into nst sub-frames of the samples. A frame of 20 ms typically comprises nst = 4 sub-frames of lst = 40 samples of 16 bits at 8 kHz. Upstream of the encoder 16, the speech signal S can also be subjected to conventional shaping treatments such as Hamming filtering. The speech coder 16 delivers a binary sequence of bit rate significantly lower than that of the speech signal S, and addresses this sequence to a channel coder 22 the function of which is to introduce redundancy bits into the signal in order to allow detection and / or correction of possible transmission errors. The output signal from the channel encoder 22 is then modulated on a carrier frequency by the modulator 24, and the modulated signal is transmitted on the air interface.
Le codeur de parole 16 est un codeur à analyse par synthèse. Le codeur 16 détermine d'une part des paramètres caractérisant un filtre de synthèse à court terme modélisant le conduit vocal du locuteur, et d'autre part une séquence d'excitation qui, appliquée au filtre de synthèse à court terme, fournit un signal synthétique constituant une estimation du signal de parole S selon un critère de pondération perceptuelle.  The speech coder 16 is a synthesis analysis coder. The coder 16 determines on the one hand parameters characterizing a short-term synthesis filter modeling the speaker's vocal tract, and on the other hand an excitation sequence which, applied to the short-term synthesis filter, provides a synthetic signal constituting an estimate of the speech signal S according to a perceptual weighting criterion.
Le filtre de synthèse à court terme a une fonction de transfert de la forme 1/A(z), avec : The short-term synthesis filter has a transfer function of the form 1 / A (z), with:
Les coefficients ai sont déterminés par un module 26 d'analyse par prédiction linéaire à court terme du signal de parole S. Les ai sont les coefficients de prédiction linéaire du signal de parole S. L'ordre q de la prédiction linéaire est typiquement de l'ordre de 10. Les méthodes applicables par le module 26 pour la prédiction linéaire à court terme sont bien connues dans le domaine du codage de la parole. Le module 26 met par exemple en oeuvre l'algorithme de Durbin-Levinson (voir J. Makhoul : "Linear Prédiction : A tutorial review", Proc. IEEE, Vol.63, N°4, Avril 1975, p. 561-580). Les coefficients ai obtenus sont fournis à un module 28 qui les convertit en paramètres de raies spectrales (LSP). La représentation des coefficients de prédiction ai par des paramètres LSP est fréquemment utilisée dans des codeurs de parole à analyse par synthèse. Les paramètres LSP sont les q nombres cos(2πfi) rangés en ordre décroissant, les q fréquences de raies spectrales (LSF) normalisées fi(1≤i≤q) étant telles que les nombres complexes exp(2πjfi), avec i=1,3, ... , q-1, q+1 et fq+1=0,5, soient les racines du polynôme Q(z) défini par Q(z)=A(z)+z- (q+1).A(z-1) et que les nombres complexes exp(2πjfi), avec i=0,2,4,...,q et f0=0' soient les racines du polynôme Q (z) défini par Q*(z)=A(z)-z-(q+1).A(z-1). The coefficients a i are determined by a module 26 for short-term linear prediction analysis of the speech signal S. The a i are the linear prediction coefficients of the speech signal S. The order q of the linear prediction is typically of the order of 10. The methods applicable by module 26 for short-term linear prediction are well known in the field of speech coding. Module 26, for example, implements the Durbin-Levinson algorithm (see J. Makhoul: "Linear Prediction: A tutorial review", Proc. IEEE, Vol. 63, N ° 4, April 1975, p. 561-580 ). The coefficients a i obtained are supplied to a module 28 which converts them into spectral line parameters (LSP). The representation of the prediction coefficients a i by LSP parameters is frequently used in speech coders with analysis by synthesis. The LSP parameters are the q numbers cos (2πf i ) arranged in descending order, the q spectral line frequencies (LSF) normalized f i (1≤i≤q) being such that the complex numbers exp (2πjf i ), with i = 1.3, ..., q-1, q + 1 and f q + 1 = 0.5, let the roots of the polynomial Q (z) defined by Q (z) = A (z) + z - (q + 1) .A (z -1 ) and let the complex numbers exp (2πjf i ), with i = 0 , 2,4, ..., q and f 0 = 0 ' are the roots of the polynomial Q (z) defined by Q * (z) = A (z) -z - (q + 1) .A (z - 1 ).
Les paramètres LSP peuvent être obtenus par le module de conversion 28 par la méthode classique des polynômes de Chebyshev (voir P. Kabal et R.P. Ramachandran : "The computation of une spectral frequencies using Chebyshev polynomials", IEEE Trans. ASSP, Vol.34, N° 6, 1986, pages 14191426). Ce sont des valeurs de quantification des paramètres LSP, obtenues par un module de quantification 30, qui sont transmises au décodeur pour que celui-ci retrouve les coefficients ai du filtre de synthèse à court terme. Les coefficients ai peuvent être retrouvés simplement, étant donné que: The LSP parameters can be obtained by the conversion module 28 by the classical method of Chebyshev polynomials (see P. Kabal and RP Ramachandran: "The computation of a spectral frequencies using Chebyshev polynomials", IEEE Trans. ASSP, Vol.34, No. 6, 1986, pages 14191426). These are quantization values of the LSP parameters, obtained by a quantization module 30, which are transmitted to the decoder so that the latter finds the coefficients a i of the short-term synthesis filter. The coefficients a i can be found simply, given that:
Pour éviter des variations brusques dans la fonction de transfert du filtre de synthèse à court terme, les paramètres LSP font l'objet d'une interpolation avant qu'on en déduise les coefficients de prédiction ai. Cette interpolation est effectuée sur les premières sous-trames de chaque trame du signal. Par exemple, si LSPt et LSPt-1 désignent respectivement un paramètre LSP calculé pour la trame t et pour la trame précédente t-1, on prend : LSPt(0)=0,5.LSPt-1+0, 5.LSPt, LSPt(1)=0,25.LSPt-1+0,75.LSPt et LSPt (2)=...=LSTt(nst-1) =LSPt pour les sous-trames 0 , 1, 2 , ... , nst-1 de la trame t. Les coefficients ai du filtre 1/A(z) sont alors déterminés, sous-trame par sous-trame à partir des paramètres LSP interpolés. To avoid sudden variations in the transfer function of the short-term synthesis filter, the LSP parameters are interpolated before the prediction coefficients a i are deduced therefrom. This interpolation is performed on the first sub-frames of each frame of the signal. For example, if LSP t and LSP t-1 respectively designate a LSP parameter calculated for frame t and for the previous frame t-1, we take: LSP t (0) = 0.5. LSP t-1 +0, 5.LSP t , LSP t (1) = 0.25.LSP t-1 + 0.75.LSP t and LSP t (2) = ... = LST t (nst-1) = LSP t for sub -frames 0, 1, 2, ..., nst-1 of frame t. The coefficients a i of the filter 1 / A (z) are then determined, sub-frame by sub-frame from the interpolated LSP parameters.
Les paramètres LSP non quantifiés sont fournis par le module 28 à un module 32 de calcul des coefficients d'un filtre de pondération perceptuelle 34. Le filtre de pondération perceptuelle 34 a de préférence une fonction de transfert de la forme W(z) =A(z/γ1)/A(z/γ2) où γ1 et γ2 sont des coefficients tels que γ12>0 (par exemple γ.,=0,9 et γ2=0,6). Les coefficients du filtre de pondération perceptuelle sont calculés par le module 32 pour chaque sous-trame après interpolation des paramètres LSP reçus du module 28. The non-quantified LSP parameters are supplied by the module 28 to a module 32 for calculating the coefficients of a perceptual weighting filter 34. The perceptual weighting filter 34 preferably has a transfer function of the form W (z) = A (z / γ 1 ) / A (z / γ 2 ) where γ 1 and γ 2 are coefficients such that γ 1 > γ 2 > 0 (for example γ., = 0.9 and γ 2 = 0.6) . The coefficients of the perceptual weighting filter are calculated by the module 32 for each subframe after interpolation of the LSP parameters received from the module 28.
Le filtre de pondération perceptuelle 34 reçoit le signal de parole S et délivre un signal SW pondéré percep- tuellement qui est analysé par des modules 36, 38, 40 pour déterminer la séquence d'excitation. La séquence d'excitation du filtre à court terme se compose d'une excitation prédictible par un filtre de synthèse à long terme modélisant la hauteur tonale (pitch) de la parole, et d'une excitation stochastique non prédictible, ou séquence d'innovation.  The perceptual weighting filter 34 receives the speech signal S and delivers a perceptually weighted signal SW which is analyzed by modules 36, 38, 40 to determine the excitation sequence. The excitation sequence of the short-term filter consists of an excitation predictable by a long-term synthesis filter modeling the pitch (pitch) of the speech, and a non-predictable stochastic excitation, or innovation sequence. .
Le module 36 effectue une prédiction à long terme Module 36 performs long-term prediction
(LTP) en boucle ouverte, c'est-à-dire qu'il ne contribue pas directement à la minimisation de l'erreur pondérée. Dans le cas représenté, le filtre de pondération 34 intervient en amont du module d'analyse en boucle ouverte, mais il pourrait en être autrement : le module 36 pourrait opérer directement sur le signal de parole S ou encore sur le signal S débarrassé de ses corrélations à court terme par un filtre de fonction de transfert A(z). En revanche, les modules 38 et 40 fonctionnent en boucle fermée, c'est-à-dire qu'ils contribuent directement à la minimisation de l'erreur pondérée perceptuellement. (LTP) in open loop, i.e. it does not directly contribute to the minimization of the weighted error. In the case shown, the weighting filter 34 intervenes upstream of the open-loop analysis module, but it could be otherwise: the module 36 could operate directly on the speech signal S or even on the signal S cleared of its short-term correlations by a transfer function filter A (z). On the other hand, the modules 38 and 40 operate in closed loop, that is to say that they contribute directly to the minimization of the perceptually weighted error.
Le filtre de synthèse à long terme a une fonction de transfert de la forme 1/B(z) avec B(z) =1-gP. z-TP où gP désigne un gain de prédiction à long terme et TP désigne un retard de prédiction à long terme. Le retard de prédiction à long terme peut typiquement prendre N=256 valeurs comprises entre rmin et rmax échantillons. Une résolution fractionnaire est prévue pour les plus petites valeurs de retard de façon à éviter les écarts trop perceptibles en termes de fréquence de voisement. On utilise par exemple une résolution 1/6 entre rmin-21 et 33+5/6, une résolution 1/3 entre 34 et 47+2/3, une résolution 1/2 entre 48 et 88+1/2, et une résolution entière entre 89 et rmax=142. Chaque retard possible est ainsi quantifié par un index entier compris entre 0 et N-1=255. The long-term synthesis filter has a transfer function of the form 1 / B (z) with B (z) = 1-g P. z -TP where g P denotes a long-term prediction gain and TP denotes a long-term prediction delay. The delay in prediction in the long term can typically take N = 256 values between rmin and rmax samples. A fractional resolution is provided for the smallest delay values so as to avoid discernible differences in terms of voicing frequency. We use for example a resolution 1/6 between rmin-21 and 33 + 5/6, a resolution 1/3 between 34 and 47 + 2/3, a resolution 1/2 between 48 and 88 + 1/2, and a integer resolution between 89 and rmax = 142. Each possible delay is thus quantified by an integer index between 0 and N-1 = 255.
Le retard de prédiction à long terme est déterminé en deux étapes. Dans la première étape, le module 36 d'analyse LTP en boucle ouverte détecte les trames voisées du signal de parole et détermine, pour chaque trame voisée, un degré de voisement MV et un intervalle de recherche du retard de prédiction à long terme. Le degré de voisement MV d'une trame voisée peut prendre trois valeurs : 1 pour les trames faiblement voisées, 2 pour les trames modérément voisées, et 3 pour les trames très voisées. Dans les notations utilisées ci-après, on prend un degré de voisement MV=0 pour les trames non voisées. L'intervalle de recherche est défini par une valeur centrale représentée par son index de quantification ZP et par une largeur dans le domaine des index de quantification, dépendant du degré de voisement MV. Pour les trames faiblement ou modérément voisées {MV=1 ou 2 ) la largeur de l'intervalle de recherche est de N1 index, c'est-à-dire que l'index du retard de prédiction à long terme sera recherché entre ZP-16 et ZP+15 si N1=32. Pour les trames très voisées (MV=3), la largeur de l'intervalle de recherche est de N3 index, c'est-à-dire que l'index du retard de prédiction à long terme sera recherché entre ZP-8 et ZP+7 si N3=16.  The long-term prediction delay is determined in two stages. In the first step, the open loop LTP analysis module 36 detects the voiced frames of the speech signal and determines, for each voiced frame, a degree of voicing MV and a search interval for the long-term prediction delay. The degree of voicing MV of a voiced frame can take three values: 1 for weakly voiced frames, 2 for moderately voiced frames, and 3 for very voiced frames. In the notations used below, we take a degree of voicing MV = 0 for the unvoiced frames. The search interval is defined by a central value represented by its quantization index ZP and by a width in the domain of the quantization indexes, depending on the degree of voicing MV. For weakly or moderately voiced frames {MV = 1 or 2) the width of the search interval is N1 index, that is to say that the index of the long-term prediction delay will be sought between ZP- 16 and ZP + 15 if N1 = 32. For very close frames (MV = 3), the width of the search interval is N3 index, i.e. the index of the long-term prediction delay will be sought between ZP-8 and ZP +7 if N3 = 16.
Une fois que le degré de voisement MV d'une trame a été déterminé par le module 36, le module 30 opère la quantification des paramètres LSP qui ont auparavant été déterminés pour cette trame. Cette quantification est par exemple vectorielle, c'est-à-dire qu'elle consiste à sélectionner, dans une ou plusieurs tables de quantification prédéterminées, un jeu de paramètres quantifiés LSPQ qui présente une distance minimale avec le jeu de paramètres LSP fourni par le module 28. De façon connue, les tables de quantification diffèrent suivant le degré de voisement MV fourni au module de quantification 30 par l'analyseur en boucle ouverte 36. Un ensemble de tables de quantification pour un degré de voisement MV est déterminé, lors d'essais préalables, de façon à être statistiquement représentatif de trames ayant ce degré MV. Ces ensembles sont stockés à la fois dans les codeurs et dans les décodeurs mettant en oeuvre l'invention. Le module 30 délivre le jeu de paramètres quantifiés LSPQ ainsi que son index Q dans les tables des quantification applicables. Once the degree of voicing MV of a frame has been determined by the module 36, the module 30 operates the quantization of the LSP parameters which have previously been determined for this frame. This quantification is for example vector, that is to say it consists in selecting, in one or more quantification tables predetermined, a set of quantized parameters LSP Q which has a minimum distance from the set of parameters LSP provided by the module 28. In known manner, the quantization tables differ according to the degree of voicing MV provided to the quantization module 30 by the open loop analyzer 36. A set of quantization tables for a degree of voicing MV is determined, during prior tests, so as to be statistically representative of frames having this degree MV. These sets are stored both in the coders and in the decoders implementing the invention. The module 30 delivers the set of quantized parameters LSP Q as well as its index Q in the applicable quantification tables.
Le codeur de parole 16 comprend en outre un module 42 de calcul de la réponse impulsionnelle du filtre composé du filtre de synthèse à court terme et du filtre de pondération perceptuelle. Ce filtre composé a pour fonction de transfert W(z)/A(z). Pour le calcul de sa réponse impulsionnelle h=(h(0), h(1), ..., h(lst-D) sur la durée d'une sous-trame, le module 42 prend pour le filtre de pondération perceptuelle W(z) celui correspondant aux paramètres LSP interpolés mais non quantifiés, c'est-à-dire celui dont les coefficients ont été calculés par le module 32, et pour le filtre de synthèse 1/A(z) celui correspondant aux paramètres LSP quantifiés et interpolés, c'est-à-dire celui qui sera effectivement reconstitué par le décodeur.  The speech coder 16 further comprises a module 42 for calculating the impulse response of the filter composed of the short-term synthesis filter and the perceptual weighting filter. This compound filter has the transfer function W (z) / A (z). For the calculation of its impulse response h = (h (0), h (1), ..., h (lst-D) over the duration of a subframe, the module 42 takes for the perceptual weighting filter W (z) that corresponding to the LSP parameters interpolated but not quantified, that is to say the one whose coefficients were calculated by the module 32, and for the synthesis filter 1 / A (z) that corresponding to the LSP parameters quantized and interpolated, that is to say the one that will be effectively reconstructed by the decoder.
Dans la deuxième étape de la détermination du retard In the second step of determining the delay
TP de prédiction à long terme, le module 38 d'analyse LTP en boucle fermée détermine le retard TP pour chaque sous-trame des trames voisées (MV=1, 2 ou 3). Ce retard TP est caractérisé par une valeur différentielle DP dans le domaine des index de quantification, codée sur 5 bits si MV=1 ou 2 (N1=32), et sur 4 bits si MV=3 (N3=16). L'index du retard TP vaut ZP+DP. De façon connue, l'analyse LTP en boucle fermée consiste à déterminer, dans l'intervalle de recherche des retards T de prédiction à long terme, le retard TP qui maximise, pour chaque sous-trame d'une trame voisée, la corrélation normalisée : Long-term prediction TP, the closed-loop LTP analysis module 38 determines the delay TP for each sub-frame of the voiced frames (MV = 1, 2 or 3). This delay TP is characterized by a differential value DP in the field of quantification indexes, coded on 5 bits if MV = 1 or 2 (N1 = 32), and on 4 bits if MV = 3 (N3 = 16). The TP delay index is ZP + DP. As is known, closed-loop LTP analysis consists in determining, in the search interval for long-term prediction delays T, the delay TP which maximizes, for each sub-frame of a voiced frame, the normalized correlation:
où x(i) désigne le signal de parole pondéré SW de la sous-trame auquel on a soustrait la mémoire du filtre de synthèse pondéré (c'est-à-dire la réponse à un signal nul, due à ses états initiaux, du filtre dont la réponse impulsionnelle a été calculée par le module 42), et yT(i) désigne le produit de convolution : where x (i) denotes the weighted speech signal SW of the subframe from which the memory of the weighted synthesis filter has been subtracted (i.e. the response to a zero signal, due to its initial states, of the filter whose impulse response was calculated by module 42), and y T (i) denotes the convolution product:
u(j-T) désignant la composante prédictible de la séquence d'excitation retardée de T échantillons, estimée par la technique bien connue du répertoire adaptatif ("adaptive codebook"). Pour les retards T inférieurs à la longueur d'une sous-trame, les valeurs manquantes de u(j-T) peuvent être extrapolées à partir des valeurs antérieures. Les retards fractionnaires sont pris en compte en suréchantillonnant le signal u(j-T) dans le répertoire adaptatif. Un suréchantillonnage d'un facteur m est obtenu au moyen de filtres polyphasés interpolateurs. u (j-T) designating the predictable component of the delayed excitation sequence of T samples, estimated by the well-known technique of the adaptive codebook. For delays T less than the length of a subframe, the missing values of u (j-T) can be extrapolated from the previous values. Fractional delays are taken into account by oversampling the signal u (j-T) in the adaptive repertoire. An oversampling of a factor m is obtained by means of polyphase interpolating filters.
Le gain gP de prédiction à long terme pourrait être déterminé par le module 38 pour chaque sous-trame, en appliquant la formule connue : The gain g P of long-term prediction could be determined by the module 38 for each sub-frame, by applying the known formula:
Toutefois, dans une version préférée de l'invention, le gain gP est calculé par le module d'analyse stochastique 40. However, in a preferred version of the invention, the gain g P is calculated by the stochastic analysis module 40.
L'excitation stochastique déterminée pour chaque sous-trame par le module 40 est de type multi-impulsionnelle. Une séquence d'innovation de lst échantillons comprend np impulsions de positions p(n) et d'amplitude g(n). Autrement dit, les impulsions ont une amplitude de 1 et sont associées à des gains respectifs g(n). Etant donné que le retard LTP n'est pas déterminé pour les sous-trames des trames non voisées, on peut prendre un nombre d'impulsions supérieur pour l'excitation stochastique relative à ces sous-trames, par exemple np=5 si MV=1, 2 ou 3 et np=6 si MV=0. Les positions et les gains calculés par le module 40 d'analyse stochastique sont quantifiés par un module 44.  The stochastic excitation determined for each subframe by the module 40 is of the multi-pulse type. An innovation sequence of lst samples comprises np pulses of positions p (n) and of amplitude g (n). In other words, the pulses have an amplitude of 1 and are associated with respective gains g (n). Since the LTP delay is not determined for the sub-frames of the unvoiced frames, a higher number of pulses can be taken for the stochastic excitation relating to these sub-frames, for example np = 5 if MV = 1, 2 or 3 and np = 6 if MV = 0. The positions and gains calculated by the module 40 of stochastic analysis are quantified by a module 44.
Un module d'ordonnancement des bits 46 reçoit les différents paramètres qui seront utiles au décodeur, et constitue la séquence binaire transmise au codeur canal 22. Ces paramètres sont :  A bit scheduling module 46 receives the various parameters which will be useful to the decoder, and constitutes the binary sequence transmitted to the channel coder 22. These parameters are:
- l'index Q des paramètres LSP quantifiés pour chaque trame ;  - the Q index of the LSP parameters quantized for each frame;
- le degré MV de voisement de chaque trame ; - the degree MV of voicing of each frame;
- l'index ZP du centre de l'intervalle de recherche des retards LTP pour chaque trame voisée ; - the ZP index of the center of the LTP delay search interval for each voiced frame;
- l'index différentiel DP du retard LTP pour chaque sous-trame d'une trame voisée, et le gain associé gP ; - the differential index DP of the delay LTP for each sub-frame of a voiced frame, and the associated gain g P ;
- les positions p(n) et les gains g(n) des impulsions de l'excitation stochastique pour chaque sous-trame.  - the positions p (n) and the gains g (n) of the pulses of the stochastic excitation for each sub-frame.
Certains de ces paramètres peuvent avoir une importance particulière dans la qualité de restitution de la parole ou une sensibilité particulière aux erreurs de transmission. On prévoit ainsi dans le codeur un module 48 qui reçoit les différents paramètres et qui ajoute à certains d'entre eux des bits de redondance permettant de détecter et/ou de corriger d'éventuelles erreurs de transmission. Par exemple, le degré de voisement MV codé sur deux bits étant un paramètre critique, on souhaite qu'il parvienne au décodeur avec aussi peu d'erreurs que possible. Pour cette raison, des bits de redondance sont ajoutés à ce paramètre par le module 48. On peut par exemple ajouter un bit de parité aux deux bits codant MV et répéter une fois les trois bits ainsi obtenus. Cet exemple de redondance permet de détecter toutes les erreurs simples ou doubles et de corriger toutes les erreurs simples et 75% des erreurs doubles. Some of these parameters may have a particular importance in the quality of speech reproduction or a particular sensitivity to transmission errors. A module 48 is thus provided in the encoder which receives the various parameters and which adds to some of them redundancy bits making it possible to detect and / or correct any transmission errors. For example, the degree of voicing MV coded on two bits being a critical parameter, we want it to reach the decoder with as few errors as possible. For this reason, redundancy bits are added to this parameter by the module 48. It is for example possible to add a parity bit to the two bits coding MV and to repeat once the three bits thus obtained. This example of redundancy makes it possible to detect all the single or double errors and to correct all the simple errors and 75% of the double errors.
L'allocation du débit binaire par trame de 20 ms est par exemple celle indiquée dans le tableau I.  The allocation of the bit rate per 20 ms frame is for example that indicated in Table I.
Dans l'exemple considéré ici, le codeur canal 22 est celui utilisé dans le système paneuropéen de radiocommunication avec les mobiles (GSM). Ce codeur canal, décrit en détail dans la Recommandation GSM 05.03, a été mis au point pour un codeur de parole à 13 kbit /s de type RPE-LTP qui produit également 260 bits par trame de 20 ms. La sensibilité de chacun des 260 bits a été déterminée à partir de tests d'écoute. Les bits issus du codeur source ont été regroupés en trois catégories. La première de ces catégories IA regroupe 50 bits qui sont codés convolutionnellement sur la base d'un polynôme générateur donnant une redondance d'un demi avec une longueur de contrainte égale à 5. Trois bits de parité sont calculés et ajoutés aux 50 bits de la catégorie IA avant le codage convolutionnel. La seconde catégorie (IB) compte 132 bits qui sont protégés à un taux d'un demi par le même polynôme que la catégorie précédente. La troisième catégorie (II) contient 78 bits non protégés. Après application du code convolutionnel, les bits (456 par trame) sont soumis à un entrelacement. Le module d'ordonnancement 46 du nouveau codeur source mettant en oeuvre l'invention distribue les bits dans les trois catégories en fonction de l'importance subjective de ces bits. In the example considered here, the channel coder 22 is that used in the pan-European system of radiocommunication with mobiles (GSM). This channel coder, described in detail in Recommendation GSM 05.03, was developed for a 13 kbit / s speech coder of RPE-LTP type which also produces 260 bits per 20 ms frame. The sensibility of each of the 260 bits was determined from listening tests. The bits from the source encoder have been grouped into three categories. The first of these categories IA groups 50 bits which are coded convolutionally on the basis of a generator polynomial giving a redundancy of one half with a constraint length equal to 5. Three parity bits are calculated and added to the 50 bits of the category IA before convolutional coding. The second category (IB) has 132 bits which are protected at a rate of a half by the same polynomial as the previous category. The third category (II) contains 78 unprotected bits. After application of the convolutional code, the bits (456 per frame) are subjected to interleaving. The scheduling module 46 of the new source coder implementing the invention distributes the bits in the three categories according to the subjective importance of these bits.
Une station mobile de radiocommunication apte à recevoir le signal de parole traité par le codeur source 16 est représentée schématiquement sur la figure 2. Le signal radio reçu est d'abord traité par un démodulateur 50 puis par un décodeur canal 52 qui effectuent les opérations duales de celles du modulateur 24 et du codeur canal 22. Le décodeur canal 52 fournit au décodeur de parole 54 une séquence binaire qui, en l'absence d'erreurs de transmission ou lorsque les éventuelles erreurs ont été corrigées par le décodeur canal 52, correspond à la séquence binaire qu'a délivrée le module d'ordonnancement 46 au niveau du codeur 16. Le décodeur 54 comprend un module 56 qui reçoit cette séquence binaire et qui identifie les paramètres relatifs aux différentes tra- mes et sous-trames. Le module 56 effectue en outre quelques contrôles sur les paramètres reçus. En particulier, le module 56 examine les bits de redondance introduits par le module 48 du codeur, pour détecter et/ou corriger les erreurs affectant les paramètres associés à ces bits de redondance.  A mobile radio station capable of receiving the speech signal processed by the source encoder 16 is shown diagrammatically in FIG. 2. The received radio signal is first processed by a demodulator 50 then by a channel decoder 52 which performs the dual operations those of the modulator 24 and of the channel coder 22. The channel decoder 52 supplies the speech decoder 54 with a binary sequence which, in the absence of transmission errors or when the possible errors have been corrected by the channel decoder 52, corresponds to the binary sequence delivered by the scheduling module 46 at the level of the coder 16. The decoder 54 comprises a module 56 which receives this binary sequence and which identifies the parameters relating to the different frames and subframes. The module 56 also performs some checks on the parameters received. In particular, the module 56 examines the redundancy bits introduced by the module 48 of the coder, to detect and / or correct the errors affecting the parameters associated with these redundancy bits.
Pour chaque trame de parole à synthétiser, un module For each speech frame to be synthesized, a module
58 du décodeur reçoit le degré de voisement MV et l'index de Q de quantification des paramètres LSP. Le module 58 retrouve les paramètres LSP quantifiés dans les tables correspondant à la valeur de MV, et, après interpolation, les convertit en coefficients ai pour le filtre de synthèse à court terme 60. Pour chaque sous-trame de parole à synthétiser, un générateur d'impulsions 62 reçoit les positions p(n) des np impulsions de l'excitation stochastique. Le générateur 62 délivre des impulsions d'amplitude unitaire qui sont chacune multipliées en 64 par le gain associé g(n). La sortie de l'amplificateur 64 est adressée au filtre de synthèse à long terme 66. Ce filtre 66 a une structure à répertoire adaptatif. Les échantillons u de sortie du filtre 66 sont mémorisés dans le répertoire adaptatif 68 de façon à être disponibles pour les sous-trames ultérieures. Le retard TP relatif à une sous- trame, calculé à partir des index de quantification ZP et DP, est fourni au répertoire adaptatif 68 pour produire le signal u convenablement retardé. L'amplificateur 70 multiplie le signal ainsi retardé par le gain gP de prédiction à long terme. Le filtre à long terme 66 comprend enfin un additionneur 72 qui ajoute les sorties des amplificateurs 64 et 70 pour fournir la séquence d'excitation u. Lorsque l'analyse LTP n'a pas été effectuée au codeur, par exemple si MV=0, un gain de prédiction gP nul est imposé à l'amplificateur 70 pour les sous-trames correspondantes. La séquence d'excitation est adressée au filtre de synthèse à court terme 60, et le signal résultant peut encore, de façon connue, être soumis à un post-filtre 74 dont les coefficients dépendent des paramètres de synthèse reçus, pour former le signal de parole synthétique S'. Le signal de sortie S' du décodeur 54 est ensuite converti en analogique par le convertisseur 76 avant d'être amplifié pour commander un haut-parleur 78. 58 of the decoder receives the degree of voicing MV and the index of Q for quantifying LSP parameters. The module 58 finds the quantized LSP parameters in the tables corresponding to the value of MV, and, after interpolation, converts them into coefficients a i for the short-term synthesis filter 60. For each speech sub-frame to be synthesized, a pulse generator 62 receives the positions p (n) of the np pulses of the stochastic excitation. The generator 62 delivers pulses of unit amplitude which are each multiplied by 64 by the associated gain g (n). The output of amplifier 64 is addressed to the long-term synthesis filter 66. This filter 66 has an adaptive directory structure. The output samples u of the filter 66 are stored in the adaptive directory 68 so as to be available for the subsequent subframes. The delay TP relative to a subframe, calculated from the quantization indices ZP and DP, is supplied to the adaptive repertoire 68 to produce the signal u suitably delayed. The amplifier 70 multiplies the signal thus delayed by the gain g P of long-term prediction. The long-term filter 66 finally comprises an adder 72 which adds the outputs of amplifiers 64 and 70 to provide the excitation sequence u. When the LTP analysis has not been carried out at the coder, for example if MV = 0, a prediction gain g P zero is imposed on the amplifier 70 for the corresponding sub-frames. The excitation sequence is addressed to the short-term synthesis filter 60, and the resulting signal can also, in known manner, be subjected to a post-filter 74 whose coefficients depend on the synthesis parameters received, to form the signal of synthetic speech S '. The output signal S 'of the decoder 54 is then converted into analog by the converter 76 before being amplified to control a loudspeaker 78.
On va maintenant décrire, en référence au figures 3 à 6, le processus d'analyse LTP en boucle ouverte mis en oeuvre par le module 36 du codeur suivant un premier aspect de l'invention.  We will now describe, with reference to FIGS. 3 to 6, the LTP open loop analysis process implemented by the module 36 of the coder according to a first aspect of the invention.
Dans une première étape 90, le module 36 calcule et mémorise, pour chaque sous-trame st=0,1, ... ,nst-1 de la trame courante, les autocorrélations Cst(k) et les énergies retardées Gst(k) du signal de parole pondéré SW pour les retards entiers k compris entre rmin et rmax : In a first step 90, the module 36 calculates and memorizes, for each sub-frame st = 0.1, ..., nst-1 of the current frame, the autocorrelations C st (k) and the delayed energies G st (k) of the weighted speech signal SW for the delays integers k between rmin and rmax:
Les énergies par sous-trame R0st sont également calculées : The energies per sub-frame R0 st are also calculated:
A l'étape 90, le module 36 détermine en outre, pour chaque sous-trame st, le retard entier Kst qui maximise l'estimation en boucle ouverte Pst(k) du gain de prédiction à long terme sur la sous-trame st, en excluant les retards k pour lesquels l'autocorrélation Cst (k) est négative ou plus petite qu'une petite fraction ε de l'énergie R0st de la sous- trame. L'estimation Pst(k) exprimée en décibels s'écrit :In step 90, the module 36 also determines, for each sub-frame st, the entire delay K st which maximizes the open-loop estimation P st (k) of the long-term prediction gain on the sub-frame st, excluding the delays k for which the autocorrelation C st (k) is negative or smaller than a small fraction ε of the energy R0 st of the subframe. The estimate P st (k) expressed in decibels is written:
Maximiser Pst (k) revient donc à maximiser l'expression Xs t (k) =Cs t.2 (k) /Gs t: (k) comme indiqué sur la figure 6. Le retard entier Kst est le retard de base en résolution entière pour la sous-trame st. L'étape 90 est suivie par une comparaison 92 entre une première estimation en boucle ouverte du gain de prédiction global sur la trame courante et un seuil prédéterminé S0 typiquement compris entre 1 et 2 décibels (par exemple S0 =1,5 dB). La première estimation du gain de prédiction global est égale à : où R0 est l'énergie totale de la trame (R0 = R00+ R01+...+ R0nst-1), et Xst (Kst)=Cst 2(Kst)/GsC(Kst) désigne le maximum déterminé à l'étape 90 relativement à la sous-trame st. Comme l'indique la figure 6, la comparaison 92 peut être effectuée sans avoir à calculer le logarithme. Maximizing P st (k) therefore amounts to maximizing the expression X st (k) = C st . 2 (k) / G st: (k) as shown in FIG. 6. The entire delay K st is the basic delay in full resolution for the sub-frame st. Step 90 is followed by a comparison 92 between a first open loop estimate of the overall prediction gain over the current frame and a predetermined threshold S0 typically between 1 and 2 decibels (for example S0 = 1.5 dB). The first estimate of the overall prediction gain is equal to: where R0 is the total energy of the frame (R0 = R0 0 + R0 1+ ... + R0 nst-1 ), and X st (K st ) = C st 2 (K st ) / G sC (K st ) designates the maximum determined in step 90 relative to the subframe st. As shown in Figure 6, comparison 92 can be performed without having to calculate the logarithm.
Si la comparaison 92 montre une première estimation du gain de prédiction inférieure au seuil S0, on considère que le signal de parole contient trop peu de corrélations à long terme pour être voisé, et le degré de voisement MV de la trame courante est pris égal à 0 à l'étape 94, ce qui termine dans ce cas les opérations effectuées par le module 36 sur cette trame. Si au contraire le seuil S0 est dépassé à l'étape 92, la trame courante est détectée comme voisée et le degré MV sera égal à 1, 2 ou 3. Le module 36 calcule alors, pour chaque sous-trame st, une liste Ist contenant des retards candidats pour constituer le centre ZP de l'intervalle de recherche des retards de prédiction à long terme. If the comparison 92 shows a first estimate of the prediction gain below the threshold S0, it is considered that the speech signal contains too few long-term correlations to be seen, and the degree of voicing MV of the current frame is taken equal to 0 in step 94, which in this case ends the operations performed by the module 36 on this frame. If on the contrary the threshold S0 is exceeded in step 92, the current frame is detected as voiced and the degree MV will be equal to 1, 2 or 3. The module 36 then calculates, for each subframe st, a list I st containing candidate delays to constitute the ZP center of the search interval for long-term prediction delays.
Les opérations effectuées par le module 36 pour chaque sous-trame st (st initialisé à 0 à l'étape 96) d'une trame voisée commencent par la détermination 98 d'un seuil de sélection SEst en décibels égal à une fraction déterminée β de l'estimation Pst(Kst.) du gain de prédiction en décibels sur la sous-trame, maximisée à l'étape 90 (β=0,75 typiquement). Pour chaque sous-trame st d'une trame voisée, le module 36 détermine le retard de base rbf en résolution entière pour la suite du traitement. Ce retard de base pourrait être pris égal à l'entier Kst obtenu à l'étape 90. Le fait de rechercher le retard de base en résolution fractionnaire autour de Kst permet toutefois de gagner en précision. L'étape 100 consiste ainsi, à rechercher, autour du retard entier Kst obtenu à l'étape 90, le retard fractionnaire qui maximise l'expression Cst 2/Gst. Cette recherche peut être effectuée à la résolution maximale des retards fractionnaires (1/6 dans l'exemple décrit ici) même si le retard entier Kst n'est pas dans le domaine où cette résolu tion maximale s'applique. On détermine par exemple le nombre Δs t qui maximise Cs t 2 (Ks t+δ/6) /Gs t (Ks t +δ/6) pour -6<δ<+6, puis le retard de base rbf en résolution maximale est pris égal à Kst+ Δst/6. Pour les valeurs fractionnaires T du retard, les autocorrélations Cst(T) et les énergies retardées Gst(T) sont obtenues par interpolation à partir des valeurs mémorisées à l'étape 90 pour les retards entiers. Bien entendu, le retard de base relatif à une sous-trame pourrait également être déterminé en résolution fractionnaire dès l'étape 90 et pris en compte dans la première estimation du gain de prédiction global sur la trame. The operations performed by the module 36 for each subframe st (st initialized to 0 at step 96) of a voiced frame begin with the determination 98 of a selection threshold SE st in decibels equal to a determined fraction β of the estimate P st (K st .) of the prediction gain in decibels on the subframe, maximized in step 90 (β = 0.75 typically). For each sub-frame st of a voiced frame, the module 36 determines the basic delay rbf in full resolution for the rest of the processing. This basic delay could be taken equal to the integer K st obtained in step 90. The fact of finding the basic delay in fractional resolution around K st however makes it possible to gain in precision. Step 100 thus consists in finding, around the integer delay K st obtained in step 90, the fractional delay which maximizes the expression C st 2 / G st . This search can be carried out at the maximum resolution of the fractional delays (1/6 in the example described here) even if the entire delay K st is not in the domain where this resolved maximum tion applies. We determine for example the number Δ st which maximizes C st 2 (K st + δ / 6) / G st (K st + δ / 6) for -6 <δ <+6, then the basic delay rbf in maximum resolution is taken equal to K st + Δ st / 6. For the fractional values T of the delay, the autocorrelations C st (T) and the delayed energies G st (T) are obtained by interpolation from the values stored in step 90 for the whole delays. Of course, the basic delay relating to a sub-frame could also be determined in fractional resolution from step 90 and taken into account in the first estimation of the overall prediction gain on the frame.
Une fois que le retard de base rbf a été déterminé pour une sous-trame, on procède à un examen 101 des sous- multiples de ce retard afin de retenir ceux pour lesquels le gain de prédiction est relativement important (figure 4), puis des multiples du plus petit sous-multiple retenu (figure 5). A l'étape 102, l'adresse j dans la liste Ist et l'index m du sous-multiple sont initialisés à 0 et 1, respectivement. Une comparaison 104 est effectuée entre le sous-multiple rbf/m et le retard minimal rmin. Le sous-multiple rbf/m est à examiner s'il est supérieur à rmin. On prend alors pour l'entier i la valeur de l'index du retard quantifié ri le plus proche de rbf/m (étape 106), puis on compare, en 108, la valeur estimée du gain de prédiction Pst(ri) associée au retard quantifié ri pour la sous-trame considérée au seuil de sélection SEst calculé à l'étape 98 :Once the basic delay rbf has been determined for a sub-frame, an examination 101 of the submultiples of this delay is carried out in order to select those for which the prediction gain is relatively large (FIG. 4), then multiples of the smallest sub-multiple selected (Figure 5). In step 102, the address j in the list I st and the index m of the submultiple are initialized to 0 and 1, respectively. A comparison 104 is made between the submultiple rbf / m and the minimum delay rmin. The submultiple rbf / m is to be examined if it is greater than rmin. We then take for the integer i the value of the index of the quantized delay r i closest to rbf / m (step 106), then we compare, in 108, the estimated value of the prediction gain P st (r i ) associated with the quantized delay r i for the sub-frame considered at the selection threshold SE st calculated in step 98:
avec, pour les retards fractionnaires une interpolation des valeurs Cst et Gst calculées à l'étape 90 pour les retards entiers. Si Pst(ri)<SEst, le retard ri n'est pas pris en considération, et on passe directement à l'étape 110 d'incrémentation de l'index m avant d'effectuer de nouveau la comparaison 104 pour le sous-multiple suivant. Si le test 108 montre que Pst(ri) ≥ SEst, le retard ri est retenu et on exécute l'étape 112 avant d" incrémenter l'index m à l'étape 110. A l'étape 112, on mémorise l'index i à l'adresse j dans la liste Ist, on donne la valeur m à l'entier m0 destiné à être égal à l'index du plus petit sous-multiple retenu, puis on incrémente d'une unité l'adresse j. with, for the fractional delays an interpolation of the values C st and G st calculated in step 90 for the whole delays. If P st (r i ) <SE st , the delay r i is not taken into account, and we go directly to step 110 of incrementing the index m before carrying out the comparison 104 again for the next submultiple. If test 108 shows that P st (r i ) ≥ SE st , the delay r i is retained and step 112 is executed before incrementing the index m in step 110. In step 112, we stores index i at address j in the list I st , the value m is given to the integer m0 intended to be equal to the index of the smallest submultiple retained, then the address j is incremented by one.
L'examen des sous-multiples du retard de base est terminé lorsque la comparaison 104 montre rbf/m < rmin. On examine alors les retards multiples du plus petit rbf/m0 des sous-multiples précédemment retenus suivant le processus illustré sur la figure 5. Cet examen commence par une initialisation 114 de l'index n du multiple : n=2. Une comparaison 116 est effectuée entre le multiple n.rbf/m0 et le retard maximal rmax. Si n.rbf/m0 > rmax, on effectue le test 118 pour déterminer si l'index m0 du plus petit sous-multiple est un multiple entier de n. Dans l'affirmative, le retard n.rbf/m0 a déjà été examiné lors de l'examen des sous-multiples de rbf, et on passe directement à l'étape 120 d'incrémentation de l'index n avant d'effectuer de nouveau la comparaison 116 pour le multiple suivant. Si le test 118 montre que m0 n'est pas un multiple entier de n, le multiple n.rbf/m0 est à examiner. On prend alors pour l'entier i la valeur de l'index du retard quantifié ri le plus proche de n.rbf/m0 (étape 122), puis on compare, en 124, la valeur estimée du gain de prédiction Pst(ri) au seuil de sélection SEst. Si Pst(ri)<SEst, le retard ri n'est pas pris en considération, et on passe directement à l'étape 120 d'incrémentation de l'index n. Si le test 124 montre que Pst(ri) ≥ SEst , le retard ri est retenu et on exécute l'étape 126 avant d' incrémenter l'index n à l'étape 120. A l'étape 126, on mémorise l'index i à l'adresse j dans la liste Ist, puis on incrémente d'une unité l'adresse j. The examination of the sub-multiples of the basic delay is finished when the comparison 104 shows rbf / m <rmin. We then examine the multiple delays of the smallest rbf / m0 of the submultiples previously selected according to the process illustrated in FIG. 5. This examination begins with an initialization 114 of the index n of the multiple: n = 2. A comparison 116 is made between the multiple n.rbf / m0 and the maximum delay rmax. If n.rbf / m0> rmax, test 118 is carried out to determine whether the index m0 of the smallest sub-multiple is an integer multiple of n. If so, the delay n.rbf / m0 has already been examined when examining the sub-multiples of rbf, and we go directly to step 120 of incrementing the index n before carrying out again comparison 116 for the next multiple. If test 118 shows that m0 is not an integer multiple of n, the multiple n.rbf / m0 is to be examined. We then take for the integer i the value of the index of the quantized delay r i closest to n.rbf / m0 (step 122), then we compare, at 124, the estimated value of the prediction gain P st ( r i ) at the selection threshold SE st . If P st (r i ) <SE st , the delay r i is not taken into account, and we go directly to step 120 of incrementing the index n. If test 124 shows that P st (r i ) ≥ SE st , the delay r i is retained and step 126 is executed before incrementing the index n in step 120. In step 126, we stores the index i at address j in the list I st , then the address j is incremented by one.
L'examen des multiples du plus petit sous-multiple est terminé lorsque la comparaison 116 montre que n.rbf/m0 > rmax. A ce moment, la liste Ist contient j index de retards candidats. Si on souhaite limiter à jmax la longueur maximale de la liste Ist pour les étapes suivantes, on peut prendre la longueur jst de cette liste égale à min (j, jmax) (étape 128) puis, à l'étape 130, ordonner la liste lst dans l'ordre des gains Cs t 2 (rIst ( j ) ) /Gs t 2 (rIs t (j ) ) décroissants pour 0≤j<jst de façon à ne conserver que les jst retards procurant les plus grandes valeurs de gain. La valeur de jmax est choisie en fonction du compromis visé entre l'efficacité de la recherche des retards LTP et la complexité de cette recherche. Des valeurs typiques de jmax vont de 3 à 5. The examination of the multiples of the smallest sub-multiple is finished when the comparison 116 shows that n.rbf / m0> rmax. At this time, the list I st contains j candidate delay index. If we wish to limit the maximum length of the list I st to jmax for the following steps, we can take the length j st of this list equal to min (j, jmax) (step 128) and then, in step 130, order the list l st in the order of gains C st 2 (r Ist (j) ) / G st 2 (r Is t (j) ) decreasing for 0≤j <j st so as to keep only the j st delays providing the largest gain values. The value of jmax is chosen according to the compromise sought between the efficiency of the search for LTP delays and the complexity of this search. Typical values of jmax range from 3 to 5.
Une fois que les sous-multiples et les multiples ont été examinés et que la liste Ist a ainsi été obtenue (figure 3), le module d'analyse 36 calcule une quantité Ymax déterminant une seconde estimation en boucle ouverte du gain de prédiction à long terme sur l'ensemble de la trame, ainsi que des index ZP, ZP0 et ZP1 dans une phase 132 dont le déroulement est détaillé sur la figure 6. Cette phase 132 consiste à tester des intervalles de recherche de longueur NI pour déterminer celui qui maximise une deuxième estimation du gain de prédiction global sur la trame. Les intervalles testés sont ceux dont les centres sont les retards candidats contenus dans la liste Ist calculée lors de la phase 101. La phase 132 commence par une étape 136 où l'adresse j dans la liste lst est initialisée à 0. A l'étape 138, on vérifie si l'index Ist(j) a déjà été rencontré en testant un intervalle précédent centré sur Ist'(j') avec st'<st et 0≤j'<jst', afin d'éviter de tester deux fois le même intervalle. Si le test 138 révèle que Ist(j) figurait déjà dans une liste Ist. avec st'<st, on incrémente directement l'adresse j à l'étape 140, puis on la compare à la longueur jst de la liste Ist. Si la comparaison 142 montre que j<jst, on revient à l'étape 138 pour la nouvelle valeur de l'adresse j. Lorsque la comparaison 142 montre que j=jst, tous les intervalles relatifs à la liste Ist ont été testés, et la phase 132 est terminée. Lorsque le test 138 est négatif, on teste l'intervalle centré sur Ist(j) en commençant par l'étape 148 où on détermine, pour chaque sous-trame st', l'index ist, du retard optimal qui maximise sur cet intervalle l'estimation en boucle ouverte Pst(ri) du gain de prédiction à long terme, c'est-à-dire qui maximise la quantité Yst,(i) =Cs t ' 2 (ri ) /Gs t '(ri) où ri désigne le retard quantifié d'index i pour Ist(j)-N1/2 ≤i<Ist(j)+N1/2 et 0≤i<N. Lors de la maximisation 148 relative à une sous-trame st', on écarte a priori les index i pour lesquels l'autocorrélation Cst, (ri) est négative, pour éviter de dégrader le codage. S'il se trouve que toutes les valeurs de i comprises dans l'intervalle testé [I(j)-N1/2, I(j)+N1/2[ donnent lieu à des autocorrélations Cst'(ri) négatives, on sélectionne l'index ist' pour lequel cette autocorrélation est la plus petite en valeur absolue. Ensuite, en 150, la quantité Y déterminant la deuxième estimation du gain de prédiction global pour l'intervalle centré sur Igt(j) est calculée selon : Once the sub-multiples and the multiples have been examined and the list I st has thus been obtained (FIG. 3), the analysis module 36 calculates a quantity Ymax determining a second open-loop estimate of the prediction gain at long term over the entire frame, as well as ZP, ZP0 and ZP1 indexes in a phase 132, the progress of which is detailed in FIG. 6. This phase 132 consists in testing search intervals of length NI to determine which one maximizes a second estimate of the overall prediction gain on the frame. The intervals tested are those whose centers are the candidate delays contained in the list I st calculated during phase 101. Phase 132 begins with a step 136 where the address j in the list l st is initialized to 0. At l 'step 138, we check if the index I st (j) has already been encountered by testing a previous interval centered on I st' (j ') with st'<st and 0≤j '<j st' , in order to d '' Avoid testing the same interval twice. If test 138 reveals that I st (j) already appeared in a list I st . with st '<st, the address j is directly incremented in step 140, then it is compared to the length j st of the list I st . If the comparison 142 shows that j <j st , we return to step 138 for the new value of the address j. When the comparison 142 shows that j = j st , all the intervals relating to the list I st have been tested, and phase 132 is terminated. When the test 138 is negative, the interval centered on I st (j) is tested, starting with step 148 where we determine, for each sub-frame st ', the index i st , of the optimal delay which maximizes on this interval the open loop estimation P st (r i ) of the long-term prediction gain, that is to say which maximizes the quantity Y st , (i) = C st ' 2 (r i ) / G st ' (r i ) where r i denotes the quantized delay of index i for I st (j) -N1 / 2 ≤i <I st (j) + N1 / 2 and 0≤i <N. During the maximization 148 relating to a sub-frame st ', we a priori discard the indexes i for which the autocorrelation C st , (r i ) is negative, in order to avoid degrading the coding. If it turns out that all the values of i included in the tested interval [I (j) -N1 / 2, I (j) + N1 / 2 [give rise to negative autocorrelations C st ' (r i ), selecting the index i st ' for which this autocorrelation is the smallest in absolute value. Then, in 150, the quantity Y determining the second estimate of the overall prediction gain for the interval centered on I gt (j) is calculated according to:
puis comparée à Ymax, où Ymax représente la valeur à maximiser. Cette valeur Ymax est par exemple initialisée à 0 en même temps que l'index st à l'étape 96. Si Y≤Ymax, on passe directement à l'étape 140 d'incrémentation de l'index j. Si la comparaison 150 montre que Y > Ymax, on exécute l'étape 152 avant d' incrémenter l'adresse j à l'étape 140. A cette étape 152, l'index ZP est pris égal à Ist(j) et les index ZP0 et ZP1 sont respectivement pris égaux au plus petit et au plus grand des index ist. déterminés à l'étape 148. then compared to Ymax, where Ymax represents the value to be maximized. This value Ymax is for example initialized to 0 at the same time as the index st in step 96. If Y≤Ymax, we go directly to step 140 for incrementing the index j. If the comparison 150 shows that Y> Ymax, step 152 is executed before incrementing the address j in step 140. At this step 152, the index ZP is taken equal to I st (j) and the indexes ZP0 and ZP1 are respectively taken equal to the smallest and the largest of the indexes i st . determined in step 148.
A la fin de la phase 132 relative à une sous-trame st, l'index st est incrémente d'une unité (étape 154) puis comparé, à l'étape 156, au nombre nst de sous-trames par trame. Si st<nst, on revient à l'étape 98 pour effectuer les opérations relatives à la sous-trame suivante. Lorsque la comparaison 156 montre que st=nst, l'index ZP désigne le centre de l'intervalle de recherche qui sera fourni au module 38 d'analyse LTP en boucle fermée, et ZP0 et ZP1 sont des index dont l'écart est représentatif de la dispersion des retards optimaux par sous-trame dans l'intervalle centré sur ZP.  At the end of phase 132 relating to a sub-frame st, the index st is incremented by one unit (step 154) then compared, in step 156, to the number nst of sub-frames per frame. If st <nst, we return to step 98 to carry out the operations relating to the next sub-frame. When the comparison 156 shows that st = nst, the index ZP designates the center of the search interval which will be supplied to the module 38 of LTP analysis in closed loop, and ZP0 and ZP1 are indices whose deviation is representative the dispersion of the optimal delays by sub-frame in the interval centered on ZP.
A l'étape 158, le module 36 détermine le degré de voisement MV, sur la base de la seconde estimation en boucle ouverte du gain exprimée en décibels : Gp=20. log10 (RO/RO-Ymax). On fait appel à deux autres seuils S1 et S2. Si Gp≤S1, le degré de voisement MV est pris égal à 1 pour la trame courante. Le seuil S1 est typiquement compris entre 3 et 5 dB ; par exemple S1=4 dB. Si S1<Gp<S2, le degré de voisement MV est pris égal à 2 pour la trame courante. Le seuil S2 est typiquement compris entre 5 et 8 dB ; par exemple S2=7 dB. Si Gp>S2, on examine la dispersion des retards optimaux pour les différentes sous-trames de la trame courante. Si ZP1-ZP.N3/2 et ZP-ZP0≤N3/2, un intervalle de longueur N3 centré sur ZP suffit à prendre en compte tous les retards optimaux et le degré de voisement est pris égal à 3 (si Gp>S2). Sinon, si ZP1-ZP≥N3/2 ou ZP-ZPO>N3/2, le degré de voisement est pris égal à 2 (si Gp>S2). In step 158, the module 36 determines the degree of voicing MV, on the basis of the second open loop estimate of the gain expressed in decibels: Gp = 20. log 10 (RO / RO-Ymax). Two other thresholds S1 and S2 are used. If Gp≤S1, the degree of voicing MV is taken equal to 1 for the current frame. The threshold S1 is typically between 3 and 5 dB; for example S1 = 4 dB. If S1 <Gp <S2, the degree of voicing MV is taken equal to 2 for the current frame. The threshold S2 is typically between 5 and 8 dB; for example S2 = 7 dB. If Gp> S2, the dispersion of the optimal delays for the different sub-frames of the current frame is examined. If ZP1-ZP.N3 / 2 and ZP-ZP0≤N3 / 2, an interval of length N3 centered on ZP is sufficient to take into account all the optimal delays and the degree of voicing is taken equal to 3 (if Gp> S2) . Otherwise, if ZP1-ZP≥N3 / 2 or ZP-ZPO> N3 / 2, the degree of voicing is taken equal to 2 (if Gp> S2).
L'index ZP du centre de l'intervalle de recherche du retard de prédiction pour une trame voisée peut être compris entre 0 et N-1=255, et l'index différentiel DP déterminé pour le module 38 peut aller de -16 à +15 si MV=1 ou 2, et de -8 à +7 si MV=3 (cas N1=32, N3=16). L'index ZP+DP du retard TP finalement déterminé peut donc dans certains cas être plus petit que 0 ou plus grand que 255. Ceci permet à l'analyse LTP en boucle fermée de porter également sur quelques retards TP plus petits que rmin ou plus grands que rmax. On améliore ainsi la qualité subjective de la restitution des voix dites pathologiques et des signaux non vocaux (fréquences vocales DTMF ou fréquences de signalisation utilisées par le réseau téléphonique commuté). Une autre possibilité est de prendre pour l'intervalle de recherche les 32 premiers ou derniers index de quantification des retards si ZP<16 ou ZP>240 avec MV=1 ou 2, et les 16 premiers ou derniers index si ZP<8 ou ZP>248 avec MV=3.  The index ZP of the center of the search interval of the prediction delay for a voiced frame can be between 0 and N-1 = 255, and the differential index DP determined for the module 38 can range from -16 to + 15 if MV = 1 or 2, and from -8 to +7 if MV = 3 (case N1 = 32, N3 = 16). The ZP + DP index of the TP delay finally determined can therefore in some cases be smaller than 0 or greater than 255. This allows the closed-loop LTP analysis to also relate to some TP delays smaller than rmin or more larger than rmax. This improves the subjective quality of the reproduction of so-called pathological voices and non-voice signals (DTMF voice frequencies or signaling frequencies used by the switched telephone network). Another possibility is to take for the search interval the first 32 or last indexes of quantification of the delays if ZP <16 or ZP> 240 with MV = 1 or 2, and the first 16 or last index if ZP <8 or ZP > 248 with MV = 3.
Le fait de réduire l'intervalle de recherche des retards pour les trames très voisées (typiquement 16 valeurs pour MV=3 au lieu de 32 pour MV=1 ou 2) permet de diminuer la complexité de l'analyse LTP en boucle fermée effectuée par le module 38 en réduisant le nombre de convolutions yT(i) à calculer suivant la formule (1). Un autre avantage est qu'un bit de codage de l'index différentiel DP est économisé. Le débit de sortie étant constant, ce bit peut être réalloué au codage d'autres paramètres. On peut en particulier allouer ce bit supplémentaire à la quantification du gain de prédiction à long terme gP calculé par le module 40 . En ef fet , une meilleure précision sur le gain gP grâce à un bit de quantification supplémentaire est appréciable car ce paramètre est perceptuellement important pour les sous-trames très voisées (MV=3). Une autre possibilité est de prévoir un bit de parité pour le retard TP et/ou le gain gP, permettant de détecter d'éventuelles erreurs affectant ces paramètres. Reducing the delay search interval for very closely spaced frames (typically 16 values for MV = 3 instead of 32 for MV = 1 or 2) reduces the complexity of the closed loop LTP analysis performed by the module 38 by reducing the number of convolutions y T (i) to be calculated according to formula (1). Another advantage is that a coding bit of the differential DP index is saved. Since the output rate is constant, this bit can be reallocated for coding other parameters. In particular, this additional bit can be allocated to the quantification of the long-term prediction gain g P calculated by the module 40. In fact, a better precision on the gain g P thanks to an additional quantization bit is appreciable because this parameter is perceptually important for very close sub-frames (MV = 3). Another possibility is to provide a parity bit for the delay TP and / or the gain g P , making it possible to detect possible errors affecting these parameters.
Il est possible d'apporter quelques modifications au processus d'analyse LTP en boucle ouverte décrit ci-dessus en référence aux figures 3 à 6.  It is possible to make some modifications to the open loop LTP analysis process described above with reference to Figures 3 to 6.
Suivant une première variante de ce processus, les premières optimisations effectuées à l'étape 90 relativement aux différentes sous-trames sont remplacées par une seule optimisation portant sur l'ensemble de la trame. Outre les paramètres Cst(k) et Gst(k) calculés pour chaque sous-trame st, on calcule également les autocorrélations C(k) et les énergies retardées G(k) pour l'ensemble de la trame : According to a first variant of this process, the first optimizations carried out in step 90 relative to the different sub-frames are replaced by a single optimization relating to the entire frame. In addition to the parameters C st (k) and G st (k) calculated for each sub-frame st, the autocorrelations C (k) and the delayed energies G (k) for the entire frame are also calculated:
On détermine alors le retard de base en résolution entière K qui maximise X (k) =C2(k) /G (k) pour rmin ≤ k ≤ rmax.We then determine the basic delay in whole resolution K which maximizes X (k) = C 2 (k) / G (k) for rmin ≤ k ≤ rmax.
La première estimation du gain comparée à S0 à l'étape 92 est alors P(K) =20.log10[R0/[R0-X(K)]]. On détermine ensuite, autour de K, un seul retard de base en résolution fractionnaire rbf et l'examen 101 des sous-multiples et des multiples est effectué une seule fois et produit une seule liste I au lieu de nst listes Ist. La phase 132 est ensuite effectuée une seule fois pour cette liste I, en ne distinguant les sous-trames qu'aux étapes 148, 150 et 152. Cette variante de réalisation a pour avantage de réduire la complexité de l'analyse en boucle ouverte. The first gain estimate compared to S0 in step 92 is then P (K) = 20.log 10 [R0 / [R0-X (K)]]. We then determine, around K, a single basic delay in fractional resolution rbf and the examination 101 of the sub-multiples and the multiples is done once and produces a single list I instead of nst lists I st . Phase 132 is then performed only once for this list I, distinguishing the subframes only in steps 148, 150 and 152. This variant embodiment has the advantage of reducing the complexity of the analysis in open loop.
Suivant une seconde variante du processus d'analyse LTP en boucle ouverte, le domaine [rmin, rmax] des retards possibles est subdivisé en nz sous-intervalles ayant par exemple la même longueur (nz=3 typiquement), et les premières optimisations effectuées à l'étape 90 relativement aux différentes sous-trames sont remplacées par nz optimisations dans les différents sous-intervalles portant chacune sur l'ensemble de la trame. On obtient ainsi nz retards de base K1',...,Knz' en résolution entière. La décision voisé/non voisé (étape 92) est prise sur la base de celui des retards de base Ki' qui procure la plus grande valeur pour la première estimation en boucle ouverte du gain de prédiction à long terme. Ensuite, si la trame est voisée, on détermine les retards de base en résolution fractionnaire par le même processus qu'à l'étape 100, mais en autorisant seulement les valeurs de retard quantifiées. L'examen 101 des sous- multiples et des multiples n'est pas effectué. Pour la phase 132 de calcul de la seconde estimation du gain de prédiction, on prend comme retards candidats les nz retards de base précédemment déterminés. Cette seconde variante permet de se dispenser de l'examen systématique des sous-multiples et des multiples qui sont en général pris en considération grâce à la subdivision du domaine des retards possibles. According to a second variant of the open loop LTP analysis process, the domain [rmin, rmax] of possible delays is subdivided into nz sub-intervals having for example the same length (nz = 3 typically), and the first optimizations carried out at step 90 relative to the different subframes are replaced by nz optimizations in the different subintervals each relating to the entire frame. We thus obtain nz basic delays K 1 ', ..., K nz ' in full resolution. The voiced / unvoiced decision (step 92) is taken on the basis of that of the basic delays K i 'which provides the greatest value for the first open-loop estimate of the long-term prediction gain. Then, if the frame is voiced, the basic delays in fractional resolution are determined by the same process as in step 100, but only allowing the quantized delay values. Examination 101 of the submultiples and multiples is not carried out. For the phase 132 of calculating the second estimate of the prediction gain, the nz basic delays previously determined are taken as candidate delays. This second variant makes it possible to dispense with the systematic examination of the submultiples and of the multiples which are generally taken into account by virtue of the subdivision of the domain of possible delays.
Suivant une troisième variante du processus d'analyse According to a third variant of the analysis process
LTP en boucle ouverte, la phase 132 est modifiée en ce que, aux étapes d'optimisation 148, on détermine d'une part l'index ist, qui maximise Cs t ' 2 (ri ) /Gs f ' (ri ) pour Is t. (j) -N1/2≤i<Is t (j) +N1/2 et 0≤i<N, et d'autre part, au cours de la même boucle de maximisation, l'index kst' qui maximise cette même quantité sur un intervalle réduit Ist ( j ) -N3 / 2≤i<Is t (j ) +N3/2 et 0≤i<N. L'étape 152 est également modifiée : on ne mémorise plus les index ZP0 etLTP in open loop, phase 132 is modified in that, in optimization steps 148, the index i st is determined on the one hand, which maximizes C st ' 2 (r i ) / G sf' (r i ) for I st . (j) -N1 / 2≤i <I st (j) + N1 / 2 and 0≤i <N, and on the other hand, during the same maximization loop, the index k st ' which maximizes this same quantity over a reduced interval Ist (j) -N3 / 2≤i <I st (j) + N3 / 2 and 0≤i <N. Step 152 is also modified: the ZP0 indexes are no longer stored and
ZP1, mais une quantité Ymax' définie de la même manière queZP1, but a quantity Ymax 'defined in the same way as
Ymax mais en référence à l'intervalle de longueur réduite : Ymax but with reference to the reduced length interval:
Dans cette troisième variante, la détermination 158 du mode de voisement conduit à sélectionner plus souvent le degré de voisement MV=3. On prend également en compte, en plus du gain Gp précédemment décrit, une troisième estimation en boucle ouverte du gain LTP, correspondant à Ymax' : Gp' =20. log10 [R0/(R0-Ymax')]. Le degré de voisement est MV=1 si Gp≤S1, MV=3 si Gp'>S2 et MV=2 si aucune de ces deux conditions n'est vérifiée. En augmentant ainsi la proportion de trames de degré MV=3, on réduit la complexité moyenne de l'analyse en boucle fermée et on améliore la robustesse aux erreurs de transmission. In this third variant, the determination 158 of the voicing mode leads to more often selecting the voicing degree MV = 3. We also take into account, in addition to the gain Gp previously described, a third open loop estimate of the gain LTP, corresponding to Ymax ': Gp' = 20. log 10 [R0 / (R0-Ymax ')]. The degree of voicing is MV = 1 if Gp≤S1, MV = 3 if Gp '> S2 and MV = 2 if neither of these two conditions is verified. By thus increasing the proportion of frames of degree MV = 3, the average complexity of the closed loop analysis is reduced and the robustness to transmission errors is improved.
Une quatrième variante du processus d'analyse LTP en boucle ouverte concerne surtout les trames faiblement voisées A fourth variant of the open loop LTP analysis process mainly concerns weakly voiced frames
(MV=1). Ces trames correspondent souvent à un début ou à une fin d'une zone de voisement. Fréquemment, ces trames peuvent comporter de une à trois sous-trames pour lesquelles le coef- ficient de gain du f iltre de synthèse à long terme est nul voire négatif . Il est proposé de ne pas effectuer l'analyse LTP en boucle fermée pour les sous-trames en question, afin de réduire la complexité moyenne du codage. Ceci peut être réalisé en mémorisant à l'étape 152 de la figure 6 nst poin- teurs indiquant pour chaque sous-trame st' si l'autocorrélation Cst, correspondant au retard d'index ist, est négative ou encore très petite. Une fois que tous les intervalles référencés dans les listes lst, les sous-trames pour lesquelles le gain de prédiction est négatif ou négligeable peuvent être identifiées en consultant les nst pointeurs. Le cas échéant le module 38 est désactivé pour les sous-trames correspon-dantes. Ceci n'affecte pas la qualité de l'analyse LTP puisque le gain de prédiction correspondant à ces sous-trames sera de toutes façons quasiment nul. Un autre aspect de l'invention concerne le module 42 de calcul de la réponse impulsionnelle du filtre de synthèse pondéré. Le module 38 d'analyse LTP en boucle fermée a besoin de cette réponse impulsionnelle h sur la durée d'une sous-trame pour calculer les convolutions yT(i) selon la formule (1). Le module 40 d'analyse stochastique en a également besoin pour calculer des convolutions comme on le verra plus loin. Le fait d'avoir à calculer des convolutions avec une réponse h s'étendant sur la durée d'une sous-trame (lst=40 typiquement) implique une relative complexité du codage, qu'il serait souhaitable de réduire notamment pour augmenter l'autonomie de la station mobile. Dans certains cas il a été proposé de tronquer la réponse impulsionnelle à une longueur inférieure à la longueur d'une sous-trame (par exemple à 20 échantillons), mais ceci peut dégrader la qualité du codage. On propose selon l'invention de tronquer la réponse impulsionnelle h en tenant compte d'une part de la distribution énergétique de cette réponse et d'autre part du degré de voisement MV de la trame considérée, déterminé par le module 36 d'analyse LTP en boucle ouverte. (MV = 1). These frames often correspond to a start or an end of a voicing area. Frequently, these frames can comprise from one to three sub-frames for which the gain coefficient of the long-term synthesis filter is zero or even negative. It is proposed not to perform LTP analysis in closed loop for the sub-frames in question, in order to reduce the average complexity of the coding. This can be achieved by storing in step 152 of FIG. 6 nst pointers indicating for each subframe st 'whether the autocorrelation C st , corresponding to the index delay i st , is negative or even very small. Once all the intervals referenced in the lists l st , the sub-frames for which the prediction gain is negative or negligible can be identified by consulting the nst pointers. If applicable, module 38 is deactivated for subframes corresponding. This does not affect the quality of the LTP analysis since the prediction gain corresponding to these subframes will be almost zero anyway. Another aspect of the invention relates to the module 42 for calculating the impulse response of the weighted synthesis filter. The closed loop LTP analysis module 38 needs this impulse response h over the duration of a subframe to calculate the convolutions y T (i) according to formula (1). The stochastic analysis module 40 also needs it to calculate convolutions as will be seen below. The fact of having to calculate convolutions with a response h extending over the duration of a subframe (lst = 40 typically) implies a relative complexity of the coding, which it would be desirable to reduce in particular to increase the autonomy of the mobile station. In some cases it has been proposed to truncate the impulse response to a length less than the length of a sub-frame (for example to 20 samples), but this can degrade the quality of the coding. It is proposed according to the invention to truncate the impulse response h taking into account on the one hand the energy distribution of this response and on the other hand the degree of voicing MV of the frame considered, determined by the LTP analysis module 36 open loop.
Les opérations effectuées par le module 42 sont par exemple conformes à l'organigramme de la figure 7. La réponse impulsionnelle est d'abord calculée à l'étape 160 sur une longueur pst supérieure à la longueur d'une sous-trame et suffisamment grande pour qu'on soit assuré de prendre en compte toute l'énergie de la réponse impulsionnelle (par exemple pst=60 pour nst=4 et lst=40 si la prédiction linéaire à court terme est d'ordre q=10). A l'étape 160, on calcule également les énergies tronquées de la réponse impulsionnelle : Les composantes h(i) de la réponse impulsionnelle et les énergies tronquées Eh(i) peuvent être obtenues en filtrant une impulsion unitaire au moyen d'un filtre de fonction de transfert W(z)/A(z) d'états initiaux nuls, ou encore par récurrence : The operations performed by the module 42 are for example in accordance with the flowchart of FIG. 7. The impulse response is first calculated in step 160 over a length pst greater than the length of a subframe and sufficiently large to be sure to take into account all the energy of the impulse response (for example pst = 60 for nst = 4 and lst = 40 if the short-term linear prediction is of order q = 10). In step 160, the truncated energies of the impulse response are also calculated: The components h (i) of the impulse response and the truncated energies Eh (i) can be obtained by filtering a unitary pulse by means of a transfer function filter W (z) / A (z) of zero initial states , or by recurrence:
pour 0<i<pst, avec f(i)=h(i)=0 pour i<0, δ(0)=f(0)=h(0) =Eh(0)=1, et δ(i)=0 pour i≠0. Dans l'expression (2), les coefficients ai sont ceux intervenant dans le filtre de pondération perceptuelle, c'est-à-dire les coefficients de prédiction linéaire interpolés mais non quantifiés, tandis que dans l'expression (3), les coefficients ai. sont ceux appliqués au filtre de synthèse, c'est-à-dire les coefficients de prédiction linéaire quantifiés et interpolés. for 0 <i <pst, with f (i) = h (i) = 0 for i <0, δ (0) = f (0) = h (0) = Eh (0) = 1, and δ (i ) = 0 for i ≠ 0. In expression (2), the coefficients a i are those used in the perceptual weighting filter, i.e. the linear prediction coefficients interpolated but not quantified, while in expression (3), the coefficients ai. are those applied to the synthesis filter, i.e. the quantized and interpolated linear prediction coefficients.
Ensuite le module 42 détermine la plus petite longueur Lα telle que l'énergie Eh(Lα-1) de la réponse impulsionnelle tronquée à Lα échantillons soit au moins égale à une proportion α de son énergie totale Eh(pst-l) estimée sur pst échantillons. Une valeur typique de α est 98%. Le nombre Lα est initialisé à pst à l'étape 162 et décrémenté d'une unité en 166 tant que Eh (Lα-2)>α. Eh (pst-1) (test 164). La longueur Lα cherchée est obtenue lorsque le test 164 montre que Eh (Lα-2)<a. Eh (pst-1).  Then the module 42 determines the smallest length Lα such that the energy Eh (Lα-1) of the truncated impulse response to Lα samples is at least equal to a proportion α of its total energy Eh (pst-l) estimated on pst samples. A typical value of α is 98%. The number Lα is initialized to pst in step 162 and decremented by one as 166 as Eh (Lα-2)> α. Eh (pst-1) (test 164). The length Lα sought is obtained when test 164 shows that Eh (Lα-2) <a. Eh (pst-1).
Pour tenir compte du degré de voisement MV, un terme correcteur Δ(MV) est ajouté à la valeur de Lα qui a été obtenue (étape 168). Ce terme correcteur est de préférence une fonction croissante du degré de voisement. On peut par exemple prendre Δ(0)=-5, Δ(1)=0, Δ(2)=+5 et Δ(3)=+7. De cette façon, la réponse impulsionnelle h sera déterminée de façon d'autant plus précise que le voisement de la parole est important. Lα longueur de troncature Lh de la réponse impulsionnelle est prise égale à Lα si Lαsnst et à nst sinon. Les échantillons restants de la réponse impulsionnelle (h(i)=0 avec i≥Lh) peuvent être annulés. To take account of the degree of voicing MV, a correcting term Δ (MV) is added to the value of Lα which has been obtained (step 168). This corrective term is preferably an increasing function of the degree of voicing. We can for example take Δ (0) = - 5, Δ (1) = 0, Δ (2) = + 5 and Δ (3) = + 7. Of this In this way, the impulse response h will be determined all the more precisely as the voicing of the speech is important. The length of truncation Lh of the impulse response is taken equal to Lα if Lαsnst and to nst otherwise. The remaining samples of the impulse response (h (i) = 0 with i≥Lh) can be canceled.
Avec la troncature de la réponse impulsionnelle, le calcul (1) des convolutions yT(i) par le module 38 d'analyse LTP en boucle fermée est modifié de la façon suivante : With the truncation of the impulse response, the calculation (1) of the convolutions y T (i) by the module 38 of LTP analysis in closed loop is modified as follows:
L'obtention de ces convolutions, qui représente une part importante des calculs effectués, nécessite donc sensiblement moins démultiplications, d'additions et d'adressages dans le répertoire adaptatif lorsque la réponse impulsionnelle est tronquée. La troncature dynamique de la réponse impulsionnelle faisant intervenir le degré de voisement MV permet d'obtenir une telle réduction de complexité sans affecter la qualité du codage. Les mêmes considérations s'appliquent pour les calculs de convolutions effectués par le module 40 d'analyse stochastique. Ces avantages sont particulièrement appréciables lorsque le filtre de pondération perceptuelle a une fonction de transfert de la forme W(z)=A(z/γ1)/A(z/γ2) avec 0<γ21<1 qui donne lieu à des réponses impulsionnelles généralement plus longues que celles de la forme W(z)=A(z)/A(z/γ) plus communément employées dans les codeurs à analyse par synthèse. Obtaining these convolutions, which represents a significant part of the calculations performed, therefore requires significantly less reduction, addition and addressing in the adaptive repertoire when the impulse response is truncated. The dynamic truncation of the impulse response involving the degree of voicing MV makes it possible to obtain such a reduction in complexity without affecting the quality of the coding. The same considerations apply for the convolution calculations performed by the module 40 of stochastic analysis. These advantages are particularly appreciable when the perceptual weighting filter has a transfer function of the form W (z) = A (z / γ 1 ) / A (z / γ 2 ) with 0 <γ 21 <1 which gives rise to impulse responses generally longer than those of the form W (z) = A (z) / A (z / γ) more commonly used in coders using analysis by synthesis.
Un troisième aspect de l'invention concerne le module 40 d'analyse stochastique servant à modéliser la partie non prédictible de l ' excitation . A third aspect of the invention relates to the stochastic analysis module 40 used to model the unpredictable part of the excitation.
L'excitation stochastique considérée ici est de type multi-impulsionnelle. L'excitation stochastique relative à une sous-trame est représentée par np impulsions de positions p(n) et d'amplitudes, ou gains, g(n) (1≤n≤np). Le gain gP de prédiction à long terme peut également être calculé au cours du même processus. De façon générale, on peut considérer que la séquence d'excitation relative à une sous-trame comporte ne contributions associées respectivement à ne gains. Les contributions sont des vecteurs lst échantillons qui, pondérés par les gains associés et sommés correspondent à la séquence d'excitation du filtre de synthèse à court terme. Une des contributions peut être prédictible, ou plusieurs dans le cas d'un filtre de synthèse à long terme à plusieurs prises ("multi-tap pitch synthesis filter"). Les autres contributions sont dans le cas présent np vecteurs ne comportant que des 0 sauf une impulsion d'amplitude 1. On a donc nc≈np si MV=0, et nc=np+1 si MV=1, 2 ou 3. The stochastic excitation considered here is of the multi-pulse type. Stochastic excitement relating to a subframe is represented by np pulses of positions p (n) and of amplitudes, or gains, g (n) (1≤n≤np). The gain g P of long-term prediction can also be calculated during the same process. In general, it can be considered that the excitation sequence relating to a sub-frame comprises ne contributions associated respectively with ne gains. The contributions are lst sample vectors which, weighted by the associated and summed gains correspond to the excitation sequence of the short-term synthesis filter. One of the contributions can be predictable, or several in the case of a long-term synthesis filter with several takes ("multi-tap pitch synthesis filter"). The other contributions are in the present case np vectors comprising only 0 except an impulse of amplitude 1. We therefore have nc≈np if MV = 0, and nc = np + 1 if MV = 1, 2 or 3.
L'analyse multi-impulsionnelle incluant le calcul du gain gP=g(0) consiste, de façon connue, à trouver pour chaque sous-trame des positions p(n) (l≤ninp) et des gains g(n) (0≤n≤np) qui minimisent l'erreur quadratique pondérée perceptuellement E entre le signal de parole et le signal synthétisé, donnée par : Multi-pulse analysis including the calculation of the gain g P = g (0) consists, in a known manner, of finding for each subframe positions p (n) (l≤ninp) and gains g (n) ( 0≤n≤np) which minimize the perceptually weighted quadratic error E between the speech signal and the synthesized signal, given by:
les gains étant solution du système linéaire g.B=b. the gains being solution of the linear system g.B = b.
Dans les notations ci-dessus :  In the above notations:
- X désigne un vecteur-cible initial composé des lst échantillons du signal de parole pondéré SW sans mémoire : X= (x(0),x(1),...,x(lst-1)), les x(i) ayant été calculés comm indiqué précédemment lors de l'analyse LTP en boucle fermée ;  - X denotes an initial target vector composed of the lst samples of the weighted speech signal SW without memory: X = (x (0), x (1), ..., x (lst-1)), the x (i ) having been calculated as indicated above during the closed loop LTP analysis;
- g désigne le vecteur ligne composé des np+1 gains : g=(g(0)=gP, g(1),...,g(np)) ; - g denotes the line vector composed of the np + 1 gains: g = (g (0) = g P , g (1), ..., g (np));
- les vecteurs-ligne Fp(n) (0≤n<nc) sont des contributions pondérées ayant pour composantes i(0≤i<lst) les produits de convolution entre la contribution n à la séquence d'excitation et la réponse impulsionnelle h du filtre de synthèse pondéré ; - the line vectors F p (n) (0≤n <nc) are weighted contributions having as components i (0≤i <lst) the products of convolution between the contribution n to the excitation sequence and the impulse response h from the filter weighted summary;
- b désigne le vecteur ligne composé des ne produits scalaires entre le vecteur X et les vecteurs ligne Fp(n); - b denotes the line vector composed of the ne scalar products between the vector X and the line vectors F p (n) ;
- B désigne une matrice symétrique à ne lignes et ne colonnes dont le terme Bi,j=Fp(i). Fp(j) T (0≤i,j<nc) est égal au produit scalaire entre les vecteurs Fp(i) et Fp(j) précédemment définis ; - B designates a symmetric matrix with no rows and no columns whose term B i, j = F p (i) . F p (j) T (0≤i, j <nc) is equal to the scalar product between the vectors F p (i) and F p (j) previously defined;
- (.)T désigne la transposition matricielle.- (.) T denotes the matrix transposition.
Pour les impulsions de l'excitation stochastique (lininp=nc-l) les vecteurs Fp(n) sont simplement constitués par le vecteur de la réponse impulsionnelle h décalée de p(n) échantillons. Le fait de tronquer la réponse impulsionnelle comme décrit précédemment permet donc de réduire sensiblement le nombre d'opérations utiles au calcul des produits sca- laires faisant intervenir ces vecteurs Fp(n). Pour la contribution prédictible de l'excitation, le vecteur Fp(0)=YTP a pour composantes Fp(0) (i) (0≤i<lst) les convolutions yTP(i) que le module 38 a calculées suivant la formule (1) ou (1') pour le retard de prédiction à long terme sélectionné TP. Si MV=0, la contribution n=0 est également de type impulsionnelle et la position p(0) est à calculer. For the pulses of stochastic excitation (lininp = nc-l) the vectors F p (n) are simply constituted by the vector of the impulse response h shifted by p (n) samples. Truncating the impulse response as described above therefore makes it possible to significantly reduce the number of operations useful for calculating scalar products involving these vectors F p (n) . For the predictable contribution of the excitation, the vector F p (0) = Y TP has for components F p (0) (i) (0≤i <lst) the convolutions y TP (i) that the module 38 has calculated according to formula (1) or (1 ') for the long-term prediction delay selected TP. If MV = 0, the contribution n = 0 is also of impulse type and the position p (0) is to be calculated.
Minimiser l'erreur quadratique E définie ci-dessus revient à trouver l'ensemble des positions p(n) qui maximisent la corrélation normalisée b.B-1.bT puis à calculer les gains selon g=b.B-1. Minimizing the quadratic error E defined above amounts to finding the set of positions p (n) which maximize the normalized correlation bB -1 .b T then calculating the gains according to g = bB -1 .
Mais une recherche exhaustive des positions d'impulsion nécessiterait un volume de calculs excessif. Pour atténuer ce problème, l'approche multi-impulsionnelle applique en général une procédure sous-optimale consistant à calculer successivement les gains et/ou les positions d'impulsion pour chaque contribution. Pour chaque contribution n (0≤n<nc), on détermine d'abord la position p(n) qui maximise la corrélation normalisée (Fp· en -1 T) 2 /(Fp · Fp T) , on recalcule les gains gn(0) à gn(n) selon gn=bn·Bn -1, où gn= (gn(0),...,gn(n)), bn= (b(0),...,b(n)) et Bn={Bi,j}0≤i,j≤n , puis on calcule pour l'itération suivante le vecteur-cible en égal au vecteur- cible initial X auquel on retranche les contributions 0 à n du signal synthétique pondéré multipliées par leurs gains respectifs : But an exhaustive search of the pulse positions would require an excessive volume of calculations. To alleviate this problem, the multi-pulse approach generally applies a sub-optimal procedure consisting of successively calculating the gains and / or the pulse positions for each contribution. For each contribution n (0≤n <nc), we first determine the position p (n) which maximizes the normalized correlation (F p · e n -1 T ) 2 / (F p · F p T ), we recalculates the gains g n (0) to g n (n) according to g n = b n · B n -1 , where g n = (g n (0), ..., g n (n)), b n = (b (0), ..., b (n)) and B n = {B i, j } 0≤i, j≤n , then calculate for the next iteration the target vector e n equal to vector- initial target X from which we subtract the contributions 0 to n of the weighted synthetic signal multiplied by their respective gains:
A l'issue de la dernière itération nc-1, les gains gnc-1(i) sont les gains sélectionnés et l'erreur quadratique minimisée E est égal à l'énergie du vecteur-cible enc-1. At the end of the last iteration nc-1, the gains g nc-1 (i) are the selected gains and the minimized quadratic error E is equal to the energy of the target vector e nc-1 .
La méthode ci-dessus donne des résultats sat isfaisants , mais elle nécessite l'inversion d'une matrice Bn à chaque itération. Dans leur article "Amplitude Optimization and Pitch Prédiction in Multipulse Coders" (IEEE Trans. on Acoustics, Speech, and Signal Processing, Vol.37, N° 3, Mars 1989, pages 317-327), S. Singhal et B.S. Atal ont proposé de simplifier le problème de l'inversion des matrices Bn en utilisant la décomposition de Cholesky : Bn=Mn .Mn T où Mn est une matrice triangulaire inférieure. Cette décomposition est possible parce que Bn est une matrice symétrique à valeurs propres positives. L'avantage de cette approche est que l'inversion d'une matrice triangulaire est relativement peu complexe, Bn-1 pouvant être obtenue par Bn-1=(Mn - 1) T. Mn -1 . The above method gives satisfactory results, but it requires the inversion of a matrix B n at each iteration. In their article "Amplitude Optimization and Pitch Prediction in Multipulse Coders" (IEEE Trans. On Acoustics, Speech, and Signal Processing, Vol.37, N ° 3, March 1989, pages 317-327), S. Singhal and BS Atal have proposed to simplify the problem of inverting the matrices B n using the Cholesky decomposition: B n = M n .M n T where M n is a lower triangular matrix. This decomposition is possible because B n is a symmetric matrix with positive eigenvalues. The advantage of this approach is that the inversion of a triangular matrix is relatively uncomplicated, B n-1 being obtainable by B n-1 = (M n - 1 ) T. M n -1 .
La décomposition de Cholesky et l'inversion de la matrice Mn nécessitent toutefois d'effectuer des divisions et des calculs de racines carrées qui sont des opérations exigentes en termes de complexité de calcul. L'invention propose de simplifier considérablement la mise en oeuvre de l'optimisation en modifiant la décomposition des matrices Bn de la façon suivante : The decomposition of Cholesky and the inversion of the matrix M n however require to carry out divisions and calculations of square roots which are operations demanding in terms of computation complexity. The invention proposes to considerably simplify the implementation of the optimization by modifying the decomposition of the matrices B n as follows:
Bn = Ln . Rn T = LπMLrrKn-1)τ B n = L n . R n T = L π ML rr K n - 1 ) τ
où Kn est une matrice diagonale et Ln est une matrice triangulaire inférieure n'ayant que des 1 sur sa diagonale principale (soit Ln=Mn . Kn 1 /2 avec les notations précédentes).where K n is a diagonal matrix and L n is a lower triangular matrix having only 1s on its main diagonal (ie L n = M n . K n 1/2 with the previous notations).
Compte-tenu de la structure de la matrice Bn, les matrices Ln=Rn.Kn, Rn, Kn et Ln -1 sont construites chacune par simple adjonction d'une ligne aux matrices correspondantes de l'itération précédente : Given the structure of the matrix B n , the matrices L n = R n .K n , R n , K n and L n -1 are each constructed by simply adding a line to the corresponding matrices of the previous iteration:
' Dans ces conditions, la décomposition de Bn, l'inversion de Ln, l'obtention de Bn - 1=Kn .(Ln -1)T.Ln -1 et le recalcul des gains ne nécessitent qu'une seule division par itération et aucun calcul de racine carrée. '' Under these conditions, the decomposition of B n , the inversion of L n , the obtaining of B n - 1 = K n . (L n -1 ) T .L n -1 and the recalculation of the gains only require only one division per iteration and no square root calculation.
L'analyse stochastique relative à une sous-trame d'une trame voisée (MV=1,2 ou 3) peut dès lors se dérouler comme indiqué sur les figures 8 à 11. Pour calculer le gain de prédiction à long terme, l'index de contribution n est initialisé à 0 à l'étape 180 et le vecteur Fp(0) est pris égal à la contribution à long terme YTP fournie par le module 38. Si n>0, l'itération n commence par la détermination 182 de la position p(n) de l'impulsion n qui maximise la quantité : The stochastic analysis relating to a subframe of a voiced frame (MV = 1,2 or 3) can therefore take place as indicated in FIGS. 8 to 11. To calculate the long-term prediction gain, the contribution index n is initialized to 0 in step 180 and the vector F p (0) is taken equal to the long-term contribution Y TP provided by the module 38. If n> 0, the iteration n begins with the determination 182 of the position p (n) of the pulse n which maximizes the quantity:
où e=(e(0),...,e(lst-1)) est un vecteur-cible calculé lors de l'itération précédente. Différentes contraintes peuvent être apportées au domaine de maximisation de la quantité cidessus inclus dans l'intervalle [0,lst[. L'invention utilise de préférence une recherche segmentaire dans laquelle la sous-trame d'excitation est subdivisée en ns segments de même longueur (par exemple ns=10 pour lst=40). Pour la première impulsion (n=l), la maximisation de (Fp.eT)2/(Fp.Fp T) est effectuée sur l'ensemble des positions possibles p dans la sous-trame. A l'itération n>1, la maximisation est effectuée à l'étape 182 sur l'ensemble des positions possibles à l'exclusion des segments dans lesquels ont été respectivement trouvées les positions p(1),...,p(n-1) des impulsions lors des itérations précédentes. where e = (e (0), ..., e (lst-1)) is a target vector calculated during the previous iteration. Different constraints can be brought to the domain of maximization of the quantity above included in the interval [0, lst [. The invention preferably uses a segmental search in which the excitation subframe is subdivided into ns segments of the same length (for example ns = 10 for lst = 40). For the first pulse (n = l), the maximization of (F p .e T ) 2 / (F p .F p T ) is performed on all the possible positions p in the subframe. At iteration n> 1, the maximization is carried out in step 182 on the set of possible positions excluding the segments in which the positions p (1), ..., p (n have been found respectively) -1) pulses during previous iterations.
Dans le cas où la trame courante a été détectée comme non voisée, la contribution n=0 est également constituée par une impulsion de position p(0). L'étape 180 comprend alors seulement l'initialisation n=0, et elle est suivie par une étape de maximisation identique à l'étape 182 pour trouver p(0), avec e=e-1=X comme valeur initiale du vecteur-cible. In the case where the current frame has been detected as unvoiced, the contribution n = 0 is also constituted by a position pulse p (0). Step 180 then only includes initialization n = 0, and it is followed by a maximization step identical to step 182 to find p (0), with e = e -1 = X as the initial value of the vector- target.
On remarque que lorsque la contribution n=0 est prédictible (MV=1, 2 ou 3), le module 38 d'analyse LTP en boucle fermée a effectué une opération de nature semblable à la maximisation 182, puisqu'il a déterminé la contribution à long terme, caractérisée par le retard TP, en maximisant la quantité (YT.eT)2/(YT.YT T) dans l'intervalle de recherche des retards T, avec e=e-1=X comme valeur initiale du vecteur-cible. On peut également, lorsque l'énergie de la contribution LTP est très faible, ignorer cette contribution dans le processus de recalcul des gains. Note that when the contribution n = 0 is predictable (MV = 1, 2 or 3), the closed-loop LTP analysis module 38 has performed an operation of a nature similar to the maximization 182, since it has determined the contribution in the long term, characterized by the delay TP, by maximizing the quantity (Y T .e T ) 2 / (Y T .Y T T ) in the delay search interval T, with e = e -1 = X as initial value of the target vector. It is also possible, when the energy of the LTP contribution is very low, to ignore this contribution in the process of recalculation of the gains.
Après l'étape 180 ou 182, le module 40 procède au calcul 184 de la ligne n des matrices L, R et K intervenant dans la décomposition de la matrice B, ce qui permet de compléter les matrices Ln, Rn et Kn définies ci-dessus. La décomposition de la matrice B permet d'écrire : pour la composante située à la ligne n et à la colonne j. On peut donc écrire, pour j croissant de 0 à n-1 : After step 180 or 182, the module 40 proceeds to the calculation 184 of the line n of the matrices L, R and K involved in the decomposition of the matrix B, which makes it possible to complete the matrices L n , R n and K n defined above. The decomposition of the matrix B makes it possible to write: for the component located in row n and in column j. We can therefore write, for j increasing from 0 to n-1:
et, pour j=n : and, for j = n:
Ces relations sont exploitées dans le calcul 184 détaillé sur la figure 9. L'index de colonne j est d'abord initialisé à 0, à l'étape 186. Pour l'index de colonne j, la variable tmp est d'abord initialisée à la valeur de la composante B(n,j), soit : These relationships are used in the calculation 184 detailed in FIG. 9. The column index j is first initialized at 0, in step 186. For the column index j, the variable tmp is first initialized at the value of component B (n, j), that is:
A l'étape 188, l'entier k est en outre initialisé à 0. On effectue alors une comparaison 190 entre les entiers k et j . Si k<j, on ajoute le terme L(n,k).R(j,k) à la variable tmp, puis on incrémente d'une unité l'entier k (étape 192) avant de réexécuter la comparaison 190. Quand la comparaison 190 montre que k=j, on effectue une comparaison 194 entre les entiers j et n. Si j<n, la composante R(n,j) est prise égale à tmp et la composante L(n,j) à tmp.K(j) à l'étape 196, puis l'index de colonne j est incrémente d'une unité avant qu'on revienne à l'étape 188 pour calculer les composantes suivantes. Quand la comparaison 194 montre que j=n, la composante K(n) de la ligne n de la matrice K est calculée, ce qui termine le calcul 184 relatif à la ligne n. K(n) est pris égal à 1/tmp si tmp≠0 (étape 198) et à 0 sinon. On constate que le calcul 184 ne requiert qu'au plus une division 198, pour obtenir K(n). En outre, une éventuelle singularité de la matrice Bn n'entraîne pas d'instabilités puisqu'on évite les divisions par 0. In step 188, the integer k is also initialized to 0. A comparison 190 is then made between the integers k and j. If k <j, we add the term L (n, k). R (j, k) to the variable tmp, then we increment the whole k by one unit (step 192) before re-performing the comparison 190. When comparison 190 shows that k = j, a comparison 194 is carried out between the integers j and n. If j <n, the component R (n, j) is taken equal to tmp and the component L (n, j) to tmp.K (j) in step 196, then the column index j is incremented d 'a unit before returning to step 188 to calculate the following components. When the comparison 194 shows that j = n, the component K (n) of the line n of the matrix K is calculated, which ends the calculation 184 relating to the line n. K (n) is taken equal to 1 / tmp if tmp ≠ 0 (step 198) and to 0 otherwise. We note that the calculation 184 requires at most one division 198, to obtain K (n). In addition, any singularity of the matrix B n does not cause instabilities since we avoid divisions by 0.
En référence à la figure 8, le calcul 184 des lignes n de L, R et K est suivi par l'inversion 200 de la matrice Ln constituée des lignes et des colonnes 0 à n de la matrice L. Le fait que L soit triangulaire avec des 1 sur sa diagonale principale en simplifie grandement l'inversion comme le montre la figure 10. On peut en effet écrire : With reference to FIG. 8, the calculation 184 of the lines n of L, R and K is followed by the inversion 200 of the matrix L n consisting of the lines and columns 0 to n of the matrix L. The fact that L is triangular with 1 on its main diagonal greatly simplifies the inversion as the shows figure 10. We can indeed write:
pour 0≤j'<n et L-1 (n, n) =1, c'est-à-dire que l'inversion peut être faite sans avoir à opérer une division. En outre, comme les composantes de la ligne n de L suffisent à recalculer les gains, l'utilisation de la relation (5) permet de faire l'inversion sans avoir à mémoriser toute la matrice L , mais seulement un vecteur Linv=(Linv(0),...,Linv(n-1)) avec Linv(j')=L-1(n,j'). L'inversion 200 commence alors par une initialisation 202 de l'index de colonne j' à n-1. A l'étape 204, le terme Linv(j') est initialisé à -L(n,j") et l'entier k' à j'+1. On effectue ensuite une comparaison 206 entre les entiers k' et n. Si k'<n, on retranche le terme L(k',j').Linv(k') à Linv(j'), puis on incrémente d' une unité l'entier k' (étape 208) avant de réexécuter la comparaison 206. Quand la comparaison 206 montre que k'=n, on compare j' à 0 (test 210). Si j'>0, on décrémente l'entier j' d'une unité (étape 212) et on revient à l'étape 204 pour calculer la composante suivante. L'inversion 200 est terminée lorsque le test 210 montre que j'=0. for 0≤j '<n and L -1 (n, n) = 1, that is to say that the inversion can be done without having to make a division. In addition, as the components of the line n of L suffice to recalculate the gains, the use of the relation (5) makes it possible to make the inversion without having to memorize the whole matrix L, but only a vector Linv = (Linv (0), ..., Linv (n-1)) with Linv (j ') = L -1 (n, j'). The inversion 200 then begins with an initialization 202 of the column index j 'at n-1. In step 204, the term Linv (j ') is initialized to -L (n, j ") and the integer k' to j '+ 1. A comparison 206 is then made between the integers k' and n. If k '<n, we subtract the term L (k', j '). Linv (k') to Linv (j '), then we increment the whole k' by one unit (step 208) before re-executing comparison 206. When comparison 206 shows that k '= n, we compare j' to 0 (test 210) .If j '> 0, we decrement the whole j' by one unit (step 212) and we return in step 204 to calculate the next component, inversion 200 is complete when test 210 shows that j '= 0.
En référence à la figure 8 l'inversion 200 est suivie par le calcul 214 des gains réoptimisés et du vecteur-cible E pour l'itération suivante. Le calcul des gains réoptimisés est également très simplifié par la décomposition retenue pour la matrice B. On peut en effet calculer le vecteur gn=(gn(0),...,gn(n)) solution de gn.Bn=bn selon : et gn(i')=gn-1(i')+L-1<n,i')·gn(n) pour 0≤i'<n. Le calcul 214 est détaillé sur la figure 11. On calcule d'abord la composante b(n) du vecteur b : With reference to FIG. 8, the inversion 200 is followed by the calculation 214 of the reoptimized gains and of the target vector E for the following iteration. The computation of the reoptimized gains is also very simplified by the decomposition retained for the matrix B. One can indeed compute the vector g n = (g n (0), ..., g n (n)) solution of g n . B n = b n according to: and g n (i ') = g n-1 (i') + L -1 <n, i ') · g n (n) for 0≤i'<n. The calculation 214 is detailed in FIG. 11. The component b (n) of the vector b is first calculated:
b(n) sert de valeur d'initialisation pour la variable tmq. A l'étape 216, on initialisé également l'index i à 0. On effectue ensuite la comparaison 218 entre les entiers i et n. Si i<n, on ajoute le terme b(i). Linv(i) à la variable tmq et on incrémente i d'une unité (étape 220) avant de revenir à la comparaison 218. Quand la comparaison 218 montre que i=n, on calcule le gain relatif à la contribution n selon g(n) =tmq.K(n), et on initialisé la boucle de calcul des autres gains et du vecteur-cible (étape 222) en prenant e=X-g(n).Fp(n) et i'=0. Cette boucle comprend une comparaison 224 entre les entiers i' et n. Si i'<n, le gain g(i') est recalculé à l'étape 226 en ajoutant Linv(i').g(n) à sa valeur calculée lors de l'itération précédente n-1, puis on retranche au vecteur-cible e le vecteur g(i').Fp(i ' ). L'étape 226 comprend également l'incrémentation de l'index i' avant de revenir à la comparaison 224. Le calcul 214 des gains et du vecteur-cible est terminé lorsque la comparaison 224 montre que i'=n. On voit que les gains ont pu être mis à jour en ne faisant appel qu'à la ligne n de la matrice inverse Ln -1. b (n) serves as the initialization value for the variable tmq. In step 216, the index i is also initialized to 0. The comparison 218 is then carried out between the integers i and n. If i <n, we add the term b (i). Linv (i) to the variable tmq and we increment i by one unit (step 220) before returning to the comparison 218. When the comparison 218 shows that i = n, we calculate the gain relative to the contribution n according to g ( n) = tmq.K (n), and the loop for calculating the other gains and the target vector is initialized (step 222) by taking e = Xg (n) .F p (n) and i '= 0. This loop includes a comparison 224 between the integers i 'and n. If i '<n, the gain g (i') is recalculated in step 226 by adding Linv (i '). G (n) to its value calculated during the previous iteration n-1, then we subtract from target vector e the vector g (i '). F p (i') . Step 226 also includes the incrementation of the index i 'before returning to the comparison 224. The calculation 214 of the gains and of the target vector is finished when the comparison 224 shows that i' = n. We see that the gains could be updated by using only the line n of the inverse matrix L n -1 .
Le calcul 214 est suivi par une incrémentation 228 de l'index n de la contribution, puis par une comparaison 230 entre l'index n et le nombre de contributions ne. Si n<nc, on revient à l'étape 182 pour l'itération suivante. L'optimisation des positions et des gains est terminée lorsque n=nc au test 230.  The calculation 214 is followed by an incrementation 228 of the index n of the contribution, then by a comparison 230 between the index n and the number of contributions ne. If n <nc, we return to step 182 for the next iteration. The optimization of positions and gains is finished when n = nc in test 230.
La recherche segmentaire des impulsions diminue sensiblement le nombre de positions d'impulsion à évaluer au cours des étapes 182 de la recherche de l'excitation stochastique. Elle permet en outre une quantification efficace des positions trouvées. Dans le cas typique où la sous-trame de lst=40 échantillons est divisée en ns=10 segments de ls=4 échantillons, l'ensemble des positions d'impulsion possibles peut prendre ns!.lsnp/[np!(ns-np)!] =258 048 valeurs si np=5 (MV=1, 2 ou 3) ou 860 160 si np=6(MV=0), au lieu de lst!/[np!(lst-np)!]=658 008 valeurs si np=5 ou 3 838 380 si np=6 dans le cas où on impose seulement que deux impulsions ne puissent pas avoir la même position. En d'autres termes, on peut quantifier les positions sur 18 bits au lieu de 20 bits si np=5, et sur 20 bits au lieu de 22 si np=6. Segmental pulse search significantly decreases the number of pulse positions to be evaluated during steps 182 of the search for stochastic excitation. It also allows efficient quantification of positions found. In the typical case where the subframe of lst = 40 samples is divided into ns = 10 segments of ls = 4 samples, the set of possible pulse positions can take ns! .Ls np / [np! (Ns- np)!] = 258,048 values if np = 5 (MV = 1, 2 or 3) or 860,160 if np = 6 (MV = 0), instead of lst! / [np! (lst-np)!] = 658 008 values if np = 5 or 3 838 380 if np = 6 in the case where it is imposed only that two pulses cannot have the same position. In other words, we can quantify the positions on 18 bits instead of 20 bits if np = 5, and on 20 bits instead of 22 if np = 6.
Le cas particulier où le nombre de segments par sous- trame est égal au nombre d'impulsions par excitation stochastique (ns=np) conduit à la plus grande simplicité de la recherche de l'excitation stochastique, ainsi qu'au plus faible débit binaire (si lst=40 et np=5, il y a 85=32768 ensembles de positions possibles, quantifiables sur 15 bits seulement au lieu de 18 si ns=10). Mais en réduisant à ce point le nombre de séquences d'innovation possibles, on peut appauvrir la qualité du codage. Pour un nombre d'impulsions donné, le nombre des segments peut être optimisé selon un compromis visé entre la qualité du codage et sa simplicité de mise en oeuvre (ainsi que le débit requis). The special case where the number of segments per subframe is equal to the number of pulses by stochastic excitation (ns = np) leads to the greatest simplicity of the search for stochastic excitation, as well as to the lowest bit rate (if lst = 40 and np = 5, there are 8 5 = 32 768 sets of possible positions, quantifiable on 15 bits only instead of 18 if ns = 10). But by reducing the number of possible innovation sequences to this point, the quality of the coding can be reduced. For a given number of pulses, the number of segments can be optimized according to a targeted compromise between the quality of the coding and its simplicity of implementation (as well as the required bit rate).
Le cas où ns>np présente en outre l'avantage qu'on peut obtenir une bonne robustesse aux erreurs de transmission en ce qui concerne les positions des impulsions, grâce à une quantification séparée des numéros d'ordre des segments occupés et des positions relatives des impulsions dans chaque segment occupé. Pour une impulsion n, le numéro d'ordre sn du segment et la position relative prn sont respectivement le quotient et le reste de la division euclidienne de p(n) par la longueur ls d'un segment : p(n)=sn.ls+prn (0≤sn<ns, 0≤prn<ls). Les positions relatives sont chacune quantifiées séparément sur 2 bits, si ls=4. En cas d'erreur de transmission affectant l'un de ces bits, l'impulsion correspondante ne sera que peu déplacée, et l'impact perceptuel de l'erreur sera limité. Les numéros d'ordre des segments occupés sont repérés par un mot binaire de ns=10 bits valant chacun 1 pour les segments occupés et 0 pour les segments dans lesquels l'excitation stochastique n'a pas d'impulsion. Les mots binaires possibles sont ceux ayant un poids de Hamming de np; ils sont au nombre de ns!/[np!(ns-np)!]=252 si np=5, ou 210 si np=6. Ce mot est quantifiable par un index de nb bits avec 2nb-1<ns!/[np!(ns-np)!]≤2nb, soit nb=8 dans l'exemple considéré. Si, par exemple, l'analyse stochastique a fourni np=5 impulsions de positions 4, 12, 21, 34, 38, les positions relatives quantifiées scalairement sont 0,0,1,2,2 et le mot binaire représentant les segments occupés est 0101010011, ou 339 en traduction décimale. The case where ns> np also has the advantage that good robustness to transmission errors can be obtained with regard to the positions of the pulses, by virtue of a separate quantification of the sequence numbers of the occupied segments and of the relative positions pulses in each occupied segment. For a pulse n, the sequence number s n of the segment and the relative position pr n are respectively the quotient and the remainder of the Euclidean division of p (n) by the length ls of a segment: p (n) = s n .ls + pr n (0≤s n <ns, 0≤pr n <ls). The relative positions are each quantized separately on 2 bits, if ls = 4. In the event of a transmission error affecting one of these bits, the corresponding pulse will be only slightly displaced, and the perceptual impact of the error will be limited. The serial numbers of occupied segments are identified by a binary word of ns = 10 bits each worth 1 for the occupied segments and 0 for the segments in which the stochastic excitation has no pulse. Possible binary words are those with a Hamming weight of np; they are ns! / [np! (ns-np)!] = 252 if np = 5, or 210 if np = 6. This word is quantifiable by an index of nb bits with 2 nb-1 <ns! / [Np! (Ns-np)!] ≤2 nb , that is nb = 8 in the example considered. If, for example, the stochastic analysis provided np = 5 pulses of positions 4, 12, 21, 34, 38, the relative positions quantified scalarly are 0,0,1,2,2 and the binary word representing the occupied segments is 0101010011, or 339 in decimal translation.
Au niveau du décodeur, les mots binaires possibles sont stockés dans une table de quantification dans laquelle les adresses de lecture sont les index de quantification reçus. L'ordre dans cette table, déterminé une fois pour toutes, peut être optimisé de façon qu'une erreur de transmission affectant un bit de l'index (le cas d'erreur le plus fréquent, surtout lorsqu'un entrelacement est mis en oeuvre dans le codeur canal 22) ait, en moyenne, des conséquences minimales suivant un critère de voisinage. Le critère de voisinage est par exemple qu'un mot de ns bits ne puisse être remplacé que par des mots "voisins", éloignés d'une distance de Hamming au plus égale à un seuil np-2δ, de façon à conserver toutes les impulsions sauf δ d'entre elles à des positions valides en cas d'erreur de transmission de l'index portant sur un seul bit. D'autres critères seraient utilisables en substitution ou en complément, par exemple que deux mots soient considérés comme voisins si le remplacement de l'un par l'autre ne modifie pas l'ordre d'affectation des gains associés aux impulsions.  At the decoder, the possible binary words are stored in a quantization table in which the read addresses are the received quantization indexes. The order in this table, determined once and for all, can be optimized so that a transmission error affecting a bit of the index (the most frequent error case, especially when an interleaving is implemented in the channel coder 22) has, on average, minimal consequences according to a neighborhood criterion. The neighborhood criterion is for example that a word of ns bits can only be replaced by "neighboring" words, distant from a Hamming distance at most equal to a threshold np-2δ, so as to keep all the pulses except δ of them at valid positions in the event of an error in transmission of the index relating to a single bit. Other criteria could be used in substitution or in addition, for example that two words are considered to be neighbors if the replacement of one by the other does not modify the order of allocation of the gains associated with the pulses.
A des fins d'illustration, on peut considérer le cas simplifié où ns=4 et np=2, soit 6 mots binaires possibles quantifiables sur nb=3 bits. Dans ce cas, on peut vérifier que la table de quantification présentée au tableau II permet de conserver np-1=1 impulsion bien positionnée pour toute erreur affectant un bit de l'index transmis. Il y a 4 cas d'erreur (sur un total de 18), pour lesquels on reçoit un index de quantification qu'on sait être erroné (6 au lieu de 2 ou 4 ; 7 au lieu de 3 ou 5), mais le décodeur peut alors prendre des mesures limitant la distorsion, par exemple répéter la séquence d'innovation relative à la sous-trame précédente ou encore affecter des mots binaires acceptables aux index "impossibles" (par exemple 1001 ou 1010 pour l'index 6 et 1100 ou 0110 pour l'index 7 conduisent encore à np-l=l impulsion bien positionnée en cas de réception de 6 ou 7 avec une erreur binaire). For purposes of illustration, we can consider the simplified case where ns = 4 and np = 2, ie 6 possible binary words quantifiable on nb = 3 bits. In this case, it can be verified that the quantification table presented in Table II allows to keep np-1 = 1 pulse well positioned for any error affecting a bit of the transmitted index. There are 4 cases of error (out of a total of 18), for which we receive a quantification index that we know to be incorrect (6 instead of 2 or 4; 7 instead of 3 or 5), but the decoder can then take measures limiting the distortion, for example repeating the innovation sequence relating to the previous sub-frame or else assigning acceptable binary words to the "impossible" indexes (for example 1001 or 1010 for the index 6 and 1100 or 0110 for index 7 still lead to np-l = l properly positioned pulse in the event of reception of 6 or 7 with a binary error).
Dans le cas général, l'ordre dans la table de quantification des mots peut être déterminé à partir de considérations arithmétiques ou, si cela est insuffisant, en simulant sur ordinateur les scénarios d'erreurs (de façon exhaustive ou par un échantillonnage statistique de type Monte-Carlo suivant le nombre de cas d'erreurs possibles). Pour sécuriser la transmission de l'index de quantification des segments occupés, on peut en outre tirer parti des différentes catégories de protection offertes par le codeur canal 22, notamment si le critère de voisinage ne peut être vérifié de façon satisfaisante pour tous les casd' erreurs possibles affectant un bit de l'index. Le module d'ordonnancement 46 peut ainsi mettre dans la catégorie de protection minimale, ou dans la catégorie non protégée, un certain nombre nx des bits de l'index qui, s'ils sont affectés par une erreur de transmission, donnent lieu à un mot erroné mais vérifiant le critère de voisinage avec une probabilité jugée satisfaisante, et mettre dans une catégorie plus protégée les autres bits de l'index. Cette façon de procéder fait appel à un autre ordonnancement des mots dans la table de quantification. Cet ordonnancement peut également être optimisé au moyen de simulations si on souhaite maximiser le nombre nx des bits de l'index affectés à la catégorie la moins protégée. In the general case, the order in the word quantification table can be determined from arithmetic considerations or, if this is insufficient, by simulating the error scenarios on a computer (exhaustively or by statistical sampling of the type Monte-Carlo according to the number of possible error cases). To secure the transmission of the quantization index of the occupied segments, it is also possible to take advantage of the different protection categories offered by the channel encoder 22, in particular if the neighborhood criterion cannot be satisfactorily verified for all cases. possible errors affecting a bit of the index. The scheduling module 46 can thus put in the minimum protection category, or in the unprotected category, a certain number nx of the bits of the index which, if affected by a transmission error, give rise to a wrong word but checking the neighborhood criterion with a probability deemed satisfactory, and putting the other bits of the index in a more protected category. This procedure calls for a different ordering of the words in the quantification table. This scheduling can also be optimized by means of simulations if it is desired to maximize the number nx of the bits of the index assigned to the least protected category.
Une possibilité est de commencer par constituer une liste de mots de ns bits par comptage en code de Gray de 0 à 2ns-1, et d'obtenir la table de quantification ordonnée en supprimant de cette liste les mots n'ayant pas un poids de Hamming de np . La table ainsi obtenue est telle que deux mots consécutifs ont une distance de Hamming de np-2. Si les index dans cette table ont une représentation binaire en code de Gray, toute erreur sur le bits de poids le plus faible fait varier l'index de ±1 et entraîne donc le remplacement du mots d'occupation effectif par un mot voisin au sens du seuil np-2 sur la distance de Hamming, et une erreur sur le i-ième bit de poids le plus faible fait aussi varier l'index de ±1 avec une probabilité d'environ 21-i. En plaçant les nx bits de poids faible de l'index en code de Gray dans une catégorie non protégée, une éventuelle erreur de transmission affectant un de ces bits conduit au remplacement du mot d'occupation par un mot voisin avec une probabilité au moins égale àOne possibility is to start by constituting a list of words of ns bits by counting in Gray code from 0 to 2 ns -1, and to obtain the ordered quantification table by deleting from this list the words having no weight of Hamming of np. The table thus obtained is such that two consecutive words have a Hamming distance of np-2. If the indexes in this table have a binary representation in Gray code, any error on the least significant bits makes vary the index of ± 1 and thus involves the replacement of the words of effective occupation by a neighbor word in the sense of the np-2 threshold on the Hamming distance, and an error on the i-th least significant bit also varies the index by ± 1 with a probability of approximately 2 1-i . By placing the nx least significant bits of the index in Gray code in an unprotected category, a possible transmission error affecting one of these bits leads to the replacement of the busy word by a neighboring word with a probability at least equal. at
(1+1/2+...+1/2nx-1)/nx. Cette probabilité minimale décroît de 1 à (2/nb) (1-1/2nb) pour nx croissant de 1 à nb. Les erreurs affectant les nb-nx bits de poids fort de l'index seront le plus souvent corrigées grâce à la protection que leur applique le codeur canal. La valeur de nx est dans ce cas choisie selon un compromis entre la robustesse aux erreurs (petites valeurs) et un encombrement réduit des catégories protégées (grandes valeurs). (1 + 1/2 + ... + 1/2 nx-1 ) / nx. This minimum probability decreases from 1 to (2 / nb) (1-1 / 2 nb ) for nx increasing from 1 to nb. The errors affecting the nb-nx most significant bits of the index will most often be corrected thanks to the protection applied to them by the channel coder. The value of nx is in this case chosen according to a compromise between robustness to errors (small values) and a reduced size of the protected categories (large values).
Au niveau du codeur, les mots binaires possibles pour représenter l'occupation des segments sont rangés en ordre croissant dans une table de recherche. Une table d'indexage associe à chaque adresse le numéro d'ordre, dans la table de quantification stockée au décodeur, du mot binaire ayant cette adresse dans la table de recherche. Dans l'exemple simplifié évoqué ci-dessus, le contenu de la table de recherche et de la table d'indexage est donné dans le tableau III (en valeurs décimales).  At the coder level, the possible binary words to represent the occupation of the segments are arranged in ascending order in a search table. An indexing table associates with each address the serial number, in the quantification table stored at the decoder, of the binary word having this address in the search table. In the simplified example mentioned above, the content of the search table and of the indexing table is given in table III (in decimal values).
La quantification du mot d'occupation des segments déduit des np positions fournies par le module d'analyse stochastique 40 est effectuée en deux étapes par le module de quantification 44. Une recherche dichotomique est d'abord effectuée dans la table de recherche pour déterminer l'adresse dans cette table du mot à quantifier. L'index de quantification est ensuite obtenu à l'adresse déterminée dans la table d'indexage puis fourni au module 46 d'ordonnancement des bits.  The quantification of the occupation word of the segments deduced from the np positions provided by the stochastic analysis module 40 is carried out in two stages by the quantization module 44. A dichotomous search is first carried out in the search table to determine the address in this table of the word to be quantified. The quantization index is then obtained at the address determined in the indexing table and then supplied to the bit scheduling module 46.
Le module 44 effectue en outre la quantification des gains calculés par le module 40. Le gain gTP est par exemple quantifié dans l'intervalle [0;1,6], sur 5 bits si MV=1 ou 2 et sur 6 bits si MV=3 pour tenir compte de la plus grande importance perceptuelle de ce paramètre pour les trames très voisées. Pour le codage des gains associés aux impulsions de l'excitation stochastique, on quantifie sur 5 bits la plus grande valeur absolue Gs des gains g(1),...,g(np), en prenant par exemple 32 valeurs de quantification en progression géométrique dans l'intervalle [0;32767], et on quantifie chacun des gains relatifs g(1)/Gs,...,g(np)/Gs dans l'intervalle The module 44 also performs the quantification of the gains calculated by the module 40. The gain g TP is for example quantified in the interval [0; 1.6], on 5 bits if MV = 1 or 2 and on 6 bits if MV = 3 to take into account the greater perceptual importance of this parameter for very close frames. For the coding of the gains associated with the pulses of the stochastic excitation, the greatest absolute value Gs of the gains g (1), ..., g (np) is quantified over 5 bits, for example by taking 32 quantization values in geometric progression in the interval [0; 32767], and each of the relative gains g (1) / Gs, ..., g (np) / Gs in the interval is quantified
[-1;+1], sur 4 bits si MV=1, 2 ou 3, ou sur 5 bits si MV=0. [-1; +1], on 4 bits if MV = 1, 2 or 3, or on 5 bits if MV = 0.
Les bits de quantification de Gs sont placés dans une catégorie protégée par le codeur canal 22, de même que les bits de poids fort des index de quantification des gains relatifs. Les bits de quantification des gains relatifs sont ordonnés de façon à permettre leur affectation aux impulsions associées appartenant aux segments localisés par le mot d'occupation. La recherche segmentaire selon l'invention permet en outre de protéger de manière efficace les positions relatives des impulsions associées aux plus grandes valeurs de gain.  The quantization bits of Gs are placed in a category protected by the channel coder 22, as are the most significant bits of the quantization indexes of the relative gains. The relative gain quantization bits are ordered so as to allow their assignment to the associated pulses belonging to the segments located by the busy word. The segmental search according to the invention also makes it possible to effectively protect the relative positions of the pulses associated with the greatest gain values.
Dans le cas où np=5 et ls=4, dix bits par sous-trame sont nécessaires pour quantifier les positions relatives des impulsions dans les segments. On considère le cas où 5 de ces In the case where np = 5 and ls = 4, ten bits per sub-frame are necessary to quantify the relative positions of the pulses in the segments. We consider the case where 5 of these
10 bits sont placés dans une catégorie peu ou pas protégée10 bits are placed in a category with little or no protection
(II) et où les 5 autres sont placés dans une catégorie plus protégée (IB). La distribution la plus naturelle est de placer le bit de poids fort de chaque position relative dans la catégorie protégée IB, de sorte que les éventuelles erreurs de transmission affectent plutôt les bits de poids fort et ne provoquent donc qu'un décalage d'un échantillon pour l'impulsion correspondante. Il est toutefois judicieux, pour la quantification des positions relatives, de considérer les impulsions dans l'ordre décroissant des valeurs absolues des gains associés et de placer dans la catégorie IB les deux bits de quantification de chacune des deux premières positions relatives ainsi que le bit de poids fort de la troisième. De cette façon, les positions des impulsions sont protégées préferentiellement lorsqu'elles sont associées à des gains importants, ce qui améliore la qualité moyenne particulièrement pour les sous-trames les plus voisées. (II) and where the other 5 are placed in a more protected category (IB). The most natural distribution is to place the most significant bit of each relative position in the protected category IB, so that possible transmission errors rather affect the most significant bits and therefore only cause a shift of a sample. for the corresponding pulse. It is however judicious, for the quantification of the relative positions, to consider the impulses in the decreasing order of the absolute values of the associated gains and to place in category IB both quantization bits of each of the first two relative positions as well as the most significant bit of the third. In this way, the positions of the pulses are preferentially protected when they are associated with significant gains, which improves the average quality, particularly for the most widely viewed subframes.
Pour reconstituer les contributions impulsionnelles de l'excitation, le décodeur 54 localise d'abord les segments au moyen du mot d'occupation reçu ; il attribue ensuite les gains associés ; puis il attribue les positions relatives aux impulsions sur la base de l'ordre d'importance des gains.  To reconstruct the impulse contributions of the excitation, the decoder 54 first locates the segments by means of the occupation word received; he then attributes the associated winnings; then it assigns the positions relative to the impulses on the basis of the order of importance of the gains.
On comprendra que les différents aspects de l'invention décrits ci-dessus procurent chacun des améliorations propres, et qu'il est donc envisageable de les mettre en oeuvre indépendamment les uns des autres. Leur combinaison permet de réaliser un codeur de performances particulièrement intéressantes.  It will be understood that the various aspects of the invention described above each provide their own improvements, and that it is therefore possible to implement them independently of each other. Their combination makes it possible to produce a particularly interesting performance coder.
Dans l'exemple de réalisation décrit dans ce qui précède, le codeur de parole à 13 kbits/s requiert de l'ordre de 15 millions d'instructions par seconde (Mips) en virgule fixe. On le réalisera donc typiquement en programmant un processeur de signal numérique (DSP) du commerce, de même que le décodeur qui ne requiert que de l'ordre de 5 Mips.  In the embodiment described above, the 13 kbit / s speech coder requires around 15 million instructions per second (Mips) in fixed point. This will therefore typically be done by programming a commercial digital signal processor (DSP), as well as the decoder which requires only around 5 Mips.

Claims

REVENDICATIONS
1. Procédé de codage à analyse par synthèse d'un signal de parole numérisé en trames successives divisées en sous-trames de lst échantillons, dans lequel on effectue pour chaque trame une analyse par prédiction linéaire pour déterminer les coefficients d'un filtre de synthèse à court terme (60), et on détermine pour chaque sous-trame une séquence d'excitation à ne contributions associées chacune à un gain respectif (gP,g(n)) de façon que la séquence d'excitation soumise au filtre de synthèse à court terme produise un signal synthétique représentatif du signal de parole, les ne contributions de la séquence d'excitation et les gains associés étant déterminés par un processus itératif dans lequel l'itération n(0≤n<nc) comprend : 1. Method for coding with analysis by synthesis of a speech signal digitized in successive frames divided into sub-frames of lst samples, in which a linear prediction analysis is carried out for each frame to determine the coefficients of a synthesis filter short term (60), and an excitation sequence with no contributions each associated with a respective gain (g P , g (n)) is determined for each subframe so that the excitation sequence subjected to the short-term synthesis produces a synthetic signal representative of the speech signal, the contributions of the excitation sequence and the associated gains being determined by an iterative process in which the iteration n (0≤n <nc) comprises:
- la détermination de la contribution n qui maximise la quantité (Fp .en-1 T) 2/ (Fp . Fp T) où Fp désigne un vecteur ligne à lst composantes égales aux produits de convolution entre une valeur possible de la contribution n et la réponse impulsionnelle d'un filtre composé du filtre de synthèse à court terme et d'un filtre de pondération perceptuelle, et en-1 désigne un vecteur-cible déterminé lors de l'itération n-1 si nil et e-1=X est un vecteur-cible initial ; et - the determination of the contribution n which maximizes the quantity (F p. e n-1 T ) 2 / (F p . F p T ) where F p denotes a line vector with lst components equal to the products of convolution between a possible value of the contribution n and the impulse response of a filter composed of the short-term synthesis filter and a perceptual weighting filter, and e n-1 denotes a target vector determined during the iteration n-1 if nil and e -1 = X is an initial target vector; and
- le calcul de n+1 gains formant un vecteur ligne gn=(gn(0),...,gn(n)) en résolvant le système linéaire gn.Bn=bn où Bn, est une matrice symétrique à n+1 lignes et n+1 colonnes dont la composante Bn(i,j) (0≤i,j≤n) est égale au produit scalaire Fp (i ) - Fp (j ) T où Fp (i) et Fp(j) désignent respectivement les vecteurs-ligne égaux aux produits de convolution entre les contributions i et j précédemment déterminées et la réponse impulsionnelle du filtre composé, et bn est un vecteur ligne à n+1 composantes bn(i) (0≤i≤n) respectivement égales aux produits scalaires entre les vecteurs Fp(i) et le vecteur-cible initial X, - the calculation of n + 1 gains forming a line vector g n = (g n (0), ..., g n (n)) by solving the linear system g n .B n = b n where B n , is a symmetric matrix with n + 1 rows and n + 1 columns whose component B n (i, j) (0≤i, j≤n) is equal to the scalar product F p (i) - F p (j) T where F p (i) and F p (j) respectively denote the line vectors equal to the convolution products between the contributions i and j previously determined and the impulse response of the compound filter, and b n is a line vector with n + 1 components b n (i) (0≤i≤n) respectively equal to the scalar products between the vectors F p (i) and the initial target vector X,
les ne gains associés aux ne contributions de la séquence d'excitation étant ceux calculés lors de l'itération nc-1, caractérisé en ce qu'à chaque itération n (0≤n<nc), on calcule les lignes n de trois matrices L, R et K à nc lignes et ne colonnes telles que Bn = Ln.Rn T et Ln= Rn.Kn où Ln, Rn et Kn désignent des matrices à n+1 lignes et n+1 colonnes correspondant respectivement aux n+1 premières lignes et aux n+1 premières colonnes desdites matrices L, R et K, les matrices L et R étant triangulaires inférieures, la matrice K étant diagonale, et la matrice L n'ayant que des 1 sur sa diagonale principale, on calcule la ligne n de la matrice L-1 inverse de la matrice L, et on calcule les n+1 gains selon la relation gn= bn.Kn.(Ln -1)T.Ln -1 où Ln -1 désigne la matrice à n+1 lignes et n+1 colonnes correspondant respectivement aux n+1 premières lignes et aux n+1 premières colonnes de la matrice inverse L-1. the ne gains associated with ne contributions of the excitation sequence being those calculated during the nc-1 iteration, characterized in that at each iteration n (0≤n <nc), the rows n of three matrices L, R and K are calculated with nc rows and no columns such that B n = L n. R n T and L n = R n .K n where L n , R n and K n denote matrices with n + 1 rows and n + 1 columns corresponding respectively to the n + 1 first rows and to the n + 1 first columns of said matrices L, R and K , the matrices L and R being lower triangular, the matrix K being diagonal, and the matrix L having only 1s on its main diagonal, we calculate the line n of the matrix L -1 inverse of the matrix L, and we calculates the n + 1 gains according to the relation g n = b n .K n . (L n -1 ) T .L n -1 where L n -1 designates the matrix with n + 1 rows and n + 1 corresponding columns respectively to the first n + 1 rows and to the first n + 1 columns of the inverse matrix L -1 .
2. Procédé selon la revendication 1, caractérisé en ce qu'à chaque itération n (0≤n<nc), on calcule successivement les termes R(n,j) et L(n,j) respectivement situés à la ligne n et à la colonne j des matrices R et L pour j croissant de 0 à n-1, selon :  2. Method according to claim 1, characterized in that at each iteration n (0≤n <nc), the terms R (n, j) and L (n, j) are successively calculated respectively located at line n and in column j of the matrices R and L for j increasing from 0 to n-1, according to:
puis on calcule le terme K(n) situé à la ligne n et à la colonne n de la matrice K selon : then the term K (n) located at line n and at column n of the matrix K is calculated according to:
3. Procédé selon la revendication 2, caractérisé en ce qu'à chaque itération n (0≤n<nc), on calcule successivement les termes L-1(n,j') respectivement situés à a ligne n et aux colonnes j' de la matrice inverse L-1 pour j' décroissant de n-1 à 0 selon 3. Method according to claim 2, characterized in that at each iteration n (0≤n <nc), the terms L -1 (n, j ') respectively located at a line n and in columns j 'of the inverse matrix L -1 for j' decreasing from n-1 to 0 according to
4. Procédé selon la revendication 3, caractérisé en ce qu'à chaque itération n (0≤n<nc), on calcule le gain gn(n) associé à la contribution n selon : 4. Method according to claim 3, characterized in that at each iteration n (0≤n <nc), the gain g n (n) associated with the contribution n is calculated according to:
, ,
puis on recalcule les gains associés aux contributions i' pour i' compris entre 0 et n-1 selon : then we recalculate the gains associated with contributions i 'for i' between 0 and n-1 according to:
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que les ne contributions comprennent au moins une contribution à long terme correspondant à une excitation passée retardée.  5. Method according to any one of claims 1 to 4, characterized in that the contributions do not include at least one long-term contribution corresponding to a delayed past excitation.
6. Procédé selon l'une quelconque des revendications 6. Method according to any one of the claims
1 à 5, dans lequel la séquence d'excitation comporte une excitation stochastique constituée par plusieurs impulsions dont on calcule les positions respectives (p(n)) dans la sous-trame et des gains (g(n)) respectivement associés, caractérisé en ce qu'on subdivise chaque sous-trame en ns segments, ns étant un nombre au moins égal au nombre np d'impulsions par excitation stochastique, en ce que les positions (p(n)) des impulsions de l'excitation stochastique relative à une sous-trame sont déterminées successivement, et en ce qu'on cherche la première impulsion en une position quelconque de la sous-trame, et les positions suivantes en excluant chaque segment auquel appartient une impulsion dont la position a été précédemment déterminée. 1 to 5, in which the excitation sequence comprises a stochastic excitation constituted by several pulses whose respective positions (p (n)) are calculated in the sub-frame and associated gains (g (n)) respectively, characterized in what each subframe is subdivided into ns segments, ns being a number at least equal to the number np of pulses by stochastic excitation, in that the positions (p (n)) of the pulses of the stochastic excitation relative to a subframe are determined successively, and in that one seeks the first pulse at any position of the subframe, and the following positions in excluding each segment to which an impulse whose position was previously determined belongs.
7. Procédé selon la revendication 6, caractérisé en ce que, le nombre ns de segments par sous-trame étant supérieur au nombre np d'impulsions par excitation stochastique, on quantifie de façon distincte les numéros d'ordre des segments occupés par une impulsion de l'excitation stochastique et les positions relatives des impulsions dans les segments occupés.  7. Method according to claim 6, characterized in that, the number ns of segments per subframe being greater than the number np of pulses by stochastic excitation, the sequence numbers of the segments occupied by a pulse are distinctly quantified of the stochastic excitation and the relative positions of the pulses in the occupied segments.
8. Procédé selon la revendication 7, caractérisé en ce que l'occupation des segments est représentée par un mot de ns bits dans lequel les bits à 1 sont ceux ayant le même numéro d'ordre que les segments occupés, les mots d'occupation possibles étant ordonnés dans une table de quantification indexée par des index de nb bits, avec 2nb-1<ns!/[np!(ns-np)!]≤2nb, de façon telle que deux mots dont les index respecti fs en représentation binaire diffèrent par un seul bit soient voisins suivant un critère prédéterminé, et en ce qu'on émet pour chaque sous-trame l'index dans la table de quantification du mot d'occupation correspondant aux np impulsions de l'excitation stochastique. 8. Method according to claim 7, characterized in that the occupation of the segments is represented by a word of ns bits in which the bits at 1 are those having the same order number as the occupied segments, the occupation words possible being ordered in a quantization table indexed by nb-bit indexes, with 2 nb-1 <ns! / [np! (ns-np)!] ≤2 nb , in such a way that two words including the respective indexes in binary representation differ by a single bit are neighbors according to a predetermined criterion, and in that one transmits for each subframe the index in the table of quantification of the word of occupation corresponding to the np pulses of the stochastic excitation.
9. Procédé selon la revendication 7, caractérisé en ce que l'occupation des segments est représentée par un mot de ns bits dans lequel les bits à 1 sont ceux ayant le même numéro d'ordre que les segments occupés, les mots d'occupation possibles étant ordonnés dans une table de quantification indexée par des index de nb bits, avec 2nb-1<ns!/[np!(ns-np)!]≤2nb, de façon telle que deux mots dont les index respectifs en représentation binaire diffèrent par un seul bit faisant partie de nx bits de rangs déterminés soient voisins suivant un critère prédéterminé, et en ce qu'on émet pour chaque sous-trame l'index dans la table de quantification du mot d'occupation correspondant aux np impulsions de l'excitation stochastique, en protégeant sélectivement vis-à-vis des erreurs de transmission les nb-nx bits de l'index autres que lesdits nx bits de rangs déterminés. 9. Method according to claim 7, characterized in that the occupation of the segments is represented by a word of ns bits in which the bits at 1 are those having the same order number as the occupied segments, the occupation words possible being ordered in a quantization table indexed by nb-bit indexes, with 2 nb-1 <ns! / [np! (ns-np)!] ≤2 nb , so that two words with respective indexes in binary representation differ by a single bit forming part of nx bits of determined ranks being neighbors according to a predetermined criterion, and in that one transmits for each subframe the index in the table of quantification of the word of occupation corresponding to the np pulses of stochastic excitation, by selectively protecting against transmission errors the nb-nx bits of the index other than said nx rank bits determined.
10. Procédé selon la revendication 7 ou 8, caractérisé en ce qu'on effectue une analyse en boucle ouverte du signal de parole pour détecter les trames voisées du signal, en ce qu'on prévoit pour les sous-trames des trames voisées un premier nombre d'impulsions par excitation stochastique et une première table de quantification des mots d'occupation des segments, et en ce qu'on prévoit pour les sous-trames des trames non voisées un second nombre d'impulsion par excitation stochastique et une seconde table de quantification des mots d'occupation des segments.  10. Method according to claim 7 or 8, characterized in that an open loop analysis of the speech signal is carried out to detect the voiced frames of the signal, in that a first is provided for the subframes of the voiced frames. number of pulses by stochastic excitation and a first table for quantifying the words of occupation of the segments, and in that provision is made for the sub-frames of the unvoiced frames a second number of pulses by stochastic excitation and a second table for quantifying the occupation words of the segments.
11. Procédé selon l'une quelconque des revendications 7 à 10, caractérisé en ce que les bits de quantification des positions relatives des np impulsions sont répartis, entre un premier groupe protégé vis-à-vis des erreurs de transmission et un second groupe moins protégé, en fonction de l'importance des gains associés aux impulsions.  11. Method according to any one of claims 7 to 10, characterized in that the bits for quantizing the relative positions of the np pulses are distributed, between a first group protected from transmission errors and a second group less protected, depending on the size of the gains associated with the pulses.
12. Procédé selon la revendication 11, caractérisé en ce qu'au moins une impulsion ayant un gain relatif important en valeur absolue a davantage de bits de quantification de sa position relative dans ledit premier groupe que des impulsions ayant un gain relatif plus faible en valeur absolue.  12. Method according to claim 11, characterized in that at least one pulse having a large relative gain in absolute value has more quantization bits of its relative position in said first group than pulses having a lower relative gain in value absolute.
EP96901009A 1995-01-06 1996-01-03 Speech coding method using synthesis analysis Expired - Lifetime EP0801789B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR9500124 1995-01-06
FR9500124A FR2729244B1 (en) 1995-01-06 1995-01-06 SYNTHESIS ANALYSIS SPEECH CODING METHOD
PCT/FR1996/000005 WO1996021219A1 (en) 1995-01-06 1996-01-03 Speech coding method using synthesis analysis

Publications (2)

Publication Number Publication Date
EP0801789A1 true EP0801789A1 (en) 1997-10-22
EP0801789B1 EP0801789B1 (en) 1998-12-02

Family

ID=9474923

Family Applications (2)

Application Number Title Priority Date Filing Date
EP96901009A Expired - Lifetime EP0801789B1 (en) 1995-01-06 1996-01-03 Speech coding method using synthesis analysis
EP96400028A Expired - Lifetime EP0721180B1 (en) 1995-01-06 1996-01-05 Analysis by synthesis speech coding

Family Applications After (1)

Application Number Title Priority Date Filing Date
EP96400028A Expired - Lifetime EP0721180B1 (en) 1995-01-06 1996-01-05 Analysis by synthesis speech coding

Country Status (8)

Country Link
US (1) US5899968A (en)
EP (2) EP0801789B1 (en)
CN (1) CN1134761C (en)
AT (2) ATE174147T1 (en)
AU (1) AU4490296A (en)
DE (2) DE69601068T2 (en)
FR (1) FR2729244B1 (en)
WO (1) WO1996021219A1 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI955266A (en) * 1995-11-02 1997-05-03 Nokia Telecommunications Oy Method and apparatus for transmitting messages in a telecommunications system
JP3134817B2 (en) * 1997-07-11 2001-02-13 日本電気株式会社 Audio encoding / decoding device
KR100510399B1 (en) * 1998-02-17 2005-08-30 모토로라 인코포레이티드 Method and Apparatus for High Speed Determination of an Optimum Vector in a Fixed Codebook
US6810377B1 (en) * 1998-06-19 2004-10-26 Comsat Corporation Lost frame recovery techniques for parametric, LPC-based speech coding systems
US6453289B1 (en) 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6823303B1 (en) * 1998-08-24 2004-11-23 Conexant Systems, Inc. Speech encoder using voice activity detection in coding noise
US6480822B2 (en) * 1998-08-24 2002-11-12 Conexant Systems, Inc. Low complexity random codebook structure
US6493665B1 (en) * 1998-08-24 2002-12-10 Conexant Systems, Inc. Speech classification and parameter weighting used in codebook search
US6192335B1 (en) * 1998-09-01 2001-02-20 Telefonaktieboiaget Lm Ericsson (Publ) Adaptive combining of multi-mode coding for voiced speech and noise-like signals
JP3372908B2 (en) * 1999-09-17 2003-02-04 エヌイーシーマイクロシステム株式会社 Multipulse search processing method and speech coding apparatus
JP4367808B2 (en) * 1999-12-03 2009-11-18 富士通株式会社 Audio data compression / decompression apparatus and method
US6850884B2 (en) * 2000-09-15 2005-02-01 Mindspeed Technologies, Inc. Selection of coding parameters based on spectral content of a speech signal
US6842733B1 (en) 2000-09-15 2005-01-11 Mindspeed Technologies, Inc. Signal processing system for filtering spectral content of a signal for speech coding
US7047188B2 (en) * 2002-11-08 2006-05-16 Motorola, Inc. Method and apparatus for improvement coding of the subframe gain in a speech coding system
CN101320565B (en) * 2007-06-08 2011-05-11 华为技术有限公司 Perception weighting filtering wave method and perception weighting filter thererof
US9626982B2 (en) * 2011-02-15 2017-04-18 Voiceage Corporation Device and method for quantizing the gains of the adaptive and fixed contributions of the excitation in a CELP codec
US8977544B2 (en) * 2011-04-21 2015-03-10 Samsung Electronics Co., Ltd. Method of quantizing linear predictive coding coefficients, sound encoding method, method of de-quantizing linear predictive coding coefficients, sound decoding method, and recording medium and electronic device therefor
CN105336337B (en) 2011-04-21 2019-06-25 三星电子株式会社 For the quantization method and coding/decoding method and equipment of voice signal or audio signal
US9208134B2 (en) * 2012-01-10 2015-12-08 King Abdulaziz City For Science And Technology Methods and systems for tokenizing multilingual textual documents

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8302985A (en) * 1983-08-26 1985-03-18 Philips Nv MULTIPULSE EXCITATION LINEAR PREDICTIVE VOICE CODER.
CA1223365A (en) * 1984-02-02 1987-06-23 Shigeru Ono Method and apparatus for speech coding
NL8500843A (en) * 1985-03-22 1986-10-16 Koninkl Philips Electronics Nv MULTIPULS EXCITATION LINEAR-PREDICTIVE VOICE CODER.
US4802171A (en) * 1987-06-04 1989-01-31 Motorola, Inc. Method for error correction in digitally encoded speech
US4831624A (en) * 1987-06-04 1989-05-16 Motorola, Inc. Error detection method for sub-band coding
CA1337217C (en) * 1987-08-28 1995-10-03 Daniel Kenneth Freeman Speech coding
US5058165A (en) * 1988-01-05 1991-10-15 British Telecommunications Public Limited Company Speech excitation source coder with coded amplitudes multiplied by factors dependent on pulse position
SE463691B (en) * 1989-05-11 1991-01-07 Ericsson Telefon Ab L M PROCEDURE TO DEPLOY EXCITATION PULSE FOR A LINEAR PREDICTIVE ENCODER (LPC) WORKING ON THE MULTIPULAR PRINCIPLE
US5060269A (en) * 1989-05-18 1991-10-22 General Electric Company Hybrid switched multi-pulse/stochastic speech coding technique
US5097508A (en) * 1989-08-31 1992-03-17 Codex Corporation Digital speech coder having improved long term lag parameter determination
ATE191987T1 (en) * 1989-09-01 2000-05-15 Motorola Inc NUMERICAL VOICE ENCODER WITH IMPROVED LONG-TERM PREDICTION THROUGH SUB-SAMPLING RESOLUTION
ATE177867T1 (en) * 1989-10-17 1999-04-15 Motorola Inc DIGITAL SPEECH DECODER USING POST-FILTERING WITH REDUCED SPECTRACT DISTORTION
US5073940A (en) * 1989-11-24 1991-12-17 General Electric Company Method for protecting multi-pulse coders from fading and random pattern bit errors
US5097507A (en) * 1989-12-22 1992-03-17 General Electric Company Fading bit error protection for digital cellular multi-pulse speech coder
US5265219A (en) * 1990-06-07 1993-11-23 Motorola, Inc. Speech encoder using a soft interpolation decision for spectral parameters
FI98104C (en) * 1991-05-20 1997-04-10 Nokia Mobile Phones Ltd Procedures for generating an excitation vector and digital speech encoder
WO1993005502A1 (en) * 1991-09-05 1993-03-18 Motorola, Inc. Error protection for multimode speech coders
US5253269A (en) * 1991-09-05 1993-10-12 Motorola, Inc. Delta-coded lag information for use in a speech coder
TW224191B (en) * 1992-01-28 1994-05-21 Qualcomm Inc
FI95085C (en) * 1992-05-11 1995-12-11 Nokia Mobile Phones Ltd A method for digitally encoding a speech signal and a speech encoder for performing the method
US5495555A (en) * 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec
US5317595A (en) * 1992-06-30 1994-05-31 Nokia Mobile Phones Ltd. Rapidly adaptable channel equalizer
IT1264766B1 (en) * 1993-04-09 1996-10-04 Sip VOICE CODER USING PULSE EXCITATION ANALYSIS TECHNIQUES.

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO9621219A1 *

Also Published As

Publication number Publication date
AU4490296A (en) 1996-07-24
WO1996021219A1 (en) 1996-07-11
CN1134761C (en) 2004-01-14
ATE174147T1 (en) 1998-12-15
EP0721180A1 (en) 1996-07-10
DE69601068D1 (en) 1999-01-14
DE69601068T2 (en) 1999-07-15
ATE183600T1 (en) 1999-09-15
FR2729244A1 (en) 1996-07-12
DE69603755T2 (en) 2000-07-06
US5899968A (en) 1999-05-04
CN1173940A (en) 1998-02-18
EP0721180B1 (en) 1999-08-18
DE69603755D1 (en) 1999-09-23
EP0801789B1 (en) 1998-12-02
FR2729244B1 (en) 1997-03-28

Similar Documents

Publication Publication Date Title
EP0801790B1 (en) Speech coding method using synthesis analysis
EP0801788B1 (en) Speech coding method using synthesis analysis
EP0721180B1 (en) Analysis by synthesis speech coding
EP0782128B1 (en) Method of analysing by linear prediction an audio frequency signal, and its application to a method of coding and decoding an audio frequency signal
EP1994531B1 (en) Improved celp coding or decoding of a digital audio signal
FR2734389A1 (en) METHOD FOR ADAPTING THE NOISE MASKING LEVEL IN A SYNTHETIC ANALYSIS ANALYTICAL ENCODER USING A SHORT-TERM PERCEPTUAL WEIGHING FILTER
EP1692689B1 (en) Optimized multiple coding method
EP2080194B1 (en) Attenuation of overvoicing, in particular for generating an excitation at a decoder, in the absence of information
FR2784218A1 (en) LOW-SPEED SPEECH CODING METHOD
EP0490740A1 (en) Method and apparatus for pitch period determination of the speech signal in very low bitrate vocoders
EP0616315A1 (en) Digital speech coding and decoding device, process for scanning a pseudo-logarithmic LTP codebook and process of LTP analysis
WO2002029786A1 (en) Method and device for segmental coding of an audio signal
EP1192618B1 (en) Audio coding with adaptive liftering
EP1192621B1 (en) Audio encoding with harmonic components
EP1194923B1 (en) Methods and device for audio analysis and synthesis
Tan et al. Real-time Implementation of MELP Vocoder
Jung et al. Efficient implementation of ITU-T G. 723.1 speech coder for multichannel voice transmission and storage
WO2001003118A1 (en) Audio coding and decoding by interpolation
JP2001100799A (en) Method and device for sound encoding and computer readable recording medium stored with sound encoding algorithm
FR2980620A1 (en) Method for processing decoded audio frequency signal, e.g. coded voice signal including music, involves performing spectral attenuation of residue, and combining residue and attenuated signal from spectrum of tonal components
WO2001003119A1 (en) Audio encoding and decoding including non harmonic components of the audio signal

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 19970725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH DE FR GB IT LI LU NL SE

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

17Q First examination report despatched

Effective date: 19980225

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: MATRA NORTEL COMMUNICATIONS

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE CH DE FR GB IT LI LU NL SE

REF Corresponds to:

Ref document number: 174147

Country of ref document: AT

Date of ref document: 19981215

Kind code of ref document: T

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: AT

Payment date: 19981221

Year of fee payment: 4

REF Corresponds to:

Ref document number: 69601068

Country of ref document: DE

Date of ref document: 19990114

ITF It: translation for a ep patent filed

Owner name: BARZANO' E ZANARDO MILANO S.P.A.

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: LU

Payment date: 19990121

Year of fee payment: 4

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

Effective date: 19990105

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: KELLER & PARTNER PATENTANWAELTE AG

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: BE

Payment date: 19990212

Year of fee payment: 4

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20000103

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20000103

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20000131

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20000131

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20000131

BERE Be: lapsed

Owner name: MATRA NORTEL COMMUNICATIONS

Effective date: 20000131

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20000801

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

NLV4 Nl: lapsed or anulled due to non-payment of the annual fee

Effective date: 20000801

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: SE

Payment date: 20001218

Year of fee payment: 6

REG Reference to a national code

Ref country code: GB

Ref legal event code: IF02

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20020104

EUG Se: european patent has lapsed

Ref document number: 96901009.9

REG Reference to a national code

Ref country code: FR

Ref legal event code: CD

Ref country code: FR

Ref legal event code: CA

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20040130

Year of fee payment: 9

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20041210

Year of fee payment: 10

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES;WARNING: LAPSES OF ITALIAN PATENTS WITH EFFECTIVE DATE BEFORE 2007 MAY HAVE OCCURRED AT ANY TIME BEFORE 2007. THE CORRECT EFFECTIVE DATE MAY BE DIFFERENT FROM THE ONE RECORDED.

Effective date: 20050103

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20050105

Year of fee payment: 10

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20050802

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20060103

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20060131

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20060103

REG Reference to a national code

Ref country code: FR

Ref legal event code: ST

Effective date: 20060929