WO1991017541A1 - Procede et dispositif de codage bas debit de la parole - Google Patents

Procede et dispositif de codage bas debit de la parole Download PDF

Info

Publication number
WO1991017541A1
WO1991017541A1 PCT/FR1991/000329 FR9100329W WO9117541A1 WO 1991017541 A1 WO1991017541 A1 WO 1991017541A1 FR 9100329 W FR9100329 W FR 9100329W WO 9117541 A1 WO9117541 A1 WO 9117541A1
Authority
WO
WIPO (PCT)
Prior art keywords
coding
frame
frames
pitch
takes place
Prior art date
Application number
PCT/FR1991/000329
Other languages
English (en)
Inventor
Benoit Mouy
Pierre André LAURENT
Original Assignee
Thomson-Csf
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson-Csf filed Critical Thomson-Csf
Priority to JP91508756A priority Critical patent/JPH05507796A/ja
Publication of WO1991017541A1 publication Critical patent/WO1991017541A1/fr

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders

Definitions

  • the present invention relates to a method and a device for low bit rate coding of speech.
  • the volume of information to be transmitted is increasingly coming up against the technological limits of the equipment capable of carrying the word.
  • the known coding techniques MIC, DELTA, RELP etc.
  • the speech signal can no longer be transmitted by its form d 'wave .
  • the much more sophisticated coding techniques of vocoders most very low speed vocoders use a vector coding technique of their digital filter to model the voice path. This modeling takes place by searching for a reference in a dictionary.
  • this technique which is both very complicated and costly to implement, does not allow fine quantification of the speech signal to be obtained.
  • the difficulties also come from the fact that the energy of the signal is often poorly represented and therefore poorly coded, so that the sudden variations in amplitude of the voice signal can no longer be restored correctly.
  • the object of the invention is to overcome the aforementioned drawbacks.
  • the subject of the invention is a method of low-speed coding of speech, characterized in that it consists, after having cut the speech signal into frames of constant length, in calculating the characteristics of N filters modeling of the vocal tract as well as the fundamental period (pitch), voicing and energy characteristics of the voice signal at determined intervals of N successive frames by calculating the energy of the speech signal a determined number P of times per frame to code all of these characteristics.
  • Figure 1 a flowchart illustrating the speech coding method implemented by the invention.
  • FIG. 2 a mode of coding the LSP coefficients of the 0 analysis filter used in FIG. 1 to model the voice path.
  • Figure 3 a table of LSP coefficients.
  • Figure 4 paths coding frames by interpolation.
  • Figure 5 is a pitch coding table.
  • FIG. 6 is a flowchart illustrating the method for synthesizing the speech signal implemented by the invention.
  • Figure 7 a graph to illustrate a mode of interpola ⁇ synthesis filter implemented by the invention.
  • Figure 8 an embodiment of a device for implementing the method according to the invention.
  • the coding method according to the invention after cutting the speech signal into frames of length rec ⁇ aunt from about 20 to 25 ms, as this usually occurs in vocoders, to determine and encode the characteristics of the speech signal on N successive frames by determining the energy of the signal P times per frame.
  • the synthesis of the speech signal on each frame then takes place by descrambling and decoding the • JQ values of the coded characteristics of the speech signal.
  • step 3 IQ frame and quantization of the samples on a determined number of bits these are pre-emphasized in step 3.
  • the sampling operation makes the spectrum of the speech signal periodic, the number of samples taken into account for the determined ⁇ coefficients of the filter modeling the vocal tract
  • i is an integer varying from 0 to 10 for example, and S. represents a sample of pre-emphasized signal and window.
  • the calculation of the K. coefficients can be carried out in step 5 by applying the algorithm known to M. LEROUX- GUEGUEN, a description of which can be found in article 0 of the journal IEEE Transactions or Acoustics Speech, and Signal Processing June 1977 entitled "A fixed point computation of partial correlation coefficients".
  • This calculation returns to inver ser ⁇ a square matrix whose elements are the coefficients R.de the relation (1).
  • the transition from reflection coefficients to prediction coefficients A takes place in step 8. This transition also uses an algorithm known as the algorithm of M. Levison, a description of which can be found in the article entitled:
  • LSP coefficients of the filter are calculated from two polynomials P and Q described as follows in the plane of the transforms in Z, where Z is the complex variable of these polynomials.
  • F represents the sampling frequency of the speech signal.
  • the fundamental period of the signal and the voicing are calculated in a known manner by performing steps 9 and 10.
  • the speech signal is classified into two categories of sounds, voiced sounds and unvoiced sounds.
  • Voiced sounds that are produced from the vocal cords are assimilated to a series of impulses whose fundamental period ⁇ is called "Pitch" in English.
  • Unvoiced sounds produced by turbulence are assimilated to white noise.
  • the method recognizes in step 10 for each frame a voiced sound, and a voiceless sound otherwise. Recognition takes place after a preprocessing of the signal to reinforce useful information and limit that which is not.
  • This preprocessing consists in carrying out a first low-pass filtering of the signal, followed by basing and a second filtering.
  • the first filtering is carried out for example by means of a simple "Butter orth" filter of order 3 whose cutoff frequency at 3dB can be set at 600 Hertz. 5
  • the trimming then places the signal samples whose level is below a certain predefined ⁇ terminated threshold at zero amplitude, possibly variable depending on the amplitude of the voice signal. This bashing makes it possible to accentuate the periodic aspect of the signal while reducing the details detrimental to subsequent processing.
  • the second filter smoothes the r ⁇ States of baselining eliminating high frequencies.
  • a Butterworth filter identical to the first filter can be used. 5
  • the pitch and voicing calculations are carried out in a known manner by using the AMDF (Average Magnitude Difference Function) function. They take place in five stages which consist of:
  • the energy calculation which takes place in step 8 is performed Q on four subframes. This calculation takes place by taking the logarithm based on 2 of the sum of the energies of each pre-emphasized samples of a subframe.
  • the subframes in each frame are contiguous or overlap to have a length multiple of the "pitch".
  • the coding of frame 3 is of scalar type. It kills effec ⁇ under algorithm known as the "Sequential Backward adaptive" as described for example in the article of the journal IEEE is selected areas in 5 communica- tions, Vol. 6 feb. 88 of MM. Sugamara N and FAVARDIN N (1988) entitled "Quantizer design in LSP speech analysis”.
  • the coding algorithm is executed in decreasing order of the LSP coefficients, starting with the last of the ways shown in FIGS. 2 and 3.
  • 0 modeling of the vocal tract with 10 LSP coefficients for example the encoding the last coefficient LSP (IO) takes place so li ⁇ provisionaire between two frequency values F 'MIN and F- "MAX and held v -" linearly coded values on NB.
  • IO last coefficient LSP
  • the encoder determines which of three interpola ⁇ tions represented by the graph of Figure 4 which 0 it seems to give the best approximation of the frames of values
  • D_INTER (i) Wl. (LSPQ (case i, frame l) -LSP (Frame 1)) 2 +
  • Wl value of the energy of the frame 1
  • W2 value of the energy of the frame 2
  • This coding takes 8 bits.
  • the pitch and voicing coding take place in step 14 on three consecutive frames.
  • the current voicing type is determined from six possible cases from the voices of frames 1, 2 and 3 and the voicing of frame 0 which precedes each group of frames 1, 2 and 3.
  • the code 0 is assigned the type 1.
  • a code equal to their will ⁇ "N. Table” the pitch of the frame 3 is assigned the type 2.
  • a code equal to 64 to which is added the value "N. Table” of pitch of frame 3 is assigned to type 3.
  • a code equal to 128 to which is added the value "N. table” of the pitch of frame 1 is assigned to type 4.
  • a code equal to 192 to which is added the value "N table of the pitch of frame 1 is assigned to type 5.
  • the coding of type 6 takes place in a very particular way by projecting the vector composed of the three values of the pitches of the three frames on the 3 vectors (Vect 1, Vect 2 , Vect 3) eigen to code the three projections obtained
  • These three vectors Vect 1, Vect 2, Vect 3 are an approximation of the first 3 eigenvectors of the intercorrelation matrix.
  • the projection on the first eigenvector gives the mean of pitch it is easier to take directly as code for the first projection the value ur "N. table "which is closest to the average (P- + P réelle + P) / 3 of the pitches of frames 1, 2 and 3.
  • the corresponding code is then coded on the 63 values of the coding table.
  • the projection on the second eigenvector (Vect 2) is equal to the scalar product of the pitches of frames 1, 2 and 3 by the second eigenvector (Vect 2) and the projection on the third eigenvector (Vect 3) is equal to the scalar product of the pitchs of frames 1, 2 and 3 by the third eigenvector (Vect 3).
  • the corresponding codes can be obtained respectively on only 4 and 3 values from the coding table.
  • the coding of the energy which is carried out on stage 15 takes place in a known manner and described in patent application FR 2 631 146 on three consecutive frames. Four value of the ener gy ⁇ corresponding to four sub-frames of each three frames are coded. However, in order to eliminate the redundant information in these 12 values, a Main Component Analysis of the type described described having the title "Data analysis elements" in the book of MM. DIDAY, LEMAIRE, POUGET and TESTU published by Dunod, is performed. Coding takes place in two stages. A first step is to make a basic change. The 12-dimensional energy vector, composed of the 12 energy values of the 3 frames, is projected onto the first 3 main axes determined during the analysis by main components (more than 97% of the information is contained in these
  • the second step consists in quantifying these 3 projec ⁇ tions, the first projection is quantized on 4 bits, the second on 3 bits and the third on 2 bits.
  • the energy coding thus obtained is then defined on
  • Dithering is performed in step 16 is to EFFEC ⁇ kill a collection of all the codes to form a 54 bit word continuously decomposed as following: 1) Energy Code 3 frames on 9 bits.
  • Frame filters code 1 and 2 on 8 bits, i.e. in total 9 + 10 + 27 + 8 54 bits. 5 As an example for the case of a frame duration of
  • steps 17 to 28 of the flow diagram of FIG. 6 The synthesis, that is to say the decoding of the speech signal Q takes place according to steps 17 to 28 of the flow diagram of FIG. 6 following on the one hand, steps 17 to 21 for descrambling and decoding the values of the LSP coefficients of the filter (step 18), of the pitch (step 19), of the voicing and of the energy (step 20) for three consecutive frames and on the other hand, according to the 5 steps 22 to 28 which carry out the synthesis of the signal speech successively for each of the three frames from the information obtained during the execution of steps 17 to 21.
  • Descreening and decoding follow procedures reverse to the screening and decoding procedures defined during the analysis illustrated by the flowchart of Figure 1.
  • the formatting of the synthesis filter consists in performing in step 23 an interpolation calculation of the LSP coefficients on four subframes and a calculation to transform the LSP coefficients into A coefficients. This latter calculation is followed in step 24 by a calculation of gain of the synthesis filter for the 4 subframes to which is added a calculation of the energy of the excitation signal of the filter.
  • step 23 In order to avoid abrupt transitions between filters dissembla ⁇ ble they are in step 23 into four steps every frame shifts.
  • the four interpolated filters must then verify a relation of the form:
  • LSP (SS Tr., TrN) (LSP (TrN-l) * (4-i) + LSP (TrN) * i) / 4 where LSP (SS Tri, Tr N) designates the value of the interpolated filter in the sub frame i of frame N.
  • the interpolation takes place according to the diagram in Figure 7.
  • the 12 decoded energies correspond to the energy of the speech signal after pre-emphasis, it is necessary to obtain the energy of the excitation signal divide the energy by the gain of the filter.
  • the gain of the filter of each subframe is calculated using the coefficients K. according to the relation i
  • the last step consists in determining the value of the standard deviation of the energy of each sub-frame (value utili ⁇ Sée when calculating the excitation).
  • the entire coding and decoding method according to the invention can be carried out by means of a micropro- structure. grammage formed as shown by way of example in FIG. 8 by a signal processing microprocessor 29 such as that sold by the company Texas Instrument under the designation TMS 320C25. According to this structure the speech signal is first sampled by an analog-digital converter 30 before being applied to a data bus 31 of the microprocessor 29. An analog filter 32 coupled to a provi ⁇ tif AGC filter 33 the speech signal before its sampling. The programs and the data implemented for the execution of the method according to the invention are recorded in a read-only memory 34 and in a random access memory 35 connected to the microprocessor 29. An interface circuit 36 connects the microprocessor 29 via from a data line 37 to transmission devices external to the vocoder, not shown.

Abstract

Le procédé consiste après avoir découpé le signal de parole en trames de longueur constante, à calculer (4...10) les caractéristiques de N filtres de modélisation du conduit vocal ainsi que les caractéristiques de période fondamentale (pitch), de voisement et d'énergie du signal vocal. Un codage en bloc est effectué pour les filtres d'une part, pour le pitch et le voisement d'autre part. L'énergie du signal de parole est déterminée un nombre P de fois par trame pour N trames, puis codée en un seul bloc. Applications: vocodeurs à bas débit 800 bits/s.

Description

Procédé et dispositif de codage bas débit de la parole.
La présente invention concerne un procédé et un disposi¬ tif de codage bas débit de la parole .
Elle s'applique notamment à la réalisation de vocodeurs pour les liaisons radio HF, ou de ceux utilisés pour la message- rie vocale .
Dans ces domaines, le volume d'informations à transmettre se heurte de plus en plus aux limites technologiques des équipe¬ ments susceptibles de véhiculer la parole . Ainsi pour des trans¬ missions dont le débit est inférieur à 2400 bits par seconde , les techniques de codage connues (MIC, DELTA, RELP etc . . ) ne sont plus adaptées , le signal de parole ne pouvant plus être transmis par sa forme d'onde . Pour assurer ces transmissions il devient nécessaire d'utiliser les techniques de codage beaucoup plus sophistiquées des vocodeurs . Ainsi, la plupart des voco- deurs très bas débit utilisent une technique de codage vectoriel de leur filtre numérique pour modéliser le conduit vocal. Cette modélisation a lieu par recherche d'une référence dans un dic¬ tionnaire . Cependant cette technique qui est à la fois très compliquée et coûteuse à mettre en oeuvre ne permet pas d'obte- nir une quantification fine du signal de parole . Les difficultés viennent en outre du fait que l'énergie du signal est souvent mal représentée et donc mal codée, de la sorte les brusques variations d'amplitude du signal vocal ne peuvent plus être restituées correctement . Le but de l'invention est de pallier les inconvénients précités .
A cet effet , l'invention a pour objet un procédé de co¬ dage à bas débit de la parole, caractérisé en ce qu'il consiste après avoir découpé le signal de parole en trames de longueur constante, à calculer les caractéristiques de N filtres de modélisation du conduit vocal ainsi que les caractéristiques de période fondamentale (pitch) , de voisement et d'énergie du signal vocal par intervalles déterminés de N trames successi¬ ves en calculant l'énergie du signal de parole un nombre P déter¬ miné de fois par trame pour coder l'ensemble de ces caractéristi¬ ques . D'autres caractéristiques et avantages de l'invention apparaîtront à l'aide de la description faite en regard des dessins annexés qui représentent :
La figure 1 un organigramme illustrant le procédé de codage de la parole mis en oeuvre par l'invention .
La figure 2 un mode de codage des coefficients LSP du 0 filtre d'analyse mis en oeuvre à la figure 1 pour modéliser le conduit vocal.
La figure 3 un tableau de coefficients LSP . La figure 4 des chemins de codage de trames par interpo¬ lation . 5 La figure 5 une table de codage de "pitch" .
La figure 6 un organigramme illustrant le procédé de synthèse du signal de parole mis en oeuvre par l'invention .
La figure 7 un graphe pour illustrer un mode d'interpola¬ tion des filtres de synthèse mis en oeuvre par l'invention . 0 La figure 8 un mode de réalisation d'un dispositif pour la mise en oeuvre du procédé selon l'invention .
Le procédé de codage selon l'invention consiste après avoir découpé le signal de parole en trames de longueur cons¬ tante d'environ 20 à 25 ms, comme ceci a lieu habituellement dans les vocodeurs , à déterminer et coder les caractéristiques du signal de parole sur N trames successives en déterminant l'énergie du signal P fois par trame .
La synthèse du signal de parole sur chaque trame a lieu ensuite en procédant au détramage et au décodage des valeurs •JQ des caractéristiques codées du signal de parole .
Les étapes représentatives d'un procédé de codage selon l'invention appliquées à un cas où N = 3 trames successives sont analysées sont représentées sur l'organigramme de la igure 1 .
Sur cet organigramme le procédé commence aux étapes 1 à 6 , par
35 le calcul sur la première trame analysée des coefficients " LSP" où "LSP" est l'abréviation anglaise de "Line Spectrum Pair" , d'un filtre d'analyse modélisant le conduit vocal : ce calcul peut être effectué par exemple en suivant la méthode connue décrite dans l'article de MM. Peter KABAL et Ravi PRAKASA
5 RAMACHANDRAN ayant pour titre "The computation of line spectral Frequencies using Chebyshev polynomials" publié dans IEE Transactions on Acoustics, Speech and Signal Processing ASSP-34 Dec . 86.
Après échantillonnage du signal de parole sur chaque
I Q trame et quantification des échantillons sur un nombre déterminé de bits ceux-ci sont préaccentués à l'étape 3. Comme l'opération d'échantillonnage rend périodique le spectre du signal de pa¬ role, le nombre d'échantillons pris en compte pour la détermina¬ tion des coefficients du filtre de modélisation du conduit vocal
15 est limité de façon connue en faisant le produit des échantil¬ lons préaccentués de l'étape 3 par une fenêtre de HAMMING de durée égale à celle d'une trame, cette fenêtre présentant aussi l'avantage de renforcer les résonances .
Les coefficients k. du filtre de modélisation du con-
1 0 duit vocal sont calculés à l'étape 5 à partir de coefficients d'autocorrélation R. définis par une relation de la forme :
Ri = k S (k) ' S k+i ( 1 )
5 où i est un nombre entier variant de 0 à 10 par exemple , et S. représente un échantillon de signal préaccentué et fenêtre .
Le calcul des coefficients K. peut être effectué à l'étape 5 en appliquant l'algorithme connu de M. LEROUX- GUEGUEN dont une description peut être trouvée dans l'article 0 de la revue IEEE Transactions ou Acoustics Speech, and Signal Processing June 1977 ayant pour titre "A fixed point computation of partial corrélation coefficients" . Ce calcul revient à inver¬ ser une matrice carrée dont les éléments sont les coefficients R.de la relation ( 1) . 5 Le passage des coefficients de réflexions à des coeffi¬ cients de prédiction A. a lieu à l'étape 8. Ce passage utilise aussi un algorithme connu sous le nom d'algorithme de M . Levison dont une description peut être trouvée dans l'article intitulé :
"The Wiener RM5 error croterion in filter design and prédiction J Math Phys, 25 pp 614-617 (1947) "
Enfin les coefficients LSP du filtre sont calculés à partir de deux polynômes P et Q décrits comme suit dans le plan des transformées en Z, où Z est la variable complexe de ces polynômes .
P(Z" 1) =A(Z" 1) -Z" 11. A(Z) (2) et Q(Z"1)=A(Z"1) +Z"11. A(Z) (3)
avec A(Z_1) = 1 + A. . Z"1 (4) i=l
Q . j e-ώ i . j βi désignent les racines des polynô¬ mes P et Q les coefficients LSP sont par définition les fréquen¬ ces f. et g. des arguments de ces racines i &ι s soit : f. = x. Fe/21T (5) et g. = β. Fe/2TT (6)
Dans ce calcul F représente la fréquence d'échantillon¬ nage du signal de parole .
Les fréquences f. et g, sont conservées dans une mémoire, non représentée et les calculs précédents sont recommen¬ cés sur les échantillons des deux trames qui suivent. Lorsque les paramètres de trois trames consécutives sont calculés et que trois jeux de coefficients ont été stockés le procédé passe à leur codage à l'étape 13.
Le calcul de la période fondamentale du signal et du voisement a lieu de façon connue par exécution des étapes 9 et 10. Au cours de ces étapes le signal de parole est classé en deux catégories de sons , les sons voisés et les sons non voisés . Les sons voisés qui sont produits à partir des cordes vocales sont assimilés à une suite d'impulsions dont la période du fonda¬ mental porte le nom de "Pitch" en anglais . Les sons non voisés qui sont produits par des turbulences sont assimilés à du bruit blanc . Ainsi lorsque le signal de parole présente des périodici- tés marqués le procédé reconnaît à l'étape 10 pour chaque trame un son voisé, et un son non voisé dans le cas contraire . La reconnaissance a lieu après un prétraitement du signal pour renforcer les informations utiles et limiter celles qui ne le sont pas . Ce prétraitement consiste à effectuer un premier fil- 0 trage passe bas du signal, suivi d'un ébasage et d'un deuxième filtrage . Comme la fréquence fondamentale du signal de parole varie entre 50 et 400 Hertz le premier filtrage est effectué par exemple au moyen, d'un simple filtre de "Butter orth" d'ordre 3 dont la fréquence de coupure à 3dB peut être fixée à 600 Hertz . 5 L'ébasage place ensuite à une amplitude nulle les échantillons du signal dont le niveau est inférieur à un certain seuil prédé¬ terminé variable éventuellement suivant l'amplitude du signal vocal. Cet ébasage permet d'accentuer l'aspect périodique du signal tout en diminuant les détails nuisibles aux traitements 0 ultérieurs .
Enfin, le deuxième filtrage permet de lisser les résul¬ tats de l'ébasage en éliminant les hautes fréquences . A cette fin, un filtre de Butterworth identique au pemier filtre peut être utilisé . 5 Les calculs du pitch et du voisement ont lieu de façon connue par utilisation de la fonction AMDF (Average Magnitude Différence Function) . Ils se déroulent suivant cinq étapes qui consistent :
1. A calculer une décision préliminaire de voisement à Q partir des valeurs de l'énergie, du filtre de modélisation et du nombre de passages par l'amplitude nulle du signal.
2. A calculer un seuil de voisement à partir de la déci¬ sion du voisement préliminaire, de l'énergie basse fréquence et de constantes internes . 5 3. A calculer pour chaque valeur de R une fonction : AMDF(k) =SOMME| (S - S . , J (8) où s(n) représente le signal prétraité, et à calculer les valeurs maximales de cette fonction .
4. A comparer et étudier les valeurs maximales obtenues pour en déduire le voisement et le pitch de la trame .
5. Et à corriger le voisement et le pitch de la trame précédente en fonction des résultats de la trame courante pour conserver une certaine stationnarité au voisement.
Le calcul d'énergie qui a lieu à l'étape 8 est exécuté Q sur quatre sous trames . Ce calcul a lieu en prenant le loga¬ rithme à base 2 de la somme des énergies de chaque échantillons préaccentué d'une sous trame .
Les sous trames dans chaque trame sont jointives ou se chevauchent pour avoir une longueur multiple du "pitch" . Une fois que les caractéristiques, de modélisation du filtre, d'énergie, de voisement et de pitch sont obtenues pour trois trames successives le procédé passe à leur codage selon les étapes 13 à 16. Le codage du filtre des trois trames dési¬ gnées ci-après par trame 1, trame 2 et trame 3 s'effectue en Q deux temps en commençant par la trame 3.
Le codage de la trame 3 est de type scalaire . Il s'effec¬ tue en application de l'algorithme connue sous l'appellation "Backward Sequential adaptative" tel que décrit par exemple dans l'article de la revue IEEE on selected areas in communica- 5 tions, Vol. 6 feb . 88 de MM. Sugamara N et FAVARDIN N (1988) ayant pour titre "Quantizer design in LSP speech analysis" .
L'algorithme de codage est exécuté dans l'ordre décrois¬ sant des coefficients LSP en commençant par le dernier des ma¬ nières représentées aux figures 2 et 3. Pour un filtre de ,0 modélisation du conduit vocal à 10 coefficients LSP par exemple le codage du dernier coefficient LSP(IO) a lieu de façon li¬ néaire entre deux valeurs de fréquences F- «MIN et F- „MAX et a lieu sur v- „ valeurs codées linéairement sur NB . „ bits .
35 Les codages des LSP(i) autres coefficients pour i = 9, 8...1 a lieu par comparaison du coefficient LSPQ(i+l) à une va¬ leur de fréquence maximum F.MAX
Si LSPQ(i + 1)>F.MAX alors le codage du coefficient est 5 effectué linéairement entre deux valeurs F.MIN et F.MAX sur
J 1 1
NV. valeurs et donc sur NB. bits, i i
Si LSP(i+l)<F.MAX alors le codage du coefficient est effectué linéairement entre F.MIN et LSPQ(i+l) sur NV. va¬ leurs et donc sur NB.bits. i
10 Au cours du codage des trames 1 et 2 une bonne approxi¬ mation des valeurs de coefficients LSP correspondant aux trames I et 2 est obtenue à partir de l'interpolation entre les trames
0 (trame 0 = trame 3 du groupe de 3 trames précédentes) et 3. Dans ce processus les trames 1 et 2 ne sont pas codées directe - 5 ment mais c'est le type d'interpolation permettant de les quanti¬ fier le plus fidèlement possible qui est codé.
Pour chacune des valeurs de coefficients LSP d'ordre impairs des trames 1 ou 2, le codeur détermine parmi 3 interpola¬ tions représentées par le graphe de la figure 4 celle qui lui 0 semble donner la meilleure approximation des valeurs des trames
1 et 2.
Les trois cas d'interpolations possibles cas 0, casl et cas 2 donnent pour les trames 1 et 2 des coefficients LSPQ défi¬ nis en liaison avec la figure 4 comme suit. (LSPQ (trame i) = 5 Valeur Quantifiée du LSP de la trame i
Cas 0 :LSPQ(casO,tramel) = (2*LSPQ(trameO)+LSPQ(trame3))/3 LSPQ(casO,trame2) = (LSPQ(trameO)+2*LSPQ(trame3))/3
Cas 1 : LSPQ(casl,tramel) = (LSPQ(trameO)+2*LSPQ(trame3))/3 0 LSPQ(casl,trame2)=LSPQ(trame3)
Cas 2 : LSPQ(cas2,tramel)=LSPQ(trameO)
LSPQ(cas2,trame2) = (2*LSPQ(trameO)+LSPQ(trame3))/3 Le procédé choisit ensuite parmi les 3 interpolations 5 précédentes celle qui minimise l'erreur de quantification, esti- mée au moyen d'une fonction D_INTER définie ci-dessous en adoptant la valeur de code correspondante .
La fonction D_INTER est définie comme suit. D_INTER(i) = Wl. (LSPQ(cas i, trame l) -LSP(Trame 1) ) 2 +
W2. (LSPQ(cas i, Trame 2)-LSP(Trame 2) )2 où LSPQ (cas i, Trame j) est la valeur du coefficient LSP impair de la trame j quantifié au moyen del'interpolation du type i.
LSP (trame j) = Valeur réelle dans la trame j du coef¬ ficient LSP impair à quantifier
Wl = valeur de l'énergie de la trame 1 W2 = valeur de l'énergie de la trame 2
On obtient ainsi 5 codes de 3 cas chacun, soit 3 =243 cas possibles . Le code obtenu est égal à Code LSP1 + 3. Code LSP3 + 9. Code LSP5 + 27. Code LSP7 + 81. Code LSP9
Ce codage tient sur 8 bits .
Le codage du pitch et du voisement ont lieu à l'étape 14 sur trois trames consécutives .
Le type de voisement courant est déterminé parmi six cas possibles à partir des voisements des trames 1, 2 et 3 et du voisement de la trame 0 qui précède chaque groupe de trames 1, 2 et 3.
Les types de cas possibles considérés sont les suivants .
Figure imgf000010_0001
Une table de codage représenté à la figure 5 permet d'as¬ socier à toute "aleur du pitch un nombre de la table dont la valeur désignée par la suite par "N tableau" est la plus proche du pitch .
Le codage des six types de cas possibles précédents a lieu alors de la manière suivante :
Le code 0 est attribué au type 1. Un code égal à la va¬ leur "N . tableau" du pitch de la trame 3 est attribué au type 2. Un code égal à 64 auquel est ajouté la valeur "N . tableau" du pitch de la trame 3 est attribué au type 3. Un code égal à 128 auquel est ajouté la valeur "N. tableau" du pitch de la trame 1 est attribué au type 4. Un code égal à 192 auquel est ajouté la valeur "N. tableau du pitch de la trame 1 est attribué au type 5 . Le codage du type 6 a lieu de façon toute particulière en proje¬ tant le vecteur composé des trois valeurs des pitchs des trois trames sur les 3 vecteurs (Vect 1, Vect 2 , Vect 3) propres pour coder les trois projections obtenues . Ces trois vecteurs Vect 1 , Vect 2 , Vect 3 sont une approximation des 3 premiers vecteurs propres de la matrice d 'intercorrélation . Comme la projection sur le premier vecteur propre donne la moyenne des pitchs il est plus simple de prendre directement comme code pour la première projection la valeur "N . tableau" qui est la plus proche de la moyenne (P- + P„ + P ) /3 des pitchs des trames 1, 2 et 3. Le code correspondant est alors codé sur les 63 valeurs de la table de codage .
La projection sur le deuxième vecteur propre (Vect 2) est égale au produit scalaire des pitchs des trames 1, 2 et 3 par le deuxième vecteur propre (Vect 2) et la projection sur le troi¬ sième vecteur propre (Vect 3) est égale au produit scalaire des pitchs des trames 1 , 2 et 3 par le troisième vecteur propre (Vect 3) .
Les codes correspondants peuvent être obtenus respective¬ ment sur seulement 4 et 3 valeurs de la table de codage .
Le codage de l'énergie qui est effectué à l'étage 15 a lieu de façon connue et décrite dans la demande de brevet FR 2 631 146 sur trois trames consécutives . Quatre valeur de l'éner¬ gie correspondant aux 4 sous trames de chacune des trois trames sont codées . Cependant pour éliminer l'information redondante dans ces 12 valeurs une Analyse par Composantes Principales du type de celle décrite ayant pour titre "Eléments d'analyse des données" dans le livre de MM. DIDAY, LEMAIRE, POUGET et TESTU publié par Dunod, est effectuée . Le codage a lieu selon deux étapes . Une première étape consiste à effectuer un change¬ ment de base . Le vecteur énergie de dimension 12 , composé des 12 valeurs d'énergie des 3 trames est projeté sur les 3 premiers axes principaux déterminés lors de l'analyse par composantes principales (plus de 97% de l'information est contenue dans ces
3 projections) .
La deuxième étape consiste à quantifier ces 3 projec¬ tions, la première projection est quantifiée sur 4 bits , la deuxième sur 3 bits et la troisième sur 2 bits . Le codage de l'énergie ainsi obtenu est alors défini sur
4 + 3 +2 = 9 bits .
Le tramage qui est effectué à l'étape 16 consiste à effec¬ tuer un regroupement de tous les codes pour former un mot continu de 54 bits décomposés comme suite : 1) Code énergie 3 trames sur 9 bits .
2) Code pitch 3 trames sur 10 bits .
3) Code filtre trame 3 sur 27 bits .
4) Code filtres trames 1 et 2 sur 8 bits , soit au total 9 + 10+27 + 8 = 54 bits . 5 A titre d'exemple pour le cas d'une durée de trame de
22.5 ms, le procédé permet d'obtenir dans ces conditions un débit binaire par seconde de 54/(3*0.0225) = 800 bits par se¬ conde .
La synthèse c'est-à-dire le décodage du signal de parole Q se déroule selon les étapes 17 à 28 de l'organigramme de la figure 6 suivant d'une part, les étapes 17 à 21 pour détramer et décoder les valeurs des coefficients LSP du filtre (étape 18) , du pitch (étape 19) , du voisement et de l'énergie (étape 20) pour trois trames consécutives et d'autre part, suivant les 5 étapes 22 à 28 qui réalisent la synthèse du signal de parole successivement pour chacune des trois trames à partir des infor¬ mations obtenues lors de l'exécution des étapes 17 à 21. Le détramage et le décodage suivent des procédures inverses aux procédures de tramage et de décodage définie lors de l'analyse illustrée par l'organigramme de la figure 1. La mise en forme du filtre de synthèse consiste à effectuer à l'étape 23 un calcul d'interpolation des coefficients LSP sur quatre sous trames et un calcul pour transformer les coefficients LSP en coefficients A.. Ce dernier calcul est suivi à l'étape 24 par un calcul de gain du filtre de synthèse pour les 4 sous trames auquel est ajouté un calcul de l'énergie du signal d'excitation du filtre . Afin d'éviter des transitions brutales entre filtres dissembla¬ bles celles-ci se font à l'étape 23 en quatre étapes tous les quarts de trame . Les quatre filtres interpolés doivent alors vérifier une relation de la forme :
LSP(SS Tr. , TrN) = (LSP(TrN-l)*(4-i) +LSP(TrN)*i) /4 où LSP(SS Tri, Tr N) désigne la valeur du filtre interpolé dans la sous trame i de la trame N .
L'interpolation a lieu suivant le schéma de la figure 7 . Comme les 12 énergies décodées correspondent à l'énergie du signal de parole après préaccentuation, il faut pour obtenir l'énergie du signal d'excitation diviser l'énergie par le gain du filtre .
Le gain du filtre de chaque sous trame est calculé en utilisant les coefficients K. suivant la relation i
Gain du filtre _ 1 = -^ (1-l (9) i=l
Enfin la dernière étape consiste à déterminer la valeur de l'écart type de l'énergie de chaque sous trame (valeur utili¬ sée lors du calcul de l'excitation) .
L'ensemble d u procédé de codage et de décodage selon l'invention sont exécutables au moyen d'une structure micropro- grammée formée de la façon représentée à titre d'exemple sur la figure 8 par un microprocesseur de traitement du signal 29 tel que celui commercialisé par la société Texas Instrument sous la désignation TMS 320C25. Suivant cette structure le signal de parole est d'abord échantillonné par un convertisseur analogique numérique 30 avant d'être appliqué sur un bus de donnée 31 du microprocesseur 29. Un filtre analogique 32 couplé à un disposi¬ tif de contrôle automatique de gain 33 filtre le signal de pa¬ role avant son échantillonnage . Les programmes et les données mis en oeuvre pour l'exécution du procédé selon l'invention sont inscrits dans une mémoire morte 34 et dans une mémoire vive 35 reliées au microprocesseur 29. Un circuit d'interface 36 relie le microprocesseur 29 par l'intermédiaire d'une ligne de donnée 37 à des dispositifs de transmission extérieurs au vocodeur non représentés .
Un dispositif de réception de la parole formé d'un haut parleur 38, d'un amplificateur de puissance 39, un filtre analo¬ gique 40, est relié au microprocesseur par l'intermédiaire d'un convertisseur numérique analogique 41.

Claims

REVENDICATIONS
1 . Procédé de codage à bas débit de la parole , caractéri¬ sé en ce qu'il consiste après avoir découpé le signal de parole en trames de longueur constante , à calculer (4. . . 10) les caracté¬ ristiques de N filtres de modélisation du conduit vocal ainsi que les caractéristiques de période fondamentale (pitch) , de voisement et d'énergie du signal vocal par intervalles détermi¬ nés de N trames successives en calculant l'énergie du signal de parole en nombre P déterminé de fois par trame pour coder l'en¬ semble de ces caractéristiques .
2 . Procédé selon la revendication 1, caractérisé en ce que les caractéristiques des filtres de modélisation du con¬ duit vocal sont formés de coefficients LSP .
3. Procédé selon l'une quelconque des revendications 1 et 2 , caractérisé en ce que le nombre N est égal à trois .
4. Procédé selon la revendication 3 , caractérisé en ce que le codage des coefficients LSP a lieu scalairement sur une première trame et par interpolation sur les deux autres .
5. Procédé selon la revendication 4, caractérisé en ce que le codage scalaire des coefficients de la troisième trame a lieu par application de l'algorithme "Backward Sequential Adaptative" .
6. Procédé selon l'une quelconque des revendications 4 et
5, caractérisé en ce que le codage par interpolation sur les deux autres trames a lieu par recherche parmi trois interpola- tions possibles celle qui présente l'erreur de quantification minimum .
7. Procédé selon l'une quelconque des revendications 1 à
6, caractérisé en ce que le codage de la période fondamentale (pitch) et du voisement ont lieu sur trois trames consécuti- ves et a lieu par adressage direct d'une table de codage par la valeur du (pitch) lorsqu'il existe au moins un son non voisé dans une trame et par codage d'une valeur de pitch obtenue par transformation vectorielle des valeurs de "pitch" existant sur les trois trames lorsque le son est voisé sur les trois trames , dans cette transformation le vecteur composé des trois valeurs des pitchs des trois trames est projeté sur les trois premiers vecteurs propres d'une matrice d 'intercorrélation et les trois valeurs des trois projections sont codés .
8. Procédé selon l'une quelconque des revendications 1 à , caractérisé en ce que le codage de l'énergie est effectué sur 4 sous trames dans chaque trame .
9. Dispositif pour la mise en oeuvre du procédé selon l'une quelconque des revendications 1 à 8, caractérisé en ce qu'il comprend une structure microprogrammée composé d'une mé¬ moire morte 34 et d'une mémoire vive 35 reliées a un microproces¬ seur de traitement du signal 29, le microprocesseur 29 étant relié d'une part, à un convertisseur analogique numérique 31 pour convertir le signal de parole en échantillons numériques et d'autre part à un convertisseur numérique analogique pour con¬ vertir les échantillons de parole formés par le microprocesseur en signaux analogiques pour exciter un dispositif 38 de restitu¬ tion du son ainsi qu'à ligne de donnée extérieure 37 pour un circuit d'interface 36.
PCT/FR1991/000329 1990-04-27 1991-04-19 Procede et dispositif de codage bas debit de la parole WO1991017541A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP91508756A JPH05507796A (ja) 1990-04-27 1991-04-19 音声の低スループット符号化の方法と装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR90/05400 1990-04-27
FR9005400A FR2661541A1 (fr) 1990-04-27 1990-04-27 Procede et dispositif de codage bas debit de la parole.

Publications (1)

Publication Number Publication Date
WO1991017541A1 true WO1991017541A1 (fr) 1991-11-14

Family

ID=9396170

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR1991/000329 WO1991017541A1 (fr) 1990-04-27 1991-04-19 Procede et dispositif de codage bas debit de la parole

Country Status (5)

Country Link
EP (1) EP0454552A3 (fr)
JP (1) JPH05507796A (fr)
CA (1) CA2079884A1 (fr)
FR (1) FR2661541A1 (fr)
WO (1) WO1991017541A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2684225A1 (fr) * 1991-11-22 1993-05-28 Thomson Csf Procede de quantification de l'energie du signal de parole dans un vocodeur a tres faible debit.
US5495555A (en) * 1992-06-01 1996-02-27 Hughes Aircraft Company High quality low bit rate celp-based speech codec

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4701955A (en) * 1982-10-21 1987-10-20 Nec Corporation Variable frame length vocoder
US4852179A (en) * 1987-10-05 1989-07-25 Motorola, Inc. Variable frame rate, fixed bit rate vocoding method
EP0428445A1 (fr) * 1989-11-14 1991-05-22 Thomson-Csf Procédé et dispositif de codage de filtres prédicteurs de vocodeurs très bas débit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4701955A (en) * 1982-10-21 1987-10-20 Nec Corporation Variable frame length vocoder
US4852179A (en) * 1987-10-05 1989-07-25 Motorola, Inc. Variable frame rate, fixed bit rate vocoding method
EP0428445A1 (fr) * 1989-11-14 1991-05-22 Thomson-Csf Procédé et dispositif de codage de filtres prédicteurs de vocodeurs très bas débit

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ICASSP 83, IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING, Boston, 14-16 avril 1983, vol. 1, IEEE, (New York, US), R.M. SCHWARTZ et al.: "A comparison of methods for 300-400 B/S vocoders", pages 69-72, voir page 70: "variable interpolation" *
IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH & SIGNAL PROCESSING, Hartford, 9-11 mai 1977, IEEE, (New York, US), R. VISWANATHAN et al.: "The application of a functional perceptual model of speech to variable-rate LPC systems", pages 219-222 *
IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH & SIGNAL PROCESSING, Hartford, 9-11 mai 1977, IEEE, (New York, US), R. VISWANATHAN et al.: "The application of a functional perceptual model of speech to variable-rate LPC systems", pages 219-222, voir page 219, colonne de droite, lignes 2-14 *
IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH & SIGNAL PROCESSING, Tulsa, 10-12 avril 1978, IEEE, (New York, US), E. McLarnon: "A method for reducing the transmission rate of a channel vocoder by using frame interpolation", pages 458-461, voir pages 458,459: "Coding scheme" *

Also Published As

Publication number Publication date
JPH05507796A (ja) 1993-11-04
CA2079884A1 (fr) 1991-10-28
EP0454552A2 (fr) 1991-10-30
EP0454552A3 (en) 1992-01-02
FR2661541A1 (fr) 1991-10-31

Similar Documents

Publication Publication Date Title
JP3241959B2 (ja) 音声信号の符号化方法
US5067158A (en) Linear predictive residual representation via non-iterative spectral reconstruction
EP0782128B1 (fr) Procédé d&#39;analyse par prédiction linéaire d&#39;un signal audiofréquence, et procédés de codage et de décodage d&#39;un signal audiofréquence en comportant application
EP1271472B1 (fr) Post-filtrage de parole codée dans le domaine fréquentiel
US5873059A (en) Method and apparatus for decoding and changing the pitch of an encoded speech signal
EP1692689B1 (fr) Procede de codage multiple optimise
US6732075B1 (en) Sound synthesizing apparatus and method, telephone apparatus, and program service medium
EP0865028A1 (fr) Décodeur de parole à interpolation de formes d&#39;ondes utilisant des fonctons pline
EP0865029B1 (fr) Interpolation de formes d&#39;onde par décomposition en bruit et en signaux périodiques
EP0428445B1 (fr) Procédé et dispositif de codage de filtres prédicteurs de vocodeurs très bas débit
EP2080194B1 (fr) Attenuation du survoisement, notamment pour la generation d&#39;une excitation aupres d&#39;un decodeur, en absence d&#39;information
US7603271B2 (en) Speech coding apparatus with perceptual weighting and method therefor
FR2653557A1 (fr) Appareil et procede pour le traitement de la parole.
US6535847B1 (en) Audio signal processing
JP3237178B2 (ja) 符号化方法及び復号化方法
WO1991017541A1 (fr) Procede et dispositif de codage bas debit de la parole
EP0573358B1 (fr) Procédé et dispositif de synthèse vocale à vitesse variable
JPH05297898A (ja) データ数変換方法
JP3437421B2 (ja) 楽音符号化装置及び楽音符号化方法並びに楽音符号化プログラムを記録した記録媒体
JP3731575B2 (ja) 符号化装置及び復号装置
JPH0651800A (ja) データ数変換方法
EP1192619B1 (fr) Codage et decodage audio par interpolation
EP0987680A1 (fr) Traitement de signal audio
JP3271966B2 (ja) 符号化装置及び符号化方法
EP1192618B1 (fr) Codage audio avec liftrage adaptif

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA JP US

WWE Wipo information: entry into national phase

Ref document number: 2079884

Country of ref document: CA