WO1994027285A1 - Vektorcodierverfahren, insbesondere für sprachsignale - Google Patents

Vektorcodierverfahren, insbesondere für sprachsignale Download PDF

Info

Publication number
WO1994027285A1
WO1994027285A1 PCT/DE1994/000436 DE9400436W WO9427285A1 WO 1994027285 A1 WO1994027285 A1 WO 1994027285A1 DE 9400436 W DE9400436 W DE 9400436W WO 9427285 A1 WO9427285 A1 WO 9427285A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector coding
partial code
coding method
coefficients
autocorrelation
Prior art date
Application number
PCT/DE1994/000436
Other languages
English (en)
French (fr)
Inventor
Jörg-Martin Müller
Bertram Wächter
Original Assignee
Ant Nachrichtentechnik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=6487537&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO1994027285(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ant Nachrichtentechnik Gmbh filed Critical Ant Nachrichtentechnik Gmbh
Priority to DK94912473T priority Critical patent/DK0697124T3/da
Priority to DE59408863T priority patent/DE59408863D1/de
Priority to US08/535,107 priority patent/US5729654A/en
Priority to EP94912473A priority patent/EP0697124B1/de
Priority to AU65026/94A priority patent/AU682505B2/en
Publication of WO1994027285A1 publication Critical patent/WO1994027285A1/de
Priority to FI955324A priority patent/FI116596B/fi

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3082Vector coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • G10L2019/0005Multi-stage vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients

Definitions

  • the invention is based on a vector coding method, in particular for speech signals, using a code book for predictive coding.
  • the speech signal is sampled and divided into sections (time sections). Prediction values for different types of signal parameters are formed for each section.
  • signal parameters are e.g. Short-term parameters for the characterization of the formant structure (resonances of the speech tract) and long-term parameters for the characterization of the pitch structure (pitch) of the speech signal (ANT news reports, issue 5, Nov. 1988, pages 93 to 105).
  • the model and excitation parameters are quantized, coded and transmitted to the receiver. Vector quantization is used to further reduce the bit rate (see above; DE / EP 0 266 620 Tl; EP 504 627 A2; EP 294 020 A2).
  • the object of the present invention is to further develop the method of the type mentioned at the outset such that, with reduced memory and processing complexity, code book parameters are available which have a low sensitivity to errors, in particular for transmission purposes via disturbed channels.
  • the combination patterns formed from the autocorrelation coefficients need not be saved. It is enough if their addresses; i.e. their location is saved. This reduces the amount of memory and the
  • FIG. 1 the principle of RELP speech coding
  • FIG. 2 the principle of analysis by synthesis
  • Figure 3 shows an example of the choice of the autocorrelation coefficient according to the invention
  • Figure 4 partial code books with the distribution of the pulse pattern.
  • a RELP speech codec based on the principle "analysis by synthesis" is used.
  • the speech coding e.g. according to the RELP principle (ANT news reports, issue 5, 1988, pages 93 to 105) is briefly explained in Figure 1 for further understanding of the invention.
  • a speech signal s (t) is digitized using an A / D converter and then analyzed.
  • This analysis includes the function blocks prediction and excitation analysis.
  • a replica of the speech generation by a linear adaptive model which is suitably stimulated, is used. Only the model and excitation parameters required for speech synthesis are quantized, coded and transmitted to the receiver.
  • statistical dependencies of the speech samples are analyzed in the transmitter and largely eliminated by means of linear short-term and possibly also long-term prediction.
  • the short-term prediction largely eliminates correlations between immediately consecutive scanning values. Correlations between widely spaced samples (pitch structure) are reduced by a subsequent long-term predictor. The result is a signal that essentially only has non-linear dependencies and whose energy is greatly reduced compared to the energy of the original speech signal.
  • the difference between the original and the synthesized speech signal is used to calculate the excitation signal (FIG. 1).
  • the language can be viewed as a quasi-stationary process. This quasi-stationary nature enables the calculation of predictors whose parameters assume constant values for the duration of the speech section.
  • a speech section of 20 ms duration is defined, for example, as the frame duration. Then, at a sampling frequency of 8 kHz, 160 samples per frame are available to adapt the predictor coefficients.
  • Prediction errors are determined by minimizing the energy of the prediction error per frame. To determine these prediction coefficients, the correlation method is used to simplify the computational effort.
  • the coefficients of the speech synthesis filter which are characterized in FIG. 2 by the transfer function H L (Z) H K (Z), are known.
  • the excitation r (n) for the synthesis filter is either calculated or read from a code book according to the invention.
  • the output signal s (n) of the synthesis filter is the estimated speech signal.
  • a comparison with the original signal s (n) results in the error signal e (n), which is weighted with the transfer function W (Z) in terms of hearing physiology.
  • the error signal is then used to determine an improved excitation signal.
  • Vector quantization is used to further reduce the bit rate for the transmission.
  • the calculation of the excitation signal is replaced by a code book with L excitation vectors of dimension D.
  • the energy of each vector is adapted to the energy of the speech signal.
  • the address of the vector with the smallest error energy then becomes
  • the codebook can be used with Gaussian random numbers.
  • CELP methods Codebook Excited Linear Prediction
  • n 4 pulses, i.e. Amplitude bits within a frame of 40 samples, for example.
  • AKF Q results in the amplitude value 4. Since this value is constant for all pulse patterns with n-pulses, it does not have to be saved. The remaining non-zero pulses have an amplitude of 1. For example, the 5th sample is +1 and the 15th sample is -1.
  • the autocorrelation coefficients used here are defined so that when combined with the autocorrelation function, the impulse response of an excitation filter for generating synthetic signals (speech signals) results in the energy of the filtered excitation signal.
  • the pulse pattern consists of only four positive pulses, in the second partial code book it consists of three positive and one negative pulse, etc.
  • the code book length L accordingly comprises 256 vectors. Due to the frequency of the combination pattern (pulse pattern), the combination pattern can be separated from the distribution
  • the combination patterns do not have to be saved and transferred yourself. It is sufficient if each of the 16 partial code books with a known combination pattern can be distinguished from the other. The easiest way to achieve this is to assign a different address to each partial code book and thus to the respective pulse pattern, for example the address 0000 for the first partial code book and the address 0001 etc. for the second partial code book (FIG. 4). For the location of the pulses in the partial code books, only one address must be stored and transmitted. Instead of creating 16 partial code books, it is sufficient to generate only 8 partial code books with different combination patterns (partial code books 1 to 8). The partial code books 9 to 16 can then be created by simple sign inversion of the combination pattern. For example, the pattern 11-1-1 becomes the pattern -1-111.
  • the pulse patterns can therefore be provided with a higher level of error protection than the information about the specific position of their pulses.

Abstract

Bei einem Vektorcodierverfahren, insbesondere für Sprachsignale, werden im Codebuch Autokorrelationskoeffizienten abgespeichert, die bei Verknüpfung mit der Autokorrelationsfunktion der Impulsantwort eines Anregungsfilters die Energie des gefilterten Anregungssignals ergibt. Zur weiteren Datenreduktion werden in das Codebuch nur solche Werte eingetragen, die drei vom Wert 0 verschiedene Autokorrelationskoeffizienten aufweisen. Die aus diesen Koeffizienten bildbaren Kombinationsmuster treten im Codebuch gleich häufig auf. Durch diese Maßnahmen ist bei reduziertem Speicher- und Verarbeitungsaufwand eine Übertragung codierter Daten möglich, die gegenüber Störungen sehr robust ist.

Description

Beschreibung
Vektorcodierverfahren insbesondere für Sprachsignale
Die Erfindung geht aus von einem Vektorcodierverfahren, insbesondere für Sprachsignale, unter Verwendung eines Codebuches zur Prädiktionscodierung.
Bei der Codierung und Decodierung von Sprachsignalen, insbesondere für Mobilfunkanwendungen, wird das Sprachsignal abgetastet und in Abschnitte (Zeitabschnitte) unterteilt. Für jeden Abschnitt werden Prädiktionswerte für unterschiedliche Arten von Signalparametern gebildet. Solche Signalparameter sind z.B. Kurzzeitparameter zur Charakterisierung der Formantstruktur (Resonanzen des Sprachtraktes) und Langzeitparameter zur Charakterisierung der Pitchstruktur (Tonhöhe) des Sprachsignals (ANT Nachrichtentechnische Berichte, Heft 5, Nov. 1988, Seiten 93 bis 105). Bei der Sprachcodierung mittels "Analyse durch Synthese" werden die Modell- und Anregungsparameter quantisiert, codiert und zum Empfänger übertragen. Zur weiteren Reduzierung der Bitrate wird die Vektorquantisierung benutzt (s.o.; DE/EP 0 266 620 Tl; EP 504 627 A2; EP 294 020 A2) .
Aus ANT Nachrichtentechnische Berichte, Heft 5, November 1988, Seiten 93 bis 105, insbesondere Seite 102, 2. Spalte bis Seite 103, 2. Spalte, ist bekannt, daß bis zu 90 % der Komponenten des Codebuchvektors auf Null gesetzt werden können, ohne die Sprachqualität zu verschlechtern. Außerdem wird dort vorgeschlagen, die Anzahl der Anregungssequenzen für das Filter zur synthetischen Spracherzeugung noch stärker einzuschränken, indem nicht nur die Position der
Impulse (Koeffizienten) sondern zusätzlich ihre Amplituden fest gewählt werden. Es wird dort ein festes Anregungscodebuch gewählt, dessen Vektoren vier von Null verschiedene Elemente (Vektorkomponenten) enthalten.
Aufgabe vorliegender Erfindung ist es das Verfahren eingangs genannter Art so weiterzubilden, daß bei reduzierter Speicher- und Verarbeitungsaufwand Codebuchparameter zu Verfügung stehen, die eine geringe Fehlerempfindlichkeit, insbesondere für Übertragungszwecke über gestörte Kanäle, aufweisen.
Diese Aufgabe wird durch die Schritte des Anspruchs 1 gelöst. Die weiteren Ansprüche zeigen vorteilhafte Ausgestaltungen dieses Verfahrens aus.
Dem Verfahren nach der Erfindung liegen folgende Erkenntnisse zugrunde:
Die aus den Autokorrelationskoeffizienten gebildeten Kombinationsmuster müssen nicht abgespeichert werden. Es genügt, wenn ihre Adressen; d.h. ihre Lage, abgespeichert wird. Dies reduziert den Speicheraufwand und die
Verarbeitung erheblich. Kombinationsmuster und deren Verteilung können getrennt übertragen werden. Da Sprachcodeε empfindlicher reagieren auf Impulsmuster (Kombinationsmuster aus den Autokorrelationskoeffizienten) als auf deren Verteilung (Anordnung der Vektorkomponenten) , ergibt sich eine bessere Sprachqualität bei gestörter Übertragung. Aus diesem Grunde ist das Verfahren nach der Erfindung, insbesondere für den Mobilfunk vorteilhaft einsetzbar.
Anhand der Zeichnungen wird ein Ausführungsbeispiel der Erfindung näher erläutert. Es zeigen
Figur 1 das Prinzip der RELP-Sprachcodierung,
Figur 2 das Prinzip der Analyse durch Synthese, Figur 3 ein Beispiel für die Wahl der Autokorrelationskoeffizienten nach der Erfindung und
Figur 4 Teilcodebücher mit der Verteilung der Impulsmuster.
Zur Übertragung von Sprachsignalen mit niedrigen Bitraten, z.B. im Bereich von 2,4 kbit/s bis 9,6 kbit/s, wird beispielsweise ein RELP-Sprachcodec nach dem Prinzip "Analyse durch Synthese" verwendet. Die Sprachcodierung z.B. nach dem RELP-Prinzip (ANT Nachrichtentechnische Berichte, Heft 5, 1988, Seiten 93 bis 105) ist zum weiteren Verständnis der Erfindung in Figur 1 kurz erläutert. Ein Sprachsignal s(t) wird mittels eines A/D-Wandlers digitalisiert und anschließend analysiert.
Diese Analyse umfaßt die Funktionsblöcke Prädiktion und Anregungsanalyse. Zur Beseitigung der Sprachredundanz wird eine Nachbildung der Spracherzeugung durch ein lineares adaptives Modell, das geeignet angeregt wird, verwendet. Es werden lediglich die für die Sprachsynthese erforderlichen Modell- und Anregungsparameter quantisiert, codiert und zum Empfänger übertragen. Zur Bestimmung der Modellparameter werden im Sender statistische Abhängigkeiten der Sprachabtastwerte analysiert und mittels linearer Kurzzeit- und gegebenenfalls auch Langzeitprädiktion weitgehend eliminiert. Durch die Kurzzeitprädiktion werden Korrelationen zwischen unmittelbar aufeinanderfolgenden Abstastwerten weitgehend beseitigt. Korrelationen zwischen weit auseinanderliegenden Abtastwerten (Pitchstruktur) werden durch einen nachfolgenden Langzeitprädiktor reduziert. Das Ergebnis ist ein Signal, das im wesentlichen nur noch nichtlineare Abhängigkeiten aufweist und dessen Energie im Vergleich zur Energie des ursprünglichen Sprachsignals stark reduziert ist. Bei der "Analyse durch Synthese" wird zur Berechnung des Anregungssignals die Differenz zwischen Original- und synthetisiertem Sprachsignal verwendet (Figur 1). Innerhalb kurzer Sprachabschnitte von ca. 10 bis 30 ms Dauer kann die Sprache als quasistationärer Prozeß betrachtet werden. Diese Quasistationarität ermöglicht die Berechnung von Prädiktoren, deren Parameter für die Dauer des Sprachabschnitts konstante Werte annehmen. Ein Sprachabschnitt von 20 ms Dauer wird beispielsweise als Rahmendauer festgelegt. Dann stehen bei einer Abtastfreqeunz von 8 kHz zur Adaption der Prädiktorkoeffizienten jeweils 160 Abtastwerte pro Rahmen zur Verfügung. Die
Prädiktionsfehler werden durch Minimierung der Energie des Prädiktionsfehlers pro Rahmen ermittelt. Zur Bestimmung dieser Prädiktionskoeffizienten wird zur Vereinfachung des Rechenaufwandes die Korrelationsmethode angewendet.
Nach der Analyse des Sprachsignals s(n) sind die Koeffizienten der Sprachsynthesefilter, welche in Figur 2 durch die Übertragungsfunktion HL(Z) HK(Z) charakterisiert sind, bekannt. Die Anregung r(n) für die Synthesefilter wird entweder berechnet oder gemäß der Erfindung aus einem Codebuch ausgelesen. Das Ausgangssignal s(n) der Synthesefilter ist das geschätzte Sprachsignal. Durch Vergleich mit dem Originalsignal s(n) ergibt sich das Fehlersignal e(n) , das mit der Übertragungsfunktion W (Z) hörphysiologisch gewichtet wird. Die Energie des
Fehlersignals wird dann zur Ermittlung eines verbesserten Anregungssignals verwendet.
Zur weiteren Reduzierung der Bitrate für die Übertragung wird die Vektorquantisierung verwendet. Die Berechnung des Anregungssignals wird durch ein Codebuch mit L Anregungsvektoren der Dimension D ersetzt. Mit Hilfe eines Skalierungsfaktors wird die Energie jedes Vektors an die Energie des Sprachsignals angepaßt. Die Adresse desjenigen Vektors mit der kleinsten Fehlerenergie wird dann zum
Empfänger übertragen. Da das Prädiktionsfehlersignal in sehr guter Näherung gaußverteilt ist, kann das Codebuch mit gaußverteilten Zufallszahlen besetzt werden. Der Vorteil dieser sogenannten CELP-Verfahren (Codebook Excited Linear Prediction) liegt unter anderem darin, daß das Codebuch nicht "trainiert" zu werden braucht. Eine weitere Aufwandsverminderung ergibt sich, wenn Codebuchvektoren verwendet werden, die Nullvektoren enthalten. Zur Berechnung des Anregungsvektors werden damit weniger Rechenoperationen benötigt. In ANT Nachrichtentechnische Berichte, Heft 5, Nov. 1988, Seiten 93 bis 105 wurde vorgeschlagen, möglichst viele Codebuchvektoren, z.B. bis zu 90 % auf Null zu setzen und die Anzahl der Anregungssequenzen noch stärker einzuschränken durch Festlegung der Positionen der Koeffizienten (Impulse) und Konstanthaltung ihrer Amplituden. Es wurden dort Vektoren für das Codebuch verwendet, die vier von Null verschiedene Elemente enthalten.
Bei der Erfindung werden diese Forderungen zugunsten des Speicherbedarfs und Verarbeitungsaufwandes noch weiter eingeschränkt: Es werden nur Vektoren verwendet, die drei von Null verschiedene Autokorrelationskoeffizienten aufweisen. Die außerhalb vom Korrelationsmaximum AKF 0) gelegenen Autokorrelationskoeffizienten werden so gewählt, daß sie sich nur in ihrem Vorzeichen unterscheiden; d.h. ihre Amplitude ist gleich.
In Figur 3 ist ein Beispiel für solchermaßen gewählte Autokorrelationskoeffizienten aufgezeigt mit n=4 Impulsen, d.h. Amplitudenbits innerhalb eines Rahmens von beispielsweise 40 Abtastwerten. Beim Korrelationsmaximum
AKF Q) ergibt sich der Amplitudenwert 4. Da dieser Wert für alle Impulsmuster mit n-Impulsen konstant ist, muß er nicht abgespeichert werden. Die übrigen von Null verschiedenen Impulse haben die Amplitude 1. Beispielsweise ist der 5. Abtastwert +1 und der 15. Abtastwert -1. Die hier verwendeten Autokorrelationskoeffizienten sind so definiert, daß sich bei Verknüpfung mit der Autokorrelationsfunktion der Impulsantwort eines Anregungsfilters zur Erzeugung synthetischer Signale (Sprachsignale), die Energie des gefilterten Anregungssignals ergibt.
Außerdem wird für alle Kombinationsmuster, die aus derartigen Autokorrelationskoeffizienten gebildet werden können, gefordert, daß sie im Codebuch gleichhäufig auftreten. Durch letztere Forderung kann das Codebuch mit einem Umfang 2L in n Teilcodebücher zerlegt werden, wenn im Anregungssignal n von Null verschiedene Pulse zugelassen sind, was 2n möglichen Kombinationsmustern entspricht. Jedes der n Teilcodebücher hat den Umfang 2L_n und enthält nur gleichartige Impulsmuster. In Figur 4 sind einige von den 2n (n=4) = 16 möglichen Teilcodebüchern dargestellt. Die Impulsmuster in jedem der Teilcodebücher sind jeweils gleich (Reihenfolge der +1 und -1 Werte) nur die Lage der einzelnen Impulse unterscheidet sich. Im ersten Teilcodebuch besteht das Impulsmuster nur aus vier positiven Impulsen, im zweiten Teilcodebuch aus 3 positiven und einem negativen Impuls, usw. Die Codebuchlänge L umfaßt demnach 256 Vektoren. Durch die Gleichhäufigkeit der Kombinationsmuster (Impulsmuster) können die Kombinationsmuster getrennt von der Verteilung
(Lage) der Impulse übertragen werden. Die Kombinationsmuster müssen nicht selbst abgespeichert und übertragen werden. Es genügt, wenn jedes der 16 Teilcodebücher mit bekanntem Kombinationsmuster vom anderen unterscheidbar ist. Am einfachsten läßt sich dies dadurch realisieren, wenn jedem Teilcodebuch und damit dem jeweiligen Impulsmuster eine andere Adresse zugeordnet wird, z.B. dem ersten Teilcodebuch die Adresse 0000 und dem zweiten Teilcodebuch die Adresse 0001 usw. (Fig. 4). Für die Lage der Impulse in den Teilcodebüchern muß ebenfalls jeweils nur eine Adresse gespeichert und übertragen werden. Anstelle der Erstellung von 16 Teilcodebüchern genügt es nur 8 Teilcodebücher mit unterschiedlichen Kombinationsmustern zu erzeugen (Teilcodebücher 1 bis 8). Die Teilcodebücher 9 bis 16 können dann durch einfache Vorzeicheninversion der Kombinationsmuster erstellt werden. Zum Beispiel wird aus dem Muster 11-1-1 das Muster -1-111.
Durch die Separation der Impulsmuster von der Impulsverteilung ergibt sich eine sehr hohe Fehlerrobustheit der Sprachübertragung insbesondere bei
Übertragungsstörungen, da Codecs empfindlicher auf Impulsmuster reagieren als auf deren Verteilung. Die Impulsmuster können daher beispielsweise bei einer Kanalcodierung für die Übertragung mit einem höheren Fehlerschutz versehen werden als die Information über die spezielle Lage ihrer Impulse.

Claims

Patentansprüche
1. Vektorcodierverfahren, insbesondere für Sprachsignale, unter Verwendung eines Codebuches zur Prädiktionscodierung mit folgenden Schritten:
- im Codebuch werden Autokorrelationskoeffizienten abgespeichert, die bei Verknüpfung mit der Autokorrelationsfunktion der Impulsantwort eines Anregungsfilters zur Erzeugung synthetischer Signale, insbesondere von Sprachsignalen, die Energie des gefilterten Anregungssignals ergibt,
- als Autokorrelationswerte werden nur solche Werte verwendet, die folgenden Bedingungen genügen: — es werden Vektoren verwendet, die drei vom Wert Null verschiedene Autorelationskoeffizienten aufweisen,
- die Amplitudenwerte der außerhalb vom Korrelationsmaximum AKF(O) gelegenen Autokorrelationskoeffizienten unterscheiden nur in ihrem Vorzeichen.
2. Vektorcodierverfahren nach Anspruch 1,dadurch gekennzeichnet, daß nur jene von Null verschiedenen Autokorrelationskoeffizienten im Codebuch abgespeichert werden, die außerhalb des Korrelationsmaximums (AKF(0)) gelegen sind.
3. Vektorcodierverfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß anstelle der Abspeicherung der Autokorrelationskoeffizienten selbst nur deren Adressen abgespeichert werden.
4. Vektorcodierverfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß für jedes mögliche Kombinationsmuster aus den zugelassenen Autokorrelationskoeffizienten ein Teilcodebuch gebildet wird und daß in ein Teilcodebuch nur die jeweilige Lage des für jedes der Teilcodebücher gleichen Kombinationsmusters eingetragen wird.
5. Vektorcodierverfahren nach Anspruch 4, dadurch gekennzeichnet, daß die Teilcodebücher zur gegenseitigen Unterscheidung durch ein Codewort gekennzeichnet werden.
6. Vektorcodierverfahren nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, daß die Kombinationsmuster aus vier Koeffizienten mit den Amplitudenwerten +1 und -1 gebildet werden.
7. Vektorcodierverfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, daß bei einer Codebuchlänge von 256 Vektoren insgesamt 16 Teilcodebücher erstellt werden, in die jeweils die Kombinationsmuster für 16 Vektoren zeilenweise eingetragen werden.
8. Vektorcodierverfahren nach Anspruch 7, dadurch gekennzeichnet, daß anstelle von 16 Teilcodebüchern nur 8 Teilcodebücher erstellt werden und die übrigen 8 Teilcodebücher aus den 8 zuvor erstellten Teilcodebüchern durch Vorzeicheninversion der Einträge erzeugt werden.
PCT/DE1994/000436 1993-05-07 1994-04-20 Vektorcodierverfahren, insbesondere für sprachsignale WO1994027285A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DK94912473T DK0697124T3 (da) 1993-05-07 1994-04-20 Vektorkodningsfremgangsmåde især beregnet for talesignaler
DE59408863T DE59408863D1 (de) 1993-05-07 1994-04-20 Vektorcodierverfahren, insbesondere für sprachsignale
US08/535,107 US5729654A (en) 1993-05-07 1994-04-20 Vector encoding method, in particular for voice signals
EP94912473A EP0697124B1 (de) 1993-05-07 1994-04-20 Vektorcodierverfahren, insbesondere für sprachsignale
AU65026/94A AU682505B2 (en) 1993-05-07 1994-04-20 Vector coding process, especially for voice signals
FI955324A FI116596B (fi) 1993-05-07 1995-11-06 Vektorikoodausmenetelmä etenkin puhesignaaleille

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4315313A DE4315313C2 (de) 1993-05-07 1993-05-07 Vektorcodierverfahren insbesondere für Sprachsignale
DEP4315313.5 1993-05-07

Publications (1)

Publication Number Publication Date
WO1994027285A1 true WO1994027285A1 (de) 1994-11-24

Family

ID=6487537

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1994/000436 WO1994027285A1 (de) 1993-05-07 1994-04-20 Vektorcodierverfahren, insbesondere für sprachsignale

Country Status (10)

Country Link
US (1) US5729654A (de)
EP (1) EP0697124B1 (de)
AU (1) AU682505B2 (de)
DE (2) DE4315313C2 (de)
DK (1) DK0697124T3 (de)
ES (1) ES2140533T3 (de)
FI (1) FI116596B (de)
HU (1) HU216557B (de)
PT (1) PT697124E (de)
WO (1) WO1994027285A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754976A (en) * 1990-02-23 1998-05-19 Universite De Sherbrooke Algebraic codebook with signal-selected pulse amplitude/position combinations for fast coding of speech
DE19538852A1 (de) * 1995-06-30 1997-01-02 Deutsche Telekom Ag Verfahren und Anordnung zur Klassifizierung von Sprachsignalen
US5781881A (en) * 1995-10-19 1998-07-14 Deutsche Telekom Ag Variable-subframe-length speech-coding classes derived from wavelet-transform parameters
GB2312360B (en) * 1996-04-12 2001-01-24 Olympus Optical Co Voice signal coding apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4868867A (en) * 1987-04-06 1989-09-19 Voicecraft Inc. Vector excitation speech or audio coder for transmission or storage

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4486899A (en) * 1981-03-17 1984-12-04 Nippon Electric Co., Ltd. System for extraction of pole parameter values
IT1195350B (it) * 1986-10-21 1988-10-12 Cselt Centro Studi Lab Telecom Procedimento e dispositivo per la codifica e decodifica del segnale vocale mediante estrazione di para metri e tecniche di quantizzazione vettoriale
US4969192A (en) * 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
US4907276A (en) * 1988-04-05 1990-03-06 The Dsp Group (Israel) Ltd. Fast search method for vector quantizer communication and pattern recognition systems
US5010574A (en) * 1989-06-13 1991-04-23 At&T Bell Laboratories Vector quantizer search arrangement
JP3151874B2 (ja) * 1991-02-26 2001-04-03 日本電気株式会社 音声パラメータ符号化方式および装置
US5339164A (en) * 1991-12-24 1994-08-16 Massachusetts Institute Of Technology Method and apparatus for encoding of data using both vector quantization and runlength encoding and using adaptive runlength encoding
US5327520A (en) * 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
US5457783A (en) * 1992-08-07 1995-10-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear prediction
US5621852A (en) * 1993-12-14 1997-04-15 Interdigital Technology Corporation Efficient codebook structure for code excited linear prediction coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4868867A (en) * 1987-04-06 1989-09-19 Voicecraft Inc. Vector excitation speech or audio coder for transmission or storage

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MÜLLER ET AL.: "RELP-Sprachkodierung mittels "Analyse durch Synthese"", ANT NACHRICHTENTECHNISCHE BERICHTE, vol. 5, November 1988 (1988-11-01), DE, pages 93 - 105 *
TANIGUCHI ET AL.: "Pitch Sharpening for Perpetually Improved CELP, and the Sparse-Delta Codebook for Reduced Computation", INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING 91, vol. 1, 14 May 1991 (1991-05-14), TORONTO, ONTARIO, CA, pages 241 - 244 *
TRANCOSO ET AL.: "CELP: A Candidate for GSM Half-Rate Coding", INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING 90, vol. 1, 3 April 1990 (1990-04-03), ALBUQUERQUE, NM, US *

Also Published As

Publication number Publication date
AU682505B2 (en) 1997-10-09
FI116596B (fi) 2005-12-30
ES2140533T3 (es) 2000-03-01
HUT73533A (en) 1996-08-28
HU216557B (hu) 1999-07-28
PT697124E (pt) 2000-04-28
HU9503180D0 (en) 1995-12-28
DE4315313A1 (de) 1994-11-10
DE59408863D1 (de) 1999-12-02
EP0697124A1 (de) 1996-02-21
FI955324A (fi) 1995-11-06
AU6502694A (en) 1994-12-12
DK0697124T3 (da) 2000-04-25
EP0697124B1 (de) 1999-10-27
FI955324A0 (fi) 1995-11-06
DE4315313C2 (de) 2001-11-08
US5729654A (en) 1998-03-17

Similar Documents

Publication Publication Date Title
DE19604273C5 (de) Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit
DE69636209T2 (de) Vorrichtung zur Sprachkodierung
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE69828725T2 (de) Sprachcodier- und -decodiersystem
DE69837822T2 (de) Verfahren und Vorrichtung zur Dekodierung von Sprachsignalen
DE69838305T2 (de) Orthogonalisierungssuche für die CELP basierte Sprachkodierung
DE69932460T2 (de) Sprachkodierer/dekodierer
EP1080464B1 (de) Verfahren und anordnung zur sprachcodierung
DE60101827T2 (de) Relative Pulsposition für einen CELP-Sprachkodierer
DE60028500T2 (de) Sprachdekodierung
DE69725945T2 (de) Sprachkodierer mit niedriger Bitrate
EP1286331A1 (de) Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers
DE69921066T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
DE60016305T2 (de) Verfahren zum Betrieb eines Sprachkodierers
DE69830816T2 (de) Mehrstufige Audiodekodierung
DE3006339C2 (de) Sprachsyntesizer
DE69630177T2 (de) Sprachkodierer mit der Fähigkeit zur wesentlichen Vergrösserung der Codebuchgrösse ohne aber die Zahl der übertragenen Bits zu vergrössern
EP1388146B1 (de) Verfahren zur codierung und zur übertragung von sprachsignalen
DE60030069T2 (de) Verschleierungsverfahren bei Verlust von Sprachrahmen
DE4315313C2 (de) Vektorcodierverfahren insbesondere für Sprachsignale
EP0658878B1 (de) System zum Übertragen eines Sprachsignals
DE69820515T2 (de) Vorrichtung zur Sprachcodierung unter Verwendung eines Mehrimpulsanregungssignals
EP0697125B1 (de) Verfahren zur vektorquantisierung, insbesondere von sprachsignalen
EP0697123B1 (de) Verfahren zur aufbereitung von daten, insbesondere von codierten sprachsignalparametern
DE69931642T2 (de) Sprachkodier/dekodiervorrichtung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU FI HU US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1994912473

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 955324

Country of ref document: FI

WWE Wipo information: entry into national phase

Ref document number: 08535107

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1994912473

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1994912473

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 955324

Country of ref document: FI