DE4492048C2 - Vektorquantisierungs-Verfahren - Google Patents

Vektorquantisierungs-Verfahren

Info

Publication number
DE4492048C2
DE4492048C2 DE4492048A DE4492048A DE4492048C2 DE 4492048 C2 DE4492048 C2 DE 4492048C2 DE 4492048 A DE4492048 A DE 4492048A DE 4492048 A DE4492048 A DE 4492048A DE 4492048 C2 DE4492048 C2 DE 4492048C2
Authority
DE
Germany
Prior art keywords
vector
segment
vectors
correlations
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE4492048A
Other languages
English (en)
Other versions
DE4492048T1 (de
Inventor
Ira A Gerson
Mark A Jasiuk
Matthew A Hartman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BlackBerry Ltd
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Priority to DE4447647A priority Critical patent/DE4447647C2/de
Application granted granted Critical
Publication of DE4492048C2 publication Critical patent/DE4492048C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/135Vector sum excited linear prediction [VSELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0013Codebook search algorithms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Analogue/Digital Conversion (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Description

Die vorliegende Erfindung betrifft ein Vektorquantisierungsverfahren für VSELP-Codierung (Vector-Sum Excited Linear Predictive Coding).
Unter CELP-Codierung (Code Excited Linear Predictive Coding) wird eine Sprachcodierungstechnik ver­ standen, die zur Erzeugung qualitativ hochwertiger synthe­ tischer Sprache benutzt wird. Diese Klasse von Sprachcodie­ rung ist auch als vektorerregte Linear Prediction-Codie­ rung bekannt, wie sie in vielen Sprachkommunikations- und Sprachsyntheseanwendungen verwendet wird. CELP ist dabei insbesondere für digitale Sprachverschlüsselung und digitale Funktelefonkommunikationssysteme geeignet, bei denen Sprach­ qualität, Datenraten, Größe und Kosten bedeutende Kriterien sind.
Bei einem CELP-Sprachcodierer werden die Langzeit-(Klangfarbe; pitch) und die Kurzzeit-(formant)Vorhersager (predictors), welche die Charakteristika des Eingangssprachsignals model­ lieren, in einen Satz zeitlich variabler Filter eingebracht. Insbesondere können Langzeit- und Kurzzeit-Filter verwendet werden. Ein Anregungssignal für die Filter wird aus einem Codebuch mit gespeicherten Innovationssequenzen oder Code­ vektoren ausgewählt.
Für jeden Sprachframe (Sprachrahmen) wird ein optimales Anregungssignal (excitation signal) gewählt. Der Sprachcodierer fügt einen individuellen Codevektor den Filtern zu, um ein rekonstruier­ tes Sprachsignal zu erzeugen. Das rekonstruierte Sprachsignal wird mit dem ursprünglichen Eingangssprachsignal verglichen, um dadurch ein Fehlersignal zu erzeugen. Das Fehlersignal wird dann gewichtet, indem es durch einen Spektralrauschbe­ wertungsfilter (spectral noise weighting filter) geführt wird. Der Spektralrauschbewertungsfilter weist eine Antwort auf, die der menschlichen Hörfähigkeit nachgebildet ist. Das optimale Anregungssignal besteht aus einem ausgewählten Codevektor, wel­ cher das bewertete Fehlersignal mit minimaler Energie in bezug auf den momentanen Sprachframe erzeugt.
Typischerweise wird LPC (linear predictive coding) verwendet, um die Kurzzeitsignalkorrelation über einen Block von Abtastun­ gen zu modellieren, wobei dies auch als Kurzzeitfilterung be­ zeichnet wird. Die Kurzzeitsignalkorrelation stellt die Reso­ nanzfrequenzen des Sprachtraktes (vocal tract) dar. Die LPC- Koeffizienten bestehen aus einem Satz von Sprachmodellparame­ tern. Andere Parametersätze können verwendet werden, um das An­ regungssignal, das dem Kurzzeitvorhersagefilter (short term predictor filter) zugeführt wird, zu charakterisieren. Diese anderen Sprachmodellparameter können beinhalten: LSF (Line Spectral Frequencies), cepstrale Koeffizienten, Reflexionskoef­ fizienten, Log-Bereichsverhältnisse und Arcussinus.
Ein Sprachcodierer vektorquantisiert typischerweise das Anre­ gungssignal, um die Anzahl der Bits, die notwendig sind, um das Signal zu charakterisieren, zu reduzieren. Die LPC-Koeffi­ zienten können in die anderen obengenannten Parametersätze umgewandelt werden, bevor die Quantisierung beginnt. Die Koeffizienten können individuell quantisiert werden (skalare Quantisierung) oder sie können als Satz quantisiert werden (Vektorquantisierung). Die skalare Quantisierung ist nicht so effizient, wie die Vektorquantisierung, jedoch ist die skalare Quantisierung hinsichtlich der Berechnung und der Speicheranforderungen günstiger als die Vektorquantisierung. Die Vektorquantisierung von LPC-Parametern wird bei Anwen­ dungen verwendet, bei denen die Codierungseffizienz von be­ sonderer Bedeutung ist.
Multi-Segmentvektorquantisierung kann verwendet werden, um die Codiereffizienz, die Vektorquantisierungssuchkomplexi­ tät und die Vektorquantisierungsspeicheranforderungen in ein angemessenes Verhältnis zu bringen. Der erste Typ von Multisegmentvektorquantisierung unterteilt einen Np-Element- LPC-Parametervektor in n-Segmente. Jedes der n-Segmente wird separat vektorquantisiert. Ein zweiter Typ von Multi­ segmentvektorquantisierung teilt den LPC-Parameter auf n-Vectorcodebücher auf, wobei jedes Vektorcodebuch alle Np-Vektorelemente aufspannt. Zur Verdeutlichung der Vektor­ quantisierung sei angenommen, daß Np = 10 Elemente vorhanden sind und jedes Element durch zwei Bits repräsentiert wird. Herkömmliche Vektorquantisierung würde dazu 2²⁰ Codevektoren mit jeweils 10 Elementen benötigen, um alle möglichen Code­ vektormöglichkeiten darstellen zu können. Der erste Typ von Multi-Segmentvektorquantisieurung mit zwei Segmenten würde 2¹⁰ + 2¹⁰ Codevektoren mit jeweils fünf Elementen benötigen. Der zweite Typ von Multi-Segmentvektorquantisierung mit zwei Segmenten würde 2¹⁰ + 2¹⁰ Codevektoren mit jeweils fünf Ele­ menten benötigen. Jedes dieser Verfahren zur Vektorquantisie­ rung bietet unterschiedliche Vorteile hinsichtlich der Codie­ rungseffizienz, der Suchkomplexität und hinsichtlich der Speicheranforderungen. Somit wäre es vorteilhaft, wenn ein herkömmlicher Sprachcodierer aufgrund eines Vektorquantisie­ rungsverfahrens seine Codierungseffizienz vergrößern könnte und sich die Suchkomplexität und die Speicheranforderungen dabei nicht verändern würden.
Aus den US-Patentschriften 4 817 157 und 4 896 361 sind Sprach­ kodierer unter Verwendung eines Codebuchspeichers für Codevek­ toren bekannt. Ein Satz von M-Basisvektoren werden zusammen mit Signalcodewörtern verwendet, um das Codebuch von Anregungsvek­ toren gemäß einer Vektorsummentechnik zu bilden.
Die US-PS 5 119 423 offenbart einen Sprachcodierer, welcher vorangehend gespeicherte Vektoren einer Geräuschquelle verwen­ det, um synthetische Sprache zu erzeugen. Eine Auswahlschaltung zum Auswählen des Vektors, welcher minimale Verzerrung besitzt, arbeitet mit einer Berechnungsschaltung zur Bildung einer Vek­ torproduktsumme zusammen, welche an ihrem Eingang das Eingangs­ sprachsignal empfängt. Die Vektoren der Geräuschquelle werden in einer Vielzahl von Codebüchern anstelle eines einzigen groß­ formatigen Codebuches gespeichert.
Aufgabe der vorliegenden Erfindung ist es, ein Vektorquantisie­ rungsverfahren anzugeben, welches eine weniger komplexe Berech­ nungsschaltung und geringen Speicherbedarf erfordert.
Diese Aufgabe wird von einem Verfahren mit den Schritten des Patentanspruchs 1 gelöst. Bevorzugte Ausführungsformen des Ver­ fahrens sind Gegenstand mehrerer Unteransprüche.
Im folgenden wird eine bevorzugte Ausführungsform der vor­ liegenden Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. Dabei zeigen die Zeichnungen im einzelnen
Fig. 1 zeigt ein Blockschaltbild eines Funkkommunikations­ systems mit einem Sprachcodierer gemäß der vorliegenden Erfindung;
Fig. 2 zeigt ein Blockschaltbild eines Sprachcodierers gemäß der vorliegenden Erfindung; und
Fig. 3 zeigt eine Arcussinusfunktion, wie sie gemäß der vor­ liegenden Erfindung eingesetzt wird.
Eine Abwandlung der CELP-Codierung, die als VSELP (Vector- Sum Excited Linear Predictive Coding) bezeichnet wird, stellt eine bevorzugte Ausführungsform für die vorliegende Erfindung dar. VSELP verwendet ein Anregungs-Codebuch mit einer vorge­ gebenen Struktur, so daß die Berechnungen, die für das Code­ buch-Suchverfahren benötigt werden, deutlich reduziert werden. Dieser VSELP-Sprachcodierer verwendet einen Einzel- oder Multi­ segmentvektorquantisierer mit Reflexionskoeffizienten, basie­ rend auf FLAT (Fixed-Point-Lattice-Technique). Zusätzlich ver­ wendet dieser Sprachcodierer einen Vorquantisierer, um die Vektorcodebuchsuchkomplexität zu verringern und verwendet wei­ terhin einen Skalarquantisierer mit hoher Auflösung, um die Größe des Speichers, der benötigt wird, um die Reflexions­ koeffizentvektorcodebücher zu speichern, zu reduzieren. Dies führt zu einem Vektorquantisierer mit verbesserten Eigenschaf­ ten und Reflexionskoeffizienten, welcher auch hinsichtlich der Berechnung effizienter arbeitet und geringere Speicheran­ forderungen stellt.
Fig. 1 zeigt ein Blockschaltbild eines Funkkommunikations­ systems 100. Das Funkkommunikationssystem 100 enthält zwei Sende/Empfangseinrichtungen 101, 113, welche Sprachdaten über­ tragen und empfangen. Die zwei Sende/Empfangseinrichtungen 101, 113 können Teil eines Bündelfunksystems (trunked radio system) oder eines Funktelefonkommunikationssystems oder Teil eines anderen Funkkommunikationssystems sein, welches Sprachdaten überträgt und empfängt. Bei dem Übertrager werden die Sprachsignale in ein Mikrofon 108 eingegeben, und der Sprachcodierer wählt die Quantisierungsparameter des Sprach­ modells aus. Diese Codes für die quantisierten Parameter wer­ den dann an die andere Sende/Empfangseinrichtung 113 über­ tragen. Bei der anderen Sende/Empfangseinrichtung 113 werden die übertragenen Codes für die quantisierten Parameter bei 121 empfangen und verwendet, um die Sprache in dem Sprachde­ coder 123 zu regenerieren. Die regenerierte Sprache wird an den Lautsprecher 124 ausgegeben.
Fig. 2 ist ein Blockschaltbild eines VSELP-Sprachcodierers 200. Ein VSELP-Sprachcodierer 200 verwendet einen empfangenen Code, um zu bestimmen, welcher Anregungsvektor von dem Code­ buch benutzt werden soll. Der VSELP-Codierer verwendet ein Anregungscodebuch mit 2M Codevektoren, welches aus M-Basis­ vektoren konstruiert ist. Wenn vm(n) als der m-te Basisvektor und ui(n) als der i-te Codevektor in dem Codebuch definiert wird, so gilt:
wobei 0 i 2M-1; 0 n N-1 gilt. Mit anderen Worten, wird jeder Codevektor in dem Codebuch als lineare Kombination von M-Basisvektoren konstruiert. Die linearen Kombinationen werden durch die Θ-Parameter definiert. Θim ist wie folgt definiert:
Θim = +1, falls das Bit m des Codeworts i = 1 ist
Θim = -1, falls das Bit in des Codeworts i = 0 ist. Im
Der Codevektor i wird als Summe der M-Basisvektoren konstruiert, wobei das Vorzeichen (plus oder minus) eines jeden Basisvektors durch den Zustand des korrespondierenden Bits in dem Codewort i bestimmt wird. Zu beachten ist, daß für den Fall, daß die Bits in dem Codewort i komplementiert werden, das korrespondie­ rende Codewort das Negative des Codewortes i darstellt. Daher ist für jeden Codevektor sein negatives Komplement auch ein Codevektor in dem Codebuch. Diese Paare werden als komplemen­ täre Codevektoren bezeichnet.
Nachdem der geeignete Vektor ausgewählt worden ist, skaliert der Gewinnblock (gain block) 205 den gewählten Vektor durch den Gewinnausdruck γ. Der Ausgang des Gewinnblocks 205 wird einem Satz von linearen Filtern 207 und 209 zugeführt, um N- Abtastungen für die rekonstruierte Sprache zu erhalten. Die Filter enthalten einen Langzeit(pitch)-Filter 207, welcher Abstände (pitches) periodisch in die Anregung einsetzt. Der Ausgang des Langzeitfilters 207 wird dann dem Kurzzeit (oder formant)-Filter 209 zugeführt. Der Kurzzeitfilter 209 addiert die spektrale Hülle zu dem Signal.
Der Langzeitfilter 207 weist einen LTP-Koeffizienten (long­ term predictor coefficient) auf. Der Langzeitfilter 207 ver­ sucht, die nächste Ausgabeabtastung aufgrund einer oder meh­ rerer Abtastungen aus der Vergangenheit vorherzusagen. Wenn nur vorausgegangene Abtastungen in dem Vorhersager (predictor) verwendet werden, so ist der Predictor ein Einzelabgriffpre­ dictor (single-tap predictor). Typischerweise werden ein bis drei Abgriffe verwendet. Die Übertragungsfunktion für einen Langzeitfilter 207 mit einem Einzelabgriff-Langzeitvorher­ sager wird durch Formel 1.1 angegeben.
B(z) wird durch die zwei Größen L und β charakterisiert. L wird als Verzögerung (lag) bezeichnet. Für gesprochene Sprache ist L typischerweise die "pitch"-Periode oder ein Vielfaches davon. L kann auch eine nicht ganze Zahl sein. Falls L keine ganze Zahl ist, wird ein FIR-Filter verwendet, um fraktional verzögerte Abtastungen zu erzeugen. β ist der Langzeit(oder "pitch")-Pre­ dictorkoeffizient.
Der Kurzzeitfilter 209 enthält die Kurzzeitpredictor-Koeffi­ zienten α₁, durch welche die nächste Ausgabeabtastung von den vorhergehenden Np-Ausgangsabtastungen vorhergesagt wird. Np bewegt sich typischerweise zwischen 8 bis 12. in einer typischen Ausführungsform ist Np gleich 10. Der Kurzzeitfilter 209 ist gleich einem herkömmlichen LPC-Synthesefilter. Die Übertragungsfunktion für den Kurzzeitfilter 209 ist durch 1.2 angegeben.
Der Kurzzeitfilter 209 wird durch die αi-Parameter charakte­ risiert, welche die direkten Filterkoeffizienten für den All- Pol-Synthesefilter darstellen. Details hinsichtlich der αi- Parameter sind weiter unten angegeben. Die verschiedenen Parameter (Code-, Gewinn-, Filter-Parameter) werden nicht alle mit der gleichen Geschwindigkeit an den Synthesizer (Sprach­ decoder) übertragen. Typischerweise werden die Kurzzeitpara­ meter weniger oft erneuert als der Code. Die Kurzzeitpara­ metererneuerungsgeschwindigkeit wird im folgenden als "frame"- Rate bezeichnet, und das Intervall zwischen den Erneuerungen (updates) wird als "frame" bezeichnet. Die Codeerneuerungs­ rate wird durch die Vectorlänge N bestimmt. Die Codeerneue­ rungsrate wird als "subframe"-Rate und das Codeerneuerungs­ intervall als "subframe" bezeichnet. Ein Frame besteht übli­ cherweise aus einer ganzzahligen Anzahl von Subframes. Die Gewinn- und Langzeit-Parameter können entweder mit der Sub­ frame-Rate, der Frame-Rate oder einer Rate, die vom Sprachco­ diererdesign abhängt, erneuert werden.
Die Codebuchsuchprozedur besteht aus dem Ausprobieren eines jeden Codevektors als mögliche Anregung für den CELP-Synthe­ sizer. Die synthetisierte Sprache s′ (n) wird bei 211 mit der eingegebenen Sprache s(n) verglichen und ein Differenzsignal ei erzeugt. Das Differenzsignal ei (n) wird dann durch den Spektralbewertungsfilter W(z) 213 gefiltert (und möglicher­ weise durch ein weiteres zweites Bewertungsfilter C(z)), um ein bewertetes Fehlersignal e (n) zu erzeugen. Die Leistung für e (n) wird in der Energieberechnungseinheit 215 berech­ net. Der Codevektor, der die minimale bewertete Fehlerlei­ stung erzeugt, wird als Codevektor für diesen Subframe ausgewählt. Der Spektralbewertungsfilter 213 dient zum Be­ werten des Fehlerspektrums, basierend auf Wahrnehmungsüber­ legungen (perceptual considerations). Dieses Bewertungsfilter 213 ist eine Funktion des Sprachspektrums und kann als α-Para­ meter des Kurzzeit(spectral)-Filters 209 ausgedrückt werden.
Es gibt zwei Möglichkeiten zum Berechnen des Gewinns γ. Der Gewinn kann vor der Codebuchsuche bestimmt werden, basierend auf Restenergie. Dieser Gewinn würde dann für die Codebuch­ suche beibehalten werden. Eine andere Möglichkeit besteht darin, den Gewinn für jeden Codevektor während der Codebuch­ suche zu optimieren. Der Codevektor, welcher den minimalen bewerteten Fehler erzielt, würde ausgewählt werden, und sein entsprechender optimaler Gewinn würde für γ verwendet werden. Die zuletzt angesprochene Möglichkeit erzielt im allgemeinen bessere Ergebnisse, da der Gewinn für jeden Codevektor opti­ miert ist. Diese Möglichkeit schließt auch mit ein, daß der Gewinnausdruck mit der Subframe-Rate erneuert werden muß. Der optimale Code und Gewinn für diese Technik kann wie folgt berechnet werden:
  • 1. Berechne das bewertete Eingangssignal y(n) für den Sub­ frame.
  • 2. Berechne d(n), die Null-Eingangsantwort der B(z)- und W(z)- (und C(z)-falls verwendet) -Filter für den Subframe. (Die Nulleingangsantwort ist die Antwort der Filter ohne Eingang; der Abfall der Filterzustände).
  • 3. p(n) = y(n) - d(n) über dem Subframe (0 n N-1).
  • 4. Für jeden Code i
    • a. Berechne gi(n), die Nullzustandsantwort von B(z) und W(z) (und C(z), falls verwendet) für den Codevektor i. (Die Nullzustandsantwort ist der Filterausgang, bei dem die ursprünglichen Filterzustände auf Null gesetzt sind).
    • b. Berechne die Kreuzkorrelation zwischen den gefilterten Codevektoren i und p(n)
    • c. Berechne die Leistung in dem gefiltertem Codevektor i.
  • 5. Wähle das i, welches maximiert
  • 6. Erneuere die Filterzustände von B(z) und W(z) (und von C(z), falls verwendet) unter Verwendung des gewählten Code­ wortes und seines korrespondierenden Quantisierungsgewinns. Dies wird gemacht, um die gleichen Filterzustände zu erhalten, die der Synthesizer am Beginn des nächsten Subframes für Schritt 2 aufweisen würde.
Der optimale Gewinn für den Codevektor i wird durch 1.8 ange­ geben.
Und der gesamte gewichtete Fehler für den Codevektor i unter Verwendung des optimalen Gewinns γi wird durch 1.9 gegeben.
Die Kurzzeitprediktorparameter sind die αi′s des Kurzzeit­ filters 209 der Fig. 2. Diese stellen Standard-LPC-Direkt­ formfilterkoeffizienten dar, und es kann jede beliebige An­ zahl von LPC-Analysetechniken verwendet werden, um diese Koeffizienten zu bestimmen. In einer bevorzugten Ausführungs­ form wurde ein FLAT (fast fixed point covariance lattice)- Algorithmus verwendet. Der FLAT weist alle Vorteile der Gitter­ algorithmen auf einschließlich einer garantierten Filterstabi­ lität, einer Non-Windowed-Analyse und der Fähigkeit zum Quanti­ sieren der Reflexionskoeffizienten innerhalb der Rekursion. Zu­ sätzlich ist FLAT numerisch robust und kann auf einen Fest­ punktprozessor leicht implementiert werden.
Die Kurzzeitprediktorparameter werden von der Eingangssprache berechnet. Es wird keine Vorbewertung verwendet. Die Analyse­ länge für die Berechnung der Parameter beträgt 170 Abtastun­ gen (NA = 170). Die Größe des Prediktors ist 10 (Np = 10).
Dieser Abschnitt wird die Details des FLAT-Algorithmus be­ schreiben. Angenommen, die Abtastungen der Eingangssprache, welche in das Analyseintervall fallen, werden repräsentiert durch s(n); 0 n NA - 1.
Da FLAT ein Gitteralgorithmus ist, kann man diese Technik als Versuch ansehen, ein optimales (das heißt mit minimaler Rest­ energie) invertiertes Gitterfilter Stufe um Stufe aufzubauen.
Wird bj (n) als Rückwärtsrest aus der Stufe j des invertierten Gitterfilters (inverse lattice filter) und fj (n) als Vor­ wärtsrest aus der Stufe j des inversen Gitterfilters ange­ sehen, so kann definiert werden:
wobei dies die Autokorrelation von fj (n) ist;
Die Autokorrelation von bj (n-1) und:
die Kreuzkorrelation zwischen fj (n) und bj (n-1). Sei rj der Reflexionskoeffizient für die Stufe j des invertier­ ten Gitters, so gilt:
und
und
Die Formulierung, die für die Bestimmung von rj gewählt wurde, kann wie folgt ausgedrückt werden:
Der FLAT-Algorithmus kann nun wie folgt angegeben werden:
  • 1. Berechne zuerst die Covarianz (autocorrelations)-Matrix der Eingangssprache: für 0 i,k NP.
  • 2. F0(i,k) = f(i,k) 0 i,k NP-1 (2.9)
    B0(i,k) = f(i+1, k+1) 0 i,k NP-1 (2.10)
    C0(i,k) = f(i,k+1) 0 i,k NP-1 (2.11)
  • 3. Setze j = 1
  • 4. Berechne rj unter Verwendung von (2.7)
  • 5. Falls j = NP ist Ende.
  • 6. Berechne Fj(i,k) 0 i,k NP-j-1 unter Verwendung von (2.4)
    Berechne Bj (i,k) 0 i,k NP-j-1 unter Verwendung von (2.5)
    Berechne Cj (i,k) 0 i,k NP-j-1 unter Verwendung von (2.6)
  • 7. j = j+1; gehe zu 4.
Vor dem Auflösen der Reflexionskoeffizienten, kann das Φ- Gitter modifiziert werden, indem die Autokorrelations­ funktionen überstrichen werden (windowing).
Φ′(i,k) = Φ(i,k)w(|i-k|) (2.12)
Das überstreichen der Autokorrelationsfunktion vor der Reflexionskoeffizientenberechnung wird als spektrale Glättung (spectral smoothing) (SST) bezeichnet.
Von den Reflexionskoeffizienten rj können die Kurzzeit-LPC- Prediktorkoeffizienten αi berechnet werden.
Ein 28-Bit-Dreisegmentvektorquantisierer der Reflexionskoeffi­ zienten wird verwendet. Die Segmente des Vektorquantisierers spannen Reflexionskoeffizienten r1-r3, r4-r6 und r7-r10 auf. Die Bitzuweisung für die Vektorquantisierersegmente ergibt sich wie folgt:
Q1 11 Bits
Q2 9 Bits
Q3 8 Bits.
Um die Berechnungskomplexität für eine umfangreiche Vektor­ quantisierersuche zu vermeiden, wird ein Reflexionskoeffi­ zientenvektorvorquantisierer für jedes Segment verwendet. Die Vorquantisierergröße für jedes Segment ist folgender­ maßen:
P1 6 Bits
P2 5 Bits
P3 4 Bits
Bei einem gegebenen Segment wird der Restfehler aufgrund eines jeden Vektors von dem Vorquantisierer berechnet und in einen Zwischenspeicher gespeichert. Diese Liste wird durch­ sucht, um die vier Vorquantisierervektoren zu identifizieren, welche die geringste Verzerrung aufweisen. Der Index eines jeden ausgewählten Vorquantisierungsvektors wird verwendet, um in die Vektorquantisierungstabelle einen Offset zu berechnen, bei dem ein fortlaufender Untersatz von Quantisierungsvektoren, die mit dem Vorquantisierungsvektor assoziiert sind, beginnt. Die Größe eines jeden Vektorquantisierungsuntersatzes am k-ten Segment ergibt sich wie folgt:
Die vier Untersätze von Quantisierungsvektoren, die mit den ausgewählten Vorquantisierungsvektoren assoziiert sind, werden nach dem Quantisierungsvektor durchsucht, der zu dem geringsten Restfehler führt. Somit werden bei dem ersten Segment 64 Vorquantisierungsvektoren und 128 Quantisierungsvektoren be­ wertet, bei dem zweiten Segment werden 32 Vorquantisierungs­ vektoren und 64 Quantisierungsvektoren bewertet, und bei dem dritten Segment werden 16 Vorquantisierungsvektoren und 64 Quantisierungsvektoren bewertet. Die optimalen Reflexionskoef­ fizienten, die mittels der FLAT-Technik mit der bandbreiten Ex­ pansion berechnet wurden, wie dies oben beschrieben wurde, wer­ den in einen Autokorrelationsvektor vor der Vektorquantisierung umgewandelt.
Die Autokorrelationsversion des FLAT-Algorithmus, die als AFLAT bezeichnet wird, wird verwendet, um die Restfehlerenergie für einen Reflexionskoeffizientenvektor zu berechnen, welcher be­ wertet wird. Wie bei FLAT, weist dieser Algorithmus die Fähig­ keit auf, teilweise den Reflexionskoeffizientenquantisierungs­ fehler von vorausgegangenen Gitterstufen zu kompensieren, wenn optimale Reflexionskoeffizienten berechnet werden oder ein Reflexionskoeffizientenvektor von einem Vektorquantisierer bei einem momentanen Segment gewählt wird. Diese Verbesserung kann für Frames mit hoher Reflexionskoeffizientenquantisierungsver­ zerrung von großem Ausmaß sein. Der AFLAT-Algorithmus in Zu­ sammenhang mit der Multisegmentvektorquantisierung mit Vor­ quantisierern wird nun im folgenden beschrieben:
Es muß die Autokorrelationssequenz R(i) von den optimalen Reflexionskoeffizienten über einen Bereich 0 i Np berechnet werden. Alternativ kann die Autokorrelationssequenz von anderen LPC-Parameterdarstellungen berechnet werden, wie beispielsweise der direkten Form der LPC-Prediktorkoeffizienten αi oder direkt von der Eingangssprache.
Es werden die Anfangsbedingungen für die AFLAT-Rekursion wie folgt definiert:
Es wird der Vektorquantisierungssegmentindex k initialisiert:
k = 1 (2.16)
Es sei I₁(k) als Index für die erste Gitterstufe in dem k-ten Segment und Ih(k) als Index der letzten Gitterstufe in dem k-ten Segment gewählt. Die Rekursion zum Bewerten des Rest­ fehlers aus der Gitterstufe Ih(k) am k-ten Segment mit gege­ benem r ergibt den unten angegebenen Reflexionskoeffizienten­ vektor von dem Vorquantisierer oder den Reflexionskoeffizien­ tenvektor von dem Quantisierer.
Initialisiere j, den Index der Gitterstufe, um auf den Anfang des k-ten Segments zu zeigen:
j = I₁(k) (2.17)
Setze die Anfangsbedingungen von Pj-1 und Vj-1 zu:
Berechne die Werte für die Vj und Pj-Gitter wie folgt:
Inkrementiere j:
j = j + 1 (2.22)
Falls j Ih(k), gehe zur Formel (2.20).
Der Restfehler aus der Gitterstufe ih(k) mit gegebenem Refle­ xionskoeffizientenvektor r ergibt sich zu:
Er = (2.23)
Wird die angegebene AFLAT-Rekursion, wie oben erwähnt, verwen­ det, so wird der Restfehler aufgrund jedes Vektors von dem Vorquantisierer am k-ten Segment bewertet, die vier Unter­ sätze vom Quantisierungsvektor zum Suchen identifiziert und der Restfehler aufgrund eines jeden Quantisierungsvektors von den ausgewählten vier Untersätzen berechnet. Der Index von r, der den Quantisierungsvektor angibt, welcher Er über alle Quantisierungsvektoren in den vier Untersätzen minimiert, wird mit Qk-Bits codiert.
Falls k < 3, müssen die Anfangsbedingungen für die Rekursion am Segment k+1 berechnet werden. Wird j, der Gitterstufenin­ dex, wie folgt gesetzt:
j = I₁(k) (2.24)
Berechne:
Inkrementiere j,
j = j + 1 (2.27)
falls j ih(k), gehe zu (2.25).
Inkrementiere k, den Vektorquantisierungssegmentindex:
k = k + 1 (2.28)
Falls k 3, gehe zu (2.17). Andernfalls werden die Indizes für die Reflexionskoeffizientenvektoren für die drei Segmente ausgewählt und die Suche nach dem Reflexionskoeffizientenvek­ torquantisierer ist beendet.
Um die Speicheranforderungen für den Reflexionskoeffizien­ tenvektorquantisierer zu minimieren, werden Acht-Bit-Codes für die individuellen Reflexionskoeffizienten in der Vektor­ quantisierungstabelle gespeichert, anstelle der momentanen Reflexionskoeffizientenwerte. Die Codes werden verwendet, um die Werte der Reflexionskoeffizienten aus einer skalaren Quantisierungstabelle mit 256 Eintragungen herauszufinden. Die Acht-Bit-Codes repräsentieren Reflexionskoeffizienten­ werte, wie sie durch gleichmäßiges Abtasten einer Arkus­ sinusfunktion, wie sie in Fig. 3 gezeigt ist, erhalten werden. Die Reflexionskoeffizientenwerte variieren von -1 bis +1. Die nichtlineare Beabstandung der Reflexionskoeffi­ zienten (X-Achse) stellt eine größere Präzision für die Reflexionskoeffizienten zur Verfügung, wenn die Werte nahe den Extremwerten von +/-1 sind und weisen eine geringere Präzision auf, wenn die Werte nahe bei Null sind. Dies redu­ ziert die spektrale Verzerrung aufgrund von Skarlarquantisie­ rern der Reflexionskoeffizienten mit 256 Quantisierungspegeln, im Vergleich zum gleichmäßigen Abtasten der Reflexionskoeffi­ zienten.

Claims (12)

1. Verfahren zum Vektorquantisieren eines Reflexionskoeffizien­ tenvektors mit M Elementen, wobei der Reflexionskoeffizientenvektor ein Eingangssprachsignal repräsentiert, mit folgenden Schritten:
  • a) Segmentieren des Reflexionskoeffizientenvektors in zumindest ein erstes und ein zweites Segment;
  • b) Bereitstellen eines ersten Feldes aus vorbestimmten Vektoren von Reflexionskoeffizienten, wobei jeder Vektor eine Vielzahl von L Elementen aufweist, wobei L < M ist;
  • c) Auswählen eines ersten ausgewählten Vektors aus dem ersten Feld von vorbestimmten Vektoren;
  • d) Berechnen des Restfehlers, der mit dem ersten ausgewählten Vektor korrespondiert;
  • e) Wiederholen der Schritte c) und d) für jeden Vektor des ersten Feldes;
  • f) Auswählen eines Vektors aus dem ersten Feld, welcher den ge­ ringsten Restfehler aufweist, um einen ersten ausgewählten Vek­ tor zu bilden;
  • g) Definieren von Anfangsbedingungen für das zweite Segment, in Antwort auf den ersten ausgewählten Vektor;
  • h) Bereitstellen eines zweiten Feldes von vorbestimmten Vekto­ ren von Reflexionskoeffizienten, wobei jeder Vektor mehrfache Elemente aufweist; und
  • i) Wiederholen der Schritte c) bis f) für das zweite Segment unter Verwendung des zweiten Feldes von vorbestimmten Vektoren und Bilden eines zweiten ausgewählten Vektors.
2. Verfahren nach Anspruch 1, gekennzeichnet durch den weiteren Schritt:
  • j) Kombinieren des ersten ausgewählten Vektors und des zweiten ausgewählten Vektors, um einen quantisierten Reflexionskoeffi­ zientenvektor zu bilden.
3. Verfahren nach Anspruch 2, gekennzeichnet durch den weiteren Schritt des Initialisierens von ersten Segment-Korrelationen auf der Grundlage von Korrelationen des Eingangssprachsignals und dadurch, daß der Schritt d) den Schritt des Berechnens des Restfehlers umfaßt, welcher dem ersten ausgewählten Vektor und den ersten Segment-Korrelationen entspricht.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß der Schritt des Initialisierens der ersten Segment-Korrelationen den Schritt des Berechnens einer Autokorrelationssequenz umfaßt, welche dem Eingangssprachsignal entspricht.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß der Schritt des Definierens der Anfangsbedingungen für das zweite Segment den Schritt des Berechnens einer Auto-Korrelationsse­ quenz in Antwort auf den ersten ausgewählten Vektor und die ersten Segment-Korrelationen umfaßt.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß der Schritt des Definierens der Anfangsbedingungen für das zweite Segment die Verwendung einer Autokorrelation-Gitter-Rekursions­ technik umfaßt in Antwort auf die ersten Segment-Korrelationen.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Autokorrelation-Gitter-Rekursionstechnik eine Festpunkt-Gitter- Rekursionstechnik umfaßt.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß der Schritt des Berechnens des Restfehlers die Verwendung einer Autokorrelation-Gitter-Rekursionstechnik umfaßt.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß die Autokorrelation-Gitter-Rekursionstechnik eine Festpunkt-Gitter- Rekursionstechnik umfaßt.
10. Verfahren nach einem der Ansprüche 3 bis 9, dadurch gekenn­ zeichnet, daß das Verfahren die folgenden weiteren Schritte um­ faßt:
  • k) Definieren eines Satzes von dritten Segment-Korrelationen in Antwort auf den zweiten ausgewählten Vektor und die Anfangsbe­ dingungen für das zweite Segment;
  • l) Bereitstellen eines dritten Feldes von vorbestimmten Refle­ xionskoeffizientenvektoren, wobei jeder vorbestimmte Vektor eine Anzahl P von Elementen besitzt, wobei L + K + P M ist;
  • m) Auswählen eines dritten ausgewählten Vektors aus dem dritten Feld von vorbestimmten Vektoren;
  • n) Berechnen eines dritten Segmentrestfehlers, welcher dem dritten ausgewählten Vektor und dem Satz von dritten Segment- Korrelationen entspricht;
  • o) Wiederholen der Schritte m) und n) für jeden vorbestimmten Vektor im dritten Feld; und
  • p) Auswählen eines Vektors aus dem dritten Feld, welcher den geringsten dritten Segmentrestfehler besitzt, wodurch ein drit­ ter ausgewählter Vektor gebildet wird,
wobei der Kombinationsschritt das Kombinieren des dritten aus­ gewählten Vektors mit dem ersten und zweiten ausgewählten Vek­ tor umfaßt, um den quantisierten Reflexionskoeffizientenvektor zu bilden.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch ge­ kennzeichnet, daß das Bereitstellen des ersten Feldes von vor­ bestimmten Vektoren das Aufbauen eines ersten Codebuches für Segment-Reflexionskoeffizienten umfaßt und worin das Bereit­ stellen des zweiten Feldes von vorbestimmten Vektoren den Auf­ bau eines zweiten Codebuches für Segment-Reflexionskoeffizien­ tenvektoren umfaßt.
DE4492048A 1993-03-26 1994-03-07 Vektorquantisierungs-Verfahren Expired - Lifetime DE4492048C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4447647A DE4447647C2 (de) 1993-03-26 1994-03-07 Sprachcodierungsverfahren und Sprachcodierer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US3779393A 1993-03-26 1993-03-26
PCT/US1994/002370 WO1994023426A1 (en) 1993-03-26 1994-03-07 Vector quantizer method and apparatus

Publications (1)

Publication Number Publication Date
DE4492048C2 true DE4492048C2 (de) 1997-01-02

Family

ID=21896370

Family Applications (2)

Application Number Title Priority Date Filing Date
DE4492048A Expired - Lifetime DE4492048C2 (de) 1993-03-26 1994-03-07 Vektorquantisierungs-Verfahren
DE4492048T Pending DE4492048T1 (de) 1993-03-26 1994-03-07 Vektorquantisierungs-Verfahren und Vorrichtung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE4492048T Pending DE4492048T1 (de) 1993-03-26 1994-03-07 Vektorquantisierungs-Verfahren und Vorrichtung

Country Status (12)

Country Link
US (2) US5826224A (de)
JP (1) JP3042886B2 (de)
CN (2) CN1051392C (de)
AU (2) AU668817B2 (de)
BR (1) BR9404725A (de)
CA (1) CA2135629C (de)
DE (2) DE4492048C2 (de)
FR (1) FR2706064B1 (de)
GB (2) GB2282943B (de)
SE (2) SE518319C2 (de)
SG (1) SG47025A1 (de)
WO (1) WO1994023426A1 (de)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006174A (en) * 1990-10-03 1999-12-21 Interdigital Technology Coporation Multiple impulse excitation speech encoder and decoder
IT1277194B1 (it) * 1995-06-28 1997-11-05 Alcatel Italia Metodo e relativi apparati di codifica e di decodifica di un segnale vocale campionato
FR2738383B1 (fr) * 1995-09-05 1997-10-03 Thomson Csf Procede de quantification vectorielle de vocodeurs bas debit
JP3680380B2 (ja) * 1995-10-26 2005-08-10 ソニー株式会社 音声符号化方法及び装置
TW307960B (en) * 1996-02-15 1997-06-11 Philips Electronics Nv Reduced complexity signal transmission system
JP2914305B2 (ja) * 1996-07-10 1999-06-28 日本電気株式会社 ベクトル量子化装置
FI114248B (fi) * 1997-03-14 2004-09-15 Nokia Corp Menetelmä ja laite audiokoodaukseen ja audiodekoodaukseen
US6826524B1 (en) 1998-01-08 2004-11-30 Purdue Research Foundation Sample-adaptive product quantization
US6453289B1 (en) 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
IL129752A (en) 1999-05-04 2003-01-12 Eci Telecom Ltd Telecommunication method and system for using same
GB2352949A (en) * 1999-08-02 2001-02-07 Motorola Ltd Speech coder for communications unit
US6910007B2 (en) * 2000-05-31 2005-06-21 At&T Corp Stochastic modeling of spectral adjustment for high quality pitch modification
JP2002032096A (ja) * 2000-07-18 2002-01-31 Matsushita Electric Ind Co Ltd 雑音区間/音声区間判定装置
US7171355B1 (en) * 2000-10-25 2007-01-30 Broadcom Corporation Method and apparatus for one-stage and two-stage noise feedback coding of speech and audio signals
CA2733453C (en) * 2000-11-30 2014-10-14 Panasonic Corporation Lpc vector quantization apparatus
JP4857468B2 (ja) * 2001-01-25 2012-01-18 ソニー株式会社 データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
US7003454B2 (en) * 2001-05-16 2006-02-21 Nokia Corporation Method and system for line spectral frequency vector quantization in speech codec
US6584437B2 (en) * 2001-06-11 2003-06-24 Nokia Mobile Phones Ltd. Method and apparatus for coding successive pitch periods in speech signal
US7110942B2 (en) * 2001-08-14 2006-09-19 Broadcom Corporation Efficient excitation quantization in a noise feedback coding system using correlation techniques
US7206740B2 (en) * 2002-01-04 2007-04-17 Broadcom Corporation Efficient excitation quantization in noise feedback coding with general noise shaping
WO2003091989A1 (en) * 2002-04-26 2003-11-06 Matsushita Electric Industrial Co., Ltd. Coding device, decoding device, coding method, and decoding method
CA2388358A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
US7337110B2 (en) * 2002-08-26 2008-02-26 Motorola, Inc. Structured VSELP codebook for low complexity search
US7047188B2 (en) * 2002-11-08 2006-05-16 Motorola, Inc. Method and apparatus for improvement coding of the subframe gain in a speech coding system
US7054807B2 (en) * 2002-11-08 2006-05-30 Motorola, Inc. Optimizing encoder for efficiently determining analysis-by-synthesis codebook-related parameters
US7272557B2 (en) * 2003-05-01 2007-09-18 Microsoft Corporation Method and apparatus for quantizing model parameters
CN1890711B (zh) * 2003-10-10 2011-01-19 新加坡科技研究局 将数字信号编码成可扩缩比特流的方法和对可扩缩比特流解码的方法
US8473286B2 (en) * 2004-02-26 2013-06-25 Broadcom Corporation Noise feedback coding system and method for providing generalized noise shaping within a simple filter structure
US7697766B2 (en) * 2005-03-17 2010-04-13 Delphi Technologies, Inc. System and method to determine awareness
JP4871894B2 (ja) * 2007-03-02 2012-02-08 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法
CN101030377B (zh) * 2007-04-13 2010-12-15 清华大学 提高声码器基音周期参数量化精度的方法
CN102089810B (zh) * 2008-07-10 2013-05-08 沃伊斯亚吉公司 多基准线性预测系数滤波器量化和逆量化设备及方法
US8363957B2 (en) * 2009-08-06 2013-01-29 Delphi Technologies, Inc. Image classification system and method thereof
CN101968778A (zh) * 2010-08-13 2011-02-09 广州永日电梯有限公司 点阵串行显示方法
CN107170459B (zh) * 2012-03-29 2020-08-04 瑞典爱立信有限公司 矢量量化器
WO2015145266A2 (ko) * 2014-03-28 2015-10-01 삼성전자 주식회사 선형예측계수 양자화방법 및 장치와 역양자화 방법 및 장치
KR102400540B1 (ko) 2014-05-07 2022-05-20 삼성전자주식회사 선형예측계수 양자화방법 및 장치와 역양자화 방법 및 장치
CA2959450C (en) * 2014-08-28 2019-11-12 Nokia Technologies Oy Audio parameter quantization
CN109887519B (zh) * 2019-03-14 2021-05-11 北京芯盾集团有限公司 提高语音信道数据传输准确性的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4817157A (en) * 1988-01-07 1989-03-28 Motorola, Inc. Digital speech coder having improved vector excitation source
US4896361A (en) * 1988-01-07 1990-01-23 Motorola, Inc. Digital speech coder having improved vector excitation source
US5119423A (en) * 1989-03-24 1992-06-02 Mitsubishi Denki Kabushiki Kaisha Signal processor for analyzing distortion of speech signals

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4544919A (en) * 1982-01-03 1985-10-01 Motorola, Inc. Method and means of determining coefficients for linear predictive coding
JPS59116698A (ja) * 1982-12-23 1984-07-05 シャープ株式会社 音声デ−タ圧縮方法
DE3883519T2 (de) * 1988-03-08 1994-03-17 Ibm Verfahren und Einrichtung zur Sprachkodierung mit mehreren Datenraten.
EP0331857B1 (de) * 1988-03-08 1992-05-20 International Business Machines Corporation Verfahren und Einrichtung zur Sprachkodierung mit niedriger Datenrate
US4974099A (en) * 1989-06-21 1990-11-27 International Mobile Machines Corporation Communication signal compression system and method
US4975956A (en) * 1989-07-26 1990-12-04 Itt Corporation Low-bit-rate speech coder using LPC data reduction processing
US5012518A (en) * 1989-07-26 1991-04-30 Itt Corporation Low-bit-rate speech coder using LPC data reduction processing
US4963030A (en) * 1989-11-29 1990-10-16 California Institute Of Technology Distributed-block vector quantization coder
JP2626223B2 (ja) * 1990-09-26 1997-07-02 日本電気株式会社 音声符号化装置
JP3129778B2 (ja) * 1991-08-30 2001-01-31 富士通株式会社 ベクトル量子化器
US5307460A (en) * 1992-02-14 1994-04-26 Hughes Aircraft Company Method and apparatus for determining the excitation signal in VSELP coders
US5351338A (en) * 1992-07-06 1994-09-27 Telefonaktiebolaget L M Ericsson Time variable spectral analysis based on interpolation for speech coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4817157A (en) * 1988-01-07 1989-03-28 Motorola, Inc. Digital speech coder having improved vector excitation source
US4896361A (en) * 1988-01-07 1990-01-23 Motorola, Inc. Digital speech coder having improved vector excitation source
US5119423A (en) * 1989-03-24 1992-06-02 Mitsubishi Denki Kabushiki Kaisha Signal processor for analyzing distortion of speech signals

Also Published As

Publication number Publication date
SE518319C2 (sv) 2002-09-24
CA2135629C (en) 2000-02-08
SE9404086L (sv) 1995-01-25
SG47025A1 (en) 1998-03-20
AU6084396A (en) 1996-10-10
BR9404725A (pt) 1999-06-15
GB9802900D0 (en) 1998-04-08
JP3042886B2 (ja) 2000-05-22
CN1150516C (zh) 2004-05-19
AU678953B2 (en) 1997-06-12
US5675702A (en) 1997-10-07
DE4492048T1 (de) 1995-04-27
WO1994023426A1 (en) 1994-10-13
SE0201109D0 (sv) 2002-04-12
SE0201109L (sv) 2002-04-12
AU668817B2 (en) 1996-05-16
FR2706064A1 (fr) 1994-12-09
CN1166019A (zh) 1997-11-26
US5826224A (en) 1998-10-20
FR2706064B1 (fr) 1997-06-27
GB2282943B (en) 1998-06-03
CA2135629A1 (en) 1994-10-13
CN1051392C (zh) 2000-04-12
GB9422823D0 (en) 1995-01-04
SE524202C2 (sv) 2004-07-06
GB2282943A (en) 1995-04-19
AU6397094A (en) 1994-10-24
CN1109697A (zh) 1995-10-04
SE9404086D0 (sv) 1994-11-25
JPH07507885A (ja) 1995-08-31

Similar Documents

Publication Publication Date Title
DE4492048C2 (de) Vektorquantisierungs-Verfahren
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE19604273C2 (de) Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit
DE69832358T2 (de) Verfahren zur Sprachkodierung und -dekodierung
DE69836624T2 (de) Audiokodierer und -dekodierer
DE19811039B4 (de) Verfahren und Vorrichtungen zum Codieren und Decodieren von Audiosignalen
DE69916321T2 (de) Kodierung eines verbesserungsmerkmals zur leistungsverbesserung in der kodierung von kommunikationssignalen
DE4397106B4 (de) Schnelles auf einer Baumstruktur basierendes Verfahren zur Vektorquantisierung
DE69531642T2 (de) Synthese eines Anregungssignals bei Ausfall von Datenrahmen oder Verlust von Datenpaketen
DE60225400T2 (de) Verfahren und Vorrichtung zur Verarbeitung eines dekodierten Sprachsignals
DE69634179T2 (de) Verfahren und Vorrichtung zur Sprachkodierung und -dekodierung
DE60126149T2 (de) Verfahren, einrichtung und programm zum codieren und decodieren eines akustischen parameters und verfahren, einrichtung und programm zum codieren und decodieren von klängen
DE69636209T2 (de) Vorrichtung zur Sprachkodierung
DE69033510T3 (de) Numerischer sprachcodierer mit verbesserter langzeitvorhersage durch subabtastauflösung
DE60309651T2 (de) Verfahren zur Sprachkodierung mittels verallgemeinerter Analyse durch Synthese und Sprachkodierer zur Durchführung dieses Verfahrens
EP1979901A1 (de) Verfahren und anordnungen zur audiosignalkodierung
DE19647298A1 (de) Kodiersystem
DE69828709T2 (de) Erhöhung der Dichte von kodierten Sprachsignalen
DE4491015C2 (de) Verfahren zum Erzeugen eines Spektralrauschbewertungsfilters zur Verwendung in einem Sprachcoder
DE3019823A1 (de) Datenumsetzer und damit ausgestattete sprachsyntheseanordnung
DE10004862B4 (de) Ein schnelles Suchverfahren für LSP-Quantisierung
DE60214121T2 (de) Quantisierung der Anregung bei einem &#34;noise-feedback&#34; Kodierungsverfahren
DE60030069T2 (de) Verschleierungsverfahren bei Verlust von Sprachrahmen
DE60025596T2 (de) Verfahren zur feststellung der wahrscheinlichkeit, dass ein sprachsignal stimmhaft ist
DE69922388T2 (de) Linear-prädiktives Analyse-durch-Synthese-Kodierverfahren und Kodierer

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
Q172 Divided out of (supplement):

Ref document number: 4447647

Country of ref document: DE

AC Divided out of

Ref document number: 4447647

Country of ref document: DE

D2 Grant after examination
8364 No opposition during term of opposition
AC Divided out of

Ref document number: 4447647

Country of ref document: DE

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, 80336 MUENCHE

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0009180000

Ipc: G10L0015000000

Effective date: 20120716

R081 Change of applicant/patentee

Owner name: RESEARCH IN MOTION LTD., CA

Free format text: FORMER OWNER: MOTOROLA, INC., SCHAUMBURG, US

Effective date: 20111221

Owner name: RESEARCH IN MOTION LTD., WATERLOO, CA

Free format text: FORMER OWNER: MOTOROLA, INC., SCHAUMBURG, ILL., US

Effective date: 20111221

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN, DE

Effective date: 20111221

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

Effective date: 20111221

R071 Expiry of right