DE69932575T2 - Sprachkodierer und sprachdekodierer - Google Patents

Sprachkodierer und sprachdekodierer Download PDF

Info

Publication number
DE69932575T2
DE69932575T2 DE69932575T DE69932575T DE69932575T2 DE 69932575 T2 DE69932575 T2 DE 69932575T2 DE 69932575 T DE69932575 T DE 69932575T DE 69932575 T DE69932575 T DE 69932575T DE 69932575 T2 DE69932575 T2 DE 69932575T2
Authority
DE
Germany
Prior art keywords
speech
signal
background noise
speech signal
noise level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69932575T
Other languages
English (en)
Other versions
DE69932575D1 (de
Inventor
J. Robert SLUIJTER
Rakesh Taori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69932575D1 publication Critical patent/DE69932575D1/de
Application granted granted Critical
Publication of DE69932575T2 publication Critical patent/DE69932575T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Übertragungssystem mit einem Sprachcodierer zum Herleiten eines codierten Sprachsignals aus einem Eingangs-Sprachsignal, wobei die Übertragungsanordnung Übertragungsmittel aufweist zum Übertragen des codierten Sprachsignal zu einer Empfangsanordnung, wobei die empfangende Anordnung einen Sprachdecoder aufweist zum Decodieren des codierten Sprachsignals.
  • Derartige Übertragungssysteme werden in Applikationen verwendet, in denen Sprachsignale über ein Übertragungsmedium mit einer begrenzten Übertragungskapazität übertragen werden sollen, oder in Speichermedien mit einer begrenzten Speicherkapazität gespeichert werden sollen. Beispiele derartiger Applikationen sind die Übertragung von Sprachsignalen übers Internet, Übertragung von Sprachsignalen von einem Handy zu einer Basisstation und umgekehrt und Speicherung von Sprachsignalen auf einem CD-ROM, in einem Halbleiterspeicher oder auf einer Festplatte.
  • In einem Sprachcodierer wird das Sprachsignal durch Analysenmittel analysiert, die eine Anzahl Analysenkoeffizienten für ein Block von Sprachabtastwerten ermitteln, auch als Frame bekannt. Eine Gruppe dieser Analysenkoeffizienten beschreibt das Kurzzeitspektrum des Sprachsignals. Ein anderes Beispiel eines Analysenkoeffizienten ost ein Koeffizient, der die Tonlage eines Sprachsignals darstellt. Die Analysenkoeffizienten werden über das Übertragungsmedium zu dem Empfänger übertragen, wo diese Analysenkoeffizienten als Koeffizienten für das Synthesefilter verwendet werden.
  • Nebst den Analysenparametern ermittelt der Sprachcodierer auch eine Anzahl Auslösesequenzen (beispielsweise 4) je Frame mit Sprachabtastwerten. Das durch eine derartige Auslösesequenz gedeckte Zeitintervall wird als Subframe bezeichnet. Der Sprachcodierer ist zum Herausfinden des Auslösesignals vorgesehen, was zu der besten Sprachqualität führt, wenn das Synthesefilter, unter Anwendung der oben genannten Analysenkoeffizienten mit den genannten Auslösesequenzen ausgelöst wird.
  • Eine Darstellung der genannten Auslösesequenzen wird über den Übertragungskanal zu dem Empfänger übertragen. In dem Empfänger werden die Auslösesequenzen aus dem empfangenen Signal wiederhergestellt und einem Eingang des Synthesefilters zugeführt. An dem Ausgang des Synthesefilters ist ein synthetisches Sprachsignal verfügbar.
  • Versuche haben gezeigt, dass die Sprachqualität eines derartigen Übertragungssystems im Wesentlichen verschlechtert wird, wenn das Eingangssignal des Sprachcodierers einen wesentlichen Betrag an Hintergrundrauschen aufweist.
  • EP-A2-0772186 beschreibt einen Codierer, in dem stimmlose Frames entsprechend einem Analyse-durch-Synthese-Schema mit perzeptuell gewichteten Filtern codiert wird. US-A-5657422 beschreibt einen Decoder, bei dem das decodierte Sprachsignal abhängig von einem Rauschpegel hochpassgefiltert wird.
  • Es ist nun u. a. eine Aufgabe der vorliegenden Erfindung, ein Übertragungssystem zu schaffen, wobei die Sprachqualität verbessert wird, wenn das Eingangssignal des Sprachcodierers einen wesentlichen Betrag an Hintergrundrauschen aufweist.
  • Nach der vorliegenden Erfindung wird ein Sprachcodierer nach Anspruch 1, ein Sprachcodierungsverfahren nach Anspruch 6, ein Sprachdecoder nach Anspruch 7 und ein Sprachdecodierverfahren nach Anspruch 8 geschaffen. Ausführungsformen sind in den Unteransprüchen definiert.
  • Versuche haben gezeigt, dass es möglich ist, die Sprachqualität zu verbessern, wenn unter Verwendung eines von dem Hintergrundrauschen abhängigen Elementes eine von dem Hintergrundrauschen abhängige Verarbeitung in dem Sprachcodierer und/oder in dem Sprachdecoder durchgeführt wird.
  • In Sprachcodierern ist es üblich, ein perzeptuelles Gewichtungsfilter zum Erhalten eines perzeptuell gewichteten Fehlersignals zu verwenden, das eine perzeptuelle Differenz zwischen dem Eingangssprachsignal und einem synthetischen Sprachsignal auf Basis des codierten Sprachsignals darstellt. Versuche haben gezeigt, dass wenn die Eigenschaften des perzeptuellen Gewichtungsfilters von der Hintergrundrauscheigenschaft abhängig gemacht werden, das Ergebnis eine Verbesserung der Qualität der rekonstruierten Sprache ist.
  • Versuche haben gezeigt, dass die besten Ergebnisse erhalten werden, wenn einige der Analysenparameter, die mit dem perzeptuellen Gewichtungsfilter verwendet werden sollen, ein hochpassgefiltertes Eingangssignal darstellen. Diese Analysenparameter können dadurch erhalten werden, dass die Analyse an einem hochpassgefilterten Eingangssignal durchgeführt wird, es ist aber auch möglich, dass die geänderten Analysenparameter dadurch erhalten werden, dass an den Analysenparametern eine Transformation durchgeführt wird.
  • In Sprachcodierungssystemen werden oft Nachverarbeitungsmittel mit einem Nachfilter, verwendet um die Sprachqualität zu steigern. Derartige Nachverarbeitungsmittel mit einem Nachfilter verbessern die Formanten in Bezug auf die Täler in dem Spektrum. Unter geringen Hintergrundrauschbedingungen führt die Verwendung dieser Nachverarbeitungsmittel zu einer verbesserten Sprachqualität. Aber Versuche haben gezeigt, dass die Nachverarbeitungsmittel die Sprachqualität beeinträchtigen, wenn ein wesentlicher Betrag an Hintergrundrauschen vorhanden ist. Dadurch, dass eine oder mehrere Eigenschaften der Nachverarbeitungsmittel von einer Eigenschaft des Hintergrundrauschens abhängig gemacht wird bzw. werden, kann die Sprachqualität verbessert werden. Ein Beispiel einer derartigen Eigenschaft ist die Übertragungsfunktion der Nachverarbeitungsmittel.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
  • 1 ein Blockschaltbild eines Übertragungssystems nach der vorliegenden Erfindung,
  • 2 ein Frameformat zur Verwendung in einem Übertragungssystem nach der vorliegenden Erfindung,
  • 3 ein Blockschaltbild eines Sprachcodierers nach der vorliegenden Erfindung,
  • 4 ein Blockschaltbild eines Sprachdecoders nach der vorliegenden Erfindung.
  • Das Übertragungssystem nach 1 umfasst drei wichtige Elemente, und zwar die TRAU ("Transcoder and Rate Adapter Unit") 2, die BTS ("Base Transceiver Station") 4 und die mobile Station 6. Die TRAU 2 ist über die A-Bis-Schnittstelle 8 mit der BTS 4 gekoppelt. Die BTS 4 ist über eine Luftschnittstelle 10 mit der mobilen Einheit 6 gekoppelt.
  • Ein Hauptsignal, das in dem vorliegenden Fall ein Sprachsignal ist, das zu der mobilen Station 6 übertragen werden soll, wird einem Sprachcodierer 12 zugeführt. Ein erster Ausgang des Sprachcodierers 12, der ein codiertes Sprachsignal trägt, das auch aus Quellensymbole bezeichnet wird, ist über die A-Bis-Schnittstelle 8 mit einem Kanalcodierer 14 gekoppelt. Ein zweiter Ausgang des Sprachcodierers 12, der einen Hintergrundrauschpegelindikator BD umfasst, ist mit einem Eingang eines Systemcontrollers 16 gekop pelt. Ein erster Ausgang des Systemcontrollers 16, der eine Codierungseigenschaft trägt, die in dem vorliegenden Fall ein Ratenzuordnungssignal zur Anbindung nach unten RD ist, ist mit dem Sprachcodierer 12, und über die A-Bis Schnittstelle, mit Codierungseigenschaftseinstellungsmitteln 15 in dem Kanalcodierer 14 und mit einem weiteren Kanalcodierer gekoppelt, der in dem vorliegenden Fall ein Blockcodierer 18 ist. Ein zweiter Ausgang des Systemcontrollers 16, der ein Ratenzuordnungssignal zur Anbindung nach oben RU trägt, ist mit einem zweiten Eingang des Kanalcodierers 14 gekoppelt. Das Zweibit-Ratenzuordnungssignal RU wird bitweise über zwei aufeinander folgende Frames übertragen. Die Ratenzuordnungssignale RD und RU bilden einen Antrag zum betreiben des Übertragungssystems zur Anbindung nach oben bei einer Codierungseigenschaft, dargestellt durch RD bzw. RU.
  • Es hat sich herausgestellt, dass der Wert von RD, das zu der mobilen Station 6 übertragen worden ist, durch die Codierungseigenschaftsablaufmittel 13 überstimmt werden kann, die eine vorbestimmte Folge von Codierungseigenschaften forcieren können, wie durch das Ratenzuordnungssignal RU dargestellt, zu dem Blockcodierer 18, dem Kanalcodierer 14 und dem Sprachcodierer 13. Diese vorbestimmte Folge kann zum Befördern zusätzlicher Information zu der mobilen Station 6 verwendet werden, ohne dass dazu zusätzlicher Raum in dem Übertragungsframe erforderlich ist. Es ist möglich, dass mehr als eine vorbestimmte Folge von Codierungseigenschaften verwendet wird. Jede der vorbestimmten Folgen von Codierungseigenschaften entspricht einem anderen Hilfssignalwert.
  • Der Systemcontroller 16 empfängt von einer A-Bis Schnittstelle Qualitätsmaße QU und QD, welche die Qualität der Luftschnittstelle 10 (Funkkanal) für die Anbindung nach oben und die Anbindung nach unten angeben. Das Qualitätsmaß QU wird mit einer Anzahl Schwellenpegel verglichen und das Ergebnis dieses Vergleichs wird von dem Systemcontroller 16 benutzt um die verfügbare Kanalkapazität zwischen dem Sprachcodierer 36 und dem Kanalcodierer 38 der Anbindung nach oben zu verteilen. Das Signal QD wird von dem Tiefpassfilter 22 gefiltert und wird danach mit einer Anzahl Schwellenwerte verglichen. Das Ergebnis des Vergleichs wird verwendet um die verfügbare Kanalkapazität zwischen dem Sprachcodierer 12 und dem Kanalcodierer 14 zu verteilen. Für die Anbindung nach oben und die Anbindung nach unten sind vier verschiedene Kombinationen der Verteilung der Kanalkapazität zwischen dem Sprachcodierer 12 und dem Kanalcodierer 14 möglich. Diese Möglichkeiten sind in den nachfolgenden Tabelle angegeben.
  • Figure 00050001
    Tabelle 1
  • Aus der Tabelle 1 ist ersichtlich, dass die dem Sprachcodierer 12 zugeordnete Bitrate und die Rate des Kanalcodierers mit der Kanalqualität steigert. Dies ist möglich, weil unter besseren Kanalbedingungen der Kanalcodierer durch Verwendung einer niedrigeren Bitrate die erforderliche Übertragungsqualität ("Frame Error Rate") liefern kann. Die durch die größere Rate des Kanalcodierers gesparte Bitrate wird dadurch benutzt, dass diese dem Sprachcodierer 12 zugeordnet wird, damit eine bessere Sprachqualität erhalten wird. Es sei bemerkt, dass die Codierungseigenschaft in dem vorliegenden Fall die Rate des Kanalcodierers 14 ist. Die Einstellmittel 15 für die Codierungseigenschaft sind dazu vorgesehen, die Rate des Kanalcodierers 14 entsprechend der von dem Systemcontroller 16 gelieferten Codierungseigenschaft einzustellen.
  • Unter schlechten Kanalverhältnissen soll der Kanalcodierer eine niedrigere Rate haben, damit er imstande ist, die erforderliche Übertragungsqualität zu liefern. Der Kanalcodierer wird ein Faltungscodierer mit variabler Rate sein, der die Ausgangsbits des Sprachcodierers 12 codiert, zu dem ein 8 Bit CRC hinzugefügt wird, Die variable Rate kann durch Verwendung verschiedener Faltungscodes mit je einer anderen Basisrate oder durch Anwendung von Punktierung des Faltungscodes mit einer festen Basisrate erhalten werden. Vorzugsweise wird eine Kombination dieser Verfahren angewandt.
  • In der nachfolgenden Tabelle 2 sind die Eigenschaften der Faltungscodes aus der Tabelle 1 dargestellt. All diese Faltungscodes haben einen Wert ν gleich 5.
  • Figure 00060001
    Tabelle 2
  • In der Tabelle 2 stellen die Werte G1 die Generatorpolynome dar. Die Generatorpolynome G(n) werden wie folgt definiert: Gi(D) = g0 ⨁ g1·D⨁...⨁ gn–1·Dn–1 ⨁ gn·Dn (A)
  • In (A) ist ⨁ eine Modulo-2-Addierung, d.h. die Oktalschreibweise der Folge g0, g1, ... gν–1, gν.
  • Für jeden der verschiedenen Codes werden die darin verwendeten Generatorpolynome durch eine Nummer in der entsprechenden Zelle angegeben. Die Nummer in der entsprechenden Zelle gibt an, für welches der Quellensymbole das entsprechende Generatorpolynom berücksichtigt wird. Weiterhin gibt die genannte Nummer die Position des codierten Symbols an, das durch Verwendung des genannten Polynoms in der Sequenz von Quellensymbolen hergeleitet worden ist. Jede Ziffer gibt die Position in der Sequenz von Kanalsymbolen des Kanalsymbols an, das durch Verwendung des angegebenen Generatorpolynoms hergeleitet worden ist. Für den Rate ½ Code werden die Generatorpolynome 57 und 65 verwendet. Für jedes Quellensymbol wird zunächst das Kanalsymbol übertragen, das entsprechend dem Polynom 65 berechnet wurde, und danach wird das Kanalsymbol entsprechend dem Generatorpolynom 57 übertragen. Auf gleiche Weise können die Polynome, die zum Ermitteln der Kanalsymbole für den Rate ¼ Code verwendet werden sollen aus der Tabelle 3 ermittelt werden. Die anderen Codes sind punktierte Faltungscodes. Wenn eine Ziffer in der Tabelle gleich 0 ist, bedeutet dies, dass das entsprechende Generatorpolynom nicht für das genannte betreffende Quellensymbol verwendet wird. Aus der Tabelle 2 ist ersichtlich, dass einige der Generatorpolynome nicht für jedes der Quellensymbole verwendet werden. Es hat sich herausgestellt, dass die Folgen von Zahlen in der Tabelle periodisch fortgesetzt werden für Folgen von Eingangssymbolen, die länger sind als 1, 3, 5 oder 6.
  • Es hat sich herausgestellt, dass die Tabelle 1 die Werte der Bitrate des Sprachcodierers 12 und die Rate des Kanalcodierers 14 für einen Vollratenkanal und eine Halbratenkanal gibt. Die Entscheidung darüber, welcher Kanal verwendet wird, wird von dem Systemoperator getroffen und wird der TRAU 2, der BTS 4 und der mobilen Station 6 bekannt gegeben, und zwar mit Hilfe eines außerhalb des Bandes liegenden Steuersignals, das über einen einzelnen Steuerkanal 16 übertragen werden kann. Den Kanalcodierer 14 wird auch das Signal RU zugeführt.
  • Den Blockcodierer 18 gibt es zum Codieren der selektierten Rate RD zur Übertragung zu der mobilen Station 6. Diese Rate RD wird aus zwei Gründen in einem einzelnen Codierer codiert. Der erste Grund ist, dass es erwünscht ist, den Kanaldecoder 28 in der mobilen Station über eine neue Rate RD zu informieren, bevor Daten, die entsprechend der genannten Rate codiert wurden, bei dem Kanaldecoder 28 eintreffen. Ein zweiter Grund ist, dass es erwünscht ist, dass der Wert RD besser vor Übertragungsfehlern geschützt ist als dies bei dem Kanalcodierer 14 möglich ist. Um die Fehlerkorrektureigenschaften des codierten RU Wertes noch mehr zu verbessern, werden die Codewörter in zwei Teile gespalten, die in einzelnen Frames übertragen werden. Diese Aufteilung der Codewörter ermöglicht es, dass längere Codewörter gewählt werden, wodurch die Fehlerkorrekturfähigkeiten weiter verbessert werden.
  • Der Blockcodierer 18 codiert die Codierungseigenschaft RD, die durch zwei Bits dargestellt wird, in eine codierte Codierungseigenschaft, die entsprechend einem Blockcode mit Codewörtern von 16 Bits codiert wird, wenn ein Vollratenkanal verwendet wird. Wenn ein Halbratenkanal verwendet wird, wird ein Blockcode mit Codewörtern von 8 Bits verwendet um die Codierungseigenschaft zu codieren. Die verwendeten Codewörter sind unten in der Tabelle 3 und der Tabelle 4 dargestellt.
  • Figure 00080001
    Tabelle 3: Halbratenkanal
  • Figure 00080002
    Tabelle 4: Vollratenkanal
  • Aus der Tabelle 3 und der Tabelle 4 ist ersichtlich, dass die für einen Vollratenkanal verwendeten Codewörter durch Wiederholung der für einen Halbratenkanal verwendeten Codewörter erhalten werden, was zu verbesserten Fehlerkorrektureigenschaften führt. In einem Halbratenkanal werden die Symbole C0 bis C3 in einem ersten Frame übertragen, und die Bits C4 bis C7 werden in einem nachfolgenden Frame übertragen. In einem Vollratenkanal werden die Symbole C0 bis C7 in einem ersten Frame übertragen und die Bits C8 bis C15 werden in einem nachfolgenden Frame übertragen.
  • Die Ausgangssignale des Kanalcodierers 14 und des Blockcodierers 18 werden in Zeitmultiplex über die Luftschnittstelle 10 übertragen. Es ist aber auch möglich CDMA zur Übertragung der jeweiligen Signale über die Luftschnittstelle 10 anzuwenden. In der mobilen Station 6 wird das von der Luftschnittstelle 10 empfangene Signal einem Kanaldecoder 28 und einem weiteren Kanaldecoder 26, der in dem vorliegenden Fall ein Blockdecoder ist, zugeführt. Der Blockdecoder 26 ist dazu vorgesehen, die Codierungseigenschaft herzuleiten, die durch RD dargestellt wird, und zwar durch Decodierung der codierten Codierungseigenschaft, dargestellt durch das Codewort C0 ... CN, wobei N gleich 7 ist für den Halbratenkanal und wobei N gleich 15 ist für den Vollratenkanal.
  • Der Blockdecoder 26 ist vorgesehen zum berechnen der Korrelation zwischen den vier möglichen Codewörtern und dem Eingangssignal. Dies geschieht in zwei Schritten, weil die Codewörter in Teilen in zwei aufeinander folgenden Frames übertragen werden. Nachdem das Eingangssignal, das dem ersten Teil des Codewortes entspricht, empfangen worden ist, wird der Korrelationswert zwischen den ersten Teilen der etwaigen Codewörter und dem Eingangswert berechnet und gespeichert. Wenn in dem nachfolgenden Frame das Eingangssignal, das dem zweiten Teil des Codewortes entspricht, empfangen wird, werden der Korrelationswert zwischen den zweiten Teilen der etwaigen Codewörter und dem Eingangssignal berechnet und zu dem vorher gespeicherten Korrelationswert hinzugefügt, damit die schlussendlichen Korrelationswerte erhalten werden. Der Wert von RD, der dem Codewort mit dem größten Korrelationswert mit dem totalen Eingangssignal entspricht, wird als das empfangene Codewort selektiert, das die Codierungseigenschaft darstellt, und wird dem Ausgang des Blockdecoders 26 zugeführt. Der Ausgang des Blockdecoders 26 ist mit einem Steuereingang der Eigenschaftseinstellmittel in dem Kanaldecoder 28 sowie mit einem Steuereingang des Sprachdecoders 30 verbunden, und zwar zum Einstellen der Rate des Kanaldecoders 28 und der Bitrate des Sprachdecoders 30 auf einen Wert, der mit dem Signal RD übereinstimmt.
  • Der Kanaldecoder 28 decodiert das Eingangssignal und bietet an einem ersten Ausgang ein codiertes Sprachsignal für einen Eingang eines Sprachdecoders 30.
  • Der Kanaldecoder 28 stellt bietet an einem zweiten Ausgang ein Signal BFI ("Bad Frame Indicator"), das einen nicht einwandfreien Empfang eines Frames angibt. Dieses BFI-Signal wird durch Berechnung einer Prüfsumme über einen Teil des Signals erhalten, das durch einen herkömmlichen Decoder in dem Kanaldecoder 28 decodiert wurde, und durch einen Vergleich der berechneten Prüfsumme mit dem Wert der Prüfsumme. Die von der Luftschnittstelle 10 erhalten wurde.
  • Der Sprachdecoder 30 ist vorgesehen zum Herleiten einer Replik des Sprachsignals des Sprachcodierers 12 von dem Ausgangssignal des Kanaldecoders 20. In dem Fall, dass ein BFI-Signal von dem Kanaldecoder 28 empfangen wurde, ist der Sprachdecoder 30 dazu vorgesehen, ein Sprachsignal herzuleiten, und zwar auf Basis der vorher empfangenen Parameter entsprechend dem vorhergehenden Frame. Wenn eine Anzahl aufeinander folgender Frames als schlechte Frames angegeben sind, kann der Sprachdecoder 30 zum Stummschalten des Ausgangssignals vorgesehen sein.
  • Der Kanaldecoder 28 schafft an einem dritten Ausgang das decodierte Signal RU. Das Signal RU stellt eine Codierungseigenschaft dar, die in dem vorliegenden Fall eine Bitrateneinstellung der Anbindung nach oben ist. Je Frame umfasst das Signal RU 1 Bit (das RQI-Bit). In einem Deformatierer 34 werden die zwei Bits, die in aufeinander folgenden Frames empfangen wurden, zu einer Bitrateneinstellung RU' für die Anbindung nach oben kombiniert, die durch zwei Bits dargestellt wird. Diese Bitrateneinstellung RU', die eine der Möglichkeiten nach der Tabelle 1 selektiert, die für die Anbindung nach oben verwendet werden soll, wird einem Steuereingang eines Sprachcodierers 36, einem Steuereingang eines Kanalcodierers 38, und einem Eingang eines weiteren Kanalcodierers zugeführt, der in dem vorliegenden Fall ein Blockcodierer 40 ist. Wenn der Kanaldecoder 20 ein schlechtes Frame detektiert, indem ein BFI-Signal geliefert wird, wird das decodierte Signal RU nicht zum Einstellen der Uplink-Rate verwendet, weil dies als unzuverlässig betrachtet wird.
  • Der Kanaldecoder 28 schafft an einem vierten Ausgang ein Qualitätsmaß MMDd. Dieses Maß MMD kann auf einfache Art und Weise hergeleitet werden, wenn ein Viterbi-Decoder in dem Kanaldecoder verwendet wird. Dieses Qualitätsmaß wird in der Verarbeitungseinheit 32 entsprechend einem Filter erster Ordnung gefiltert. Für das Ausgangssignal des Filters in der Verarbeitungseinheit 32 lässt sich Folgendes schreiben: MMD'[n] = (1 – α)·MMD[n] + α·MMD'[n – 1] (B)
  • Nachdem die Bitrateneinstellung des Kanaldecoders 28 in Reaktion auf einen geänderten Wert von RD geändert worden ist, wird der Wert von MMD'[n – 1] auf einen typischen Wert entsprechend dem Langzeitmittelwert des gefilterten MMD für die neu eingestellte Bitrate und für eine typische Downlink-Kanalqualität eingestellt. Dies geschieht zum Reduzieren von Übergangserscheinungen, wenn zwischen verschiedenen Werten der Bitrate geschaltet wird.
  • Das Ausgangssignal des Filters wird mit 2 Bits zu einem Qualitätsindikator QD quantisiert. Der Qualitätsindikator QD wird einern zweiten Eingang des Kanalcodierers 38 zugeführt. Der 2 Bit Qualitätsindikator QD wird alle zwei Frames einmal übertragen, wobei eine Bitstelle in jedem Frame verwendet wird.
  • Ein Sprachsignal, das einem Sprachcodierer 36 in der mobilen Station 6 zugeführt wird, wird codiert und dem kanalcodierer 38 zugeführt. Der Kanalcodierer 38 berechnet einen CRC Wert über die Eingangsbits, fügt den CRC Wert den Eingangsbits zu und codiert die Kombination von Eingangsbits und dem CRC Wert entsprechend dem herkömmlichen Code, selektiert durch das Signal RU' aus der Tabelle 1.
  • Der Blockcodierer 40 codiert das Signal RU', dargestellt durch zwei Bits entsprechend der Tabelle 3 oder der Tabelle 4, abhängig davon, ob ein Halbratenkanal oder ein Vollratenkanal verwendet wird. Auch in dem vorliegenden Fall wird nur eine Hälfte eines Codewortes in einem Frame übertragen.
  • Die Ausgangssignale des Kanalcodierers 38 und des Blockcodierers 40 in der mobilen Station 6 werden über die Luftschnittstelle 10 zu der BTS 4 übertragen. In der BTS 4 wird das blockcodierte Signal RU' durch einen weiteren Kanaldecoder, der in dem vorliegenden Fall ein Blockdecoder 42 ist, decodiert. Die Wirkungsweise des Blockdecoders 42 ist die gleiche wie die Wirkungsweise des Blockdecoders 26. An dem Ausgang des Blockdecoders 42 ist eine decodierte Codierungseigenschaft, dargestellt durch ein Signal RU'' verfügbar. Dieses decodierte Signal RU'' wird einem Steuereingang der die Codierungseigenschaft einstellenden Mittel in dem Kanaldecoder 44 zugeführt und wird über die A-Bis-Schnittstelle weitergeleitet, und zwar zu einem Steuereingang eines Sprachdecoders 48.
  • In der BTS 4 werden die Signale von dem Kanalcodierer 38, empfangen über die Luftschnittstelle 10, dem Kanaldecoder 44 zugeführt. Der Kanaldecoder 44 decodiert die Eingangssignale und leitet die decodierten Signale über die A-Bis-Schnittstelle 8 zu der TRA 2. Der Kanaldecoder 44 schafft ein Qualitätsmaß MMDu, das die Übertra gungsqualität der Anbindung nach oben an eine Verarbeitungseinheit 46 darstellt. Die Verarbeitungseinheit 46 führt einen Filtervorgang durch, der demjenigen ähnlich ist, der in der Verarbeitungseinheit 32 und 22 durchgeführt wird. Daraufhin wird das Ergebnis des Filtervorgangs in zwei Bits quantisiert und über die A-Bis-Schnittstelle 8 zu der TRAU 2 übertragen.
  • In dem Systemcontroller 16 ermittelt eine Entscheidungseinheit 20 die Bitrateneinstellung RU, die für die Anbindung nach oben von dem Qualitätsmaß QU verwendet werden soll. Unter normalen Umständen wird der Teil der Kanalkapazität, der dem Sprachcodierer zugeordnet ist, bei Zunahme der Kanalqualität zunehmen. Die Rate RU wird alle zwei Frames übertragen.
  • Das Signal QD', das von dem Kanaldecoder 44 empfangen wird, wird einer Verarbeitungseinheit 22 in dem Systemcontroller 16 zugeführt. In der Verarbeitungseinheit 22 werden die Bits, die QD' darstellen, und die in zwei aufeinander folgenden Frames empfangen worden sind, zusammengefügt und das Signal QD' wird von einem Tiefpassfilter erster Ordnung gefiltert, wobei dieses Filter ähnliche Eigenschaften wie das Tiefpassfilter in der Verarbeitungseinheit 32 aufweist.
  • Das gefilterte Signal QD' wird mit zwei Schwellenwerten verglichen, die von dem wirklichen Wert der Downlink-Rate RD abhängig sind. Wenn das gefilterte Signal QD' den untersten Wert der genannten Schwellenwerte unterschreitet, ist die Signalqualität für die Rate RD zu niedrig und die Verarbeitungseinheit schaltet auf eine Rate um, die um einen Schritt niedriger ist als die aktuelle Rate. Wenn das gefilterte Signal QD' den höchsten Wert der genannten Schwellenwerte übersteigt, ist die Signalqualität zu hoch für die Rate RD, und die Verarbeitungseinheit schaltet auf eine Rate um, die um einen Schritt höher ist als die aktuelle Rate. Die Entscheidung über die Uplink-Rate RU ist der Entscheidung über die Downlink-Rate RD ähnlich.
  • Auch hier wird wieder, unter normalen Umständen, der Teil der Kanalkapazität, der dem Sprachcodierer zugeordnet ist, zunehmen, wenn die Kanalqualität zunimmt. Unter besonderen Umständen kann das Signal RD auch zum Übertragen eines Rekonfigurationssignals zu der mobilen Station verwendet werden. Dieses Rekonfigurationssignal kann beispielsweise angeben, dass ein anderer Sprachcodierungs-/-decodierungsalgorithmus und/oder Kanalcodierungs-/-decodierungsalgorithmus verwendet werden soll. Dieses Rekonfigurationssignal kann unter Verwendung einer speziellen vorbestimmten Sequenz von RD-Signalen codiert werden. Diese spezielle vorbestimmte Sequenz von RD-Signalen wird durch einen Ausbruchsequenzdecoder 31 in der Mobilen Station wieder erkannt, wobei dieser Decoder vorgesehen ist um den bewirkten Anordnungen ein Rekonfigurationssignal zuzuführen, wenn eine vorbestimmte Sequenz detektiert worden ist. Der Sequenzdecoder 30 kann ein Schieberegister aufweisen, in dem aufeinander folgende Werte von RD getaktet werden. Durch einen Vergleich des Inhaltes des Schieberegisters mit den vorbestimmten Sequenzen kann auf einfache Weise detektiert werden, wenn eine Fluchtsequenz empfangen wird, und welche der möglichen Fluchtsequenzen empfangen wird.
  • Ein Ausgangssignal des Kanaldecoders 44, welches das codierte Sprachsignal darstellt, wird über die A-Bis-Schnittstelle zu der TRAU 2 übertragen. In der TRAU 2 wird das codierte Sprachsignal dem Sprachdecoder 48 zugeführt. Ein Signal BFI an dem Ausgang des Kanaldecoders 44, das die Detektion eines CRC-Fehlers angibt, wird dem Sprachdecoder 48 über die A-Bis-Schnittstelle 8 zugeführt. Dieser Sprachdecoder 48 ist vorgesehen um eine Replik des Sprachsignals des Sprachdecoders 36 von dem Ausgangssignal des Kanaldecoders 44 herzuleiten. Falls ein BFI-Signal von dem Kanaldecoder 44 empfangen wird, ist der Sprachdecoder 48 dazu vorgesehen, ein Sprachsignal auf Basis des vorher empfangenen Signals entsprechend dem vorhergehenden Frame herzuleiten, und zwar auf dieselbe Art und Weise wie dies von dem Sprachdecoder 30 gemacht wurde. Wenn eine Anzahl aufeinander folgender Frames als schlechte Frames angegeben wird, kann der Sprachdecoder 48 dazu vorgesehen sein, fortschrittlichere Fehlertarnungsprozeduren durchzuführen.
  • 2 zeigt das in dem Übertragungssystem nach der vorliegenden Erfindung angewandte Frameformat. Der Sprachcodierer 12 oder 36 schafft eine Gruppe 60 von C-Bits, die vor Übertragungsfehlern geschützt werden sollten, und eine Gruppe 64 von U-Bits, die nicht vor Übertragungsfehlern geschützt zu werden brauchen. Die weitere Sequenz umfasst die U-Bits. Die Entscheidungseinheit 20 und die Verarbeitungseinheit 32 schaffen ein einziges Bit RQI 62 je Frame für Signalisierungszwecke, wie oben erläutert.
  • Die oben genannte Kombination von Bits wird dem Kanalcodierer 14 oder 38 zugeführt, der zunächst eine CRC über die Kombination von RQI-Bit und C-Bits berechnen, und hängt 8 CRC Bits hinter die C-Bits 60 und das RQI-Bit 62 an. Die U-Bits sind nicht an der Berechnung der CRC-Bits beteiligt. Die Kombination 66 der C-Bits 60 und des RQI-Bits 68 wird entsprechend einem Faltungscode zu einer codierten Sequenz 70 codiert. Die codierten Symbole umfassen die codierte Sequenz 70. Die U-Bits bleiben ungeändert.
  • Die Anzahl Bits in der Kombination 66 ist von der Rate des Faltungscodierers und von dem Typ des verwendeten Kanals abhängig, wie nachstehend in der Tabelle 5 angegeben.
  • Figure 00140001
    Tabelle 5
  • Die zwei RA Bits, die die Codierungseigenschaft darstellen, werden in Codewörter 74 codiert, die die codierte Codierungseigenschaft darstellen, und zwar entsprechend dem in der Tabelle 3 oder 4 wiedergegebenen Code, abhängig von der verfügbaren Übertragungskapazität (Halbrate oder Vollrate). Diese Codierung erfolgt alle zwei Frames. Die Codewörter 74 werden in zwei Teile 76 und 78 aufgeteilt und in dem aktuellen Frame und dem nachfolgenden Frame übertragen.
  • In dem Sprachcodierer 12, 36 nach 3 wird ein Eingangssprachsignal einem Vorverarbeitungsvorgang ausgesetzt, der einen Hochpassfiltervorgang umfasst, wobei ein Hochpassfilter 80 mit einer Grenzfrequenz von 80 Hz verwendet wird. Das Ausgangssignal s[n] des Hochpassfilters 80 wird in Frames von je 20 ms segmentiert. Die Sprachsignalframes werden dem Eingang des Analysenmittels zugeführt, das ein linearer Prädiktionsanalysator 90 ist, der einen Satz von 10 LPC Koeffizienten aus den Sprachsignalframes berechnet. In der Berechnung der LPC Parameter wird der jüngste Teil des Frames hervorgehoben, und zwar durch Anwendung einer geeigneten Fensterfunktion. Die Berechnung der LPC Koeffizienten erfolgt mit der durchaus bekannten Levinson-Durbin-Rekursion.
  • Ein Ausgang des linearen prädiktiven Analysators 90, der die Analysenergebnisse in Form von "Line Spectral Frequencies" (LSFen) trägt, ist mit einem Spaltvektorquantisierer 92 verbunden. In dem Quantisierer 92 werden die LSFen in drei Gruppen aufgeteilt, zwei Gruppen mit 3 LSFen und eine Gruppe mit 4 LSFen. Jede der Gruppen wird vektorquantisiert und folglich werden die LSFen durch drei Codebuchindizes dargestellt.
  • Diese Codebuchindizes werden als Ausgangssignal des Sprachcodierers 12, 36 zur Verfügung gestellt.
  • Der Ausgang des Quantisierers 94 ist ebenfalls mit einem Eingang eines Interpolators 94 verbunden. Der Interpolator 94 leitet die LSFen von den Codebucheingaben her und interpoliert die LSFen zweier aufeinander folgender Frames zum Erhalten interpolierter LSFen für jedes der vier Subframes mit einer Dauer von 5 ms. Der Ausgang des Interpolators 94 ist mit einem Eingang eines Wandlers 96 verbunden, der die interpolierten LSFen in Parameter â verwandelt. Diese â Parameter werden zum Steuern der Koeffizienten von Filtern 108 und 122 verwendet, die an der Analyse durch die Syntheseprozedur beteiligt sind, was nachstehend noch näher erläutert wird.
  • Nebst den â Parametern werden zwei einigermaßen abweichende Sätze mit a-Parametern a und ā bestimmt. Der Satz mit Parametern a wird durch Interpolation der LSFen bestimmt, bevor diese mit Hilfe eines Interpolators 98 vektorquantisiert werden. Die Parameter a werden letztendlich durch Umwandlung der LSFen in a-Parameter erhalten, und zwar mit Hilfe eines Wandlers 100. Die Parameter a werden zur Steuerung eines perzeptuell gewichteten Analysenfilters 102 und des perzeptuellen Gewichtungsfilters 124 verwendet.
  • Der dritte Satz mit a Parametern ā wird dadurch erhalten, dass zunächst ein Vorbetonungsvorgang an dem Sprachsignal s[n] durchgeführt wird, und zwar mit Hilfe eines Hochpassfilters 82 mit einer Übertragungsfunktion 1 – μ·z–1, wobei μ einen Wert von 0,7 hat. Daraufhin werden die LSFen mit Hilfe des weiteren Analysenmittels berechnet, das in dem vorliegenden Fall ein prädiktiver Analysator 84 ist. Ein Interpolator 86 berechnet interpolierte LSFen für die Subframes und ein Wandler 88 verwandelt die interpolierten LSFen in die a-Paremeter ā. Diese Parameter ā werden zur Steuerung des perzeptuellen Gewichtungsfilters 124 verwendet, wenn das Hintergrundrauschen in dem Sprachsignal einen Schwellenwert übersteigt.
  • Der Sprachcodierer 12, 36 benutzt ein von einer Kombination eines adaptiven Codebuchs 110 und eines RPE-Codebuchs 116 ("Regular Pulse Excitation") erzeugtes Signal. Das Ausgangssignal des RPE-Codebuchs 116 wird durch einen Codebuchindex I und eine Phase P definiert, was die Position des Gitters äquidistanter Impulse definiert, die von dem RPE-Codebuch 116 erzeugt worden sind. Das Signal I kann beispielsweise eine Verkettung sein eines fünf Bit Gray codierten Vektors, der drei ternäre Anregungsabtast werte darstellt, und eines acht Bit Gray codierten Vektors, der fünf ternäre Anregungsabtastwerte darstellt. Der Ausgang des adaptiven Codebuchs 110 ist mit dem Eingang eines Multiplizierers 112 verbunden, der das Ausgangssignal des adaptiven Codebuchs 110 mit einem Verstärkungsfaktor GA multipliziert. Der Ausgang des Multiplizierers 112 ist mit einem ersten Eingang eines Addierers 114 verbunden.
  • Der Ausgang des RPE-Codebuchs 116 ist mit dem Eingang eines Multiplizierers 117 verbunden, der das Ausgangssignal des RPE-Codebuchs 116 mit einem Verstärkungsfaktor GR multipliziert. Der Ausgang des Multiplizierers 117 ist mit einem zweiten Eingang des Addierers 114 verbunden. Der Ausgang des Addierers 114 ist mit einem Eingang des adaptiven Codebuchs 110 verbunden, und zwar zum Liefern des Anregungssignals zu dem genannten adaptiven Codebuch 110, damit dessen Inhalt angepasst werden kann. Der Ausgang des Addierers 114 ist auch mit einem ersten Eingang eines Subtrahierers 120 verbunden.
  • Ein Analysenfilter 108 leitet ein Restsignal r[n] von dem Signal s[n] für jedes der Subframes her. Das Analysenfilter benutzt die Prädiktionskoeffizienten â, wie diese von dem Wandler 96 geliefert werden. Der Subtrahierer 120 ermittelt die Differenz zwischen dem Ausgangssignal des Addierers 114 und des Restsignals an dem Ausgang des Analysenfilters 108. Das Ausgangssignal des Subtrahierers 120 wird einem Synthesefilter 122 zugeführt, das ein Fehlersignal herleitet, das eine Differenz zwischen dem Sprachsignal s[n] und einem synthetischen Sprachsignal darstellt, das durch Filterung des Anregungssignals durch das Synthesefilter 122 erzeugt worden ist. In dem vorliegenden Codierer wird das Restsignal r[n] explizit zur Verfügung gestellt, weil es in der Suchprozedur erforderlich ist, was nachstehend noch näher erläutert wird.
  • Das Ausgangssignal des Synthesefilters 122 wird durch ein perzeptuelles Gewichtungsfilter 124 gefiltert zum Erhalten eines perzeptuell gewichteten Fehlersignals e[n]. Die Energie dieses perzeptuell gewichteten Fehlersignals e[n] soll durch das Anregungsselektionsmittel 118 minimiert werden, und zwar durch Selektion von optimalen Werten für die Anregungsparameter L, GA, I, P und GR.
  • Das Signal s[n] wird auch dem Mittel zum Ermitteln des Hintergrundrauschens 106 zugeführt, das den Pegel des Hintergrundrauschens bestimmt. Dies geschieht dadurch, dass die minimale Frame-Energie mit einer Zeitkonstanten von einigen Sekunden verfolgt wird. Wenn diese minimale Frame-Energie, von der vorausgesetzt wird, dass diese durch Hintergrundrauschen verursacht wird, einen Schwellenwert übersteigt, wird das Vorhandensein von Hintergrundrauschen an dem Ausgang des Mittels 106 mitgeteilt.
  • Nach Rückstellung des Sprachcodierers wird ein Anfangswert des Hintergrundrauschpegels auf die maximale Frame-Energie gesetzt, und zwar in den ersten 200 ms nach der genannten Rückstellung. Eine derartige Rückstellung erfolgt bei dem Aufbau eines Anrufs. Es wird vorausgesetzt, dass in diesen allerersten 200 ms nach der Rückstellung dem Sprachcodierer kein Sprachsignal zugeführt wird.
  • Nach einem Aspekt der vorliegenden Erfindung wird die Wirkung des perzeptuellen Gewichtungsfilters 124 von dem Hintergrundrauschpegel abhängig gemacht, und zwar durch das Anpassungsmittel, das in dem vorliegenden Fall einen Selektor 125 aufweist. Wenn es kein Hintergrundrauschen gibt, ist die Übertragungsfunktion des perzeptuellen Gewichtungsfilters gleich
    Figure 00170001
  • In (C) ist A(z) gleich:
    Figure 00170002
  • In (D) stellt ai die Prädiktionsparameter a dar, die an dem Ausgang des Wandlers 100 verfügbar sind. γ1 und γ2 sind positive Konstanten kleiner als 1.
  • Wenn der Hintergrundrauschpegel einen Schwellenwert übersteigt, wird die Übertragungsfunktion w(z) des perzeptuellen Gewichtungsfilters der nachfolgenden Gleichung entsprechend gemacht.
  • Figure 00170003
  • In (E) stellt Ā das Polynom entsprechend (D) dar, nun aber basiert auf den Prädiktionsparametern ā, die an dem Ausgang des Wandlers 88 verfügbar sind.
  • Wenn fast kein Hintergrundrauschen vorhanden ist, hat das Gewichtungsfilter 124 die Übertragungsfunktion nach (C) und betont besonders die konzeptuell wichtigeren niedrigen Frequenzen des Sprachsignals, so dass diese auf eine genauere Art und Weise codiert werden. Wenn das Hintergrundrauschen einen bestimmten Schwellenwert übersteigt, ist es erwünscht, diese Betonung zu lindern. In diesem Fall werden die höheren Fre quenzen genauer codiert, und zwar auf Kosten der Genauigkeit der niedrigeren Frequenzen. Dies macht den codierten Sprachsignalschall transparenter. Die Betonung der niedrigeren Frequenzen wird durch die Filterung des Sprachsignals s[n] durch das Hochpassfilter 82 vor der Ermittlung der Prädiktionskoeffizienten ā erhalten.
  • Zum Ermitteln der optimalen Eingabe des adaptiven Codebuchs wird durch einen Lagendetektor 104 aus einem Restsignal, das von dem perzeptuellen Gewichtungsfilter 102 geliefert wird, ein grober Wert der Tonlage des Sprachsignals ermittelt.
  • Dieser grobe Wert der Tonlage wird als Startwert für eine adaptive Codebuchsuche mit einer geschlossenen Schleife verwendet. Das Anregungsselektionsmittel 118 startet zunächst mit der Selektion der Parameter des adaptiven Codebuchs 110 für das aktuelle Frame unter der Voraussetzung, dass das RPE Codebuch 116 keinen Beitrag liefert. Nachdem der beste Verzögerungswert L und die beste adaptive Codebuchverstärkung GA gefunden worden ist, wobei dieser letztere quantisiert wird, werden sie zur Übertragung zur Verfügung gestellt. Daraufhin wird der Fehler wegen der adaptiven Codebuchsuche aus dem Fehlersignal e[n] durch Berechnung eines neuen Fehlersignals durch Filterung der Differenz zwischen dem Restsignal r[n] und dem Ausgangssignal der adaptiven Codebucheingabe, skaliert mit dem quantisierten Verstärkungsfaktor, eliminiert. Diese Filterung erfolgt durch ein Filter mit einer Übertragungsfunktion W(z)/Â(z).
  • Zweitens werden die Parameter des RPE Codebuchs 116 durch Minimierung der Energie in einem Subframe des neuen Fehlersignals ermittelt. Dies führt zu einem optimalen Wert des RPE Codebuchindexes I, der RPE Codebuchphase P und der RPE Codebuchverstärkung GR. Nachdem diese letztere quantisiert worden ist, werden die Werte von I, P und der quantisierte Wert GR zur Übertragung zur Verfügung gestellt.
  • Nachdem alle Anregungsparameter ermittelt worden sind, wird das Anregungssignal x[n] berechnet und in das adaptive Codebuch 110 eingeschrieben.
  • In dem Sprachdecoder nach 4 wird das codierte Sprachsignal, dargerstellt durch die Parameter LŜF, L, GA, I, P und GR, einem Decoder 130 zugeführt. Weiterhin wird der Indikator eines schlechten Frames BFI, der von dem Kanaldecoder 28 oder 44 geliefert wird, dem Decoder 130 zugeführt.
  • Die Signale L und GA, die die adaptiven Codebuchparameter darstellen, werden von dem Decoder 130 decodiert und einem adaptiven Codebuch 138 bzw. einem Multiplizierer 142 zugeführt. Die Signale I, P und GR, die die RPE Codebuchparameter darstellen, werden von dem Decoder 130 decodiert und einem RPE Codebuch 140 bzw. einem Multiplizierer 144 zugeführt. Der Ausgang des Multiplizierers 142 ist mit einem ersten Eingang eines Addierers 146 verbunden und ein Ausgang des Multiplizierers 144 ist mit einem zweiten Eingang des Addierers 146 verbunden.
  • Der Ausgang des Addierers 146, der das Anregungssignal trägt, ist mit einem Eingang eines Tonlagenvorfilters 148 verbunden. Das Tonlagenvorfilter 148 empfängt auch die adaptiven Codebuchparameter L und GA. Das Tonlagenvorfilter 148 verbessert die Periodizität des Sprachsignals auf Basis der Parameter L und GA.
  • Der Ausgang des Tonlagenvorfilters 148 ist mit einem Synthesefilter 150 mit einer Übertragungsfunktion 1/Â(z) verbunden. Das Synthesefilter 150 schafft ein Synthesesprachsignal. Der Ausgang des Synthesefilters 150 ist mit einem ersten Eingang des Nachverarbeitungsmittels 151 verbunden, sowie mit einem Eingang des Hintergrundrauschdetektionsmittels 154. Der Ausgang des Hintergrundrauschdetektionsmittels 154, der ein Steuersignal trägt, ist mit einem zweiten Eingang des Nachverarbeitungsmittels 151 verbunden.
  • In dem Nachverarbeitungsmittel 151 ist der erste Eingang mit einem Eingang eines Nachfilters 152 und mit einem ersten Eingang eines Selektors 155 verbunden. Der Ausgang des Nachfilters 152 ist mit einem zweiten Eingang des Selektors 155 verbunden. Der Ausgang des Selektors 155 ist mit dem Ausgang des Nachverarbeitungsmittels 151 verbunden. Der zweite Eingang des Nachverarbeitungsmittels ist mit einer Steuereinheit des Selektors 155 verbunden.
  • Nach einem Aspekt der vorliegenden Erfindung umfasst das von dem Hintergrundrauschen abhängige Element in dem Decoder nach 4 das Nachverarbeitungsmittel 151, und die von dem Hintergrundrauschen abhängige Eigenschaft ist die Übertragungsfunktion des Nachverarbeitungsmittels 151.
  • Wenn das Steuersignal an dem zweiten Eingang des Nachverarbeitungsmittels signalisiert, dass der Pegel des Hintergrundrauschens in dem Sprachsignal unterhalb des Schwellenwertes liegt, wird der Ausgang des Nachfilters 152 durch den Selektor 155 mit dem Ausgang des Sprachdecoders verbunden. Das herkömmliche Nachfilter arbeitet auf Subframebasis und umfasst die üblichen Langfrist- und Kurzfristteile, eine adaptive Kippkompensation, ein Hochpassfilter mit einer Grenzfrequenz von 100 Hz und eine Ver stärkungssteuerung um die Energie des Eingangssignals und des Ausgangssignals des Nachfilters gleich zu halten.
  • Der Langfristteil des Nachfilters 152 arbeitet mit einer minimalen Verzögerung, die örtlich in der Nähe des empfangenen Wertes von L gesucht wird. Diese Suche basiert auf dem Finden des Maximums der kurzfristigen Autokorrelationsfunktion eines Pseudorestsignals, das durch Filterung des Ausgangssignals des Synthesefilters mit einem Analysenfilter Â(z) mit Parametern auf Basis der Prädiktionsparameter â erhalten wird.
  • Wenn die Hintergrundrauschdetektionsmittel 154 signalisieren, dass das Hintergrundrauschen einen Schwellenwert übersteigt, verwindet der Selektor 155 den Ausgang des Synthesefilters unmittelbar mit dem Ausgang des Sprachdecoders, wodurch das Nachfilter 152 auf effektive Weise abgeschaltet wird. Dies bietet den Vorteil, dass der Sprachdecoder im Beisein von Hintergrundrauschen transparenter klingt.
  • Wenn das Nachfilter umgangen wird, wird es nicht abgeschaltet, sondern bleibt aktiv. Dies hat den Vorteil, dass keine Übergangserscheinungen auftreten, wenn der Selektor 155 zu dem Ausgang des Nachfilters 152 zurückschaltet, wenn der Hintergrundrauschpegel den Schwellenwert unterschreitet.
  • Es hat sich herausgestellt, dass es ebenfalls denkbar ist, die Parameter des Nachfilters 152 in Reaktion auf den Hintergrundrauschpegel zu ändern.
  • Die Wirkungsweise der Hintergrundrauschdetektionsmittel 154 ist die gleiche wie die Wirkungsweise des Hintergrundrauschdetektionsmittels 106, wie dies in dem Sprachcodierer nach 3 verwendet wird. Wenn ein schlechtes Frame von dem BFI-Indikator signalisiert wird, sind die Hintergrundrauschdetektionsmittel 154 nach wie vor in dem Zustand, der dem letzten empfangenen Frame entspricht.
  • Das Signal LŜF wird einem Interpolator 132 zugeführt, und zwar zum Erhalten interpolierter LSFen für jedes Subframe. Der Ausgang des Interpolators 132 ist mit einem Eingang eines Wandlers 134 verbunden, der die LSFen in a-Parameter â umwandeln. Das Ausgangssignal des Wandlers 134 wird einer Gewichtungseinheit 136 zugeführt, die unter Ansteuerung des Indikators BFI steht. Wenn keine schlechte Frames auftreten, ist die Gewichtungseinheit 136 nicht aktiv und leitet die Eingangsparameter â ungeändert dem Ausgang zu. Wenn ein schlechtes Frame auftritt, schaltet die Gewichtungseinheit 136 in eine Extrapolationsmode. Durch Extrapolierung der LPC Parameter wird der letzte Satz â des vorhergehenden Frames mit Bandbreitenexpansion versehen. Wenn aufeinander fol gende schlechte Frames auftreten, wird die Bandbreitenexpansion rekursiv angewandt, so dass die entsprechende spektrale Darstellung planiert wird. Der Ausgang der Gewichtungseinheit 136 ist mit einem Eingang des Synthesefilters 150 und mit einem Eingang des Nachfilters 152 verbunden, damit sie mit Prädiktionsparametern â versehen werden.
  • Text in der Zeichnung
  • 1
    • Spracheingang
    • Sprachcodierer
    • Kanalcodierer
    • Sprachausgang
    • Sprachdecoder
    • Kanaldecoder
  • 2
    • Faltungscode
    • Nächstes Frame
  • 3
    • Vorverarbeitung
    • Suchprozedur
  • 4
    • Decodierung und Handhabung schlechter Frames
    • Gewichtung
    • Nachfilter
    • Sprachausgang

Claims (10)

  1. Sprachcodierer (12, 36) zum Herleiten eines codierten Sprachsignals von einem Eingangssprachsignal, wobei der Sprachcodierer Folgendes umfasst: – Hintergrundgeräuschermittlungsmittel (106) zum Ermitteln eine Hintergrundgeräuschpegels des Sprachsignals, und – ein Reizgewichtungsfilter (124) zum herleiten eines Reizgewichtungsfehlersignals, das einen Reizgewichtungsfehler zwischen dem Eingangssprachsignal und einem synthetischen Sprachsignal darstellt, dadurch gekennzeichnet, dass der Sprachcodierer (12, 36) weiterhin Anpassungsmittel (125) aufweist zum Ändern der Eigenschaften des Reizgewichtungsfilters (124) in Abhängigkeit von dem Hintergrundrauschpegel.
  2. Sprachcodierer nach Anspruch 1, wobei der Sprachcodierer weiterhin Analysiermittel (84, 90) aufweist zum Herleiten von Analysenparametern von dem Eingangssprachsignal, wobei die Eigenschaften des Reizgewichtungsfilters (124) von den Analysenparametern hergeleitet werden, und wobei die Anpassungsmittel (125) dazu vorgesehen sind, dem Reizgewichtungsfilter (124) geänderte Analysenparameter zu liefern, die das Sprachsignal darstellen, das einem Hochpassfiltervorgang ausgesetzt wird, wenn der Hintergrundrauschpegel einen bestimmten Schwellenwert übersteigt.
  3. Sprachcodierer nach Anspruch 2, wobei der Sprachcodierer ein Hochpassfilter (82) aufweist zum Herleiten eines hochpass-gefilterten Sprachsignals, wobei die Analysenmittel (84) dazu vorgesehen sind, die geänderten Analysenparameter von dem hochpassgefilterten Sprachsignal herzuleiten, wenn der Hintergrundrauschpegel den bestimmten Schwellenwert übersteigt.
  4. Sprachcodierer nach Anspruch 1, wobei das Reizgewichtungsfilter (124) entsprechend einer ersten Übergangsfunktion arbeitet, wenn der Hintergrundrauschpegel niedriger ist als ein bestimmter Schwellenwert oder diesem Wert entspricht, und wobei das Reizgewichtungsfilter (124) entsprechend einer zweiten ein bestimmter Schwellenwert oder diesem Wert entspricht, und wobei das Reizgewichtungsfilter (124) entsprechend einer zweiten Übergangsfunktion arbeitet, wenn der Hintergrundrauschpegel den bestimmten Schwellenwert übersteigt.
  5. Übertragungsanordnung (2, 4, 6) mit einem Sprachcodierer (12, 36) nach einem der Ansprüche 1, 2, 3 oder 4, zum Herleiten eines codierten Sprachsignals von einem Eingangssprachsignal, wobei die Übertragungsanordnung weiterhin Sendemittel (14, 38) aufweist zum Aussenden des codierten Sprachsignals.
  6. Sprachcodierungsverfahren zum Herleiten eines codierten Sprachsignals aus einem Eingangssprachsignal, wobei das Verfahren Folgendes umfasst: – das Ermitteln eines Hintergrundgeräuschssignals des Sprachsignals, und – das Herleiten eines reizgewichteten Fehlersignals in einem Reizgewichtungsfilter (124), wobei dieses Signal einen reizgewichteten Fehler zwischen dem Eingangssprachsignal und einem synthetischen Sprachsignal darstellt, dadurch gekennzeichnet, dass das Verfahren das Ändern der Eigenschaften des Reizgewichtungsfilters (124) in Abhängigkeit von dem Hintergrundgeräuschpegel umfasst.
  7. Sprachdecoder (30, 48) zum Decodieren eines codierten Sprachsignals, wobei der Sprachdecoder Folgendes umfasst: – Hintergrundgeräuschermittlungsmittel (154) zum Ermitteln eines Hintergrundgeräuschpegels des Sprachsignals, – ein Synthesefilter (150) zum Herleiten eines synthetischen Sprachsignals von dem codierten Sprachsignal, und – Nachverarbeitungsmittel (151) zum verarbeiten des Ausgangssignals von dem Synthesefilter (150), dadurch gekennzeichnet, dass die Nachverarbeitungsmittel (151) ein Nachfilter (152) aufweisen zur Verbesserung der Formanten des Ausgangssignals von dem Synthesefilter (150) und dass der Sprachdecoder Anpassungsmittel aufweist zum: – Ändern einer Übergangsfunktion des Nachfilters (152) in Abhängigkeit von dem Hintergrundgeräuschpegels, so dass die Filterung durch das Nachfilter (152) abnimmt, wenn der Hintergrundgeräuschpegel zunimmt; oder – Deaktivieren des Nachfilters (152), wenn der Hintergrundgeräuschpegel einen Schwellenwert übersteigt; oder – Umgehen des Nachfilters (152), wenn der Hintergrundgeräuschpegel einen Schwellenwert übersteigt.
  8. Sprachdecodierverfahren zum decodieren eines codierten Sprachsignals, wobei das Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Ermitteln eines Hintergrundgeräuschpegels des Sprachsignals, – das Herleiten eines synthetischen Sprachsignals von dem codierten Sprachsignal in einem Synthesefilter (150), und – das Nachverarbeiten des Ausgangssignals von dem Synthesefilter (150) dadurch gekennzeichnet, dass das Nachverarbeiten das Verbessern der Formanten das Ausgangssignals von dem Synthesefilter (150) durch ein Nachfilter (152) umfasst, und dass das Verfahren weiterhin Folgendes umfasst: – das Ändern einer Übergangsfunktion des Nachfilters (152) in Abhängigkeit von dem Hintergrundgeräuschpegels, so dass die Filterung durch das Nachfilter (152) abnimmt, wenn der Hintergrundgeräuschpegel zunimmt; oder – das Deaktivieren des Nachfilters (152), wenn der Hintergrundgeräuschpegel einen Schwellenwert übersteigt; oder – das Umgehen des Nachfilters (152), wenn der Hintergrundgeräuschpegel einen Schwellenwert übersteigt.
  9. Empfangsanordnung mit einem Sprachdecoder nach Anspruch 7 zum decodieren des codierten Sprachsignals.
  10. Übertragungssystem (2, 4, 6) mit einer Übertragungsanordnung nach Anspruch 5 und einer Empfangsanordnung nach Anspruch 9.
DE69932575T 1998-05-26 1999-05-20 Sprachkodierer und sprachdekodierer Expired - Fee Related DE69932575T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP98201734 1998-05-26
EP98201734 1998-05-26
PCT/IB1999/000926 WO1999062057A2 (en) 1998-05-26 1999-05-20 Transmission system with improved speech encoder

Publications (2)

Publication Number Publication Date
DE69932575D1 DE69932575D1 (de) 2006-09-14
DE69932575T2 true DE69932575T2 (de) 2007-08-02

Family

ID=8233759

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69932575T Expired - Fee Related DE69932575T2 (de) 1998-05-26 1999-05-20 Sprachkodierer und sprachdekodierer

Country Status (8)

Country Link
US (2) US6363340B1 (de)
EP (1) EP0998741B1 (de)
JP (1) JP2002517022A (de)
KR (2) KR100713677B1 (de)
CN (1) CN1143265C (de)
DE (1) DE69932575T2 (de)
TW (1) TW376611B (de)
WO (1) WO1999062057A2 (de)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6324592B1 (en) * 1997-02-25 2001-11-27 Keystone Aerospace Apparatus and method for a mobile computer architecture and input/output management system
TW376611B (en) * 1998-05-26 1999-12-11 Koninkl Philips Electronics Nv Transmission system with improved speech encoder
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US7117156B1 (en) 1999-04-19 2006-10-03 At&T Corp. Method and apparatus for performing packet loss or frame erasure concealment
US7047190B1 (en) * 1999-04-19 2006-05-16 At&Tcorp. Method and apparatus for performing packet loss or frame erasure concealment
FR2802329B1 (fr) * 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
ATE319162T1 (de) * 2001-01-19 2006-03-15 Koninkl Philips Electronics Nv Breitband-signalübertragungssystem
US6789058B2 (en) * 2002-10-15 2004-09-07 Mindspeed Technologies, Inc. Complexity resource manager for multi-channel speech processing
JP4433668B2 (ja) 2002-10-31 2010-03-17 日本電気株式会社 帯域拡張装置及び方法
US20050049853A1 (en) * 2003-09-01 2005-03-03 Mi-Suk Lee Frame loss concealment method and device for VoIP system
US7433815B2 (en) * 2003-09-10 2008-10-07 Dilithium Networks Pty Ltd. Method and apparatus for voice transcoding between variable rate coders
US20060116874A1 (en) * 2003-10-24 2006-06-01 Jonas Samuelsson Noise-dependent postfiltering
US6983241B2 (en) * 2003-10-30 2006-01-03 Motorola, Inc. Method and apparatus for performing harmonic noise weighting in digital speech coders
DE102004007185B3 (de) * 2004-02-13 2005-06-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Prädiktives Codierungsschema
US7701886B2 (en) * 2004-05-28 2010-04-20 Alcatel-Lucent Usa Inc. Packet loss concealment based on statistical n-gram predictive models for use in voice-over-IP speech transmission
US20060241937A1 (en) * 2005-04-21 2006-10-26 Ma Changxue C Method and apparatus for automatically discriminating information bearing audio segments and background noise audio segments
US20090299738A1 (en) * 2006-03-31 2009-12-03 Matsushita Electric Industrial Co., Ltd. Vector quantizing device, vector dequantizing device, vector quantizing method, and vector dequantizing method
US8688437B2 (en) 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
CN101303858B (zh) * 2007-05-11 2011-06-01 华为技术有限公司 实现基音增强后处理的方法及装置
CN101320563B (zh) * 2007-06-05 2012-06-27 华为技术有限公司 一种背景噪声编码/解码装置、方法和通信设备
US20090099844A1 (en) * 2007-10-16 2009-04-16 Qualcomm Incorporated Efficient implementation of analysis and synthesis filterbanks for mpeg aac and mpeg aac eld encoders/decoders
KR100922897B1 (ko) 2007-12-11 2009-10-20 한국전자통신연구원 Mdct 영역에서 음질 향상을 위한 후처리 필터장치 및필터방법
US8554551B2 (en) 2008-01-28 2013-10-08 Qualcomm Incorporated Systems, methods, and apparatus for context replacement by audio level
US20090253457A1 (en) * 2008-04-04 2009-10-08 Apple Inc. Audio signal processing for certification enhancement in a handheld wireless communications device
AU2016204672B2 (en) * 2010-07-02 2016-08-18 Dolby International Ab Audio encoder and decoder with multiple coding modes
AU2016202478B2 (en) * 2010-07-02 2016-06-16 Dolby International Ab Pitch filter for audio signals and method for filtering an audio signal with a pitch filter
AU2015200065B2 (en) * 2010-07-02 2016-10-20 Dolby International Ab Post filter, decoder system and method of decoding
CN105355209B (zh) * 2010-07-02 2020-02-14 杜比国际公司 音高增强后置滤波器
JP5552988B2 (ja) * 2010-09-27 2014-07-16 富士通株式会社 音声帯域拡張装置および音声帯域拡張方法
KR102138320B1 (ko) 2011-10-28 2020-08-11 한국전자통신연구원 통신 시스템에서 신호 코덱 장치 및 방법
WO2013124712A1 (en) * 2012-02-24 2013-08-29 Nokia Corporation Noise adaptive post filtering
US9418671B2 (en) 2013-08-15 2016-08-16 Huawei Technologies Co., Ltd. Adaptive high-pass post-filter
WO2016103222A2 (en) * 2014-12-23 2016-06-30 Dolby Laboratories Licensing Corporation Methods and devices for improvements relating to voice quality estimation
CN106033672B (zh) 2015-03-09 2021-04-09 华为技术有限公司 确定声道间时间差参数的方法和装置
WO2018045517A1 (zh) 2016-09-07 2018-03-15 深圳前海达闼云端智能科技有限公司 一种VoLTE通信语音编码调整的方法和服务基站
CN106782504B (zh) * 2016-12-29 2019-01-22 百度在线网络技术(北京)有限公司 语音识别方法和装置
US11181396B2 (en) * 2018-04-10 2021-11-23 Hemy8 Sa Noise-resistant intermittently operating incremental position sensor

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5717824A (en) * 1992-08-07 1998-02-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear predictor with multiple codebook searches
KR100282141B1 (ko) * 1993-12-08 2001-02-15 구자홍 영상 부호화기의 시공간 전치 필터
US5657422A (en) * 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
FR2734389B1 (fr) * 1995-05-17 1997-07-18 Proust Stephane Procede d'adaptation du niveau de masquage du bruit dans un codeur de parole a analyse par synthese utilisant un filtre de ponderation perceptuelle a court terme
JP2806308B2 (ja) * 1995-06-30 1998-09-30 日本電気株式会社 音声復号化装置
EP0756267A1 (de) * 1995-07-24 1997-01-29 International Business Machines Corporation Methode und System zur Stille-Entfernung in Sprachübertragung
JP4005154B2 (ja) * 1995-10-26 2007-11-07 ソニー株式会社 音声復号化方法及び装置
US5794199A (en) * 1996-01-29 1998-08-11 Texas Instruments Incorporated Method and system for improved discontinuous speech transmission
DE69730779T2 (de) * 1996-06-19 2005-02-10 Texas Instruments Inc., Dallas Verbesserungen bei oder in Bezug auf Sprachkodierung
US5960389A (en) * 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
US6202046B1 (en) * 1997-01-23 2001-03-13 Kabushiki Kaisha Toshiba Background noise/speech classification method
US6073092A (en) * 1997-06-26 2000-06-06 Telogy Networks, Inc. Method for speech coding based on a code excited linear prediction (CELP) model
TW376611B (en) * 1998-05-26 1999-12-11 Koninkl Philips Electronics Nv Transmission system with improved speech encoder
US6173257B1 (en) * 1998-08-24 2001-01-09 Conexant Systems, Inc Completed fixed codebook for speech encoder
US6240386B1 (en) * 1998-08-24 2001-05-29 Conexant Systems, Inc. Speech codec employing noise classification for noise compensation
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
US6477502B1 (en) * 2000-08-22 2002-11-05 Qualcomm Incorporated Method and apparatus for using non-symmetric speech coders to produce non-symmetric links in a wireless communication system

Also Published As

Publication number Publication date
DE69932575D1 (de) 2006-09-14
CN1143265C (zh) 2004-03-24
EP0998741A2 (de) 2000-05-10
US6985855B2 (en) 2006-01-10
TW376611B (en) 1999-12-11
CN1273663A (zh) 2000-11-15
US6363340B1 (en) 2002-03-26
EP0998741B1 (de) 2006-08-02
KR100643116B1 (ko) 2006-11-10
JP2002517022A (ja) 2002-06-11
KR100713677B1 (ko) 2007-05-02
WO1999062057A2 (en) 1999-12-02
WO1999062057A3 (en) 2000-01-27
US20020123885A1 (en) 2002-09-05
KR20060053018A (ko) 2006-05-19
KR20010022187A (ko) 2001-03-15

Similar Documents

Publication Publication Date Title
DE69932575T2 (de) Sprachkodierer und sprachdekodierer
DE69910240T2 (de) Vorrichtung und verfahren zur wiederherstellung des hochfrequenzanteils eines überabgetasteten synthetisierten breitbandsignals
DE69233502T2 (de) Vocoder mit veränderlicher Bitrate
DE60024123T2 (de) Lpc-harmonischer sprachkodierer mit überrahmenformat
DE602004004219T2 (de) Multiratenkodierung
DE60121405T2 (de) Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen
DE60026660T2 (de) Fehlererkennung und Fehlerverdeckung für kodierte Sprachdaten
DE60219351T2 (de) Signaländerungsverfahren zur effizienten kodierung von sprachsignalen
DE60120766T2 (de) Indizieren von impulspositionen und vorzeichen in algebraischen codebüchern zur codierung von breitbandsignalen
DE602004003610T2 (de) Halbrätiger Vocoder
DE60006271T2 (de) Celp sprachkodierung mit variabler bitrate mittels phonetischer klassifizierung
DE69932593T2 (de) Dekodierungsverfahren und system mit einem adaptiven postfilter
DE69531642T2 (de) Synthese eines Anregungssignals bei Ausfall von Datenrahmen oder Verlust von Datenpaketen
DE60019268T2 (de) Breitbandiges audio-übertragungssystem
DE60011051T2 (de) Celp-transkodierung
DE69932460T2 (de) Sprachkodierer/dekodierer
DE69731588T2 (de) Coderienrichtung mit verringerter komplexität für ein signalübertragungssystem
DE60012760T2 (de) Multimodaler sprachkodierer
DE69936702T2 (de) Übertragungssystem zum senden von einem haupt- und einem hilfssignal
DE60133757T2 (de) Verfahren und vorrichtung zur kodierung von stimmloser sprache
DE60027956T2 (de) Sprachkodierung mit variabler BIT-Rate
DE10296562T5 (de) Rauschunterdrückung
DE3710664A1 (de) System zum uebertragen eines sprachsignals
DE60027012T2 (de) Verfahren und vorrichtung zur verschachtelung der quantisierungsverfahren der spektralen frequenzlinien in einem sprachkodierer
DE69033510T3 (de) Numerischer sprachcodierer mit verbesserter langzeitvorhersage durch subabtastauflösung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee