DE69718307T2 - Verfahren und zusammenstellung zur wiederherstellung eines empfangenen sprachsignals - Google Patents
Verfahren und zusammenstellung zur wiederherstellung eines empfangenen sprachsignalsInfo
- Publication number
- DE69718307T2 DE69718307T2 DE69718307T DE69718307T DE69718307T2 DE 69718307 T2 DE69718307 T2 DE 69718307T2 DE 69718307 T DE69718307 T DE 69718307T DE 69718307 T DE69718307 T DE 69718307T DE 69718307 T2 DE69718307 T2 DE 69718307T2
- Authority
- DE
- Germany
- Prior art keywords
- signal
- received signal
- speech
- received
- arrangement according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 55
- 230000005284 excitation Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 14
- 230000007774 longterm Effects 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 239000000872 buffer Substances 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000002829 reductive effect Effects 0.000 claims description 5
- 230000001052 transient effect Effects 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 239000000523 sample Substances 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 13
- 238000005562 fading Methods 0.000 description 10
- 238000001228 spectrum Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005336 cracking Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 210000003437 trachea Anatomy 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Mobile Radio Communication Systems (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Monitoring And Testing Of Transmission In General (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren zum Rekonstruieren eines Sprachsignals, das über einen Funkkanal übertragen worden ist. Der Funkkanal überträgt entweder vollständig analoge Sprachinformation oder digital codierte Sprachinformation. In diesem letzteren Fall ist jedoch die Sprachinformation keine mit einer linearen Vorhersagecodierung codierte Sprache; anders ausgedrückt ist nicht angenommen, dass die Sprachinformation in einem linearen Vorhersage-Sprachcodierer auf der Senderseite verarbeitet worden ist. Genauer gesagt betrifft die Erfindung ein Verfahren zum Wiedererzeugen aus einem empfangenen Sprachsignal, das möglicherweise Störungen, wie beispielsweise einem Rauschen, einer Interferenz oder einem Fading bzw. Schwund, ausgesetzt worden sein kann, eines Sprachsignals, bei welchem die Effekte dieser Störungen minimiert worden sind.
- Die Erfindung betrifft auch eine Anordnung zum Ausführen des Verfahrens.
- Es ist bei der Übertragung von digitalisierter Sprachinformation von einem Sender zu einem Empfänger bekannt, auf der Senderseite zu codieren und zu decodieren und die Sprachinformation auf der Empfängerseite gemäß einem linearen Vorhersageverfahren zu decodieren. LPC (LPC = Linear Predictive Coding = lineare Vorhersagecodierung) ist ein energetisches Verfahren zum Analysieren von Sprachinformation, da es ermöglicht, dass eine gute Sprachqualität bereits bei niedrigen Bitraten erreicht wird.
- Ein lineares Vorhersagecodieren LPC erzeugt zuverlässige Schätzungen von Sprachparametern, während es gleichzeitig relativ effektiv berechnend ist. GSM EFR (GSM = Global System for Mobile communication = globales System für mobile Kommunikation; EFR = Enhanced Full Rate = verstärkte vollständige Rate), nämlich die GSM-Standards, die einen Sprachcodierer für eine vollständige Rate verbesserten, bilden ein Beispiel einer linearen Vorhersagecodierung LPC. Diese Codierung ermöglicht, dass der Empfänger eines Sprachsignals, das beispielsweise durch Funk übertragen worden sein kann, bestimmte Typen von Fehlern zu korrigieren, die bei der Übertragung aufgetreten sind, und andere Typen von Fehlern zu verbergen. Die Verfahren einer Framesbustitution und einer Fehlerstummschaltung oder - unterdrückung, die im Vorschlag GSM EFR 06.61, "Substitution and muting of lost frames for enhanced full rate speech traffic channels", ETSI, 1966 und in ITU Study Group 15 contribution to question (= Beitrag zur Frage) 5/15, "G.728 Decoder Modifications for Frame Erasure Concealment", AT&T, Februar 1995 beschrieben sind, basierten auf dem Standard G.728, "Coding of speech at 16 kbps using Low Delay - Code Excited Linear Prediction (LC-CELP)", ITU, Genf, 1992, können als Beispiele von Prozeduren dieser Art angegeben werden. Beispielsweise lehrt die US-Patentbeschreibung 5,233, 660 einen digitalen Sprachcodierer und einen digitalen Sprachdecodierer, die gemäß dem LD-CELP-Prinzip arbeiten.
- Weil Sprachinformation gemäß alternativer Codieralgorithmen codiert ist, wie beispielsweise einer Pulscodemodulation PCM, ist es bekannt, das vorangehende Datenwort zu wiederholen, wenn ein Fehler in einem gegebenen Datenwort auftritt. Der Artikel "Waveform Substitution Techniques for Recovering Missing Speech Segments in Packet Voice Communications", IEEE Transactions on Acoustics, Speech and Signal Processing, Vol. ASSP-34, Nr. 6, Dez. 1986, S. 1440-1447 von David J. Goodman et al. beschreibt, wie Sprachinformation, die bei einer PCM-Übertragung zwischen einem Sender und einem Empfänger verloren worden ist, auf der Empfängerseite durch Information ersetzt wird, die aus einer früher empfangenen Information extrahiert worden ist.
- Im Fall von Systemen, bei welchen Sprachinformation gemäß einer adaptiven differentiellen Pulscodemodulation ADPCM moduliert ist, sind mehrere Verfahren zum Unterdrücken von Fehlern und zum Beschränken von Signalamplituden bekannt, wobei der Zustand in Decodierfiltern modifiziert wird. M. Suzuki und S. Kubota beschreiben im Artikel "A Voice Transmission Quality Improvement Scheme for Personal Communication Systems - Super Mute Scheme", NTT Wireless Systems Laboratories, Vol. 4, 1995, S. 713-717 ein Verfahren zum Dämpfen des empfangenen Signals bei der ADPCM- Übertragung von Sprachinformation, wenn Daten fehlerhaft übertragen worden sind.
- Die europäische Patentanmeldung EP-A-0 647 038 offenbart ein Ersetzen von Rausch-Sprachframes bei einem Decodierer während eines Fadings durch vorhergesagte Sprachframes unter Verwendung eines LPC-Modells.
- Die vorliegende Erfindung schafft eine Lösung für diese Probleme, die in analogen Funkkommunikationssystemen und in bestimmten digitalen drahtlosen Telekommunikationssystemen verursacht werden, wie beispielsweise bei DECT (DECT = Digital European Cordless Telecommunications = digitale europäische drahtlose Telekommunikation), wobei das Radiosignal bzw. Funksignal Störungen ausgesetzt ist. Der klickende Klang, der dann auftritt, wenn ein empfangenes analoges Funksignal zu schwach wird und im Rauschen untergeht, wie beispielsweise aufgrund eines Fadings, ist ein Beispiel für ein solches Problem.
- Das Klicken und "Krachen", welches dann erzeugt wird, wenn ein vorangehendes Datenwort in einem digitalisierten Sprachsignal aufgrund einer Registrierung eines Fehlers im zuletzt empfangenen Datenwort wiederholt wird, ist ein Beispiel für ein weiteres Problem.
- Ein weiteres Problem betrifft die Unterbrechung, die dann auftritt, wenn ein empfangenes digitalisiertes Sprachsignal stumm geschaltet oder unterdrückt wird, weil die Fehlerrate in den empfangenen Datenworten viel zu hoch ist.
- Demgemäß besteht eine Aufgabe der vorliegenden Erfindung darin, aus einem empfangenen Sprachsignal, das während seiner Übertragung von einem Sender zu einem Empfänger Störungen ausgesetzt worden sein kann, ein Sprachsignal zu erzeugen, bei welchem die Effekte dieser Störungen minimiert sind. Diese Störungen können beispielsweise durch Rauschen, eine Interferenz oder ein Fading verursacht worden sein.
- Diese Aufgabe wird gemäß der vorgeschlagenen Erfindung dadurch erreicht, dass aus dem empfangenen Sprachsignal mit der Hilfe einer Signalmodellierung ein geschätztes Signal erzeugt wird, das von einem Qualitätsparameter abhängt, der die Qualität des empfangenen Sprachsignals bezeichnet. Das empfangene Sprachsignal und das geschätzte Sprachsignal werden dann, gemäß einer variablen Beziehung kombiniert, die auch durch den Qualitätsparameter bestimmt wird, und bildet ein rekonstruiertes Sprachsignal. Wenn Empfangsbedingungen eine Änderung bezüglich der Sprachqualität des empfangenen Sprachsignals verursachen, wird die vorgenannte Beziehung geändert und wird die Qualität des rekonstruierten Sprachsignals erneut gespeichert, um dadurch eine im Wesentlichen einheitliche oder konstante Qualität zu erhalten. Das erfinderische Verfahren ist durch die Merkmale charakterisiert die im folgenden Anspruch 1 aufgezeigt ist.
- Eine vorgeschlagene Anordnung funktioniert bzw. arbeitet zum Rekonstruieren eines Sprachsignals aus einem empfangenen Sprachsignal. Die Anordnung enthält eine Signalmodellierungseinheit, in welcher ein geschätztes Sprachsignal entsprechend vorweggenommenen zukünftigen Werten des empfangenen Sprachsignal erzeugt wird, und eine Signalkombiniereinheit, in welcher das empfangene Signal und das abgeschätzte Sprachsignal gemäß einer variablen Beziehung kombiniert werden, die durch eine Qualitätsparameter bestimmt wird. Die vorgeschlagene Vorrichtung ist durch die Merkmale charakterisiert, die im Anspruch 21 aufgezeigt sind.
- Durch Rekonstruieren eines empfangenen analogen oder digitalisierten Sprachsignals unter Verwendung statistischer Eigenschaften des Sprachsignals kann die durch den Empfänger erfahrene Sprachqualität im Vergleich mit der Sprachqualität beachtlich verbessert werden, die bisher mit der Hilfe der früher bekannten Lösungen bei analogen Systemen bzw. digitalen Systemen zu erreichen möglich gewesen ist, die eine PCM-Übertragung oder eine ADPCM-Übertragung verwenden.
- Weil eine Rekonstruktion des empfangenen Sprachsignals die statistischen Eigenschaften des Sprachsignals in Betracht zieht, ist es auch möglich den klickenden und krachenden Klang zu vermeiden, der beispielsweise bei PCM-Übertragungen und ADPCM-Übertragungen erzeugt wird, wenn ein vorangehendes Datenwort im Sprachsignal aufgrund einer Registrierung eines Fehlers in dem Datenwort wiederholt wird, das zuletzt empfangen wurde.
- Die Unterbrechungen, die dann auftreten, wenn ein empfangenes digitalisiertes Sprachsignal stumm geschaltet wird, weil die Fehlerrate im empfangenen Datenwort exzessiv hoch ist, können auch dadurch vermieden werden, dass statt dessen bei solchen Gelegenheiten nut das abgeschätzte Sprachsignal, das mit dem vorgeschlagenen Verfahren erhalten wird, verwendet wird.
- Fig. 1 stellt ein Codieren und ein Decodieren von Sprachinformation mit der Hilfe einer linearen Vorhersagecodierung (LPC) auf eine bekannte Weise dar;
- Fig. 2 stellt im Prinzip dar, wie Sprachinformation gemäß dem vorgeschlagenen Verfahren gesendet, empfangen und rekonstruiert wird;
- Fig. 3 stellt ein Beispiel eines Kanalmodells dar, das bei dem erfinderischen Verfahren verwendet werden kann;
- Fig. 4 ist ein Blockschema, das die Signalrekonstruktionseinheit in Fig. 2 darstellt;
- Fig. 5 ist ein Blockschema, das die vorgeschlagene Signalmodellierungseinheit in Fig. 4 darstellt;
- Fig. 6 ist ein Blockschema, das die Erregungs- Erzeugungseinheit in Fig. 5 darstellt;
- Fig. 7 ist ein Blockschema, das die vorgeschlagene Signalkombiniereinheit in Fig. 4 darstellt;
- Fig. 8 ist ein Ablaufdiagramm, das ein erstes Ausführungsbeispiel des erfinderischen Signalkombinierverfahrens darstellt, das in der Signalkombiniereinheit in Fig. 7 angewendet wird;
- Fig. 9 stellt ein Beispiel eines Ergebnisses dar, das dann erhalten werden kann, wenn dem Ablaufdiagramm in Fig. 8 gefolgt wird;
- Fig. 10 ist ein Ablaufdiagramm, das ein zweites Ausführungsbeispiel des erfinderischen Signalkombinierverfahrens darstellt, das in der Signalkombiniereinheit in Fig. 7 angewendet wird;
- Fig. 11 stellt ein Beispiel eines Ergebnisses dar, das dann erhalten werden kann, wenn dem Ablaufdiagramm in Fig. 10 gefolgt wird;
- Fig. 12 stellt ein Beispiel davon dar, wie ein Qualitätsparameter für ein empfangenes Sprachsignal über eine Sequenz von empfangenen Sprachabtastungen variiert;
- Fig. 13 ist ein Diagramm, das die Signalamplitude des empfangenen Sprachsignals darstellt, auf das in Fig. 12 Bezug genommen ist;
- Fig. 14 ist ein Diagramm, das die Signalamplitude des in Fig. 13 gezeigten Sprachsignals darstellt, wobei das Sprachsignal gemäß dem vorgeschlagenen Verfahren rekonstruiert worden ist;
- Fig. 15 ist ein Blockschema, das eine Anwendung der erfinderischen Signalrekonstruktionseinheit in einer analogen Sender/Empfänger-Einheit darstellt; und
- Fig. 15 ist ein Blockschema, das die Anwendung der erfinderischen Signalrekonstruktionseinheit in einer Sender/Empfänger-Einheit darstellt, welche zum Senden und Empfangen von digitalisierter Sprachinformation beabsichtigt ist.
- Die Erfindung wird nun detaillierter unter Bezugnahme auf vorgeschlagene Ausführungsbeispiele davon und auch unter Bezugnahme auf die beigefügten Zeichnungen beschrieben werden.
- Fig. 1 stellt ein Codieren von menschlicher Sprache in der Form von Sprachinformation S mit der Hilfe eines linearen Vorhersagecodierens LPC auf eine bekannte Weise dar. Das lineare Vorhersagecodieren LPC nimmt an, dass das Sprachsignal 3 durch einen Tongenerator 100 denkbar erzeugt werden kann, der in einem Resonanzrohr 110 angeordnet ist. Der Tongenerator 100 findet eine Entsprechung in den menschlichen Stimmbändern und der menschlichen Luftröhre, die zusammen mit dem Mundraum das Resonanzrohr 110 bilden. Der Tongenerator 100 ist durch die Parameter der Intensität und der Frequenz charakterisiert und ist bei dieser Sprachmodellerregung mit e bezeichnet und ist durch ein Quellensignal K dargestellt. Das Resonanzrohr 110 ist durch seine Resonanzfrequenzen, die sogenannten Formanten, die durch ein Kurzzeit-Spektrum 1/A beschrieben sind, charakterisiert.
- Beim linearen Vorhersagecodierprozess LPC wird das Sprachsignal S in einer Analysiereinheit 120 durch Schätzen und Eliminieren des zugrundeliegenden Kurzzeit-Spektrums 1/A und durch Berechnen der Erregung e des übrigen Teils des Signals analysiert, d. h. der Intensität und der Frequenz. Eine Elimination des Kurzzeit-Spektrums 1/A wird in einem sogenannten inversen Filter 140 mit einer Übertragungsfunktion A(z) bewirkt, die mit der Hilfe von Koeffizienten in einem Vektor a implementiert ist, der in einer LPC-Analysiereinheit 180 auf der Basis des Sprachsignals 5 erzeugt worden ist. Das Restsignal, d. h. das Ausgangssignal des inversen Filters, ist als übrige bzw. restliche R. Koeffizienten e(n) bezeichnet, und ein Seitensignal c, das jeweils den Rest R und das Kurzzeit- Spektrum 1/A beschreibt, werden zu einem Synthesizer 130 übertragen. Das Sprachsignal wird im Synthesizer 130 durch einen Prozess rekonstruiert, der das umgekehrte des Prozesses ist, der beim Codieren in der Analysiereinheit 120 verwendet wurde. Die durch eine Analyse in einer Erregungs- Analysiereinheit 150 erhaltene Erregung e(n) wird zum Erzeugen eines geschätzten Quellensignals in einer Erregungseinheit 160, ê, verwendet. Das Kurzzeit-Spektrum 1/A, das durch die Koeffizienten im Vektor A beschrieben wird, wird in einem LPC-Synthesizer 190 mit der Hilfe von Information vom Seitensignal c erzeugt. Der Vektor A wird dann zum Erzeugen eines Synthesefilters 170 mit einer Übertragungsfunktion 1/A(z) verwendet, das das Resonanzrohr 110 darstellt, durch welches das geschätzte Quellensignal gesendet wird und womit das rekonstruierte Sprachsignal erzeugt wird. Weil sich die Kennlinie des Sprachsignals S mit der Zeit ändert, ist es nötig, den zuvor beschriebenen Prozess von 30 bis 50-mal pro Sekunde zu wiederholen, um eine akzeptable Sprachqualität und eine gute Kompression zu erreichen.
- Das Grundproblem bei einer linearen Vorhersagecodierung LPC besteht im Bestimmen eines Kurzzeit-Spektrums 1/A aus dem Sprachsignal S. Das Problem wird mit der Hilfe einer Differentialgleichung gelöst, die die Abtastung ausdrückt, die als Linearkombination aus vorangehenden Abtastungen für jede Abtastung des Sprachsignals S betrachtet wird. Dies ist der Grund dafür, warum das Verfahren lineare Vorhersagecodierung LPC genannt wird. Die Koeffizienten a in Differentialgleichungen, die ein Kurzzeit-Spektrum 1/A beschreiben, müssen bei der linearen Vorhersageanalyse abgeschätzt werden, die in der LPC-Analysiereinheit 180 ausgeführt wird. Diese Abschätzung wird durch Minimieren des quadratischen Mittelwerts der Differenz δs zwischen dem aktuellen Sprachsignal S und dem vorhergesagten Sprachsignal durchgeführt. Das Minimierungsproblem wird durch die folgenden zwei Schritte gelöst. Zuerst wird eine Matrix der Koeffizientenwerte berechnet. Ein Feld von linearen Gleichungen, nämlich sogenannten Vorhersagegleichungen, wird dann gemäß einem Verfahren gelöst, das, eine Konvergenz und eine eindeutige Lösung garantiert.
- Beim Erzeugen von Stimmklängen ist ein Resonanzrohr 110 gut dazu fähig, die Luftröhre und den Mundraum darzustellen, obwohl im Fall von nasalen Klängen die Nase einen lateralen Hohlraum, der nicht in das Resonanzrohr 110 moduliert werden kann. Jedoch können einige Teile dieser Klänge durch den Rest R eingefangen werden, während übrige Teile mit der Hilfe einer einfachen linearen Vorhersagecodierung LPC nicht richtig übertragen werden können.
- Bestimmte Konsonantenklänge werden durch einen turbulenten Luftfluss erzeugt, der in einem pfeifenden Geräusch resultiert. Dieser Klang kann auch in den Vorhersagegleichungen dargestellt werden, obwohl die Darstellung etwas anders sein wird, weil der Klang unterschiedlich von stimmhaften Klängen nicht periodisch ist. Folglich muss der Algorithmus LPC bei jedem Sprachframe entscheiden, ob der Klang stimmhaft ist oder nicht, was im Fall von vokalen Klängen am häufigsten ist, oder stimmlos, wie im Fall von einigen Konsonanten. Wenn ein gegebener Klang als stimmhafter Klang beurteilt wird, werden seine Frequenz und seine Intensität abgeschätzt, wohingegen dann, wenn der Klang als stimmlos beurteilt wird, nur die Intensität abgeschätzt wird. Normalerweise wird die Frequenz durch einen Ziffernwert bezeichnet, und die Intensität durch einen anderen Ziffernwert, und Information in Bezug auf den Typ von betrachtetem Klang wird mit der Hilfe eines Informationsbits gegeben, das beispielsweise auf logisch Eins eingestellt bzw. gesetzt wird, wenn der Klang stimmhaft ist, und auf logisch Null, wenn der Ton stimmlos ist. Diese Daten sind im durch die LPC-Analysiereinheit 180 erzeugten Seitensignal c enthalten. Andere Information, die in der LPC- Analysiereinheit 180 erzeugt und im Seitensignal c enthalten sein kann, besteht aus Koeffizienten, die jeweils die Kurzzeit-Vorhersage STP und die Langzeit-Vorhersage LTP des Sprachsignals S bezeichnen, den Verstärkungswerten, die sich auf früher übertragene Information bezieht, Information jeweils in Bezug auf einen Sprachklang und einen Nichtsprachklang und Information diesbezüglich, ob das Sprachsignal lokal stationär oder lokal vorübergehend ist.
- Sprachklänge, die aus einer Kombination von stimmhaften und stimmlosen Klängen bestehen, können durch eine einfache lineare Vorhersagecodierung LPC nicht geeignet bzw. adäquat dargestellt werden. Folglich werden diese Klänge beim Rekonstruieren des Sprachsignals etwas fehlerhaft reproduziert bzw. wiedergegeben werden.
- Diese Fehler, die immer unvermeidbar auftreten, wenn das Kurzzeit-Spektrum 1/A aus dem Sprachsignal S bestimmt wird, resultieren darin, dass mehr Information in den Rest R codiert wird, als es theoretisch nötig ist. Beispielsweise werden die früher genannten nasalen Klänge durch den Rest R dargestellt werden. Dies resultiert wiederum darin, dass der Rest R wesentliche Information diesbezüglich enthält, wie der Sprachklang klingen soll. Eine lineare Vorhersagesprachsynthese würde ein unzufriedenstellendes Ergebnis beim Nichtvorhandensein dieser Information ergeben. Somit ist es nötig, den Rest R zu übertragen, um eine hohe Sprachqualität zu erreichen. Dies wird normalerweise mit der Hilfe eines sogenannten Codebuchs bewirkt, das eine Tabelle enthält, die die meisten Restsignale R abdeckt. Beim Codieren wird jeder erhaltene Rest R mit allen Werten verglichen, die im Codebuch vorhanden sind, und der Wert, der dem berechneten Wert am nächsten ist, wird ausgewählt. Der Empfänger hat ein Codebuch, das identisch zu dem Codebuch ist, das durch den Sender Verwendet wird, und folglich muss nur der Code VQ, der den relevanten Rest R bezeichnet, übertragen werden. Auf einen Empfang des Signals hin wird der Restwert R entsprechend dem Code VQ aus dem Empfänger-Codebuch genommen, und ein entsprechendes Synthesefilter 1/A(z) wird erzeugt. Diese Art von Sprachübertragung wird als durch einen Code erregte lineare Vorhersage CELP bezeichnet. Das Codebuch muss groß genug sein, um alle wesentlichen Varianten von Resten R zu enthalten, während es gleichzeitig so klein wie möglich ist, da dies Eine Codbuch-Suchzeit minimieren und die aktuellen Codes kurz machen wird. Durch Verwenden zweier kleiner Codebücher, von welchen eines permanent ist und das andere adaptiv ist, wird ermöglicht, dass viele Codes erhalten werden, und wird auch ermöglicht, dass Durchsuchungen schnell ausgeführt werden. Das permanente Codebuch enthält eine Vielzahl von typischen Restwerten R und kann damit relativ klein gemacht werden. Das adaptive Codebuch ist ursprünglich leer und wird progressiv mit Kopien von früheren Resten R aufgefüllt, die unterschiedliche Verzögerungsperioden haben. Das adaptive Codebuch wird somit als Schieberegister funktionieren, und der Wert der Verzögerung wird die Tonhöhe des erzeugten Klangs bestimmen.
- Fig. 2 zeigt, wie Sprachinformation S gesendet, empfangen und rekonstruiert rrec wird, und zwar gemäß dem vorgeschlagenen Verfähren. Ein ankommendes Sprachsignal S wird in einer Moduliereinheit 210 in einem Sender 200 moduliert. Ein moduliertes Signal Smod wird dann zu einem Empfänger 220 gesendet, und zwar beispielsweise über einer Funkschnittstelle. Jedoch wird das modulierte Signal Smod während seiner Übertragung sehr wahrscheinlich unterschiedlichen Arten von Störungen D, wie beispielsweise einem Rauschen, einer Interferenz und einem Fading, u. a., ausgesetzt sein. Das Signal S'mod, das im Empfänger 220 empfangen wird, wird sich daher von dem Signal Smod unterscheiden, das vom Sender 200 gesendet wurde. Das empfangene Signal Smod wird in einer Demoduliereinheit 230 demoduliert, um damit ein empfangenes Sprachsignal r zu erzeugen. Die Demoduliereinheit 230 erzeugt auch einen Qualitätsparameter q, der die Qualität des empfangenen Signals S'mod bezeichnet, und damit indirekt die vorausgesetzte Sprachqualität des empfangenen Sprachsignals r. Eine Signalrekonstruktionseinheit 240 erzeugt ein rekonstruiertes Sprachsignal rrec von im Wesentlichen einheitlicher oder konstanter Qualität auf der Basis des empfangenen Sprachsignals r und des Qualitätsparameters q.
- Das modulierte Signal Smod kann ein funkfrequenzmoduliertes Signal sein, das entweder beispielsweise mit einer Frequenzmodulation FM vollständig analog moduliert ist, oder gemäß einem der Prinzipien FSK (FSK = Frequency Shift Keying = Frequenzumtastung), PSK (PSK = Phase Shift Keying = Phasenumtastung), MSK (MSK = Minimum Shift Keying = Minimumumtastung) oder ähnlichem digital moduliert ist. Der Sender und der Empfänger können in sowohl einer mobilen Station als auch einer Basisstation enthalten sein.
- Die Störungen D, welchen ein Funkkanal oft ausgesetzt ist, leiten sich von einer Mehrwegeausbreitung des Funksignals ab. Als Ergebnis einer Mehrwegeausbreitung wird die Signalstärke an einer gegebenen Stelle aus der Summe aus zwei oder mehreren Radiostrahlen bzw. Funkstrahlen bestehen, die um unterschiedliche Abstände vom Sender gewandert sind und daher in Bezug zueinander zeitlich verschoben sind. Die Funkstrahlen können konstruktiv oder destruktiv addiert werden, und zwar in Abhängigkeit von der Zeitverschiebung. Das Funksignal wird in dem Fall einer konstruktiven Addition verstärkt und in dem Fall einer destruktiven Addition geschwächt, wobei das Signal im schlimmsten Fall völlig ausgelöscht wird. Das Kanalmodell, das diese Art von Funkumgebung beschreibt, wird das Rayleigh-Modell genannt und ist in Fig. 3 dargestellt. Eine Signalstärke γ ist in einem logarithmischen Maßstab entlang der vertikalen Achse des Diagramms angegeben, während eine Zeit t in einem linearen Maßstab entlang der horizontalen Achse angegeben ist. Der Wert γ&sub0; bezeichnet den Langzeit-Mittelwert der Signalstärke γ und γt bezeichnet den Signalpegel, bei welchem die Signalstärke γ so niedrig ist, dass sie in einer Störung des übertragenen Sprachsignals resultiert. Während jeweiliger Zeitintervalle tA und tB ist der Empfänger bei einer Stelle angeordnet, bei welcher zwei oder mehrere Funkstrahlen destruktiv addiert sind und das Funksignal einem sogenannten "Fading dip" (= Schwundsenke) unterzogen wird. Es erfolgt u. a. während diesen Zeitintervallen, dass die Verwendung einer geschätzten Version des empfangenen Sprachsignals bei der Rekonstruktion des Signals gemäß dem erfinderischen Verfahren anwendbar ist. Wenn der Empfänger sich mit konstanter Geschwindigkeit durch eine statische Funkumgebung bewegt, wird der Abstand Δt zwischen zwei direkt benachbarten Schwundsenken tA und tB allgemein konstant sein und wird tA in derselben Größenordnung wie tB sein. Sowohl Δt als auch tA und tB sind von der Geschwindigkeit des Empfängers und der Wellenlänge des Funksignals abhängig. Der Abstand zwischen zwei Schwundsenken ist normalerweise eine halbe Wellenlänge, d. h. etwa 17 cm bei einer Trägerfrequenz von 900 MHz. Wenn der Empfänger sich mit einer Geschwindigkeit von 1 m/s bewegt, wird Δt grob gleich 0,17 Sekunden sein und wird eine Schwundsenke selten eine Dauer von mehr als 20 Millisekunden haben.
- Fig. 4 stellt allgemein dar, wie die Signalrekonstruktionseinheit 240 in Fig. 2 ein rekonstruiertes Sprachsignal rrec erzeugt, und zwar gemäß dem vorgeschlagenen Verfahren. Ein empfangenes Sprachsignal r wird in eine Signalmodellierungseinheit 500 genommen, in welcher ein geschätztes Sprachsignal erzeugt wird. Das empfangene Sprachsignal r und das geschätzte Sprachsignal werden durch eine einzige Signalkombinationseinheit 700 empfangen, in welcher die Signale r und gemäß einem variablen Verhältnis kombiniert werden. Über das Verhältnis, gemäß welchem die Kombination bewirkt wird, wird durch einen Qualitätsparameter q entschieden, der auch in Signalkombinationseinheit 700 genommen wird. Der Qualitätsparameter q wird auch durch die Signalmodellierungseinheit 500 verwendet, wo er das Verfahren steuert, bei welchem das abgeschätzte Sprachsignal erzeugt wird. Der Qualitätsparameter q kann auf der gemessenen empfangenen Signalstärke RSS, einer Abschätzung des Signalpegels des erwünschten Funksignals C (C = Carrier = Träger) beim Verhältnis C/I gegenüber dem Signalpegel eines Störungssignals I (I = Interferer = Störer) oder einem Bitfehlerratensignal oder einem schlechten Framesignal, das aus dem empfangenen Funksignal erzeugt wird, basieren. Das rekonstruierte Sprachsignal rrec wird von der Signalkombinationseinheit 700 als die Summe eines gewichteten Werts des empfangenen Sprachsignals r und eines gewichteten Werts des geschätzten Sprachsignals geliefert, wobei die jeweiligen Gewichtungen für r und variiert werden können, um zu ermöglichen, dass das rekonstruierte Sprachsignal rrec vollständig aus einem der Signale r oder besteht.
- Fig. 5 ist ein Blockschema, das die Signalmodellierungseinheit 500 in Fig. 4 darstellt. Da empfangene Sprachsignal r wird in ein inverses Filter 510 genommen, in welchem das Signal r gemäß einer Übertragungsfunktion A(z) invers gefiltert wird, wobei das Kurzzeit-Spektrum 1/A eliminiert wird und der Rest R erzeugt wird. Inverse Filterkoeffizienten a werden in einer LPC/LTP- Analysiereinheit 520 auf der Basis des empfangenen Sprachsignals r erzeugt. Die Filterkoeffizienten a werden auch zu einem Synthesefilter 580 mit einer Übertragungsfunktion 1/A(z) geliefert. Die LPC/LTP- Analysiereinheit 520 analysiert das empfangene Sprachsignal r und erzeugt ein Seitensignal c und die Werte b und L, die jeweils Kennlinien des Signals r bezeichnen und Steuerparameter einer Erregungserzeugungseinheit 530 bilden. Das Seitensignal c enthält Information in Bezug auf eine Kurzzeit-Vorhersage STP bzw. eine Langzelt-Vorhersage LTP des Signals r, geeignete Verstärkungswerte für den Steuerparameter B, Information in Bezug auf einen Sprachklang bzw. einen Nichtsprachklang und Information in Bezug darauf, ob das Signal r lokal stationär oder vorübergehend ist, und wird zu einer Zustandsmaschine 540 geliefert, und die Werte b und L werden zur Erregungserzeugungseinheit 530 gesendet, in welcher ein geschätztes Quellensignal erzeugt wird.
- Die LPC/LTP-Analsyiereinheit 520 und die Erregungserzeugungseinheit 530 werden jeweils durch die Zustandsmaschine 540 durch das Medium von Steuersignalen s&sub1; und s&sub2;, s&sub3; und s&sub4; gesteuert, wobei die Ausgangssignale s&sub1;-s&sub6; der Zustandsmaschine 540 vom Qualitätsparameter q und vom Seitensignal c abhängen. Der Qualitätsparameter q steuert allgemein die LPC/LTP-Analysiereinheit 520 und die Erregungserzeugungseinheit 530 durch das Medium der Steuersignale s&sub1;-s&sub4; auf eine derartige Weise, dass die Langzeit-Vorhersage LTP des Signals r nicht aktualisiert werden wird, wenn die Qualität des empfangenen Signals r unter einem spezifischen Wert ist, und dass die Amplitude des geschätzten Quellensignals proportional zur Qualität des Signals r ist. Die Zustandsmaschine 540 liefert auch Gewichtungsfaktoren s&sub5; und s&sub6; zu jeweiligen Multiplizierern 550 und 560, in welchen der Rest R und das geschätzte Quellensignal gewichtet werden, bevor sie in einer Summiereinheit 570 summiert werden.
- Der Qualitätsparameter q steuert durch das Medium der Zustandsmaschine 540 und der Gewichtungsfaktoren s&sub5; und s&sub6; das Verhältnis, gemäß welchem der Rest R und das geschätzte Quellensignal in der Summiereinheit 570 kombiniert werden sollen und ein Summiersignal C bilden, so dass der Gewichtungsfaktor s&sub5; für den Rest R um so größer wird und der Gewichtungsfaktor s&sub6; für das geschätzte Quellensignal um so kleiner wird, je höher die Qualität des empfangenen Sprachsignals r ist. Der Gewichtungsfaktor s&sub5; wird mit abnehmender Qualität des empfangenen Sprachsignals r reduziert, und der Gewichtungsfaktor s&sub6; wird um ein entsprechendes Ausmaß erhöht, so dass die Summe von s&sub5; und s&sub6; immer konstant sein wird. Das Summiersignal C, wobei C = s&sub5;R + s&sub6; gilt, wird im Synthesefilter 580 gefiltert, um damit das geschätzte Sprachsignal zu bilden. Das Signal C wird auch zur Erregungserzeugungseinheit 530 zurückgebracht, in welcher es gespeichert wird, um historische Erregungswerte darzustellen.
- Da das inverse Filter 510 und das Synthesefilter 580 innewohnende Speichereigenschaften haben, ist es von Nutzen, die Koeffizienten dieser Filter nicht gemäß Eigenschaften des empfangenen Sprachsignals r während der Perioden zu aktualisieren, zu welchen die Qualität dieses Signals exzessiv niedrig ist. Ein solches Aktualisieren würde wahrscheinlich in einer nicht optimalen Einstellung der Filterparameter a resultieren, was wiederum in einem geschätzten Signal R von niedriger Qualität resultieren würde, und zwar selbst einige Zeit nachdem die Qualität des empfangenen Sprachsignals r einen höheren Pegel angenommen hat. Folglich erzeugt die Zustandsmaschine 540 gemäß einer verbesserten Variante der Erfindung die gewichteten Werte des empfangenen Sprachsignals r bzw. des geschätzten Sprachsignals r durch das Medium eines siebten und eines achten Steuersignals, wobei diese Werte summiert werden und beim Zulassen verwendet werden, dass die LPC/LPT-Analyse auf dem geschätzten Sprachsignal anstatt auf dem empfangenen Sprachsignal r basiert, wenn der Qualitätsparameter q unter einem vorbestimmten Wert qc ist, und um zuzulassen, dass die LPC/LPT-Analyse auf dem empfangenen Sprachsignal r basiert, wenn der Qualitätsparameter q den Wert qc übersteigt. Wenn q stabil über qc ist, wird das siebte Steuersignal immer auf logisch Eins eingestellt bzw. gesetzt, und das achte Signal auf logisch Null, wohingegen dann, wenn q stabil unter qc ist, das siebte Steuersignal auf logisch Null gesetzt wird, und das achte Signal auf logisch Eins gesetzt wird. Während dazwischenliegenden Übertragungsperioden teilt die Zustandsmaschine 540 Werte zwischen 0 und 1 zu den Steuersignalen in Bezug auf den aktuellen Wert des Qualitätsparameters q zu. Die Summe der Steuersignale ist jedoch immer gleich Eins.
- Die Übertragungsfunktionen des inversen Filters 510 und des Synthesefilter s 580 sind immer eine Inversion voneinander, d. h. A(z) und 1/A(z). Gemäß einem vereinfachten Ausführungsbeispiel der Erfindung ist das inverse Filter 510 ein Hochpassfilter mit festen Filterkoeffizienten a und ist das Synthesefilter 580 ein Tiefpassfilter basierend auf denselben festen Filterkoeffizienten a. Bei dieser vereinfachten Variante der Erfindung liefert die LPC/LTP- Analysiereinheit 520 somit immer dieselben Filterkoeffizienten a, und zwar ungeachtet des Erscheinens des empfangenen Sprachsignals r.
- Fig. 6 ist ein Blockschema, das die Erregungserzeugungseinheit in Fig. 5 darstellt. Die Werte b und L werden in eine Steuereinheit 610 genommen, die durch das Signal s&sub2; von der Zustandsmaschine 540 gesteuert wird. Der Wert b bezeichnet einen Faktor, mit welchem eine gegebene Abtastung ê(n + 1) von einem Speicherpuffer 620 multipliziert werden soll, und der Wert L bezeichnet eine Verschiebung entsprechend L-Abtastschritten in Rückwärtsrichtung in der Erregungsvorgeschichte, wovon eine gegebene Erregung ê(n) genommen werden soll. Die Erregungsvorgeschichte ê(n + 1), ê(n + 2), ..., ê(n + N) vom Signal C wird im Speicherpuffer 620 gespeichert. Die Speicherkapazität des Speicherpuffers 620 wird wenigstens 150 Abtastungen entsprechen, d. h. N = 150, und Information vom Signal C wird gemäß dem Schieberegisterprinzip gespeichert, wobei die älteste Information nach außen geschoben wird, d. h. in diesem Fall gelöscht wird, wenn neue Information hineingeschoben wird.
- Wenn die LPC/LTP-Analyse den betrachteten Klang als stimmhaften Klang beurteilt, gibt das Steuersignal s&sub2; der Steuereinheit 610 die Zustimmung zum Liefern der Werte b und L zum Speicherpuffer 620. Der Wert L, der aus der Langzeit- Vorhersage LTP des Sprachsignals r erzeugt wird, bezeichnet die Periodizität des Sprachsignals r, und der Wert b bildet einen Gewichtungsfaktor, mit welchem eine gegebene Abtastung ê(n + i) von der Erregungsvorgeschichte multipliziert werden soll, um ein geschätztes Quellensignal zur Verfügung zu stellen, das ein optimales geschätztes Sprachsignal erzeugt, und zwar durch das Medium des Summiersignals C. Die Werte b und L steuern somit die Art, auf welche Information vom Pufferspeicher 620 gelesen wird, und bilden dadurch ein Signal Hv.
- Wenn bei der LPC/LTP-Analyse ein aktueller Klang als stimmlos beurteilt wird, erfolgt eine Lieferung des Steuersignals s&sub2; zur Steuereinheit 610 anstelle eines Impulses zum Senden eines Signals n zu einem Zufallsgenerator 630, womit der Generator eine Zufallssequenz Hu erzeugt.
- Das Signal Hv und das Zufallssignal Hu werden in Multiplikationseinheiten 640 und 650 mit jeweiligen Faktoren s&sub3; und s&sub4; gewichtet und werden in einer Summiereinheit 660 summiert, wobei das geschätzte Quellensignal gemäß dem Ausdruck = s&sub5;Hv + s&sub6;Hu erzeugt wird. Wenn der aktuelle Sprachklang stimmhaft ist, wird der Faktor s&sub3; auf logisch Eins eingestellt und wird der Faktor s&sub4; auf logisch Null eingestellt, wohingegen dann, wenn der aktuelle Sprachklang stimmlos ist, der Faktor s&sub3; auf logisch Null eingestellt wird und der Faktor s&sub4; auf logisch Eins eingestellt wird. Bei einem Übergang von einem stimmhaften zu einem stimmlosen Klang wird s&sub3; während einer Anzahl von wechselseitig sequentiellen Abtastungen reduziert und wird s&sub4; zu einem entsprechenden Ausmaß erhöht, wohingegen beim Übergang von einem stimmlosen zu einem stimmhaften Klang s&sub4; und s&sub3; jeweils auf eine entsprechende Weise reduziert und erhöht werden.
- Das Summiersignal C wird zum Speicherpuffer 620 geliefert und aktualisiert damit die Erregungsvorgeschichte e(n) Abtastung für Abtastung.
- Fig. 7 stellt die Signalkombiniereinheit 700 in Fig. 4 dar, wobei das empfangene Sprachsignal r und das geschätzte Sprachsignal kombiniert werden. Zusätzlich zu diesen Signalen empfängt die Signalkombiniereinheit 700 auch den Qualitätsparameter q. Auf der Basis des Qualitätsparameters q erzeugt ein Prozessor 710 Faktoren α und β, durch welche das jeweilige empfangene Sprachsignal r und das geschätzte Sprachsignal in Multipliziereinheiten 720 und 730 multipliziert werden, bevor sie in der Summiereinheit 740 addiert werden, und bilden das rekonstruierte Sprachsignal rrec. Die jeweiligen Gewichtungsfaktoren α und β werden von Abtastung zu Abtastung in Abhängigkeit von dem Wert des Qualitätsparameters q variiert. Wenn die Qualität des empfangenen Sprachsignals r größer wird, wird der Gewichtungsfaktor α erhöht und wird der Gewichtungsfaktor β zu einem entsprechenden Ausmaß kleiner. Das Umgekehrte gilt dann, wenn die Qualität des empfangenen Sprachsignals r abfällt. Jedoch ist die Summe von α und β immer Eins.
- Das Ablaufdiagramm in Fig. 8 stellt dar, wie das empfangene Sprachsignal und das geschätzte Sprachsignal in der Signalkombiniereinheit 700 in Fig. 7 kombiniert werden, und zwar gemäß einem ersten Ausführungsbeispiel des erfinderischen Verfahren. Der Prozessor 710 der Signalkombiniereinheit 700 enthält eine Zählervariable n, die zwischen den Werten -1 und nt + 1 abgestuft sein kann. Der Wert nt ergibt die Anzahl von aufeinanderfolgenden Sprachabtastungen, während welchen der Qualitätsparameter q des empfangenen Funksignals unter ein Vorbestimmtes Qualitätspegel γm abfallen bzw. diesen übersteigen kann, bevor das rekonstruierte Signal rrec zu dem geschätzten Sprachsignal für das empfangene Sprachsignal r identisch sein wird, und während welchen Sprachabtastungen das rekonstruierte Sprachsignal rrec aus einer Kombination des empfangenen Sprachsignals r und des geschätzten Sprachsignals bestehen wird. Somit ist, je größer der Wert von nt ist, die Übergangsperiode tt zwischen den zweiten Signalen r und umso länger.
- In einem Schritt 800 wird der Zählervariable n der Wert nt/2 zugeteilt, um sicherzustellen, dass die Zählervariable n einen vernünftigen Wert haben wird, sollte das Ablaufdiagramm bei der Rekonstruktion der ersten Sprachabtastung bei einem Schritt 840 landen. Bei einem Schritt 805 empfängt die Signalkombiniereinheit 700 eine erste Sprachabtastung des empfangenen Sprachsignals r. Bei einem Schritt 810 wird festgestellt, ob ein gegebener Qualitätsparameter q einen vorbestimmten Wert übersteigt oder nicht. Bei diesem Beispiel ist zugelassen, dass die empfangenen Signalqualität den Leistungspegel γ des empfangenen Funksignals darstellt. Der Leistungspegel γ wird daher in einem Schritt 810 mit einem Leistungspegel γ&sub0; verglichen, der der Langzeit-Mittelwert des Leistungspegels γ des empfangenen Funksignals ist. Wenn γ höher als γ&sub0; ist, wird das rekonstruierte Sprachsignal rrec in einem Schritt 815 gleich dem empfangenen Sprachsignal r gemacht, wird die Zählervariable n in einem Schritt 820 auf logisch Eins eingestellt und wird ein Rücksprung im Ablaufdiagramm zum Schritt 805 durchgeführt. Sonst wird in einem Schritt 825 festgestellt, ob der Leistungspegel γ höher als ein vorbestimmter Pegel γt ist oder nicht, der der unteren Grenze einer akzeptierbaren Sprachqualität entspricht. Wenn γ nicht höher als γt ist, wird das rekonstruierte Sprachsignal rrec in einem Schritt 830 gleich dem geschätzten Sprachsignal gemacht, wird die Zählervariable n in einem Schritt 835 auf nt eingestellt und wird ein Rücksprung im Ablaufdiagramm zum Schritt 805 durchgeführt. Wenn im Schritt 825 herausgefunden werden sollte, dass γ höher als γt ist, wird das rekonstruierte Sprachsignal rrec in einem Schritt 840 als die Summe aus einem ersten Faktor α, multipliziert mit dem empfangenen Sprachsignal r, und einem zweiten Faktor β, multipliziert mit dem geschätzten Sprachsignal , berechnet. Bei diesem Beispiel gilt α = (nt - n)/nt und β = n/nt, und somit ist rrec durch den Ausdruck rrec = (nt - n) xr/nt + nx /nt gegeben. Die nächste Sprachabtastung des empfangenen Sprachsignals wird in einem Schritt 845 abgenommen, und es wird in einem Schritt 850 festgestellt, ob der entsprechende Leistungspegel γ des empfangenen Funksignals höher als der Pegel γm ist, der den arithmetischen Mittelwert von γ&sub0; und γt bezeichnet, d. h. γm = (γm + γt)/2, und wenn dies der Fall ist, wird die Zählervariable n in einem Schritt 855 um ein Inkrement nach unten gezählt, und es wird in einem Schritt 860 festgestellt, ob die Zählervariable n kleiner als Null ist oder nicht. Wenn im Schritt 860 herausgefunden wird, dass die Zählervariable n kleiner als Null ist, zeigt dies, dass der Leistungspegel γ den Wert γm während nt aufeinanderfolgenden Abtastungen überschritten hat und dass das rekonstruierte Sprachsignal rrec daher gleich dem empfangenen Sprachsignal r gemacht werden kann. Dem Ablaufdiagramm wird somit zum Schritt 815 gefolgt. Wenn im Schritt 860 herausgefunden wird, dass die Zählervariable n größer oder gleich Null ist, wird das Ablaufdiagramm zu einem Schritt 840 ausgeführt, und ein neues rekonstruiertes Sprachsignal rrec wird berechnet. Wenn im Schritt 850 der Leistungspegel γ niedriger als oder gleich γm ist, wird die Zählervariable n in einem Schritt 865 um Eins erhöht. Es wird dann in einem Schritt 870 festgestellt, ob die Zählervariable n größer als der Wert nt ist oder nicht, und wenn dies der Fall ist, zeigt dies an, dass der Signalpegel γ während nt aufeinanderfolgenden Abtastungen unter den Wert γm abgefallen ist und dass das rekonstruierte Sprachsignal rrec daher gleich dem geschätzten Sprachsignal gemacht werden sollte. Daher wird ein Rücksprung zum Schritt 830 im Ablaufdiagramm durchgeführt. Sonst wird das Ablaufdiagramm zum Schritt 840 ausgeführt, und ein neues rekonstruiertes Sprachsignal rrec wird berechnet.
- Fig. 9 stellt ein Beispiel eines Ergebnisses dar, das beim Ausführen des Ablaufdiagramms in Fig. 8 erhalten werden kann. Bei dem Beispiel ist nt auf 10 eingestellt worden. Der Leistungspegel γ des empfangenen Funksignals übersteigt während der ersten vier empfangenen Sprachabtastungen 1-4 den Langzeit-Mittelwert γ&sub0;. Folglich wird deshalb, weil das Ablaufdiagramm in Fig. 8 nur durch Schritte 800-820 läuft, die Zählervariable n während Abtastungen 2-5 gleich Eins sein. Somit wird das rekonstruierte Sprachsignal rrec während Abtastungen 1-4 identisch zum empfangenen Sprachsignal r sein. Das rekonstruierte Sprachsignal rrec wird während der folgenden 12 Sprachabtastungen 5-16 aus einer Kombination aus dem empfangenen Sprachsignal r und dem geschätzten Sprachsignal bestehen, weil der Leistungspegel γ des empfangenen Funksignals in Bezug auf diese Sprachabtastungen unter dem Langazeit-Mittelwert γ&sub0; des Leistungspegels des empfangenen Funksignals liegen wird. Beispielsweise wird das rekonstruierte Sprachsignal rrec oder die Sprachabtastung 5 durch den Ausdruck rrec = 0,9r + 0,1 gegeben sein, weil n = 1 gilt, und wird die Sprachabtastung 14 durch den Ausdruck rrec = 0,2r + 0,8 gegeben sein, weil n = 8 gilt.
- Das rekonstruierte Sprachsignal rrec wird im Fall einer Sprachabtastung 17-23 identisch zum geschätzten Sprachsignal sein, da der Leistungspegel γ des empfangenen Funksignals in Bezug auf die zehn (nt = 10) nächsten vorangehenden Abtastungen 7-16 unter den Wert γm abgefallen ist und der Leistungspegel γ des Funksignals in Bezug auf die Abtastungen 17-22 niedriger als der Wert γm ist. Das rekonstruierte Sprachsignal rrec wird während des Beendigens zweier Abtastungen 24 und 25 wiederum aus einer Kombination aus dem empfangenen Sprachsignal und dem geschätzten Sprachsignal γ bestehen, weil der Leistungspegel γ des empfangenen Funksignals in Bezug auf die Sprachabtastungen 23 und 24 den Leistungspegel γm übersteigt, aber unter den Langzeit- Mittelwert γ&sub0; abfällt. Es kann mittels eines Beispiels angegeben werden, dass das rekonstruierte Sprachsignal rrec für die Sprachabtastung 25 durch den Ausdruck rrec = 0,1r + 0,9 gegeben ist, weil n = 9 gilt.
- Das Ablaufdiagramm in Fig. 10 zeigt, wie das empfangene Sprachsignal r und das geschätzte Sprachsignal in der Signalkombiniereinheit 700 in Fig. 7 kombiniert werden, und zwar gemäß einem zweiten Ausführungsbeispiel des erfinderischen Verfahrens. Eine Variable n im Prozessor 710 kann bei diesem Ausführungsbeispiel auch zwischen den Werten -1 und nt + 1 abgestuft sein. Der Wert nt bezeichnet auch in diesem Fall die Anzahl von aufeinanderfolgenden Sprachabtastungen, während welchen der Qualitätsparameter q des empfangenen Funksignals jeweils unter einem vorbestimmten Qualitätspegel Bm liegen oder diesen übersteigen kann, bevor das rekonstruierte Signal rrec identisch zum geschätzten Sprachsignal bzw. zum empfangenen Sprachsignal r ist, und während welchen Sprachabtastungen das rekonstruierte Sprachsignal rrec aus einer Kombination aus dem empfangenen Sprachsignal r und dem geschätzten Sprachsignal besteht.
- Die Zählervariable n wird in einem Schritt 1000 dem Wert nt/2 zugeteilt, um sicherzustellen, dass die Zählervariable n einen vernünftigen Wert haben wird, wenn beim Rekonstruieren der ersten Sprachabtastung ein Schritt 1040 im Ablaufdiagramm erreicht werden sollte. In einem Schritt 1005 nimmt die Signalkombiniereinheit 700 eine erste Sprachabtastung des empfangenen Sprachsignals r. In einem Schritt 1010 wird festgestellt, ob der Qualitätsparameter q, der bei diesem Beispiel durch die Bitfehlerrate BER in Bezug auf ein Datenwort entsprechend einer gegebenen Sprachabtastung dargestellt ist, einen gegebenen Wert übersteigt oder nicht, d. h. ob die Bitfehlerrate BER unter einem vorbestimmten Wert B&sub0; liegt oder nicht. Die Bitfehlerrate BER kann beispielsweise durch Ausführen einer Paritätsprüfung an dem empfangenen Datenwort berechnet werden, das die Sprachabtastung darstellt. Der Wert B&sub0; entspricht einer Bitfehlerrate BER, bis zu welcher alle Fehler entweder korrigiert oder vollständig verborgen werden können. Somit wird B&sub0; in einem System gleich 1 sein, in welchem Fehler nicht korrigiert werden und nicht verborgen werden können. Die Bitfehlerrate BER wird im Schritt 1010 mit dem Pegel B&sub0; verglichen. Wenn die Bitfehlerrate BER niedriger als B&sub0; ist, wird das rekonstruierte Sprachsignal rrec in einem Schritt 1015 gleich dem empfangenen Sprachsignal r gemacht, wird die Zählervariable n in einem Schritt 1020 auf Eins eingestellt und wird im Ablaufdiagramm ein Rücksprung zum Schritt 1005 durchgeführt. Sonst wird in einem Schritt 1025 festgestellt, ob die Bitfehlerrate BER höher als ein vorbestimmter Pegel Bt ist oder nicht, der der oberen Grenze einer akzeptierbaren Sprachqualität entspricht. Wenn herausgefunden wird, dass die Bitfehlerrate BER höher als Bt ist, wird das rekonstruierte Sprachsignal rrec in einem Schritt 1030 gleich dem geschätzten Sprachsignal gemacht, wird die Zählervariable n in einem Schritt 1035 auf nt eingestellt und wird im Ablaufdiagramm ein Rücksprung zum Schritt 1005 durchgeführt. Wenn im Schritt 1025 herausgefunden wird, dass die Bitfehlerrate BER niedriger als oder gleich Bt ist, wird das rekonstruierte Sprachsignal rrec in einem Schritt 1040 als die Summe aus einem ersten Faktor α multipliziert mit dem empfangenen Sprachsignal rr und einem zweiten Faktor β, multipliziert mit dem geschätzten Sprachsignal r, berechnet. Bei diesem Fall gilt α = (nt - n)/nt und β = n/nt, und somit ist rrec durch den Ausdruck rrec = (nt - n) xr/nt + nx /nt gegeben. Die nächste Sprachabtastung des empfangenen Sprachsignals wird im Schritt 1045 hereingenommen, und es wird im Schritt 1050 festgestellt, ob eine entsprechende Bitfehlerrate BER des empfangenen Datensignals niedriger als ein Pegel Bm ist oder nicht, der beispielsweise den arithmetischen Mittelwert von B&sub0; und Bt bezeichnet, d. h. Bm = (B&sub0; + Bt)/2, und wenn dies der Fall ist, wird die Zählervariable n in einem Schritt 1055 um ein Inkrement nach unten gezählt, und es wird in einem Schritt 1060 festgestellt, ob die Zählervariable n kleiner als 0 ist oder nicht. Wenn die Zählervariable n im Schritt 1060 kleiner als 0 ist, zeigt dies an, dass die Bitfehlerrate BER während nt aufeinanderfolgende Sprachabtastungen unter den Wert Bm abgefallen ist und dass das rekonstruierte Sprachsignal rrec daher gleich dem empfangenen Sprachsignal r gemacht werden kann. Das Ablaufdiagramm wird somit zum Schritt 1015 ausgeführt. Wenn die Zählervariable n im Schritt 1060 größer als oder gleich Null ist, wird das Ablaufdiagramm zum Schritt 1040 ausgeführt, und ein neues rekonstruiertes Sprachsignal rrec wird berechnet. Wenn die Bitfehlerrate BER im Schritt 1050 höher als oder gleich Bm ist, wird die Zählervariable n in einem Schritt 1065 um Eins erhöht. Es wird dann in einem Schritt 1070 festgestellt, ob die Zählervariable n größer als der Wert nt ist oder nicht. Wenn dies der Fall ist, zeigt dies an, dass die Bitfehlerrate BER während nt aufeinanderfolgenden Abtastungen den Wert Bm überschritten hat und dass das rekonstruierte Sprachsignal rrec daher gleich dem geschätzten Sprachsignal gesetzt werden sollte. Daher wird im Ablaufdiagramm ein Rücksprung zum Schritt 1030 durchgeführt. Sonst wird das Ablaufdiagramm zum Schritt 1040 ausgeführt, und ein neues rekonstruiertes Sprachsignal rrec wird berechnet.
- Ein spezieller Fall des zuvor beschriebenen Beispiels wird dann erhalten, wenn zugelassen wird, dass q einen schlechten Frameindikator BFI bildet, wobei q zwei unterschiedliche Werte annehmen kann, anstelle eines Zulassens, dass der Qualitätsparameter q die Bitfehlerrate BER für jedes Datenwort bezeichnet. Wenn die Anzahl von Fehlern in einem gegebenen Datenwort einen vorbestimmten Wert Bt übersteigt, wird dies Einstellen von q auf einen ersten Wert, wie beispielsweise logisch Eins, und durch Einstellen von q auf einen zweiten Wert, wie beispielsweise logisch Null, angezeigt, wenn die Anzahl von Fehlern niedriger als oder gleich Bt ist. Ein weicher Übergang zwischen dem empfangenen Sprachsignal r und dem geschätzten Sprachsignal r wird in diesem Fall dadurch erhalten, dass die Signale r und r zusammen mit jeweiligen vorbestimmten Gewichtungsfaktoren α und β während einer vorbestimmten Anzahl von Abtastungen nt gewichtet werden. Beispielsweise kann nt vier Abtastungen sein, während welchen α und β durch die Werte 0,75, 050, 0,25 und 0,00 bzw. 0,25, 0,50, 0,75 und 1,00, oder umgekehrt gestuft werden.
- Fig. 11 zeigt ein Beispiel eines Ergebnisses, das beim Durchlaufen des Ablaufdiagramms in Fig. 10 erhalten werden kann. nt ist beim Beispiel auf 10 eingestellt worden. Die Bitfehlerrate BER eines empfangenen Datensignals ist entlang der vertikalen Achse des Diagramms in Fig. 11 gezeigt und Abtastungen 1-25 des empfangenen Datensignals sind entlang der horizontalen Achse des Diagramms gezeigt, wobei das Datensignal über einen Funkkanal übertragen worden ist und Sprachinformation darstellt. Die Bitfehlerrate BER ist in drei Ebenen bzw. Pegel B&sub0;, Bm und Bt aufgeteilt. Ein erster Pegel B&sub0; entspricht einer Bitfehlerrate BER, die in einem wahrnehmbar fehlerfreien Sprachsignal resultiert. Anders ausgedrückt kann das System bis zu B&sub0;-1 Bitfehler in jedem empfangenen Datenwort korrigieren und/oder verbergen. Ein zweiter Pegel Bt bezeichnet eine Bitfehlerrate BER von einer solchen hohen Größe, dass entsprechende Sprachsignale eine nicht akzeptierbar niedrige Qualität haben werden. Ein dritter Pegel Bm bildet den arithmetischen Mittelwert Bm = (Bt + B&sub0;)/2 von Bt und B&sub0;.
- Die Bitfehlerrate BER des empfangenen Datensignals ist während der empfangenen ersten vier Sprachabtastungen 1-4 unter dem Pegel B&sub0;. Folglich ist die Zählervariable n während der Abtastungen 2-5 gleich Eins, und ist das rekonstruierte Sprachsignal rrec identisch zum empfangenen Sprachsignal r. Während der folgenden zwölf Sprachabtastungen 5-16 wird das rekonstruierte Sprachsignal rrec aus einer Kombination aus dem empfangenen Sprachsignal r und dem geschätzten Sprachsignal bestehen, da die Bitfehlerrate BER des empfangenen Datensignals in Bezug auf diese Sprachabtastungen über B&sub0; liegen wird. Das rekonstruierte Sprachsignal rrec wird im Fall der Sprachabtastungen 17-23 identisch zum geschätzten Sprachsignal sein, da die Bitfehlerrate BER des empfangenen Datensignals in Bezug auf die zehn (nt = 10) nächsten vorangehenden Abtastungen 7-16 den Wert Bm überschritten hat und die Bitfehlerrate in Bezug auf die Abtastungen 17-22 höher als der Wert Bm ist. Das rekonstruierte Sprachsignal rrec wird während der zwei beendenden Abtastungen 24 und 25 wiederum aus einer Kombination aus dem empfangenen Sprachsignal r und dem geschätzten Sprachsignal bestehen, da die Bitfehlerrate BER des empfangenen Datensignals in Bezug auf die Sprachabtastungen 23 und 24 unter dem Pegel Bm ist, aber den Pegel B&sub0; übersteigt.
- Bei einem ersten und einem zweiten Ausführungsbeispiel der Erfindung basierte der Qualitätsparameter q auf einem gemessenen Leistungspegel γ des empfangenen Funksignals und einer berechneten Bitfehlerrate BER eines Datensignals, das über einen gegebenen Funkkanal übertragen worden ist und das das empfangene Sprachsignal r darstellt. Natürlich kann bei einem dritten Ausführungsbeispiel der Erfindung der Qualitätsparameter q auf einer Schätzung des Signalpegels des erwünschten Funksignals C in einem Verhältnis C/I zum Signalpegel eines Interferenzsignals I basieren. Die Beziehung zwischen dem Verhältnis C/I und dem rekonstruierten Sprachsignal rrec wird dann im Wesentlichen gleich der in Fig. 8 dargestellten Beziehung sein, d. h. der Faktor β ist erhöht und der Faktor α auf ein entsprechendes Ausmaß im Fall eines kleiner werdenden C/I kleiner, und der Faktor α wird im Fall eines größer werdenden C/I auf die Kosten des Faktors β erhöht. Entsprechende Ablaufdiagramme werden im Prinzip der Fig. 8 entsprechen. Ein Schritt 810 würde insoweit unterschiedlich sein, dass stattdessen C/I > C&sub0; wäre, ein Schritt 825 würde insoweit unterschiedlich sein, dass C/I > Ct wäre, und ein Schritt 850 würde insoweit unterschiedlich sein, dass C/I > Cm wäre, aber bezüglich aller anderen Aspekte werden dieselben Bedingungen gelten.
- Fig. 12 stellt diagrammmäßig dar, wie ein Qualitätsparameter q für ein empfangenes Sprachsignal r über eine Sequenz von empfangenen Sprachabtastungen rn variieren kann. Der Wert des Qualitätsparameters q ist entlang der vertikalen Achse des Diagramms gezeigt, und die Sprachabtastungen rn sind entlang der horizontalen Achse des Diagramms präsentiert. Der Qualitätsparameter q für eine während eines Zeitintervalls tA empfangene Sprachabtastung rn liegt unter einem vorbestimmten Pegel qt, der der unteren Grenze für eine akzeptierbare Sprachqualität entspricht. Das empfangene Sprachsignal r wird daher während dieses Zeitintervalls tA einer Störung ausgesetzt sein.
- Fig. 13 stellt diagrammmäßig dar, wie die Signalamplitude A des empfangenen Sprachsignals r, bezogen auf Fig. 12, über eine Zeit t entsprechend Sprachabtastungen rn variiert. Die Signalamplitude A ist entlang der vertikalen Achse des Diagramms gezeigt, und die Zeit t ist entlang der horizontalen Achse des Diagramms präsentiert. Das Sprachsignal r wird eine Störung in der Form eines kurzen nicht übereinstimmenden rauschenden oder krachenden/klickenden Klangs ausgesetzt, wobei dies im Diagramm durch eine erhöhte Signalamplitude A eines nichtperiodischen Charakters dargestellt ist.
- Fig. 14 stellt die diagrammmäßig dar, wie die Signalamplitude A über eine Zeit t entsprechend Sprachabtastungen rn einer Version rrec des in Fig. 13 dargestellten Sprachsignals r, das gemäß dem erfinderischen Verfahren rekonstruiert worden ist, variiert. Die Signalamplitude A ist entlang der vertikalen Achse des Diagramms gezeigt, und die Zeit t ist entlang seiner horizontalen Achse präsentiert. Während diesem Zeitintervall tA, in welchem der Qualitätsparameter q unter dem Pegel qt liegt, wird das rekonstruierte Sprachsignal entweder vollständig oder teilweise aus einem geschätzten Sprachsignal bestehen, das durch eine lineare Vorhersage eines früher empfangenen Sprachsignals r erhalten worden ist, dessen Qualitätsparameter q qt überschritten hat. Das geschätzte Sprachsignal ist daher wahrscheinlich von besserer Qualität als das betroffene empfangene Sprachsignal r. Somit wird das rekonstruierte Sprachsignal rrec, das aus einer variablen Kombination des empfangenen Sprachsignals r und einer geschätzten Version des Sprachsignals besteht, ungeachtet der Qualität des empfangenen Sprachsignals r eine allgemein einheitliche oder konstante Qualität haben.
- Fig. 15 stellt die Verwendung der vorgeschlagenen Signalrekonstruktionseinheit 240 in einer analogen Sender/Empfänger-Einheit 1500, bezeichnet mit TRX, in einer Basisstation oder in einer mobilen Station dar. Ein Funksignal RFR von einer Antenneneinheit wird in einem Funkempfänger 1510 empfangen, der ein empfangenes Zwischenfrequenzsignal IFR liefert. Das Zwischenfrequenzsignal IFR wird in einem Demodulator 1520 demoduliert, und ein analoges empfangenes Sprachsignal rA und ein analoger Qualitätsparameter qA werden erzeugt. Diese Signal rA und qA werden in einer Abtast- und Quantisierungseinheit 1530 abgetastet und quantisiert, die entsprechende digitale Signale r bzw. q liefert, die durch die Signalrekonstruktionseinheit 240 zum Erzeugen eines rekonstruierten Sprachsignals rrec gemäß dem vorgeschlagenen Verfahren verwendet werden.
- Ein gesendetes Sprachsignal S wird in einem Modulator 1540 moduliert, in welchem ein Zwischenfrequenzsignal IFT erzeugt wird. Das Signal IFT wird in einem Funksender 1550 funkfrequenzmoduliert und verstärkt, und ein Funksignal RFT wird zur Übertragung zu einer Antenneneinheit geliefert.
- Fig. 16 stellt die Verwendung der vorgeschlagenen Signalrekonstruktionseinheit 240 in einer Sender/Empfänger- Einheit 1600, mit TRX bezeichnet, in einer Basisstation oder einer mobilen Station dar, die ADPCM-codierte Sprachinformation kommunizieren. Ein Funksignal RFR von einer Antenneneinheit wird in einem Funkempfänger 1610 empfangen, der ein empfangenes Zwischenfrequenzsignal IFR liefert. Das Zwischenfrequenzsignal IFR wird in einem Demodulator 1620 demoduliert, der ein ADPCM-codiertes Basisbandsignal BR und einen Qualitätsparameter q liefert. Das Signal BR wird in einem ADPCM-Decodierer 1630 decodiert, wobei ein empfangenes. Sprachsiganl r erzeugt wird. Der Qualitätsparameter q wird zum ADPCM-Decodierer 1630 hereingenommen, um ein Rücksetzen des Zustandes des Decodierers zu ermöglichen, wenn die Qualität des empfangenen Funksignals RFR exzessiv niedrig ist. Die Signale r und q werden schließlich durch die Signalrekonstruktionseinheit 240 zum Erzeugen eines rekonstruierten Sprachsignals rrec gemäß dem vorgeschlagenen Verfahren verwendet.
- Ein gesendetes bzw. übertragenes Sprachsignal S wird in einem ADPCM-Codierer 1640 codiert, von welchem das Ausgangssignal ein ADPCM-codiertes Basisbandsignal BT ist. Das Signal BT wird dann in einem Modulator 1650 moduliert, wobei ein Zwischenfrequenzsignal IFT erzeugt wird. Das Signal IFT wird in einem Funksender 1660 funkfrequenzmoduliert und verstärkt, von welchem ein Funksignal RFT zur Übertragung zu einer Antenneneinheit geliefert wird.
- Natürlich können der ADPCM-Decodierer 1630 und der ADPCM- Codierer 1640 gleichermaßen auch jeweils aus einem logarithmischen PCM-Decodierer und einem logarithmischen PCM- Codierer bestehen, wenn diese Form von Sprachcodierung in dem System angewendet wird, in welchem die Sender/Empfänger- Einheit 1600 arbeitet.
- Die vorliegende Erfindung betrifft ein Verfahren und eine Anordnung zur Rekonstruktion eines empfangenen Sprachsignals (r), das über einen Funkkanal übertragen bzw. gesendet worden ist, der Störungen ausgesetzt gewesen ist, wie z. B. einem Rauschen, einer Interferenz oder einem Fading. Ein Sprachsignal (rrec), bei welchem diese Effekte von diesen Störungen minimiert sind, wird entsprechend erwarteten zukünftigen Werten des empfangenen Sprachsignals (r) durch ein geschätztes Sprachsignal ( ) erzeugt, das gemäß einem linearen Vorhersagemodell in einer Signalmodellierungsschaltung (500) erzeugt wird. Das empfangene Sprachsignal (r) und das geschätzte Sprachsignal (i) werden in einer Signalkombinationsschaltung (600) gemäß einem variablen Verhältnis kombiniert, das durch einen Qualitätsparameter (q) bestimmt wird. Der Qualitätsparameter (q) kann auf einem gemessenen Leistungspegel eines empfangenen Funksignals, einer Schätzung eines empfangen Leistungspegels des erwünschten Funksignals proportional zu einem interferierenden Funksignal oder einem Bitfehlerratensignal basieren, oder alternativ einem Frameindikator, der aus einem Datensignal berechnet worden ist, das über einen bestimmten Funkkanal übertragen worden ist und das das empfangene Sprachsignal darstellt.
- (Fig. 4)
Claims (44)
1. Verfahren zum Rekonstruieren eines Sprachsignals aus
einem empfangenen Signal (r) unter Verwendung eines
Signalmodells (500) und eines Qualitätsparameters (q),
welches Verfahren die folgenden Schritte aufweist:
Erzeugen des Qualitätsparameters (q) auf der Basis von
Qualitätseigenschaften des empfangenen Signals (r);
Steuern des Signalmodells (500) durch Verwenden des
Qualitätsparameters (q); durch das gesteuerte
Signalmodell (500) Erzeugen eines geschätzten Signals
( ), das erwarteten zukünftigen Werten des empfangenen
Signals (r) entspricht; Kombinieren des empfangenen
Signals (r) und des geschätzten Signals ( ) und Bilden
eines rekonstruierten Sprachsignals (rrec), wobei der
Qualitätsparameter (q) die Gewichtungsfaktoren (α, β)
bestimmt, gemäß welchen die Kombination stattfindet.
2. Verfahren nach Anspruch 1, gekennzeichnet durch Basieren
des Qualitätsparameters (q) auf einem gemessenen
Leistungspegel (RSS, γ) des empfangenen Signals (r).
3. Verfahren nach Anspruch 1, gekennzeichnet durch Basieren
des Qualitätsparameters (q) auf einem geschätzten
empfangenen Signalpegel (C) des empfangenen Signals (r)
proportional (C/I) zum Signalpegel eines Störsignals
(I).
4. Verfahren nach Anspruch 1, gekennzeichnet durch Basieren
des Qualitätsparameters (q) auf einer Bitfehlerrate
(BER), die aus einer digitalen Darstellung des Signals
(r) berechnet worden ist.
5. Verfahren nach Anspruch 1, gekennzeichnet durch Baiseren
des Qualitätsparameters (q) auf einem schlechten
Frameindikator (BFI), der aus einer digitalen
Darstellung des Signals (r) berechnet worden ist.
6. Verfahren nach einem der Ansprüche 1-5, gekennzeichnet
durch Basieren des Signalmodells (500) auf einer
linearen Vorhersage (LPC/LTP) des empfangenen Signals
(r).
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass
die lineare Vorhersage (LPC/LTP) Koeffizienten erzeugt,
die eine Kurzzeit-Vorhersage (STP) des empfangenen
Signals (r) bezeichnen.
8. Verfahren nach Anspruch 6 oder 7, dadurch
gekennzeichnet, dass die lineare Vorhersage (LPC/LTP)
Koeffizienten erzeugt, die eine Langzeit-Vorhersage
(LTP) des empfangenen Signals (r) bezeichnen.
9. Verfahren nach einem der Ansprüche 6-8, dadurch
gekennzeichnet, dass die lineare Vorhersage (LPC/LTP)
Verstärkungswerte (b) erzeugt, die sich auf eine
Vorgeschichte (ê(n + 1), ê(n + 2), ..., ê(n + N)) des
geschätzten Signals ( ) beziehen.
10. Verfahren nach einem der Ansprüche 6-9, dadurch
gekennzeichnet, dass die lineare Vorhersage (LPC/LTP)
Information (c) diesbezüglich enthält, ob angenommen
werden soll, dass das empfangene Signal (r)
Sprachinformation darstellt oder Information einer Art
keiner Sprache darstellt.
11. Verfahren nach einem der Ansprüche 6-10, dadurch
gekennzeichnet, dass die lineare Vorhersage (LPC/LTP)
Information (c) diesbezüglich enthält, ob angenommen
werden soll, dass das empfangene Signal (r) einen
stimmhaften Klang darstellt oder einen stimmlosen Klang
darstellt.
12. Verfahren nach einem der Ansprüche 6-11, dadurch
gekennzeichnet, dass die lineare Vorhersage (LPC/LTP)
Information (c) diesbezüglich enthält, ob angenommen
werden soll, dass das empfangene Signal (r) lokal
stationär oder lokal vorübergehend ist.
13. Verfahren nach einem der Ansprüche 1-12, dadurch
gekennzeichnet, dass das empfangene Signal (r) ein
abgetastetes und quantisiertes analoges moduliertes und
übertragenes Sprachsignal ist.
14. Verfahren nach einem der Ansprüche 1-12, dadurch
gekennzeichnet, dass das empfangene Signal (r) ein
digital moduliertes und übertragenes codiertes Signal
ist.
15. Verfahren nach einem der Ansprüche 1-12, dadurch
gekennzeichnet, dass das empfangene Signal (r) durch
Decodieren eines adaptiven differentiellen
pulscodemodulierten (ADPCM-)Signals erzeugt wird.
16. Verfahren nach einem der Ansprüche 1-12, dadurch
gekennzeichnet, dass das empfangene Signal (r) durch
Decodieren eines logarithmisch pulscodemodulierten
(PCM-)Signals erzeugt wird.
17. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass
das Verhältnis (α, β) von nur einem Bezeichnen des
empfangenen Signals (r) zu nur einem Bezeichnen des
geschätzten Signals ( ) variabel ist.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass
ein Übergang von nur dem empfangenen Signal (r) zu nur
dem geschätzten Signal ( ) während einer
Übergangsperiode (tt) von wenigstens einer Anzahl (nt)
von aufeinanderfolgenden Abtastungen des empfangenen
Signals (r) stattfindet, während welcher der
Qualitätsparameter (q) für das empfangene Signal (r)
unter einem vorbestimmten Qualitätswert (γt) ist.
19. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass
ein Übergang von nur dem geschätzten Signal ( ) zu nur
dem empfangenen Signal (r) während einer
Übergangsperiode (tt) von wenigstens einer Anzahl (nt)
von aufeinanderfolgenden Abtastungen des empfangenen
Signals (r) stattfindet, während welcher der
Qualitätsparameter (q) für das empfangene Signal (r)
einen vorbestimmten Qualitätswert (γt) übersteigt.
20. Verfahren nach Anspruch 17, dadurch gekennzeichnet, dass
die Dauer der Übergangsperiode (tt) durch einen
vorbestimmten, aber variablen, Übergangswert (nt)
entschieden wird.
21. Anordnung zum Rekonstruieren eines Sprachsignals aus
einem empfangenen Signal (r) und zum Enthalten einer
Signalmodelliereinheit (500), welche Anordnung folgendes
aufweist: eine Einrichtung zum Erzeugen eines
Qualitätsparameters (q) auf der Basis von
Qualitätseigenschaften des empfangenen Signals (r);
wobei die Signalmodelliereinheit (500) dazu eingerichtet
ist, ein geschätztes Signal ( ) entsprechend erwarteter
zukünftiger Werte des empfangenen Signals (r) zu
erzeugen, wobei die Signalmodelliereinheit durch den
Qualitätsparameter (q) gesteuert wird; wobei die
Anordnung weiterhin folgendes aufweist: eine
Signalkombiniereinheit (700), die eingerichtet ist, um
das empfangene Signal (r) und das geschätzte Signal ( )
damit zu kombinieren, um ein rekonstruiertes
Sprachsignal (rrec) zu bilden, wobei die
Gewichtungsfaktoren (α, β), gemäß welchen die
Kombination bestimmt wird, durch den Qualitätsparameter
(q) bestimmt werden.
22. Anordnung nach Anspruch 21, dadurch gekennzeichnet, dass
ein Prozessor (710) in der Signalkombiniereinheit (700)
einen ersten Gewichtungsfaktor (α) und einen zweiten
Gewichtungsfaktor (β) auf der Basis des Werts des
Qualitätsparameters (q) für jede Abtastung des
empfangenen Signals (r) liefert.
23. Anordnung nach Anspruch 22, dadurch gekennzeichnet, dass
die Signalkombiniereinheit (700) arbeitet, um einen
ersten gewichteten Wert (αr) des empfangenen Signals (r)
durch Multiplizieren des empfangenen Signals (r) mit dem
ersten Gewichtungsfaktor (α) in einer ersten
Multipliziereinheit (720) zu bilden, und um einen
zweiten gewichteten Wert (β ) des geschätzten Signals
() durch Multiplizieren des geschätzten Signals ( )
mit dem zweiten Gewichtungsfaktor (β) in einer zweiten
Multipliziereinheit (730) zu bilden, wobei der erste
(αr) und der zweite (β ) gewichtete Wert gemäß dem
Verhältnis (α, β) in einer ersten Summiereinheit (7)
kombiniert werden, und wobei das rekonstruierte Signal
(rrec) als ein erstes Summiersignal gebildet wird.
24. Anordnung nach Anspruch 23, dadurch gekennzeichnet, das
ein Übergangswert (nt), der im Prozessor (710)
gespeichert ist, eine kleinste Anzahl von
aufeinanderfolgenden Abtastungen des empfangenen Signals
(r) bezeichnet, während welchen der erste
Gewichtungsfaktor (α) inkrementell von einem höchsten
Wert zu einem niedrigsten Wert verkleinert werden kann
und der zweite Gewichtungsfaktor (β) inkrementell von
einem niedrigsten Wert zu einem höchsten Wert erhöht
werden kann.
25. Anordnung nach Anspruch 23, dadurch gekennzeichnet, dass
ein Übergangswert (nt), der im Prozessor (710)
gespeichert ist, eine kleinste Anzahl von
aufeinanderfolgenden Abtastungen des empfangenen Signals
(r) bezeichnet, während welchen der erste
Gewichtungsfaktor (α) inkrementell von einem niedrigsten
Wert zu einem höchsten Wert erhöht werden kann und der
zweite Gewichtungsfaktor (β) inkrementell von einem
höchsten Wert zu einem niedrigsten Wert erniedrigt
werden kann.
26. Anordnung nach Anspruch 24 oder 25, dadurch
gekennzeichnet, dass der höchste Wert gleich Eins ist;
und dass der niedrigste Wert gleich Null ist; und dass
die Summe (α + β) aus dem ersten Gewichtungsfaktor (α)
und dem zweiten Gewichtungsfaktor (β) gleich Eins ist.
27. Anordnung nach einem der Ansprüche 21-26, dadurch
gekennzeichnet, dass die Signalmodelliereinheit (500)
eine Analysiereinheit (520) enthält, die gemäß einem
linearen Vorhersagemodell (LPC/LTP) Parameter (a, b, c,
L) erzeugt, die von bestimmten Eigenschaften des
empfangenen Signals (r) abhängen.
28. Anordnung nach Anspruch 27, dadurch gekennzeichnet, dass
die Parameter (a, b, c, L) Filterkoeffizienten (α) eines
ersten digitalen Filters (510) und eines zweiten
digitalen Filters (580) enthalten, deren jeweilige
Übertragungsfunktionen (A(z), 1/A(z)) das Inverse
voneinander sind.
29. Anordnung nach Anspruch 28, dadurch gekennzeichnet, dass
das erste digitale Filter (510) ein inverses Filter
(A(z)) ist; und dass das zweite digitale Filter (580)
ein Synthesefilter (1/A(z)) ist.
30. Anordnung nach einem der Ansprüche 21-26, dadurch
gekennzeichnet, dass die Signalmodelliereinheit (500)
ein erstes digitales Filter (510) und ein zweites
digitales Filter (580) enthält, deren jeweilige
Übertragungsfunktion (A(z), 1/A(z)) das Inverse
voneinander sind.
31. Anordnung nach Anspruch 30, dadurch gekennzeichnet, dass
das erste digitale Filter (510) den Charakter eines
Hochpassfilters hat; und dass das zweite digitale Filter
(580) den Charakter eines Tiefpassfilters hat.
32. Anordnung nach einem der Ansprüche 28-31, dadurch
gekennzeichnet, dass das erste digitale Filter (510)
arbeitet, um das empfangene Signal (r) zu filtern, um
damit ein Restsignal (R) zu erzeugen.
33. Anordnung nach Anspruch 32, dadurch gekennzeichnet, dass
die Signalmodelliereinheit (500) eine
Erregungserzeugungseinheit (530) enthält, die
funktioniert, um ein geschätztes Signal ( ) zu
erzeugen, das auf drei der Parameter (b, c, L) basiert,
und einem zweiten Summiersignal (C), und eine
Zustandsmaschine (540), die funktioniert, um
Steuersignale (s&sub1;-s&sub6;) zu erzeugen, die auf dem
Qualitätsparameter (q) und einem der Parameter (c)
basieren.
34. Anordnung nach Anspruch 33, dadurch gekennzeichnet, dass
die Signalmodelliereinheit (500) eine zweite
Summiereinheit (570) enthält, die funktioniert, um einen
dritten gewichteten Wert (s&sub5;R) des Restsignals (R) mit
einem vierten gewichteten Wert (s&sub6; ) zu kombinieren, um
damit das zweite Summiersignal (C) zu erzeugen.
35. Anordnung nach Anspruch 34, dadurch gekennzeichnet, dass
das zweite digitale Filter (580) funktioniert, um das
zweite Summiersignal (C) zu filtern, um damit das
geschätzte Signal ( ) zu erzeugen.
36. Anordnung nach einem der Ansprüche 34-35, dadurch
gekennzeichnet, dass die Erregungserzeugungseinheit
(530) einen Speicherpuffer (620) und einen
Zufallsgenerator (630) enthält.
37. Anordnung nach Anspruch 36, dadurch gekennzeichnet, dass
der Speicherpuffer (620) funktioniert, um die
historischen Werte (ê(n + 1), ê(n + 2), ..., ê(n + N)) des
zweiten Summiersignals (C) zu speichern.
38. Anordnung nach Anspruch 37, dadurch gekennzeichnet,
dass der Speicherpuffer (620) funktioniert, um auf der
Basis von zweien der Parameter (b, L) ein erstes Signal
(Hv) zu erzeugen, das einen stimmhaften Sprachklang
darstellt.
39. Anordnung nach Anspruch 38, dadurch gekennzeichnet, dass
der Zufallsgenerator (630) funktioniert, um auf der
Basis der Steuersignale (s&sub2;) ein zweites Signal (Hu) zu
erzeugen, das einen stimmlosen Sprachklang darstellt.
40. Anordnung nach Anspruch 39, gekennzeichnet durch eine
dritte Summiereinheit (660), die funktioniert, um einen
dritten gewichteten Wert (s&sub3;Hv) des ersten Signals (Hv)
mit einem vierten gewichteten Wert (s&sub4;Hu) des zweiten
Signals (Hu) zu kombinieren, um damit das geschätzte
Signal ( ) zu bilden.
41. Anordnung nach einem der Ansprüche 21-40, dadurch
gekennzeichnet, dass das empfangene Signal (r) ein
abgetastetes und quantisiertes analoges
Übertragungssprachsignal ist.
42. Anordnung nach einem der Ansprüche 21-40, dadurch
gekennzeichnet, dass das empfangene Signal (r) ein
digital moduliertes und übertragenes codierte Signal
ist.
43. Anordnung nach Anspruch 42, dadurch gekennzeichnet, dass
das empfangene Signal (r) durch Decodieren eines
adaptiven differentiellen pulscodemodulierten (ADPCM-)
Signals erzeugt wird.
44. Anordnung nach Anspruch 42, dadurch gekennzeichnet, dass
das empfangene Signal (r) durch Decodieren eines
logarithmischen pulscodemodulierten (PCM-)Signals
erzeugt wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE9601351A SE506341C2 (sv) | 1996-04-10 | 1996-04-10 | Metod och anordning för rekonstruktion av en mottagen talsignal |
PCT/SE1997/000569 WO1997038416A1 (en) | 1996-04-10 | 1997-04-03 | Method and arrangement for reconstruction of a received speech signal |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69718307D1 DE69718307D1 (de) | 2003-02-13 |
DE69718307T2 true DE69718307T2 (de) | 2003-08-21 |
Family
ID=20402131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69718307T Expired - Lifetime DE69718307T2 (de) | 1996-04-10 | 1997-04-03 | Verfahren und zusammenstellung zur wiederherstellung eines empfangenen sprachsignals |
Country Status (10)
Country | Link |
---|---|
US (1) | US6122607A (de) |
EP (1) | EP0892974B1 (de) |
JP (1) | JP4173198B2 (de) |
CN (1) | CN1121609C (de) |
AU (1) | AU717381B2 (de) |
CA (1) | CA2248891A1 (de) |
DE (1) | DE69718307T2 (de) |
SE (1) | SE506341C2 (de) |
TW (1) | TW322664B (de) |
WO (1) | WO1997038416A1 (de) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6754265B1 (en) * | 1999-02-05 | 2004-06-22 | Honeywell International Inc. | VOCODER capable modulator/demodulator |
US6260017B1 (en) * | 1999-05-07 | 2001-07-10 | Qualcomm Inc. | Multipulse interpolative coding of transition speech frames |
US7574351B2 (en) * | 1999-12-14 | 2009-08-11 | Texas Instruments Incorporated | Arranging CELP information of one frame in a second packet |
SE519221C2 (sv) * | 1999-12-17 | 2003-02-04 | Ericsson Telefon Ab L M | Icke-transparent kommunikation där bara dataramar som detekterats som korrekta skickas vidare av basstationen |
US7031926B2 (en) * | 2000-10-23 | 2006-04-18 | Nokia Corporation | Spectral parameter substitution for the frame error concealment in a speech decoder |
DE10142846A1 (de) * | 2001-08-29 | 2003-03-20 | Deutsche Telekom Ag | Verfahren zur Korrektur von gemessenen Sprachqualitätswerten |
US7240001B2 (en) | 2001-12-14 | 2007-07-03 | Microsoft Corporation | Quality improvement techniques in an audio encoder |
US7460990B2 (en) | 2004-01-23 | 2008-12-02 | Microsoft Corporation | Efficient coding of digital media spectral data using wide-sense perceptual similarity |
US7668712B2 (en) * | 2004-03-31 | 2010-02-23 | Microsoft Corporation | Audio encoding and decoding with intra frames and adaptive forward error correction |
US7831421B2 (en) * | 2005-05-31 | 2010-11-09 | Microsoft Corporation | Robust decoder |
US7177804B2 (en) * | 2005-05-31 | 2007-02-13 | Microsoft Corporation | Sub-band voice codec with multi-stage codebooks and redundant coding |
US7707034B2 (en) * | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
US7562021B2 (en) * | 2005-07-15 | 2009-07-14 | Microsoft Corporation | Modification of codewords in dictionary used for efficient coding of digital media spectral data |
US7630882B2 (en) * | 2005-07-15 | 2009-12-08 | Microsoft Corporation | Frequency segmentation to obtain bands for efficient coding of digital media |
US8126721B2 (en) | 2006-10-18 | 2012-02-28 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Encoding an information signal |
US8041578B2 (en) | 2006-10-18 | 2011-10-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Encoding an information signal |
US8417532B2 (en) | 2006-10-18 | 2013-04-09 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Encoding an information signal |
EP1918909B1 (de) * | 2006-11-03 | 2010-07-07 | Psytechnics Ltd | Abtastfehlerkompensation |
GB0704622D0 (en) | 2007-03-09 | 2007-04-18 | Skype Ltd | Speech coding system and method |
US7761290B2 (en) | 2007-06-15 | 2010-07-20 | Microsoft Corporation | Flexible frequency and time partitioning in perceptual transform coding of audio |
US8046214B2 (en) * | 2007-06-22 | 2011-10-25 | Microsoft Corporation | Low complexity decoder for complex transform coding of multi-channel sound |
US7885819B2 (en) | 2007-06-29 | 2011-02-08 | Microsoft Corporation | Bitstream syntax for multi-process audio decoding |
US8249883B2 (en) | 2007-10-26 | 2012-08-21 | Microsoft Corporation | Channel extension coding for multi-channel source |
US9117455B2 (en) * | 2011-07-29 | 2015-08-25 | Dts Llc | Adaptive voice intelligibility processor |
US8725498B1 (en) * | 2012-06-20 | 2014-05-13 | Google Inc. | Mobile speech recognition with explicit tone features |
KR101987894B1 (ko) * | 2013-02-12 | 2019-06-11 | 삼성전자주식회사 | 보코더 잡음 억제 방법 및 장치 |
US11295753B2 (en) | 2015-03-03 | 2022-04-05 | Continental Automotive Systems, Inc. | Speech quality under heavy noise conditions in hands-free communication |
CN105355199B (zh) * | 2015-10-20 | 2019-03-12 | 河海大学 | 一种基于gmm噪声估计的模型组合语音识别方法 |
EP3217557B1 (de) * | 2016-03-11 | 2019-01-23 | Intel IP Corporation | Schaltung, vorrichtung, digitale phasenregelschleife, empfänger, sendeempfänger, mobile vorrichtung, verfahren und computerprogramm zur verminderung von rauschen in einem phasensignal |
FR3095100B1 (fr) * | 2019-04-15 | 2021-09-03 | Continental Automotive | Procédé de prédiction d’une qualité de signal et/ou de service et dispositif associé |
US20230059691A1 (en) * | 2020-02-11 | 2023-02-23 | Philip R. Kennedy | Silent Speech and Silent Listening System |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4831624A (en) * | 1987-06-04 | 1989-05-16 | Motorola, Inc. | Error detection method for sub-band coding |
US5226108A (en) * | 1990-09-20 | 1993-07-06 | Digital Voice Systems, Inc. | Processing a speech signal with estimated pitch |
EP0588932B1 (de) * | 1991-06-11 | 2001-11-14 | QUALCOMM Incorporated | Vocoder mit veraendlicher bitrate |
US5233660A (en) * | 1991-09-10 | 1993-08-03 | At&T Bell Laboratories | Method and apparatus for low-delay celp speech coding and decoding |
SE470372B (sv) * | 1992-06-23 | 1994-01-31 | Ericsson Telefon Ab L M | Metod jämte anordning att uppskatta kvaliten vid ramfelsdetektering i mottagaren hos ett radiokommunikationssystem |
CA2131136A1 (en) * | 1993-09-29 | 1995-03-30 | David Marlin Embree | Analog radio communicator with fade compensation |
US5502713A (en) * | 1993-12-07 | 1996-03-26 | Telefonaktiebolaget Lm Ericsson | Soft error concealment in a TDMA radio system |
FI98163C (fi) * | 1994-02-08 | 1997-04-25 | Nokia Mobile Phones Ltd | Koodausjärjestelmä parametriseen puheenkoodaukseen |
WO1996006496A1 (en) * | 1994-08-18 | 1996-02-29 | British Telecommunications Public Limited Company | Analysis of audio quality |
DE69419515T2 (de) * | 1994-11-10 | 2000-01-20 | Telefonaktiebolaget L M Ericsson (Publ), Stockholm | Verfahren und Einrichtung zur Tonwiederherstellung während Auslöschungen |
-
1996
- 1996-04-10 SE SE9601351A patent/SE506341C2/sv not_active IP Right Cessation
-
1997
- 1997-03-21 TW TW086103606A patent/TW322664B/zh active
- 1997-03-25 US US08/826,798 patent/US6122607A/en not_active Expired - Lifetime
- 1997-04-03 DE DE69718307T patent/DE69718307T2/de not_active Expired - Lifetime
- 1997-04-03 WO PCT/SE1997/000569 patent/WO1997038416A1/en active IP Right Grant
- 1997-04-03 CN CN97193710A patent/CN1121609C/zh not_active Expired - Fee Related
- 1997-04-03 CA CA002248891A patent/CA2248891A1/en not_active Abandoned
- 1997-04-03 EP EP97919828A patent/EP0892974B1/de not_active Expired - Lifetime
- 1997-04-03 JP JP53611697A patent/JP4173198B2/ja not_active Expired - Lifetime
- 1997-04-03 AU AU24170/97A patent/AU717381B2/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
SE9601351D0 (sv) | 1996-04-10 |
JP4173198B2 (ja) | 2008-10-29 |
CN1121609C (zh) | 2003-09-17 |
CA2248891A1 (en) | 1997-10-16 |
AU717381B2 (en) | 2000-03-23 |
SE9601351L (sv) | 1997-10-11 |
CN1215490A (zh) | 1999-04-28 |
JP2000512025A (ja) | 2000-09-12 |
AU2417097A (en) | 1997-10-29 |
EP0892974A1 (de) | 1999-01-27 |
WO1997038416A1 (en) | 1997-10-16 |
SE506341C2 (sv) | 1997-12-08 |
DE69718307D1 (de) | 2003-02-13 |
US6122607A (en) | 2000-09-19 |
TW322664B (de) | 1997-12-11 |
EP0892974B1 (de) | 2003-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69718307T2 (de) | Verfahren und zusammenstellung zur wiederherstellung eines empfangenen sprachsignals | |
DE60121405T2 (de) | Transkodierer zur Vermeidung einer Kaskadenkodierung von Sprachsignalen | |
DE69133058T2 (de) | Verfahren zur Kodierung von Sprachsignalen | |
DE60117144T2 (de) | Sprachübertragungssystem und verfahren zur behandlung verlorener datenrahmen | |
DE69613907T2 (de) | Veränderte Grundfrequenzverzögerung bei Verlust von Datenrahmen | |
DE69613908T2 (de) | Stimmhaft/stimmlos-Klassifizierung von Sprache für Sprachdekodierung bei Verlust von Datenrahmen | |
DE60219351T2 (de) | Signaländerungsverfahren zur effizienten kodierung von sprachsignalen | |
DE69322313T2 (de) | C.E.L.P. - Vocoder | |
DE69915830T2 (de) | Verbesserte verfahren zur rückgewinnung verlorener datenrahmen für ein lpc-basiertes, parametrisches sprachkodierungsystem. | |
DE60132217T2 (de) | Übertragungsfehler-verdeckung in einem audiosignal | |
DE60029990T2 (de) | Glättung des verstärkungsfaktors in breitbandsprach- und audio-signal dekodierer | |
DE69023402T2 (de) | Verfahren zur Sprachkodierung und -dekodierung. | |
DE60120766T2 (de) | Indizieren von impulspositionen und vorzeichen in algebraischen codebüchern zur codierung von breitbandsignalen | |
DE19617630B4 (de) | Verfahren zum Herleiten der Nachwirkperiode in einem Sprachdecodierer bei diskontinuierlicher Übertragung, sowie Sprachcodierer und Sender-Empfänger | |
DE69910240T2 (de) | Vorrichtung und verfahren zur wiederherstellung des hochfrequenzanteils eines überabgetasteten synthetisierten breitbandsignals | |
DE69727895T2 (de) | Verfahren und Vorrichtung zur Sprachkodierung | |
DE69608947T2 (de) | Verfahren zur Analyse eines Audiofrequenzsignals durch lineare Prädiktion, und Anwendung auf ein Verfahren zur Kodierung und Dekodierung eines Audiofrequenzsignals | |
DE69331079T2 (de) | CELP-Vocoder | |
DE602004006211T2 (de) | Verfahren zur Maskierung von Paketverlusten und/oder Rahmenausfall in einem Kommunikationssystem | |
DE69618422T2 (de) | Verfahren zur Sprachdekodierung und tragbares Endgerät | |
DE60026660T2 (de) | Fehlererkennung und Fehlerverdeckung für kodierte Sprachdaten | |
DE69900786T2 (de) | Sprachkodierung | |
DE60012760T2 (de) | Multimodaler sprachkodierer | |
US20020072901A1 (en) | Error concealment in relation to decoding of encoded acoustic signals | |
DE69524890T2 (de) | Parametrische Sprachkodierung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |