WO2002095734A2 - Verfahren zur steuerung des verstärkungsfaktors eines prädiktiven sprachkodieres - Google Patents

Verfahren zur steuerung des verstärkungsfaktors eines prädiktiven sprachkodieres Download PDF

Info

Publication number
WO2002095734A2
WO2002095734A2 PCT/DE2002/001598 DE0201598W WO02095734A2 WO 2002095734 A2 WO2002095734 A2 WO 2002095734A2 DE 0201598 W DE0201598 W DE 0201598W WO 02095734 A2 WO02095734 A2 WO 02095734A2
Authority
WO
WIPO (PCT)
Prior art keywords
gain factor
adaptive
speech
code book
signal
Prior art date
Application number
PCT/DE2002/001598
Other languages
English (en)
French (fr)
Other versions
WO2002095734A3 (de
Inventor
Tim Fingscheidt
Herve Taddei
Imre Varga
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP02740316A priority Critical patent/EP1388146B1/de
Priority to US10/478,142 priority patent/US20040148162A1/en
Priority to DE50211294T priority patent/DE50211294D1/de
Publication of WO2002095734A2 publication Critical patent/WO2002095734A2/de
Publication of WO2002095734A3 publication Critical patent/WO2002095734A3/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes

Definitions

  • the invention relates to a method for coding voice signals, in particular with the inclusion of several code books, the entries of which are used to approximate the voice signal, and a method for transmitting voice signals.
  • voice coding methods are used in order to reduce the bit rate to be transmitted.
  • the speech coding methods usually deliver a bit stream of speech-coded bits, which is divided into frames, each representing, for example, 20 ms of the speech signal.
  • the bits within a frame generally represent a certain set of parameters.
  • a frame in turn is often divided into subframes, so that some parameters are transmitted once per frame, others once per subframe.
  • the US-TDMA Enhanced Full Rate (EFR) speech codec with 7.4 kbps is given as an example, ie 148 bits per 20 ms frame.
  • a frame consists of 4 subframes.
  • CELP coders code-excited linear prediction
  • LPC synthesis filter linear predictive coding
  • the filter represents the spectral envelope of the speech signal in the area of the current frame.
  • the excitation signal for this filter is additively composed of a so-called “adaptive excitation signal” S_a weighted with a so-called “adaptive gain factor” g_l and one with a so-called “fixed Gain factor "g_2 weighted so-called” fixed excitation signal "S_f together.
  • the fixed excitation S_f consists of an entry of the so-called “fixed code book”, which is weighted with the fixed gain factor g_2.
  • the entries in the fixed code book each consist of a pulse sequence that only differs from zero at a few points in time.
  • the adaptive excitation signal in the so-called analysis-by-synthesis CELP coding method is determined from the excitation signal of the LPC synthesis filter, delayed by a period of the basic speech frequency. All possible quantized basic speech frequencies constitute the so-called "adaptive code book", which contains the correspondingly shifted excitation signals.
  • the entries in a code book are generally called code words or code vectors.
  • the adaptive code book is called “adaptive” because the code vectors contained in it do not represent constants or are even stored, but instead are determined adaptively for each subframe from the past of the total excitation signal of the LPC synthesis filter.
  • the fixed code book is "fixed” insofar as its code vectors are either stored permanently (noise excitation) or are at least calculated using determined computing steps (algebraic code book) that are not dependent on the respective subframe are.
  • the respective assigned amplification factors are usually also referred to as “adaptive” or "fixed”. It should be noted that all 4 parameter types, adaptive and fixed excitation signal, as well as adaptive and fixed amplification factor, are of course to be determined in each subframe, and in this sense all are “adaptive in nature". In the following, however, the terminology previously introduced - which is also common in the literature - should be adhered to or the term “first gain factor” should be used instead of “adaptive gain factor” and the term second gain factor should be used instead of "fixed gain factor”.
  • the excitation signal S v should reflect as precisely as possible the speech section occurring at that time, the speech signal S.
  • the parameters g_l, g_2, S_a, S_f are therefore chosen so that the speech signal S can be represented as well as possible.
  • the excitation signal S v g_l * S_a + g_2 * S_f thus approximates the speech signal after LPC synthesis filtering on the receiver side.
  • Speech signals contain sequences of frames or subframes in which they can be modeled as stationary, i.e. without the temporal development of their statistical properties. These are periodic sections that can represent vowels, for example. This periodicity flows into the entire excitation signal S ⁇ via the contribution g_l * S_a. However, there are also deeply non-stationary speech signal sections, such as so-called "onsets” or "speech onsets”. These are, for example, plosive sounds at the beginning of a word. In this case, the mand g_2 * S_f represents the dominant contribution to the excitation signal S x .
  • the statistical properties of a frame or subframe with an onset cannot usually be estimated from past frames or subframes.
  • no long-term periodicity can be determined, that is to say the value of a basic speech frequency is completely meaningless and useless.
  • the contribution made up of the adaptive gain factor and entry of the adaptive code book, which expresses long-term periodicity in the speech signal, is therefore more of a hindrance than onsets for coding the speech signal section.
  • the contribution of an adaptive excitation signal to the overall excitation signal in onsets can actually hurt: If there is no periodicity at all, that is, no suitable adaptive excitation signal in the context of the adaptive code book search, the optimal adaptive gain factor is zero.
  • Adaptive and fixed gain factors g_l and g_2 are now often quantized as a pair of numbers (g_l, g_2) by means of a further code book for the gain factors.
  • Scalar quantization is an individual, independent quantization of the parameters Roger that. As already mentioned above, the number of entries in this code book is limited.
  • Some speech coders such as the GSM Enhanced Full Rate Coder (GSM-EFR), perform scalar quantization of the gain factors.
  • GSM-EFR GSM Enhanced Full Rate Coder
  • the adaptive gain factor with 4 bits per subframe and the fixed gain factor with 5 bits per subframe are quantized individually and independently of one another.
  • This has the advantage that with certain non-stationary languages cut, for example in the onsets, the adaptive gain factor can easily be quantized to zero, and the fixed gain factor can assume an independent value after quantization.
  • GSM-HR GSM half-rate coder
  • the present invention is therefore based on the object of specifying a method for coding and for transmission which works in a space-saving manner, works efficiently and is not prone to errors, in particular is efficient in terms of complexity and coding and at the same time has a high signal quality after decoding.
  • the value of the first amplification factor which is assigned to an adaptive code book, is set for certain values of a signal classifier.
  • the speech signal is broken down into individual time segments. These sections can represent frames (frames) or subframes (subframes), for example.
  • the signal classifier indicates, for example, whether there is a stationary or a non-stationary speech section, that is to say whether it is a speech onset, for example. If such a case now exists, a value determined by the signal classifier can be assigned to the first amplification factor.
  • this value of the first gain factor can be set such that this representation of the value requires fewer bits than a conventional representation.
  • this method proves to be advantageous if the first gain factor is set to zero. This increases the quality of the speech-decoded signal, since, as stated at the beginning, fewer quantization error signal components occur in non-stationary speech sections, for example.
  • the second gain factor is scalarly quantized if the first gain factor is fixed. For example, the Resolution of the quantization of the second gain factor can be increased.
  • the encoder operates at a fixed data rate, that is to say that a fixed amount of data is provided for a section of a speech signal.
  • the reduction in the amount of data achieved to represent the first gain factor and, alternatively or optionally, the adaptive codebook entry can be exploited to the extent that the portion of the amount of data which is now not occupied by data is used to represent other parameters which occur during speech coding.
  • Another development provides that the speech section is displayed with a reduced amount of data. This method can be used in particular when using a coding method with a variable bit rate.
  • the invention relates to a method for the transmission of voice signals which are encoded according to one of the preceding claims. It is important here that the first gain factor and / or the adaptive codebook entry is not transmitted.
  • this method has advantages if the
  • Receiver for example the decoder
  • Receiver is indicated by information that this reduction in the amount of data was carried out to represent individual parameters.
  • This information can, for example, occupy a portion of the amount of data not occupied by the reduction or can also be sent in addition to the amount of data of the frame or subframe.
  • Figure 1 shows an overview of the analysis-by-synthesis principle in speech coding
  • Figure 2 shows the use of adaptive and fixed code book with the associated gain factors.
  • Figure 1 shows the schematic flow of a speech coding according to the analysis-by-synthesis principle.
  • the original speech signal 10 is compared with a synthesized speech signal 11.
  • the synthesized speech signal 11 should be such that the deviation between the synthesized speech signal 11 and the original speech signal 10 is minimal. If necessary, this deviation is also spectrally weighted. This is done via a weighting filter W (z).
  • the synthesized speech signal is produced using an LPC synthesis filter H (z). This synthesis filter is excited via an excitation signal 12. The parameters of this excitation signal 12 (and possibly also the coefficients of the LPC synthesis filter) are ultimately transmitted and should therefore be coded as efficiently as possible.
  • FIG. 2 shows the excitation generator in detail without a downstream LPC synthesis filter.
  • the excitation signal 12 is composed of an adaptive part, by means of which periodic speech sections are predominantly represented, and a fixed part, which serves to represent non-periodic sections. This has already been explained in detail at the beginning.
  • the entries in the adaptive codebook 1 are determined by the preceding language sections. This is done via a feedback loop 2.
  • the first gain factor 3 is determined by adapting to the original speech signal 10.
  • the fixed code book 4 contains entries which are not determined by a previous period.
  • Each entry in the code book, the so-called code word, an algebraic code vector is a pulse sequence that only has non-zero values at a few defined points in time.
  • This entry or excitation sequence is selected, by means of which the deviation of the synthesized signal 11 from the original speech signal 10 is minimized.
  • the gain factor 5 assigned to the fixed codebook is determined accordingly.
  • a so-called signal classifier is calculated for each frame.
  • This signal classifier can, for example, provide a binary decision as to whether the adaptive code book should be used or not. For this purpose, it can be an onset recognizer. It is provided that, depending on the classifier, the adaptive gain factor is set to zero, that is to say the adaptive excitation is not included in the overall excitation signal of the LPC synthesis filter. It is also provided that at least one parameter is no longer transmitted. There are several sensible alternatives for this:
  • the adaptive codebook entry (that is to say the fundamental speech frequency) no longer has to be transmitted, since it would be multiplied by a zero on the receiving side anyway.
  • the adaptive gain factor no longer needs to be transmitted.
  • the fixed gain factor could be quantized, for example, scalar.
  • adaptive codebook entry basic speech frequency
  • adaptive gain factor can even be omitted in the case of an onset.
  • each of these possible implementations is that a smaller number of bits can be transmitted compared to the state-of-the-art.
  • these bits can now be used to improve the quantization of the fixed gain factor and / or the quantization of the fixed excitation and / or the quantization of the LPC coefficients.
  • any remaining codec parameter can potentially benefit from improved quantization.
  • no new parameter is provided (ie no second fixed code book), but instead the improved quantization of existing parameters. This saves computational complexity, memory requirements and enables the consideration of specific characteristics of subframes with onsets.
  • By cleverly embedding the additional usable bits in the quantization tables of other codec parameters coding can also be memory-efficient.
  • a skilful embedding of the additional bits that are released will be briefly outlined below. Assume that the adaptive excitation is set to zero by a reserved word in the adaptive code book. Then the fixed gain factor, which previously had 7 bits together with 'the ad- aptive gain factor was vector-quantized, with approximately the same quantization error, for example scalarized with 5 bits. The values of the fixed gain factor quantized with 5 bits could result from a 25% subset of the 7 bit vector codebook, namely a subset that can be addressed with any 5 bits from the 7 bits. Such a realization of the 5-bit scalar quantizer saves additional memory. The released 2 bits can now be used, for example, for more precise quantization of the fixed excitation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Codierung von Sprachsignalen, insbesondere von sogenannten 'Sprach-Onset'-Abschnitten. Durch Festsetzen des ersten Verstärkungsfaktors wird die Datenmenge zur Darstellung der Gesamtheit von erstem oder adaptivem Verstärkungsfaktor und adaptivem Codebucheintrag reduziert, wodurch andere Parameter, welche im Zuge der Sprachcodierung auftreten, genauer dargestellt werden können.Die Erfindung betrifft weiterhin ein Verfahren zur Übertragung von derart codierten Sprachsignalen.

Description

Beschreibung
Verfahren zur Codierung und zur Übertragung von Sprachsignalen
Die Erfindung betrifft ein Verfahren zur Codierung von Sprachsignalen, insbesondere unter der Einbeziehung mehrerer Codebücher, über deren Einträge das Sprachsignal approximiert wird, und ein Verfahren zur Übertragung von Sprachsignalen.
In digitalen Sprachkommunikationssystemen wie dem Festnetz, dem Internet, oder einem digitalen Mobilnetz werden Sprachcodierverfahren eingesetzt, um die zu übertragende Bitrate zu senken. Die Sprachcodierverfahren liefern üblicherweise einen Bitstrom sprachcodierter Bits, der in Rahmen aufgeteilt ist, die jeweils beispielsweise 20 ms des Sprachsignals repräsentieren. Die Bits innerhalb eines Rahmens repräsentieren im allgemeinen einen bestimmten Satz an Parametern. Ein Rahmen wiederum ist vielfach in Subrahmen aufgeteilt, so dass manche Parameter einmal pro Rahmen, andere einmal pro Subrahmen übertragen werden. Als Beispiel sei der US-TDMA Enhanced Fullrate (EFR) Sprachcodec mit 7.4 kbps gegeben, das heißt 148 Bit pro 20 ms-Rahmen. Ein Rahmen besteht hier aus 4 Subrahmen.
Im folgenden wird anhand dieses Sprachcodierverfahrens exemplarisch die Bedeutung der in sogenannten CELP-Codern (code- excited linear prediction) auftretenden Parameter vorgestellt: - 10 Koeffizienten eines sogenannten LPC-Synthese-Filters (linear predictive coding) . Sie werden mit 26 Bit/Rahmen guantisiert. Das Filter repräsentiert die spektrale Einhüllende des Sprachsignals im Bereich des aktuellen Rahmens. Das Anregungssignal für dieses Filter setzt sich additiv aus einem mit einem sogenannten "adaptiven Verstärkungsfaktor" g_l gewichteten sogenannten "adaptiven Anregungssignal" S_a und einem mit einem sogenannten "festen Ver- Stärkungsfaktor" g_2 gewichteten sogenannten "festen Anregungssignal" S_f zusammen.
- Mittels 4x17 Bit werden vier Subrahmen des festen Anregungssignals cruantisiert . Die feste Anregung S_f besteht aus einem Eintrag des sogenannten "festen Codebuchs", welcher mit dem festen Verstärkungsfaktor g_2 gewichtet ist. Die Einträge des festen Codebuchs bestehen je aus einer Pulssequenz, die nur zu wenigen Zeitpunkten von Null verschieden ist. - Mittels 2x8 Bit und 2x5 Bit werden vier Werte einer Sprachgrundfrequenz repräsentiert. Das adaptive Anregungssignal in sogenannten Analyse-durch-Synthese CELP-Codierverfahren bestimmt sich aus dem Anregungssignal des LPC- Synthesefilters, verzögert um eine Periode der Sprachgrund- frequenz . Alle möglichen quantisierten Sprachgrundfrequenzen konstituieren das sogenannte "adaptive Codebuch", das die entsprechend verschobenen AnregungsSignale enthält.
- Mittels 4x7 Bit werden vier Verstärkungsfaktorpaare pro Rahmen vektor uantisiert . Der "adaptive Verstärkungsfaktor" wird auf das adaptive Anregungssignal angewandt, der "feste Verstärkungsfaktor" wird auf das feste Anregungssignal angewandt. Das Gesamtanregungssignal des LPC-Synthese-Filters setzt sich dann, wie oben bereits erwähnt, additiv aus den gewichteten adaptiven und festen AnregungsSignalen zusam- men.
Die Einträge eines Codebuches werden allgemein Codewörter oder Codevektoren genannt .
Das adaptive Codebuch nennt sich "adaptiv", weil die in ihm enthaltenen Codevektoren keine Konstanten darstellen oder gar abgespeichert vorliegen, sondern sie werden für jeden Subrahmen adaptiv aus der Vergangenheit des Gesamtanregungssignals des LPC-Synthesefilters bestimmt. Das feste Codebuch ist insofern "fest", als seine Codevektoren entweder fest abgespei- chert vorliegen (Rauschanregung) oder zumindest über determinierte Rechenvorschritten errechnet werden (algebraisches Codebuch) , die nicht abhängig von dem jeweiligen Subrahmen sind. Die jeweils zugeordneten Verstärkungsfaktoren werden üblicherweise auch als "adaptiv" beziehungsweise "fest" bezeichnet. Es ist anzumerken, dass alle 4 Parametertypen, ad- aptives und festes Anregungssignal, sowie adaptiver und fe- ster Verstärkungsfaktor, selbstverständlich in jedem Subrahmen zu bestimmen sind, und in diesem Sinne alle "adaptiver Natur" sind. Im weiteren soll jedoch an der zuvor eingeführten Terminologie - die auch in der Literatur üblich ist - festgehalten werden beziehungsweise anstelle von "adaptiver Verstärkungsfaktor" der Begriff "erster Verstärkungsfaktor" und anstelle von "fester Verstärkungsfaktor" der Begriff zweiter Verstärkungsfaktor verwendet werden.
Das Anregungssignal Sv soll nach einer LPC-Synthese-Filterung möglichst genau den zu dieser Zeit auftretenden Sprachabschnitt, das Sprachsignal S, widerspiegeln.
Die Parameter g_l, g_2 , S_a, S_f werden also so gewählt, dass damit das Sprachsignal S möglichst gut dargestellt werden kann.
Das Anregungssignal Sv = g_l * S_a + g_2 * S_f approximiert somit nach LPC-Synthese-Filterungauf der Empfängerseite das Sprachsignal .
Der Beitrag der einzelnen Summanden g_l * S_a beziehungsweise g_2 * S_f zum gesamten Anregungssignal S1 variiert in Abhängigkeit von den sprachlichen Besonderheiten des Sprachsignalabschnittes .
Sprachsignale enthalten Folgen von Rahmen oder Subrahmen, in denen sie als stationär, also ohne zeitliche Entwicklung ihrer statistischen Eigenschaften modelliert werden können. Hierbei handelt es sich um periodische Abschnitte, die beispielsweise Vokale darstellen können. Diese Periodizität fließt über den Beitrag g_l *S_a in das gesamte Anregungssignal Sλ ein. Es gibt jedoch auch zutiefst nicht-stationäre Sprachsignalabschnitte, wie beispielsweise sogenannte "Onsets" beziehungsweise "Sprach-Onsets" . Hierbei handelt es sich etwa um Plosi- vlaute am Anfang eines Wortes. In diesem Fall stellt der Su - mand g_2 * S_f den dominanten Beitrag zum Anregungssignal Sx dar.
Die statistischen Eigenschaften eines Rahmens oder Subrahmens mit einem Onset lassen sich in der Regel nicht aus zurückliegenden Rahmen oder Subrahmen schätzen. Bei einem Onset ist insbesondere keine Langzeitperiodizität festzustellen, das heißt der Wert einer Sprachgrundfrequenz ist völlig aussage- und nutzlos. Der sich aus adaptivem Verstärkungsfaktor und Eintrag des adpativen Codebuchs zusammensetzende Beitrag, der ja eine Langzeitperiodizität im Sprachsignal zum Ausdruck bringt, ist demnach bei Onsets eher hinderlich als nützlich zur Codierung des Sprachsignalabschnittes. Der Beitrag eines adaptiven Anregungssignals zum Gesamtanregungssignal bei Onsets kann regelrecht schaden: Findet sich überhaupt keine Pe- riodizität, das heißt kein geeignetes adaptives Anregungs- signal im Rahmen der adaptiven Codebuchsuche, so ergibt sich der optimale adaptive Verstärkungsfaktor zu Null.
Oftmals werden nun adaptiver und fester Verstärkungsfaktor g_l und g_2 als Zahlenpaar (g_l,g_2) mittels eines weiteren Codebuches für die Verstärkungsfaktoren quantisiert. In diesem Fall einer parallelen, voneinander abhängigen Quantisierung der Parameter spricht man von Vektorquantisierung. Dieses Codebuch hat natürlich nur eine beschränkte Größe, typischerweise 7 Bits, wodurch sich also 27 =128 Einträge reali- sieren lassen, deren Indizes beispielsweise von 0 bis 127 laufen.
Es werden an den Empfänger nur die Indizes übertragen, wodurch sich im Vergleich zur herkömmlichen Übertragung nach skalarer Quantisierung von g_l und g_2 separat eine Datenkom- pression ergibt. Unter skalarer Quantisierung wird eine individuelle, voneinander unabhängige Quantisierung der Parameter verstanden. Die Anzahl der Einträge in diesem Codebuch ist wie oben bereits gesagt, begrenzt.
Daher werden als Eintrag in dieses Codebuch diejenigen Zahlenpaare (g_l, g_2) verwendet, durch deren Gesamtheit, also Zahlenpaare mit Index 0-127, sich alle möglichen auftretenden Kombinationen von g_l und g_2 bestmöglich darstellen lassen. Diese stehen dann herkömmlicherweise einer sogenannten Vektorquantisierung zur Verfügung. Bei einem adaptiven Verstärkungsfaktor g_l = 0 können prinzipiell beliebige Werte des festen Verstärkungsfaktors g_2 auftreten, da bei nichtperiodischen Sprachabschnitten wie bereits dargelegt, eben der adaptive Anteil g_l * S_a wesentlich kleiner ist als der feste Anteil, somit das Anregungssignal Sx für das LPC- Synthese-Filter durch letzteren bestimmt wird und der feste Anteil in diesem Fall nicht aus in der Vergangenheit liegenden Werten berechnet werden kann.
Um also auch in diesem Fall g_l = 0 eine optimale Anpassung des Anregungssignales S nach LPC-Ξynthesefilterung über eine Anpassung der Parameter g_l, g_2 , S_l, S_2 an das ursprüngli- ehe Sprachsignal S vornehmen zu können, müßten sehr viele Wertepaare
(g_l = 0, g_2) in das Codebuch aufgenommen werden, was natürlich aus Speicherplatzgründen nicht möglich ist. Insofern erhält man bei einer Anpassung der Parameter im Fal- le g_l = 0 zumeist einen nicht gut passenden Wert für g_2. Das führt zu unerwünschten Signalanteilen im gesamten Anregungssignal Ξ' nach der Quantisierung.
Die meisten konventionell verwendeten Sprachcodierer lösen dieses Problem überhaupt nicht.
Manche Sprachcodierer, so zum Beispiel der GSM Enhanced- Fullrate-Coder (GSM-EFR) , führen eine Skalarquantisierung der Verstärkungsfaktoren durch. Das heißt in diesem Falle, dass der adaptive Verstärkungsfaktor mit 4 Bit pro Subrahmen und der feste Verstärkungsfaktor mit 5 Bit pro Subrahmen individuell und unabhängig voneinander quantisiert werden. Das hat den Vorteil, dass bei bestimmten nicht-stationären Sp achab- schnitten, beispielsweise bei den Onsets, der adaptive Verstärkungsfaktor leicht zu Null quantisiert werden kann, und der feste Verstärkungsfaktor einen davon unabhängigen Wert nach Quantisierung annehmen kann. Es hat aber gegenüber der Vektorquantisierung den Nachteil geringerer Codiereffizienz: Im GSM-EFR-Coder benötigt man 4+5 = 9 Bit für die Verstärkungsfaktoren, bei einer Vektorquantisierung reichen 7 Bit aus . Ein weiterer Nachteil hier ist auch, dass keine zusätzlichen Bits zur Verfügung stehen, um die feste Anregung beziehungsweise den festen Verstärkungsfaktor entsprechend genauer zu quantisieren. Die Bits des adaptiven Codebuchs, das heißt der Sprachgrundfrequenz, bleiben im Falle, dass der adaptive Verstärkungsfaktor zu Null gewählt wurde, ungenutzt. Der GSM-Halfrate-Coder (GSM-HR) arbeitet demgegenüber in mehreren Modi. Ein Modus sieht vor, dass in bestimmten Subrahmen, beispielsweise solchen, die Onsets darstellen, das adaptive Codebuch durch ein zweites festes Codebuch ersetzt wird. Das löst zwar in gewisser Weise das Problem, erfordert aber eine relativ hohe Komplexität und auch Speicherbedarf für das zweite Codebuch. Auch steigt die Anfälligkeit gegenüber Bitfehlern bei der Übertragung, da modusabhängig ein völlig neuer Codecparameter genutzt wird. Überdies muss bei dem GSM-HR- Codec die Abschaltung des adaptiven Codebuchs explizit über Modusbits signalisiert werden.
Der vorliegenden Erfindung liegt also die Aufgabe zugrunde, ein Verfahren zur Codierung und zur Übertragung anzugeben, das speicherplatz-sparend, effizient und wenig fehleranfällig arbeitet, insbesondere komplexitäts- und codier-effizient abläuft und zugleich eine hohe Signalqualität nach der Decodie- rung aufweist.
Diese Aufgabe wird durch die unabhängigen Ansprüche 1 und 6 gelöst, Weiterbildungen ergeben sich aus den unabhängigen Ansprüchen. Erfindungsgemäß wird bei bestimmten Werten eines Signalklassifikators der Wert des ersten Verstärkungsfaktors, welcher einem adaptiven Codebuch zugeordnet ist, festgesetzt. Dadurch lässt sich eine Reduktion der Datenmenge erreichen, die zur Darstellung der Gesamtheit von erstem Verstärkungsfaktor und adaptiven Codebucheintrag benötigt wird. Das Sprachsignal wird in einzelne Zeitabschnitte zerlegt. Diese Abschnitte können beispielsweise Rahmen (Frames) oder Sub-Rahmen (Sub-Frames) darstellen. Der Signalklassifikator sagt beispielsweise aus, ob ein stationärer oder ein nicht-stationärer Sprachabschnitt vorliegt, also ob es sich etwa um einen Sprach-Onset handelt. Liegt nun ein derartiger Fall vor, so kann dem ersten Verstärkungsfaktor ein durch den Signalklassifikator festgeleg- ter Wert zugeordnet werden. Beispielsweise durch entsprechende Indizierung kann dieser Wert des ersten Verstärkungsfaktors derart festgelegt werden, daß diese Darstellung des Wertes weniger Bits benötigt als eine herkömmliche Darstellung. Ebenso ist es natürlich alternativ, optional oder zusätzlich möglich, eine Kompression zu erzielen, indem, wenn der erste Verstärkungsfaktor festgelegt wird, die Darstellung des Eintrags des adaptiven Codebuchs komprimiert wird. Somit ergibt sich eine im Vergleich zum Stand der Technik codiereffiziente Darstellung zumindest eines Parameters, der im Zu- ge der Sprachcodierung auftritt.
Insbesondere erweist sich dieses Verfahren als vorteilhaft, wenn der erste Verstärkungsfaktor auf Null festgesetzt wird. Dadurch wird die Qualität des sprach-decodierten Signals er- höht, da, wie eingangs dargelegt, beispielsweise weniger Quantisierungsfehlersignalanteile bei nicht-stationären Sprachabschnitten auftreten.
Eine andere Weiterbildung sieht vor, daß der zweite Verstär- kungsfaktor skalar quantisiert ist, falls der erste Verstärkungsfaktor festgesetzt ist. Beispielsweise kann dann die Auflösung der Quantisierung des zweiten Verstärkungsfaktors erhöht werden.
Somit kann beispielsweise im Falle von Sprach-Onsets, die durch den festen Anteil der Anregung g_2 * S_f dargestellt werden, ein erweiterter Wertebereich für den zweiten Verstärkungsfaktor zugelassen werden, was eine genauere Beschreibung eines derartigen Sprachsignalabschnittes ermöglicht.
In einer anderen Weiterbildung ist es vorgesehen, daß der Co- dierer mit einer festen Datenrate arbeitet, das heisst, für einen Abschnitt eines Sprachsignals ist eine feste Datenmenge vorgesehen. Die erzielte Reduktion der Datenmenge zur Darstellung des ersten Verstärkungsfaktors und alternativ oder optional des adaptiven Codebuch-Eintrages, kann dahingehend ausgenutzt werden, daß der nun nicht mit Daten belegte Anteil der Datenmenge zur Darstellung anderer Parameter verwendet wird, welche bei der Sprachcodierung auftreten. In einer anderen Weiterbildung ist vorgesehen, daß der Sprachabschnitt mit einer reduzierten Datenmenge dargestellt wird. Dieses Verfahren kann insbesondere bei der Verwendung eines Codierverfahrens mit variabler Bitrate Anwendung finden.
Desweiteren betrifft die Erfindung ein Verfahren zur Übertra- gung von Sprachsignalen, die gemäß einem der vorhergehenden Ansprüche codiert sind. Wesentlich ist hierbei, daß der erste Verstärkungsfaktor oder/und der adaptive Codebuch-Eintrag nicht übertragen wird.
Insbesondere weist dieses Verfahren Vorteile auf, wenn dem
Empfänger, beispielsweise dem Decodierer, durch eine Information angezeigt wird, daß diese Reduktion in der Datenmenge zur Darstellung einzelner Parameter vorgenommen wurde. Diese Information kann beispielsweise einen Anteil des durch die Reduktion nicht mit Daten belegten Datenmenge belegen oder auch zusätzlich zu der Datenmenge des Rahmens oder SubRahmens gesendet werden. Im folgenden wird die Erfindung anhand einiger Ausführungsbeispiele erläutert, die teilweise durch Figuren erläutert werden. Es zeigen
Figur 1 einen Überblick über das Analyse-durch-Synthese- Prinzip in der Sprachcodierung, Figur 2 die Verwendung von adaptivem und festem Codebuch mit den zughörigen Verstärkungsfaktoren.
Figur 1 zeigt den schematischen Ablauf einer Sprachcodierung nach dem Analyse-durch-Synthese-Prinzip.
Im wesentlichen wird das originäre Sprachsignal 10 mit einem synthetisierten Sprachsignal 11 verglichen. Das synthetisier- te Sprachsignal 11 soll derart sein, daß die Abweichung zwischen dem synthetisierten Sprachsignal 11 und dem originären Sprachsignal 10 minimal ist. Diese Abweichung wird gegebenenfalls noch spektral gewichtet. Dies geschieht über ein Wichtungsfilter W(z) . Das synthetisierte Sprachsignal wird mit Hilfe eines LPC-Synthesefilters H(z) hergestellt. Dieses Synthesefilter wird über ein Anregungssignal 12 angeregt. Die Parameter dieses Anregungssignales 12 (und gegebenenfalls auch die Koeffizienten des LPC-Synthesefilters) werden letztlich übertragen und sollten daher möglichst effizient codiert sein.
Die Erfindung zielt also auf eine möglichst effiziente Darstellung der Parameter ab, welche den Anregungsgenerator beschreiben. In Figur 2 ist der Anregungsgenerator ohne nachgeschaltetem LPC-Synthese-Filter im Detail zu sehen.
Das Anregungssignal 12 setzt sich zusammen aus einem adaptiven Anteil, mittels dem überwiegend periodische Sprachabschnitte dargestellt werden und einem festen Anteil, der zur Darstellung nichtperiodischer Abschnitte dient. Dies wurde im einzelnen bereits eingangs dargelegt. Zur Darstellung des adaptiven Anteils dient das adaptive Codebuch 1, dessen Einträge mit einem ersten Verstärkungsfaktor 3 gewichtet werden. Die Einträge des adaptiven Codebuchs 1 sind durch die vorhergehenden Sprachabschnitte festgelegt. Dies geschieht über eine Rückkoppelschleife 2. Der erste Verstärkungsfaktor 3 wird durch die Anpassung an das originäre Sprachsignal 10 be- stimmt. Das feste Codebuch 4 enthält, wie der Name schon sagt, Einträge, welche nicht von einem vorhergehenden Zeitabschnitt bestimmt sind. Jeder Eintrag im Codebuch, das sogenannte Codewort, ein algebraischer Codevektor, ist eine Pulssequenz, die nur zu wenigen, definierten Zeitpunkten Werte ungleich 0 aufweist. Es wird dieser Eintrag oder Anregungssequenz gewählt, mittels der die Abweichung des synthetisierten Signals 11 zum originären Sprachsignal 10 minimiert wird. Der dem festen Codebuch zugeordnete Verstärkungsfaktor 5 wird dementsprechend festgelegt . Zunächst ist vorgesehen, dass für jeden Rahmen ein sogenannter Signalklassifikator berechnet wird. Dieser Signalklassi- fikator kann beispielsweise eine binäre Entscheidung liefern, ob das adaptive Codebuch genutzt werden soll oder nicht. Zu diesem Zweck kann es sich um einen Onset-Erkenner handeln. Es ist vorgesehen, dass in Abhängigkeit von dem Klassifikator der adaptive Verstärkungsfaktor zu Null gesetzt wird, das heißt die adaptive Anregung nicht in das Gesamtanregungs- signal des LPC-Synthesefilters eingeht. Es ist darüber hinaus vorgesehen, dass zumindest ein Parameter nicht mehr übertra- gen wird. Hierfür gibt es mehrere sinnvolle Alternativen:
- Wird beispielsweise der Wert 0 für den adaptiven Verstärkungsfaktor übertragen, so muss der adaptive Codebucheintrag (das heißt die Sprachgrundfrequenz) nicht mehr übertragen werden, da er ja auf Empfangsseite eh mit einer Null multipliziert würde.
- Wird beispielsweise das Nullsetzen der adaptiven Anregung dem Decoder durch ein reserviertes Wort des adaptiven Code- buchs (das heißt der Sprachgrundfrequenz) signalisiert, so braucht der adaptive Verstärkungsfaktor nicht mehr übertragen zu werden. Im Falle einer Vektorquantisierung von adaptivem und festem Verstärkungsfaktor könnte der feste Verstärkungsfaktor beispielsweise skalar quantisiert werden.
- Wird der Klassifikator durch ein explizites Bit übertragen, so kann im Falle eines Onsets sogar auf die Übertragung von adaptivem Codebucheintrag (Sprachgrundfrequenz) und adaptivem Verstärkungsfaktor verzichtet werden.
Vorteil jeder dieser möglichen Realisierungen ist, dass im Vergleich zur State-of-the-Art eine geringere Zahl an Bits übertragen werden kann. Bei Codierverfahren mit fester Bitrate können diese Bits nun genutzt werden, um die Quantisierung des festen Verstärkungsfaktors, und/oder die Quantisierung der festen Anregung, und/oder die Quantisierung der LPC- Koeffizienten zu verbessern. Im allgemeinen kann jeder verbleibende Codec-Parameter potentiell von einer verbesserten Quantisierung profitieren. Im Gegensatz zum GSM-HR-Coder ist kein neuer Parameter vorgesehen (das heißt kein zweites festes Codebuch) , stattdessen aber die verbesserte Quantisie- rung bereits vorhandener Parameter. Dies spart Rechenkomplexität, Speicherbedarf, und ermöglicht die Berücksichtigung spezifischer Eigenarten von Subrahmen mit Onsets. Durch geschickte Einbettung der zusätzlich nutzbaren Bits in die Quantisierungstabellen anderer Codecparameter kann zudem speichereffizient codiert werden.
Zusammenfassend lässt sich sagen, daß durch das Nullsetzen der adaptiven Anregung im Falle eines Onsets, und durch Nutzung freiwerdender Bits der adaptiven Anregung beziehungswei- sedes adaptiven Verstärkungsfaktors eine verbesserte Quantisierung verbleibender Codec-Parameter erzielt werden kann.
Eine geschickte Einbettung der zusätzlich freiwerdenden Bits soll im Folgenden kurz skizziert werden. Angenommen, das Nullsetzen der adaptiven Anregung wird durch ein reserviertes Wort im adaptiven Codebuch signalisiert. Dann kann der feste Verstärkungsfaktor, der zuvor mit 7 Bit gemeinsam mit 'dem ad- aptiven Verstärkungsfaktor vektor-quantisiert wurde, bei in etwa gleichem Quantisierungsfehler beispielsweise skalar mit 5 Bit quantisiert werden. Die mit 5 Bit quantisierten Werte des festen Verstärkungsfaktors könnten sich aus einer 25%- Untermenge des 7 Bit-Vektorcodebuchs ergeben, und zwar eine mit beliebigen 5 Bit aus den 7 Bit adressierbare Untermenge. Eine solche Realisierung des 5 Bit Skalarquantisierers spart zusätzlichen Speicher. Die freiwerdenden 2 Bit können nun beispielsweise zur genaueren Quantisierung der festen Anre- gung genutzt werden.
Neben den hier aufgeführten Beispielen liegt eine Vielzahl weiterer AusführungsVarianten im Rahmen der Erfindung, die von einem Fachmann anhand der Ausführungen ohne großen Auf- wand in die Praxis umgesetzt werden können.

Claims

Patentansprüche
1. Verfahren zur Codierung von Sprachsignalen,
- bei dem das Sprachsignal in Sprachsignalabschnitte zerlegt wird,
- bei dem sich das Anregungssignal für das Synthesefilter zumindest mittels eines festen Codebuchs und eines zugeordneten zweiten Verstärkungsfaktors, und optional mittels eines adaptiven Codebuchs mit einem zugehörigen ersten Verstärkungsfaktor zusammensetzen läßt,
- bei dem der Sprachsignalabschnitt hinsichtlich sprachlicher Besonderheiten durch einen Signalklassifikator klassifiziert wird und
- bei dem in Abhängigkeit vom Signalklassifikator der Wert des ersten Verstärkungsfaktors festgesetzt wird, wodurch die zur Darstellung der Gesamtheit von adaptivem Codebucheintrag und erstem Verstärkungsfaktor benötigte Datenmenge reduziert wird.
2. Verfahren nach Anspruch 1, bei dem der erste Verstärkungsfaktor auf Null festgesetzt wird.
3. Verfahren nach einem der Ansprüche 1 oder 2 , bei dem der zweite Verstärkungsfaktor skalar quantisiert wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem für einen Sprachsignalabschnitt eine vorher festgelegte Datenmenge reserviert ist und aufgrund der Reduzierung der Datenmenge zur Darstellung der Gesamtheit von erstem Verstär- kungsfaktor und dem Eintrag des adaptiven Codebuchs zumindest ein anderer Parameter, welcher bei der Sprachcodierung auftritt, einen größeren Teil der vorher festgelegten Datenmenge beansprucht .
5. Verfahren nach Anspruch 1, bei dem für die Darstellung des Sprachsignalabschnittes aufgrund der Festsetzung des ersten Verstärkungsfaktors eine geringere Anzahl von Bits benötigt wird.
6. Verfahren zur Übertragung von Sprachsignalen, welche nach einem der Ansprüche 1 bis 5 codiert sind, bei dem der adaptive Codebucheintrag oder/und der erste Verstärkungsfaktor nicht übertragen wird.
7. Verfahren nach Anspruch 6 , bei dem einem Empfänger durch eine dafür reservierte Information angezeigt wird, daß der erste Verstärkungsfaktor auf einen dem Empfänger bekannten Wert gesetzt ist.
PCT/DE2002/001598 2001-05-18 2002-05-02 Verfahren zur steuerung des verstärkungsfaktors eines prädiktiven sprachkodieres WO2002095734A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP02740316A EP1388146B1 (de) 2001-05-18 2002-05-02 Verfahren zur codierung und zur übertragung von sprachsignalen
US10/478,142 US20040148162A1 (en) 2001-05-18 2002-05-02 Method for encoding and transmitting voice signals
DE50211294T DE50211294D1 (de) 2001-05-18 2002-05-02 Verfahren zur codierung und zur übertragung von sprachsignalen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10124420.7 2001-05-18
DE10124420A DE10124420C1 (de) 2001-05-18 2001-05-18 Verfahren zur Codierung und zur Übertragung von Sprachsignalen

Publications (2)

Publication Number Publication Date
WO2002095734A2 true WO2002095734A2 (de) 2002-11-28
WO2002095734A3 WO2002095734A3 (de) 2003-11-20

Family

ID=7685379

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2002/001598 WO2002095734A2 (de) 2001-05-18 2002-05-02 Verfahren zur steuerung des verstärkungsfaktors eines prädiktiven sprachkodieres

Country Status (5)

Country Link
US (1) US20040148162A1 (de)
EP (1) EP1388146B1 (de)
CN (1) CN100508027C (de)
DE (2) DE10124420C1 (de)
WO (1) WO2002095734A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005000828A1 (de) * 2005-01-05 2006-07-13 Siemens Ag Verfahren zum Codieren eines analogen Signals
US8515744B2 (en) 2008-12-31 2013-08-20 Huawei Technologies Co., Ltd. Method for encoding signal, and method for decoding signal
TWI549120B (zh) * 2013-01-29 2016-09-11 弗勞恩霍夫爾協會 用於選擇第一編碼演算法與第二編碼演算法之一者的裝置及方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7546237B2 (en) * 2005-12-23 2009-06-09 Qnx Software Systems (Wavemakers), Inc. Bandwidth extension of narrowband speech
DK2102619T3 (en) * 2006-10-24 2017-05-15 Voiceage Corp METHOD AND DEVICE FOR CODING TRANSITION FRAMEWORK IN SPEECH SIGNALS
US8688437B2 (en) 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
CN101286319B (zh) * 2006-12-26 2013-05-01 华为技术有限公司 改进语音丢包修补质量的语音编码方法
US8515767B2 (en) * 2007-11-04 2013-08-20 Qualcomm Incorporated Technique for encoding/decoding of codebook indices for quantized MDCT spectrum in scalable speech and audio codecs
EP3058568B1 (de) 2013-10-18 2021-01-13 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung E.V. Konzept zur codierung eines audiosignals und zur decodierung eines audiosignals mit sprachbezogenen spektralformungsinformationen
SG11201603041YA (en) 2013-10-18 2016-05-30 Fraunhofer Ges Forschung Concept for encoding an audio signal and decoding an audio signal using deterministic and noise like information
FR3013496A1 (fr) * 2013-11-15 2015-05-22 Orange Transition d'un codage/decodage par transformee vers un codage/decodage predictif

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000060575A1 (en) * 1999-04-05 2000-10-12 Hughes Electronics Corporation A voicing measure as an estimate of signal periodicity for a frequency domain interpolative speech codec system
US6192335B1 (en) * 1998-09-01 2001-02-20 Telefonaktieboiaget Lm Ericsson (Publ) Adaptive combining of multi-mode coding for voiced speech and noise-like signals
WO2001022402A1 (en) * 1999-09-22 2001-03-29 Conexant Systems, Inc. Multimode speech encoder
WO2001029825A1 (en) * 1999-10-19 2001-04-26 Atmel Corporation Variable bit-rate celp coding of speech with phonetic classification

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657418A (en) * 1991-09-05 1997-08-12 Motorola, Inc. Provision of speech coder gain information using multiple coding modes
SE504397C2 (sv) * 1995-05-03 1997-01-27 Ericsson Telefon Ab L M Metod för förstärkningskvantisering vid linjärprediktiv talkodning med kodboksexcitering
GB2312360B (en) * 1996-04-12 2001-01-24 Olympus Optical Co Voice signal coding apparatus
US6104992A (en) * 1998-08-24 2000-08-15 Conexant Systems, Inc. Adaptive gain reduction to produce fixed codebook target signal
US6330531B1 (en) * 1998-08-24 2001-12-11 Conexant Systems, Inc. Comb codebook structure
US6691092B1 (en) * 1999-04-05 2004-02-10 Hughes Electronics Corporation Voicing measure as an estimate of signal periodicity for a frequency domain interpolative speech codec system
US6574593B1 (en) * 1999-09-22 2003-06-03 Conexant Systems, Inc. Codebook tables for encoding and decoding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6192335B1 (en) * 1998-09-01 2001-02-20 Telefonaktieboiaget Lm Ericsson (Publ) Adaptive combining of multi-mode coding for voiced speech and noise-like signals
WO2000060575A1 (en) * 1999-04-05 2000-10-12 Hughes Electronics Corporation A voicing measure as an estimate of signal periodicity for a frequency domain interpolative speech codec system
WO2001022402A1 (en) * 1999-09-22 2001-03-29 Conexant Systems, Inc. Multimode speech encoder
WO2001029825A1 (en) * 1999-10-19 2001-04-26 Atmel Corporation Variable bit-rate celp coding of speech with phonetic classification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1388146A2 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005000828A1 (de) * 2005-01-05 2006-07-13 Siemens Ag Verfahren zum Codieren eines analogen Signals
US7957978B2 (en) 2005-01-05 2011-06-07 Siemens Aktiengesellschaft Method and terminal for encoding or decoding an analog signal
US8515744B2 (en) 2008-12-31 2013-08-20 Huawei Technologies Co., Ltd. Method for encoding signal, and method for decoding signal
US8712763B2 (en) 2008-12-31 2014-04-29 Huawei Technologies Co., Ltd Method for encoding signal, and method for decoding signal
TWI549120B (zh) * 2013-01-29 2016-09-11 弗勞恩霍夫爾協會 用於選擇第一編碼演算法與第二編碼演算法之一者的裝置及方法

Also Published As

Publication number Publication date
EP1388146B1 (de) 2007-11-28
WO2002095734A3 (de) 2003-11-20
US20040148162A1 (en) 2004-07-29
DE50211294D1 (de) 2008-01-10
EP1388146A2 (de) 2004-02-11
CN1533564A (zh) 2004-09-29
DE10124420C1 (de) 2002-11-28
CN100508027C (zh) 2009-07-01

Similar Documents

Publication Publication Date Title
DE69836624T2 (de) Audiokodierer und -dekodierer
DE60209861T2 (de) Adaptive Postfilterung zur Sprachdekodierung
DE19730130C2 (de) Verfahren zum Codieren eines Audiosignals
DE602004006211T2 (de) Verfahren zur Maskierung von Paketverlusten und/oder Rahmenausfall in einem Kommunikationssystem
DE602004008676T2 (de) Audiocodierung mit verschiedenen codierungsmodellen
DE4237563A1 (de)
WO2002095734A2 (de) Verfahren zur steuerung des verstärkungsfaktors eines prädiktiven sprachkodieres
DE60309651T2 (de) Verfahren zur Sprachkodierung mittels verallgemeinerter Analyse durch Synthese und Sprachkodierer zur Durchführung dieses Verfahrens
DE10296562T5 (de) Rauschunterdrückung
EP0993672B1 (de) Verfahren zur codierung und/oder decodierung von sprachsignalen unter verwendung einer langzeitprädiktion und eines mehrimpulsanregungssignals
DE602004011411T2 (de) Verfahren zur blockbeschränkten trellis-kodierten Quantisierung und ihre Verwendung in einem Verfahren und einer Vorrichtung zur Quantisierung von LSF-Parametern in einem Sprachkodiersystem
EP1697928B1 (de) Audiokodierung
DE60011606T2 (de) Audiokodierung mit verstärkungsadaptiver quantisierung und symbolen verschiedener länge
DE69821895T2 (de) Verfahren zur Sprachkodierung und -dekodierung
DE10004862B4 (de) Ein schnelles Suchverfahren für LSP-Quantisierung
DE202015009916U1 (de) Codier-/Decodiervorrichtung und -system
DE69922388T2 (de) Linear-prädiktives Analyse-durch-Synthese-Kodierverfahren und Kodierer
DE4315313C2 (de) Vektorcodierverfahren insbesondere für Sprachsignale
DE4231918C1 (de) Verfahren für die Codierung von Sprachsignalen
DE3102822C2 (de) Verfahren zur frequenzbandkomprimierten Sprachübertragung
DE19641619C1 (de) Verfahren zur Synthese eines Rahmens eines Sprachsignals
EP0697123B1 (de) Verfahren zur aufbereitung von daten, insbesondere von codierten sprachsignalparametern
DE60021455T2 (de) Multimodale Quantisierung des Prädiktionsfehlers in einem Sprachkodierer
EP1659572A1 (de) Verfahren zur Dialogsteuerung und danach arbeitendes Dialogsystem
DE4315315A1 (de) Verfahren zur Vektorquantisierung insbesondere von Sprachsignalen

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): CN US

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2002740316

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10478142

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20028144295

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2002740316

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2002740316

Country of ref document: EP