DE69734613T2 - Coded information signal - Google Patents

Coded information signal Download PDF

Info

Publication number
DE69734613T2
DE69734613T2 DE69734613T DE69734613T DE69734613T2 DE 69734613 T2 DE69734613 T2 DE 69734613T2 DE 69734613 T DE69734613 T DE 69734613T DE 69734613 T DE69734613 T DE 69734613T DE 69734613 T2 DE69734613 T2 DE 69734613T2
Authority
DE
Germany
Prior art keywords
length
representation
codewords
symbols
codeword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69734613T
Other languages
German (de)
Other versions
DE69734613D1 (en
Inventor
J. Renatus Prof.Holstlaan 6 VAN DER VLEUTEN
A. Alphons Prof. Holstlaan 6 BRUEKERS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of DE69734613D1 publication Critical patent/DE69734613D1/en
Publication of DE69734613T2 publication Critical patent/DE69734613T2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Codieren von Informationssignalblöcken, wobei das Informationssignal abgetastet und quantisiert wird zum Erhalten von Repräsentationssymbolen, die daraufhin in Codeworte verschiedener Codewortlängen codiert werden, wobei die Wahrscheinlichkeit des Auftritts für jedes Repräsentationssymbol bestimmt wird und Codeworte einer geringen Länge den Repräsentationssymbolen zugeordnet werden, die eine hohe Wahrscheinlichkeit des Auftritts haben und Codeworte einer größeren Länge Repräsentationssymbolen zugeordnet werden, deren Auftrittswahrscheinlichkeit entsprechend einer vorbestimmten Codierungstechnik gering ist, wobei Information über die Länge der Codeworte, die mit jedem Repräsentationssymbol assoziiert sind, erzeugt wird.The The present invention relates to a method of coding of information signal blocks, wherein the information signal is sampled and quantized for Obtaining representation symbols, which then encoded in codewords of different codeword lengths be, with the probability of appearance for each representation symbol is determined and code words of a short length the representation symbols be associated with a high probability of appearance have and codewords of a larger length representation symbols be associated with their occurrence probability accordingly a predetermined coding technique is low, wherein information about the Length of Code words with each representation symbol are generated.

Die vorliegende Erfindung bezieht sich ebenfalls auf eine Anordnung zum Bilden codierter Informationssignalblöcke mit Mitteln zum Abtasten und Quantisieren eines Informationssignalblocks zum Erhalten von Repräsentationssymbolen, mit Mitteln zum Bestimmen der Auftrittswahrscheinlichkeit jedes Repräsentationssymbols und mit Mitteln zum Bilden von Codes mit einer variablen Länge für die jeweiligen Repräsentationssymbole, wobei diese Codes zu einem Repräsentationssymbolblock kombiniert werden.The The present invention also relates to an arrangement for forming coded information signal blocks with means for sampling and quantizing an information signal block to obtain Representation symbols, with means for determining the probability of occurrence of each representation symbol and means for forming codes of variable length for the respective ones Representation symbols, these codes becoming a representation symbol block be combined.

Bei einem derartigen Verfahren wird ein Informationssignal abgetastet und quantisiert zum Erhalten von Repräsentationssymbolen, wobei diese Repräsentationssymbole, nötigenfalls nach einer weiteren Verarbeitung, danach in Codeworte mit verschiedenen Codewortlängen codiert werden.at In such a method, an information signal is sampled and quantizes to obtain representation symbols, these representation symbols, if necessary after further processing, then in codewords with different Codeword lengths be coded.

In US-A-5.488.616 ist ein Verfahren und eine Anordnung der oben genannten Art beschrieben für variable Längencodierung, wobei Information über die Länge der Codeworte erzeugt wird.In US-A-5,488,616 is a method and arrangement of the above Type described for variable Length coding, where information about the Length of Code words is generated.

Nach der JPEG-Norm, wie diese beispielsweise in dem Buch: "JPEG Still Image Compression Standard" von William P. Pennebaker und Joan C. Mitchell beschrieben worden ist, ist es bekannt, Codes zu verwenden, die als Huffman-Codes bezeichnet werden, zur Codierung abgetasteter quantisierter Signale. Ein Huffman-Code kann komplett dadurch spezifiziert werden, dass die Anzahl Codeworte jeder beliebigen Codewortlänge definiert wird. Die JPEG-Norm benutzt entweder feste Huffman-Tabellen, wobei jedem Code ein festes Symbol zugeordnet wird, oder adaptive Huffman-Tabellen, wobei eine Codetabelle auf Basis der Auftrittsfrequenz von Symbolen bestimmt wird. Nach der JPEG-Norm wird ebenfalls ein Repräsentationssymbol für jedes Codewort übertragen, und zwar im Fall adaptiver Tabellen. Eine Huffman-Codierung basiert auf dem Gedanken, dass eine effiziente Codierung mit Codeworten verschiedener Länge möglich ist, wenn das kleinste Codewortlänge denjenigen Codeworten zugeordnet wird, die am häufigsten auftreten.To the JPEG standard, as for example in the book: "JPEG Still Image Compression Standard "by William P. Pennebaker and Joan C. Mitchell has been described It is known to use codes called Huffman codes be used to encode sampled quantized signals. A Huffman code can be completely specified by the number of code words any codeword length is defined. The JPEG standard uses either fixed Huffman tables, where each code is assigned a fixed symbol, or adaptive Huffman tables, where a code table based on the occurrence frequency is determined by symbols. According to the JPEG standard is also a representation symbol for each Transfer codeword, in the case of adaptive tables. A Huffman coding is based on the idea that efficient coding with codewords different length possible is, if the smallest codeword length associated with those codewords that occur most frequently.

Nach der JPEG-Norm haben die Codeworte eine Länge, die von 1 bis 16 variiert und ein Repräsentationssymbol wird jedem Codewort zugeordnet, wobei diese Repräsentationssymbole von 0 bis 255 reichen.To According to the JPEG standard, the codewords have a length that varies from 1 to 16 and a representation symbol is assigned to each codeword, these representational symbols being from 0 to 255 are enough.

Die Codierung entsprechend der JPEG-Norm ist nicht effizient genug für bestimmte Anwendungen, was insbesondere ist, wenn es erforderlich ist, eine relativ große Anzahl adaptiver Huffman-Tabellen für eine relativ kleine Menge Daten zu übertragen.The Coding according to the JPEG standard is not efficient enough for certain applications, which is in particular, when required, a relatively large number adaptive Huffman tables for to transmit a relatively small amount of data.

Deswegen ist es u. a. eine Aufgabe der vorliegenden Erfindung, ein Signal und einen Empfänger zu schaffen, der es ermöglicht, dass die Daten, die sich auf die Huffman-Tabellenspezifikation beziehen, effizienter übertragen werden als mit den Huffman-Codes möglich ist, wie diese in der JPEG-Norm definiert sind, und auch mit der Codierungstechnik, wie diese in US-A-5.488.616 beschrieben worden ist.therefore is it u. a. An object of the present invention is a signal and a receiver to create that makes it possible that the data related to the Huffman table specification transmitted more efficiently be as with the Huffman codes possible is, as these are defined in the JPEG standard, and also with the Coding technique as described in US-A-5,488,616 is.

Die vorliegende Erfindung ist insbesondere aber nicht ausschließlich nützlich zum Schaffen einer effizienten, adaptiven Huffman-Codierung in dem Fall, dass die adaptive Frequenz der Huffman-Tabellen hoch ist, d. h. die Tabellen werden je Zeiteinheit eine Vielzahl male angepasst, und gleichzeitig umfasst die Anzahl Repräsentationssymbole in dem zu übertragenden Informationssignal alle oder nahezu alle erlaubten Repräsentationssymbole, wie dies der Fall sein kann in beispielsweise Audio- und Videosignalen.The The present invention is particularly but not exclusively useful for Providing efficient, adaptive Huffman coding in the case that the adaptive frequency of the Huffman tables is high, d. H. the tables are adapted a multiplicity of times per time unit, and at the same time, the number of representation symbols includes in the one to be transmitted Information signal all or almost all allowed representation symbols, as may be the case in, for example, audio and video signals.

Das Verfahren nach der vorliegenden Erfindung weist dazu das Kennzeichen auf, dass ein codierter Informationssignalblock erzeugt wird, der durch Information über die Länge des Codewortes gebildet wird, das mit jedem möglichen Repräsentationssymbol assoziiert ist, wobei die Information über die Länge jedes der Codeworte eine Anzahl Bits erhält, die der Anzahl Bits entspricht, die erforderlich ist zum Codieren der Länge des Codewortes mit der maximalen Länge.The Method according to the invention has the characteristic to this in that a coded information signal block is generated by information about the length of the codeword that is associated with any representation symbol wherein the information about the length of each of the codewords is one Receives number of bits, which corresponds to the number of bits required for encoding the length the codeword with the maximum length.

Die Anordnung nach der vorliegenden Erfindung ist gekennzeichnet durch Mittel zum Erzeugen eines codierten Informationsblocks, der Information über die Länge des Codewortes enthält, das mit jeden Repräsentationssymbol assoziiert ist, wobei die ge nannte Information eine Anzahl Bits aufweist, die der Anzahl Bits entspricht, die erforderlich ist zum Codieren der Länge des Codewortes mit der maximalen Länge.The Arrangement according to the present invention is characterized by Means for generating a coded information block containing information about the Length of the Contains codewords, that with every representation symbol which information is a number of bits which corresponds to the number of bits required for encoding the length the codeword with the maximum length.

Nach der vorliegenden Erfindung wird nur die Länge des zugeordneten Huffman-Codes für jedes mögliche Repräsentationssymbol übertragen. Die wirklichen Huffman-Codeworte können auf eine unzweideutige Art und Weise aus dieser Information hergeleitet werden, wie dies nachstehend noch näher erläutert wird. Dies erfordert an erster Stelle, dass in dem Codierer sowie in dem Decoder eine gleiche Liste von Symbolen verfügbar ist und die Huffman-Codewortlängen in der Sequenz dieser Liste übertragen werden, während an zweiter Stelle die Huffman-Codeworte, die aus den Codewortlängen hergeleitet sind, auf eine vordefinierte Weise den Symbolen zugeordnet werden. Die vorliegende Erfindung basiert nicht auf irgendwelchen Voraussetzungen in Bezug auf die Auftrittswahrscheinlichkeit von Symbolen in dem zu übertragenden Signal.To the present invention will only track the length of the associated Huffman code for any representation symbol rendered. The real Huffman codewords can be unambiguous Way be derived from this information as this in more detail below explained becomes. This requires in the first place that in the encoder as well in which decoder a similar list of symbols is available and the Huffman codeword lengths in the sequence of this list be while second the Huffman codewords derived from the codeword lengths are assigned to the symbols in a predefined way. The present invention is not based on any prerequisites in terms of the probability of occurrence of symbols in the to be transferred Signal.

Für eine effiziente Übertragung kann nur die Anzahl Codeworte jeder Länge des quantisierten Signals übertragen werden und auf der Empfangsseite kann ein bestimmtes Repräsentationssymbol n dem kürzesten Codewort zugeordnet werden und zunehmend längere Codeworte werden aufeinander folgenden Repräsentationssymbolen in einem Decoder zugeordnet. Die Repräsentationssymbole für Audio- und Videosignale werden typischerweise symmetrisch verteilt, beispielsweise entsprechend einer Gaußschen Verteilung, und zwar derart, dass wenn vorausgesetzt wird, dass die Repräsentationssymbole symmetrisch gegenüber dem Symbolwert n liegen und im Wesentlichen monoton gegenüber diesem Wert abnehmen, treten die Repräsentationssymbole, deren Codeworte die geringste Länge haben, am häufigsten auf und diejenigen, deren Codeworte die größte Länge haben, treten am wenigsten auf. Um Fehler, entstanden durch die Tatsache, dass die wirklichen Repräsentationssymbole nicht übertragen werden, zu vermeiden, ist es notwendig, dass es ein Codewort für jeden möglichen Wert des Repräsentationssymbol gibt. Da Gebrauch gemacht wird von der Tatsache, dass die Verteilung symmetrisch ist, ist es notwendig, dass im Falle einer alten Anzahl Repräsentationssymbole jedem Repräsentationssymbol, das ≠ n ist, ein Vorzeichenbit zugeordnet wird, um anzugeben, ob ein Repräsentationssymbol größer oder kleiner ist als n. Ein Vorzeichenbit wird ebenfalls dem Repräsentationssymbol n zugeordnet, in dem Fall einer geraden Anzahl Repräsentationssymbole.For efficient transmission can only transmit the number of codewords of each length of the quantized signal and on the receiving side can be a specific representation symbol n the shortest Codeword be assigned and increasingly longer codewords are on each other following representation symbols assigned in a decoder. The representation symbols for audio and video Video signals are typically distributed symmetrically, for example according to a Gaussian Distribution, in such a way that if it is assumed that the representation symbols symmetrical opposite are the symbol value n and are substantially monotonic with respect to this value decrease, occur the representation symbols whose Code words the shortest length have, most often on and those whose codewords are the longest are the least likely to occur on. To mistake, created by the fact that the real representation symbols not be transferred To avoid it, it is necessary that there is a codeword for everyone potential Value of the representation symbol gives. Since use is made of the fact that the distribution is symmetrical, it is necessary that in the case of an old number representation symbols every representation symbol that is ≠ n Sign bit is assigned to indicate whether a representation symbol bigger or smaller is as n. A sign bit also becomes the representation symbol n, in the case of an even number of representation symbols.

Nebst den Codeworten kann Information über das Codewort mit der größten Länge, das in dem übertragenen Signal auftritt, übertragen werden. Entsprechend der JPEG-Norm wird die Anzahl für alle Codeworte mit einer Länge von 1-16 mit Hilfe einer 8-Bit-Zahl spezifiziert, was bedeutet, dass dies insgesamt eine Tabelle von 16 × 8 = 128 Bits erfordert.together with The codewords can be information about the codeword with the largest length, the in the transferred Signal occurs, transmit become. According to the JPEG standard, the number for all code words with a length specified by 1-16 using an 8-bit number, which means this requires a total of 16x8 = 128 bits of table.

Da die größte Codelänge, die auftritt, oft viel kleiner sein wird als 16, kann eine effizientere Codierungstabelle dadurch erhalten werden, dass nur die Zahl übertragen wird, die auftritt und außerdem die maximale Codewortlänge für die Codewortlängen, die wirklich auftreten. Wenn beispielsweise die maximale Codewortlänge L = 5 und die maximal erlaubte Länge 16 beträgt, erfordert dies 4 Bits um die größte Codewortlänge in einem zusätzlichen Datenfeld unterzubringen. Da es niemals mehr als 2L Codeworte mit der Länge L gibt, sind nur L Bits erforderlich um die Anzahl Codeworte mit der Länge L zu definieren. Für L = 5 besteht nach der vorliegenden Erfindung die Tabelle folglich aus 4 + 1 + 2 + 3 + 4 + 5 = 19 Bits, was eine wesentliche Verbesserung gegenüber den oben genannten 128 Bits ist.Since the largest code length that occurs will often be much smaller than 16, a more efficient coding table can be obtained by transmitting only the number that occurs and also the maximum codeword length for the codeword lengths that actually occur. For example, if the maximum codeword length is L = 5 and the maximum allowable length is 16, this requires 4 bits to accommodate the largest codeword length in an additional data field. Since there are never more than 2 L codewords of length L, only L bits are required to define the number of codewords of length L. Thus, for L = 5, according to the present invention, the table consists of 4 + 1 + 2 + 3 + 4 + 5 = 19 bits, which is a substantial improvement over the above-mentioned 128 bits.

Eine noch effizientere Codierung wird erhalten durch Minimierung der Summe der Anzahl Bits, die erforderlich sind zum Spezifizieren der Tabelle und der Anzahl Bits, die erforderlich sind zum Codieren der wirklichen Daten. Wenn die maximale Codewortlänge, die zugeordnet ist, abnimmt, sind weniger Bits notwendig zum Spezifizieren der Tabelle aber es sind mehr Bits notwendig zum Codieren der Daten, weil die Effizienz des Codes abnimmt, je nachdem die maximal erlaubte Codewortlänge reduziert wird. Durch eine schrittweise Reduktion der erlaubten Codewortlänge und durch eine gleichzeitige Überwachung der gesamten Anzahl Bits, die notwendig sind zum Übertragen der Information, ist es möglich, die optimale Codewortlänge zu finden, für welche die gesamte Anzahl zu übertragender Bits minimal ist.A even more efficient coding is obtained by minimizing the Sum of the number of bits required to specify the Table and the number of bits required for coding the real data. If the maximum codeword length, the is allocated, fewer bits are needed to specify but more bits are needed to encode the data because of the table the efficiency of the code decreases, depending on the maximum allowed Codeword length is reduced. By a gradual reduction of the allowed Codeword length and by a simultaneous monitoring the total number of bits necessary to transmit the information, it is possible the optimal codeword length to find for which the total number to be transferred Bits is minimal.

Es ist bekannt, dass in dem Fall, dass es wenig verschiedene Repräsentationssymbole gibt, beispielsweise 7 Repräsentationssymbole, die Effizienz der Huffman-Codierung dadurch gesteigert werden kann, dass eine Anzahl derartiger Repräsentationssymbole zu einem Symbol oder zu einem Vektor größerer Länge gruppiert werden. Die Effizienz eines Huffman-Codes ist innerhalb 1 Bit/Repräsentationssymbol der Entropie des Signals mit den Repräsentationssymbolen gewährleistet, was bedeutet, dass im Falle einer geringen Anzahl Repräsentationssymbole der Huffman-Code relativ ineffizient ist. Dies wird durch die genannte Gruppierung gelöst.It It is known that in the case that there are few different representation symbols gives, for example 7 representation symbols, the efficiency of Huffman coding can be increased by having a number of such representation symbols grouped into a symbol or a vector of greater length. The efficiency of a Huffman code is within 1 bit / representation symbol of the entropy the signal with the representation symbols guaranteed which means that in case of a small number of representation symbols the Huffman code is relatively inefficient. This is called by the Grouping solved.

Wenn Gruppen von Repräsentationssymbolen verwendet werden, kann das oben beschriebene Verfahren, wobei nur die Anzahl Codeworte jeder Länge des quantisierten Signals übertragen wird, nicht angewandt werden, um die Effizienz zu steigern, weil die Klassifizierung der Gruppen auf Basis deren Wahrscheinlichkeit des Auftritts abhängig ist von der Wahrscheinlichkeit der Repräsentationssymbole, aus denen eine Gruppe besteht.If Groups of representation symbols can be used, the method described above, where only the number of codewords of each length of the quantized signal will not be applied to increase efficiency because the classification of groups based on their probability depending on the performance is the probability of the representation symbols that make up a group exists.

Dies kann dadurch gelöst werden, dass die quantisierte Wahrscheinlichkeit der ursprünglichen Repräsentationssymbole übertragen wird. Die Wahrscheinlichkeit, die dadurch ermittelt werden kann, dass die Anzahl Male, dass jedes Repräsentationssymbol auftritt, ermittelt wird und diese Zahl durch die gesamte Anzahl Repräsentationssymbole in dem Informationssignal geteilt wird, kann beispielsweise in 32 Pegeln quantisiert werden.This can be solved by transmitting the quantized probability of the original representation symbols. The true The probability that can be determined by determining the number of times each representation symbol occurs and dividing this number by the total number of representation symbols in the information signal can be quantized in 32 levels, for example.

Die Anzahl quantisierter Wahrscheinlichkeiten kann reduziert werden, wenn, im Falle einer ungeraden Anzahl Repräsentationssymbole die Verteilung der Repräsentationssymbole symmetrisch ist, so dass p(n + K) = p(n – K), wobei n = das zentrale Repräsentationssymbol ist, Gebrauch gemacht wird von der Tatsache, dass die Summe der Wahrscheinlichkeiten 1 ist. Dann brauchen nur ((N + 1)/2) – 1 Wahrscheinlichkeiten für N Repräsentationen übertragen zu werden. Für eine symmetrische Verteilung, wobei beispielsweise N = 3 ist, brauchen nur p(n) gegeben zu werden, weil p(n + 1) = p(n – 1) ist und p(n – 1) + p(n) + p(n + 1) = 1 ist.The Number of quantized probabilities can be reduced if, in the case of an odd number of representation symbols, the distribution the representation symbols is symmetric such that p (n + K) = p (n - K), where n = the central representation symbol is made use of the fact that the sum of Chances is 1. Then only ((N + 1) / 2) - 1 probabilities are needed for N representations to become. For a symmetrical distribution, where for example N = 3, need to be given only p (n) because p (n + 1) = p (n-1) and p (n-1) + p (n) + p (n + 1) = 1.

Im Falle einer geraden Anzahl von N Repräsentationssymbole gelten entsprechende Erwägungen und nur N/2–1 Wahrscheinlichkeiten sollen übertragen werden.in the In case of an even number of N representation symbols, corresponding ones apply considerations and only N / 2-1 Probabilities should be transferred become.

Entsprechend dem oben stehenden Prinzip wird die Wahrscheinlichkeit der gruppierten Abtastwerte auf Basis der übertragenen Wahrscheinlichkeiten in dem Codierer sowie in dem Decoder berechnet, und zwar mit Hilfe desselben Algorithmus. Dies wird dadurch effektuiert, dass die Wahrscheinlichkeiten der einzelnen Abtastwerte miteinander multipliziert werden. So wird beispielsweise die Wahrscheinlichkeit der Gruppe (n, n, n + 1) berechnet durch p(n, n, n + 1) = p(n)·p(n)·p(n + 1). Danach wird für diesen Vektor ein Huffman-Code erzeugt, wobei die Codierung, die von dem Codierer und dem Decoder angewandt wird, offenbar dieselbe ist.Corresponding The above principle is the probability of grouped Samples based on the transmitted Calculates probabilities in the encoder as well as in the decoder, using the same algorithm. This is done by that the probabilities of each sample together be multiplied. For example, the probability becomes of the group (n, n, n + 1) calculated by p (n, n, n + 1) = p (n) * p (n) * p (n + 1). After that will be for this vector generates a Huffman code, the encoding, the is applied by the encoder and the decoder, apparently the same is.

In dem Fall, dass die Verteilung der Repräsentationssymbole symmetrisch ist, wird nur die Hälfte der Anzahl Repräsentationssymbole zur Gruppierung verwendet, was die Größe des Codes wesentlich reduziert. Für jedes Repräsentationssymbol in der Gruppe wird dem Huffman-Codewort ein Vorzeichenbit hinzugefügt; in dem Fall einer ungeraden Anzahl Repräsentationssymbole braucht dem Repräsentationssymbol n kein Vorzeichenbit zugeordnet zu werden.In In the case that the distribution of the representation symbols is symmetrical is, only half the number of representation symbols used for grouping, which greatly reduces the size of the code. For each representation symbol in the group, a sign bit is added to the Huffman codeword; by doing Case of an odd number of representation symbols needs the representation symbol n no sign bit to be assigned.

Solange der Codierer und der Decoder dasselbe Verfahren der Erzeugung der Huffman-Codes anwenden, kann jede Methode, die zu einer Huffman-Codierung führt, angewandt werden. Wenn Huffman-Codes von dem JPEG-Typ verwendet werden, ist es vorteilhaft, dass die größte Codewortlänge, die auftritt, auf einfache Weise begrenzt werden kann.So long the encoder and the decoder the same method of generating the Huffman codes can use any method that results in a Huffman encoding leads, be applied. When using Huffman codes of the JPEG type It is advantageous that the largest codeword length, the occurs, can be easily limited.

Wenn die Wahrscheinlichkeiten des Auftritts jedes Repräsentationssymbols auf die oben beschriebene Art und Weise übertragen werden, ist es möglich, andere Codierungstechniken variabler Länge, wie arithmetische Codierung, anzuwenden, wobei es in diesem Fall nicht notwendig ist, Gruppen von Repräsentationssymbolen zu bilden.If the probabilities of the appearance of each representation symbol in the manner described above, it is possible to others Coding techniques of variable length, like arithmetic coding, applying it in this case it is not necessary to form groups of representation symbols.

Die oben beschriebenen Methoden zum Codieren eines Informationssignals sind insbesondere geeignet zur Anwendung in einem digitalen Audio-Übertragungssystem, wobei das Signal in Teilbänder aufgeteilt wird und wobei die Teilbänder oder Kombinationen von Teilbändern mit Hilfe der oben beschriebenen Techniken zur Übertragung der Codierungsinformation codiert werden. Dies bedeutet, dass wenn die Anzahl Repräsentationssymbole in (einer Kombination von) Teilbändern gering ist, beispielsweise 3, 5 oder 7, die Wahrscheinlichkeit des Auftritts jedes der Symbole übertragen wird, um es zu ermöglichen, dass dieselbe Codierungstabelle in dem Codierer sowie in dem Decoder erzeugt wird, wobei Gruppierung von Repräsentationssymbolen möglich ist. Wenn die Anzahl Repräsentationssymbole in (einer Kombination von) Teilbändern größer ist, beispielsweise größer als 9, wird die exklusive Übertragung von Information über die Anzahl Codeworte jeder Länge benutzt, wobei jedes Codewort mit einem Repräsentationssymbol assoziiert wird, wenn dies in Kombination mit Information über das längste Codewort, das auftritt, erforderlich ist.The methods described above for coding an information signal are particularly suitable for use in a digital audio transmission system, where the signal is in subbands and where the subbands or combinations of subbands using the techniques described above for transmitting the coding information be coded. This means that if the number of representation symbols in (a combination of) subbands is low, for example 3, 5 or 7, the probability of occurrence transmit each of the symbols is to make it possible that same encoding table in the encoder as well as in the decoder is generated, whereby grouping of representation symbols is possible. If the number of representation symbols in (a combination of) subbands is bigger, for example, greater than 9, will be the exclusive transfer of information about the number of codewords of each length where each codeword is associated with a representation symbol when combined with information about the longest codeword that occurs, is required.

Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im vorliegenden Fall näher beschrieben. Es zeigen:embodiments The invention are illustrated in the drawings and are in the present Case closer described. Show it:

1a-d ein Beispiel einer Huffman-Codierung nach einem ersten, zweiten und fünften Aspekt der vorliegenden Erfindung, 1a -d an example of a Huffman coding according to a first, second and fifth aspect of the present invention,

2 ein Blockschaltbild eines Übertragungssystems für ein digitales Audiosignal, wobei die Codierung nach der vorliegenden Erfindung angewandt wird, 2 a block diagram of a transmission system for a digital audio signal, wherein the coding is applied according to the present invention,

3a, b eine Darstellung eines Verfahrens zum Minimieren der Anzahl zu übertragender Bits, und 3a , b is an illustration of a method for minimizing the number of bits to be transmitted, and

4 ein Flussdiagramm eines Verfahrens zum Reduzieren der Anzahl Bits der Code-Tabelleninformation. 4 a flowchart of a method for reducing the number of bits of the code table information.

Das nachfolgende Beispiel basiert auf einem abgetasteten, quantisierten Signal, dargestellt durch 7 Repräsentationssymbole oder Abtastwerte 0-6. Ein Codierer bestimmt die Wahrscheinlichkeit des Auftritts jedes dieser 7 Repräsentationssymbole in dem zu übertragenden Signalblock, der ein Signalframe oder ein Unterframe sein kann, und auf Basis davon wird jedem dieser Repräsentationssymbole entsprechend einem durchaus bekannten Huffman-Codierungsprinzip ein Codewort variabler Länge zugeordnet, wie dies u.a. in der oben genannten Norm "JPEG Still Image Compression Standard" beschrieben worden ist.The following example is based on a sampled, quantized signal represented by 7 Representation symbols or samples 0-6. An encoder determines the probability of occurrence of each of these 7 Representation symbols in the signal block to be transmitted, which may be a signal frame or a subframe, and based thereon Each of these representation symbols is assigned a codeword of variable length in accordance with a well-known Huffman coding principle, as has been described, inter alia, in the abovementioned standard "JPEG Still Image Compression Standard".

1a zeigt als Beispiel die Reihe Repräsentationssymbole und die denselben zugeordneten Codeworte. Aus 1a ist ersichtlich, dass es ein Codewort mit einer Länge 2 gibt, dass es zwei Codeworte mit einer Länge 3 gibt und dass es vier Codeworte mit einer Länge 4 gibt. Es wird Information über das Codewort mit der größten Länge, das auftritt, in dem vorliegenden Fall mit der Länge 4, übertragen. Im Falle einer maximal erlaubten Länge 16 kann diese Information durch: 0 1 0 0 dargestellt werden. Daraufhin wird Information über die Anzahl Codeworte jeder Länge übertragen, wobei eine Länge L maximal L Bits erfordert. In dem vorliegenden Beispiel sind die Codes folglich: 0; 01; 010; 0100. Zum Schluss werden die Codes für die wirklichen Repräsentationssymbole übertragen. Wenn die Reihe von Repräsentationssymbolen 1-0-0-2-4-6-0-1 als Beispiel genommen wird, ist die Bitreihe für diese Symbolreihe nach 1a: 010-00-011-1001-1011-00-010. Der gesamte übertragene Bitstrom ist in 1b dargestellt. 1a shows, as an example, the series representation symbols and the codewords assigned to them. Out 1a It can be seen that there is a codeword of length 2, that there are two codewords of length 3, and that there are four codewords of length 4. Information about the largest length codeword that occurs, in the present case length 4, is transmitted. In the case of a maximum allowed length 16, this information can be represented by: 0 1 0 0. Subsequently, information about the number of codewords of each length is transmitted, with a length L requiring at most L bits. Thus, in the present example, the codes are: 0; 01; 010; 0100. Finally, the codes for the actual representation symbols are transmitted. When the series of representation symbols 1-0-0-2-4-6-0-1 is taken as an example, the bit series for that symbol series is after 1a : 010-00-011-1001-1011-00-010. The entire transmitted bit stream is in 1b shown.

Auf Basis dieses empfangenen Bitstroms bestimmt der Decoder zunächst, dass die maximale Codewortlänge 4 beträgt und welches Repräsentationssymbol zu welchen Codewort gehört. Dies ist möglich, weil die Huffman-Codierung entsprechend JPEG unzweideutig die Codeworte definiert: Codeworte einer bestimmten Länge (L) für aufeinander folgende Repräsentationssymbole werden durch binäre Zählung definiert und, bei einer Änderung zu einem Codewort, dessen Länge um 1 Bit größer ist (L + 1), wird das bestehende Codewort der Länge L zunächst binär um Eins erhöht und danach wird neben dem am wenigsten signifikanten Bit eine 0 eingefügt, wonach binäre Zählung stattfindet für auf einander folgende Codeworte gleicher Länge. Dieses Prinzip ist in der Tabelle nach 1a dargestellt.Based on this received bit stream, the decoder first determines that the maximum codeword length 4 and which representation symbol belongs to which codeword. This is possible because the Huffman coding according to JPEG unequivocally defines the codewords: codewords of a certain length (L) for successive representational symbols are defined by binary counting and, when changing to a codeword whose length is greater by 1 bit (L + 1), the existing codeword of length L is first incremented by one and then a 0 is inserted next to the least significant bit, followed by binary counting for successive codewords of equal length. This principle is in the table below 1a shown.

1c zeigt schematisch, wie der Decoder bestimmt, welches Codewort zu welchen Repräsentationssymbol gehört. Daraufhin kann der Decoder die ursprüngliche Reihe von Repräsentationssymbolen auf Basis der empfangenen codierten Repräsentationssymbole herleiten, wie in 1b dargestellt. 1c schematically shows how the decoder determines which codeword belongs to which representation symbol. The decoder may then derive the original set of representation symbols based on the received coded representation symbols, as in FIG 1b shown.

1d zeigt, wie für das Beispiel nach 1a die Information über die Huffman-Codeworte nach der vorliegenden Erfindung übertragen wird. Für jedes mögliche Symbol wird nur die Länge des assoziierten Huffman-Codes übertragen. 1d zeigt wieder dieselben Repräsentationssymbole in der linken Spalte, die Huffman-Codeworte des Beispiels nach 1a in der mittleren Spalte und die übertragene Information in der rechten Spalte. In dem Fall von n möglichen Codeworten mit einer maximalen Länge von L Bits, müssen L × n Bits übertragen werden. 1d shows, as for the example below 1a the information is transmitted via the Huffman codewords according to the present invention. For each possible symbol, only the length of the associated Huffman code is transmitted. 1d again shows the same representation symbols in the left column, the Huffman codewords of the example 1a in the middle column and the transmitted information in the right column. In the case of n possible codewords having a maximum length of L bits, L x n bits must be transmitted.

Für die herkömmliche Übertragung nach der JPEG-Norm ist die Anzahl Bits im Falle von beispielsweise 256 Symbolen, gleich der Anzahl Bits, erforderlich für die Information über die Anzahl Codeworte jeder Länge, beispielsweise y Bits, plus 256 × 8 Bits zum Spezifizieren des Symbols, das mit jedem Codewort assoziiert ist. Dies ist insgesamt (256 × 8) + y Bits.For the conventional transmission for example, according to the JPEG standard, the number of bits is 256 symbols, equal to the number of bits required for the information about the Number of codewords of each length, for example, y bits, plus 256x8 bits for specifying of the symbol associated with each codeword. This is total (256 × 8) + y bits.

Nach dem Verfahren nach der vorliegenden Erfindung sind im Falle von Huffman-Codeworten mit einer maximalen Länge von 16 nur 256 × 4 Bits erforderlich, was durch 4 Bits codiert werden kann (die Länge 0 tritt nicht auf), d. h. weniger als die halbe Anzahl Bits, die nach der JPEG-Norm erforderlich sind.To The method of the present invention are in the case of Huffman codewords with a maximum length of 16 only 256 × 4 bits required, which can be coded by 4 bits (the length 0 occurs not open), d. H. less than half the number of bits after the JPEG standard are required.

Im Falle des Verfahrens nach der vorliegenden Erfindung berechnet der Decoder das Histogramm der Codewortlänge als Basis für die Berechnung des Huffman-Codewortes, das mit jedem Symbol entsprechend der einzigartigen Beziehung zwischen den Huffman-Codes und den Codewortlängen derselben assoziiert ist. Wenn es aber erwünscht ist, kann dieses Histogramm auf alternative Weise in dem Decoder berechnet werden und die Histogramminformation kann auf eine effiziente Weise dem Decoder zugeführt werden. Dies kann beispielsweise nach dem Standard-JPEG-Verfahren erfolgen, aber auch das oben beschriebene Verfahren ist möglich.in the Case of the method according to the present invention calculates Decoder the histogram of the codeword length as basis for the calculation the Huffman codeword, that with each symbol according to the unique relationship between the Huffman codes and the codeword lengths of the same. If desired Alternatively, this histogram can be in the decoder can be calculated and the histogram information can be on an efficient Way supplied to the decoder become. This can be done, for example, by the standard JPEG method carried out, but also the method described above is possible.

Eine weitere Steigerung der Effizienz kann dadurch erzielt werden, dass eine bestimmte Form von Entropie-Codierung angewandt wird zum Spezifizieren der Codewort längen, wobei die Information benutzt wird, dass im Allgemeinen lange Codeworte öfter auftreten als kurze Codeworte. Eine derartige Entropie-Codierung kann fest oder adaptiv sein.A Further increase in efficiency can be achieved by: a certain form of entropy coding is used for specifying the code word length, using the information that generally long codewords occur more frequently as short code words. Such entropy coding can be fixed or be adaptive.

Wenn alle möglichen Symbole nicht verwendet werden, ist es ebenfalls möglich, zunächst zu dem Decoder die Information über diejenigen Symbole zu übertragen, die wirklich benutzt werden, und danach auch die Codewortlänge nur dieser Repräsentationssymbole zu übertragen.If all possible Symbols are not used, it is also possible to first to the Decoder the information about to transfer those symbols which are really used, and after that also the codeword length only these representation symbols transferred to.

Zum Schluss ist es nebst der Übertragung der Codewortlänge nach der vorliegenden Erfindung auch möglich, die Übertragung von Huffman-Codes zu benutzen, wobei ein zusätzliches Bit benutzt wird um dem Decoder mitzuteilen, welche Technik selektiert worden ist zur Übertragung der Huffman-Codewortinformation.To the Final is it in addition to the transfer of Codeword length according to the present invention also possible to transfer Huffman codes use, with an additional Bit is used to tell the decoder which technique to select has been for transmission the Huffman codeword information.

2 zeigt schematisch ein Blockschaltbild einer Anordnung zur Übertragung eines digitalen Audiosignals als Bitstrom, wobei der Bitstrom eine minimale Anzahl Bits enthält, die es dennoch ermöglichen, dass das digitale Audiosignal in einem Empfänger rekonstruiert wird. 2 1 schematically shows a block diagram of an arrangement for transmitting a digital Au as a bitstream, the bitstream containing a minimum number of bits that still allow the digital audio signal to be reconstructed in a receiver.

In 2 empfängt eine Unterband-Filterbank 1 das abgetastete und quantisierte digitale Audiosignal und teilt dieses Signal auf bekannte Weise auf, beispielsweise in 64 Teilbänder. Jedes der Teilbänder wird in Unterframes aufgeteilt, die je beispielsweise 24 Symboldarstellungen aufweisen. Eine Anzahl von beispielsweise 3 Unterframes bilden ein Frame. In einer Quantisierungseinheit 2 werden die Unterframes jedes der Teilbänder in eine bestimmte Anzahl Repräsentationssymbole, beispielsweise –215 – 215 quantisiert. Diese Quantisierung ist größer als diejenige, die zum Quantisieren des Signals des der Filterbank 1 zugeführten Signals benutzt wird.In 2 receives a subband filter bank 1 the sampled and quantized digital audio signal and divides this signal in a known manner, for example in 64 subbands. Each of the subbands is divided into subframes, each for example 24 Have symbol representations. A number of example 3 Subframes form a frame. In a quantization unit 2 For example, the subframes of each of the subbands are quantized into a certain number of representation symbols, for example -2 15 - 2 15 . This quantization is greater than that necessary to quantize the signal from the filter bank 1 supplied signal is used.

Eine Variable-Länge-Codierungseinheit 3 kombiniert alle Unterframes mit einer gleichen Anzahl Repräsentationssymbole. Dies ist erlaubt, weil vorausgesetzt wird, dass die Wahrscheinlichkeitsdichtenfunktion für all diese Teilbänder die gleiche ist. Für jede Kombination mit einer gleichen gegebenen Anzahl Repräsentationssymbole wird die Auftrittswahrscheinlichkeit jedes der Repräsentationssymbole ermittelt. Dies wird auf einfache Weise effektuiert durch Zählung der Anzahl jedes der Repräsentationssymbole und durch Teilung dieser Zahl durch die gesamte Anzahl Repräsentationssymbole. Da vorausgesetzt worden ist, dass die Verteilung der Wahrscheinlichkeiten der Repräsentationssymbole symmetrisch ist, ist p(n + K) = p(n – K), wobei n das zentrale Repräsentationssymbol ist.A variable-length coding unit 3 combines all subframes with an equal number of representation symbols. This is allowed because it is assumed that the probability density function is the same for all these subbands. For each combination with an equal given number of representation symbols, the probability of occurrence of each of the representation symbols is determined. This is easily accomplished by counting the number of each of the representational symbols and dividing that number by the total number of representational symbols. Since it has been assumed that the distribution of the probabilities of the representational symbols is symmetric, p (n + K) = p (n-K), where n is the central representation symbol.

Wenn die Anzahl Repräsentationssymbole gering ist, beispielsweise 3, 5 oder 7, werden die Wahrscheinlichkeiten für jedes Repräsentationssymbol übertragen und der Codierer sowie der Decoder definieren eine identische Variable-Länge-Tabelle, beispielsweise eine Huffman-Codierungstabelle, auf Basis dieser Werte. Wenn eine Huffman-Codierung angewandt wird, können die Repräsentationssymbole zunächst in Gruppen gegliedert werden, beispielsweise in Gruppen von 3 Repräsentationssymbolen, wobei jeder Gruppe ein einzelner Huffman-Codierer zugeordnet wird, wie oben beschrieben. Die Codes für jede Gruppe, im Falle einer Huffman-Codierung, oder für jedes Repräsentationssymbol werden nacheinander übertragen und in einem Empfänger kann der Decoder die wirklichen Repräsentationssymbole aus diesen Codes herleiten.If the number of representation symbols is low is, for example, 3, 5 or 7, the probabilities for each Transfer representation symbol and the encoder as well as the decoder define an identical variable length table, for example a Huffman coding table based on these values. When a Huffman coding can be used, the representation symbols first be grouped into groups, for example in groups of 3 representation symbols, where Each group is assigned a single Huffman coder, such as described above. The codes for each group, in the case of Huffman coding, or for each representation symbol are transmitted one after the other and in a receiver The decoder can use the actual representation symbols from these Derive codes.

Die gesamte Anzahl Bits, erforderlich zur Übertragung der (Gruppen von) Repräsentationssymbole(n) und der Information über die Wahrscheinlichkeiten, wobei diese Information erforderlich ist zum Erzeugen derselben Codierungs-/Decodierungstabelle in dem Codierer bzw. Decoder, wird ständig überprüft und mit der Anzahl Bits verglichen, die erforderlich sind, wenn für die Repräsentationssymbole Codeworte einer fester Länge selektiert werden. Wenn eine Feste-Länge-Codierung eine geringere Anzahl Bits erfordert als die Variable-Länge-Codierung, wird die erst genannte Codierung angewandt. Eine derartige Situation kann auftreten, wenn es nur wenige Abtastwerte für eine bestimmte Anzahl Repräsentationssymbole gibt und die Tabellenspezifikation folglich eine relativ große Anzahl zusätzlicher Bits erfordert.The total number of bits required to transfer the (groups of) Representation symbols (n) and information about the probabilities, this information is required for Generating the same encoding / decoding table in the encoder or decoder, is constantly checked and with of the number of bits required when codewords for the representational symbols a fixed length be selected. If a fixed-length encoding is a smaller number Bits required as the variable-length encoding will be the first mentioned coding applied. Such a situation can occur if there are only a few samples for a certain number of representation symbols Therefore, the table specification is a relatively large number additional bits requires.

Wenn die Anzahl Repräsentationssymbole größer ist, beispielsweise 9 oder mehr, benutzt die Variable-Länge-Codierungseinheit 4 eine Huffman-Codierung, wobei entweder nur die Anzahl Codeworte jeder Länge übertragen wird und/oder die Codeworte der größten Codewortlänge. Diese Technik kann mit Reduktion der größten Codewortlänge und mit dem Testen kombiniert werden, ob dies zu einer Reduktion der gesamten Anzahl Bits führt, die erforderlich sind zum Übertragen der Codetabelleninformation und der wirklichen Codes, welche die Repräsentationssymbole darstellen.If the number of representation symbols is greater, for example 9 or more, uses the variable-length coding unit 4 a Huffman coding, wherein either only the number of codewords of each length is transmitted and / or the codewords of the largest codeword length. This technique can be combined with reduction of the largest codeword length and with the testing, whether this results in a reduction of the total number of bits required to transmit the codetable information and the actual codes representing the representational symbols.

3a, b ist ein Flussdiagramm, das die Schritte zeigt, die durchgeführt werden sollen um dies zu verwirklichen. 3a , b is a flowchart showing the steps to be performed to accomplish this.

Eingangsvariablen für diesen Prozess sind: BITS = die gesamte Anzahl erforderlicher Bits; N DATA = dies gesamte Anzahl Codeworte; und MAX-CUR-LEN = die aktuelle maximale Länge eines Codewortes.input variables For this Process are: BITS = the total number of bits required; N DATA = this total number of codewords; and MAX-CUR-LEN = the current one maximum length a codeword.

In einem Block 11 wird die gesamte Anzahl Bits gezählt und die Ziel-Codewortlänge (TARGET-LEN) wird zu MAX-CUR-LEN-1 ausgeglichen. In einem Entscheidungsblock 12 wird ermittelt, ob 2TARGET-LEN > N DATA ist. Sollte dies nicht der Fall sein, ist eine weitere Reduktion der Codewortlänge nicht möglich und der Prozess wird in einem Block 13 beendet. Sollte diese Anforderung erfüllt werden, so wird die Länge der Codeworte mit der größten Anzahl Bits in einem Block 14 mit Hilfe eines Unterprozess-Einstell-BITS, dargestellt in 3b um Eins verringert.In a block 11 the total number of bits is counted and the target codeword length (TARGET-LEN) is balanced to MAX-CUR-LEN-1. In a decision block 12 it is determined if 2 TARGET-LEN > N DATA. If this is not the case, a further reduction of the codeword length is not possible and the process is in one block 13 completed. If this requirement is fulfilled, then the length of the code words with the largest number of bits in a block 14 using a sub-process setting BITS, shown in 3b reduced by one.

Der Einstell-BITS-Prozess ist eine Abwandlung des Prozesses, der in der JPEG-Norm durchgeführt wird, damit gewährleistet wird, dass es keinen Code gibt mit einer Länge größer als eine vorbestimmte Länge. Dieser Prozess ist in dem Anhang A von ISO-DIS 10918-1 beschrieben worden.Of the Setting BITS process is a modification of the process in the JPEG standard is guaranteed is that there is no code with a length greater than a predetermined length. This Process has been described in Appendix A of ISO-DIS 10918-1.

In einem Block 21 wird die MAX-CUR-LEN auf I gesetzt. In einem Entscheidungsblock 22 wird ermittelt, ob es I-Bit Codeworte gibt; sollte dies nicht der Fall sein, so wird I = I – 1 in dem Block 22 und es wird entschieden, ob I = TARGET-LEN in einem Block 23, wenn ja, so wird der Einstell-BITS-Prozess in dem Block 23 beendet und, wenn nicht, so kehrt das Programm zu dem Block 22 zurück.In a block 21 the MAX-CUR-LEN is set to I. In a decision block 22 it is determined if there are I-bit codewords; if this is not the case, then I = I-1 in the block 22 and it is decided if I = TARGET-LEN in one block 23 if so, then the set BITS process in the block 23 and, if not, the program returns to the block 22 back.

Wenn es Codeworte von I Bits gibt, ergibt dies J = I – 1 in einem Block 25 und J = J – 1 in einem Block 26. In einem Entscheidungsblock 27 wird ermittelt, ob es J-Bit Codeworte gibt. Sollte es nicht solche Codeworte geben, so kehrt das Programm zu dem Block 26 zurück, und sollte es solche Codeworte geben, so werden die in einem Block 28 angegebenen Änderungen durchgeführt. Dadurch werden die Codeworte der größten Länge (I), die immer paarweise auftreten, paarweise entfernt und durch zwei kürzere Codeworte ersetzt. Nachdem dies vervollständigt worden ist, wird die Schleife wieder durchlaufen, bis I = TARGET-LEN istIf there are codewords of I bits, this results in J = I-1 in a block 25 and J = J-1 in a block 26 , In a decision block 27 it is determined if there are J-bit codewords. If there are not such codewords, the program returns to the block 26 back, and if there are such codewords, they will be in one block 28 specified changes. As a result, the codewords of the greatest length (I), which always occur in pairs, are removed in pairs and replaced by two shorter codewords. After this has been completed, the loop is run through again until I = TARGET-LEN

Weiterhin wird in dem Block 14 die GAIN ermittelt, d. h. die Anzahl Bits vor der Codewortreduktion wird auf die Anzahl Bits nach der Reduktion reduziert, d. h. TOT-BITS – CUR-BITS. Sollte es sich in einem Block 15 herausstellen, dass GAIN < 0 ist, so wird der Prozess in den Blöcken 16, 17 beendet und sollte dies nicht der Fall sein, so wird die Schleife wieder über einen Block 18 durchlaufen.Furthermore, in the block 14 the GAIN is determined, ie the number of bits before the codeword reduction is reduced to the number of bits after the reduction, ie TOT-BITS - CUR-BITS. Should it be in a block 15 turn out that GAIN <0, so the process will be in blocks 16 . 17 If this is not the case then the loop will go over one block again 18 run through.

Auch in diesem Fall wird, ungeachtet der Techniken, die zum Übertragen der Codierungsinformation angewandt werden, ermittelt, ob es vielleicht effizienter ist, eine Codierung mit Feste-Länge-Codeworten anzuwenden und sollte dies der Fall sein, so wird keine Huffman-Codierung angewandt.Also in this case, regardless of the techniques used to transmit The coding information applied determines whether it might be more efficient is an encoding with fixed-length codewords and if this is the case, then no Huffman coding will be done applied.

Wenn eine Huffman-Codierung selektiert wird, kann dies ebenfalls angewandt werden zum Reduzieren der gesamten Anzahl Bits, erforderlich für die Codetabelleinformation dadurch, dass Huffman-Codes für verschiedene Anzahlen Repräsentationssymbole kombiniert werden. Es ist beispielsweise möglich, 3 Repräsentationssymbole mit einer Tabelle für 5 Repräsentationssymbole zu codieren, was weniger effizient sein kann, aber was es ermöglicht, dass nur eine einzige statt zweier Codierungsinformationstabellen übertragen werden sollen.If If a Huffman coding is selected, this can also be used are used to reduce the total number of bits required for the code table information in that Huffman codes for different numbers of representation symbols be combined. For example, it is possible to use 3 representation symbols with a table for 5 representation symbols to code what can be less efficient, but what it allows that transmit only a single instead of two coding information tables should be.

4 ist ein Flussdiagramm für einen Prozess OPTIMIZE-N, der für diesen Zweck geeignet ist. 4 Figure 4 is a flow chart for an OPTIMIZE-N process suitable for this purpose.

Eingangsvariablen für diesen Prozess sind das Pegelhistogramm für jeden Huffman-Code; N = die gesamte Anzahl Huffman-Codes und MAX-N = die vorbestimmte maximal erlaubte Anzahl Codes.input variables For this Process is the level histogram for each Huffman code; N = the total number of Huffman codes and MAX-N = the predetermined maximum allowed number of codes.

In einem Block 31 wird MG zu GET-MAX-GAIN ausgeglichen. In der GET-MAX-GAIN-Subroutine wird die Verstärkung ermittelt, die durch die Kombination von Huffman-Codes für eine Anzahl Pegel und des nächst höheren Pegels erhalten wird, wobei die Kombination die höchste Verstärkung in selektierten Bits ergibt. In einem Entscheidungsblock 32 wird ermittelt, ob MG > 0 ist oder ob N > MAX-N ist. Sollte eine der beiden Bedingungen nicht erfüllt werden, so wird der Prozess in einem Block 33 beendet. Der Vergleich N > MAX-N? wird effektuiert, weil solange N > MAX-N ist, der Prozess auch fortschreiten darf, wenn MG < 0 ist. Wenn MG > 0 oder N > MAX-N ist, wird die Kombination von Histogrammen, selektiert in einem Block 34, effektuiert und N = N – 1. Wenn in einem Block 35 gefunden wird, dass N < 1 ist, so wird der Prozess in dem Block 33 beendet, während wenn N > 1 ist, wird die Schleife wieder durchlaufen.In a block 31 MG is compensated for GET-MAX-GAIN. In the GET-MAX-GAIN subroutine, the gain obtained by the combination of Huffman codes for a number of levels and the next higher level is determined, the combination giving the highest gain in selected bits. In a decision block 32 it is determined if MG> 0 or if N> MAX-N. If one of the two conditions is not met, then the process is in a block 33 completed. The comparison N> MAX-N? is effected because as long as N> MAX-N, the process is allowed to proceed even when MG <0. If MG> 0 or N> MAX-N, the combination of histograms is selected in one block 34 , effects and N = N - 1. If in a block 35 If it is found that N <1, then the process in the block becomes 33 finished, while if N> 1, the loop is run through again.

Die vorliegende Erfindung eignet sich insbesondere für Frame-basierte Codierung von Repräsentationssymbolquellen, wie diese in Audio- und Videocodierungssystemen, beispielsweise Symbolquellen, ohne Speicher und mit ähnlichen Wahrscheinlichkeitsdichtenfunktionen auftreten.The The present invention is particularly suitable for frame-based coding of representation symbol sources, like these in audio and video coding systems, for example Symbol sources, without memory and with similar probability density functions occur.

Text der ZeichnungText of the drawing

1a1a

  • Repräsentationssymbol Codewertrepresentation symbol code value

1b1b

  • Maximale Länge Anzahl jeder Länge DatenMaximum length Number of each length dates

1d1d

  • Repräsentationssymbol Codewort Übertagungsinformationrepresentation symbol Codeword transmission information

3a3a

  • Optimiere BitsOptimize bits

3b3b

  • Bits EinstellenSet bits
  • GemachtMade

44

  • Optimiere BitsOptimize bits
  • GemachtMade

Claims (3)

Codiertes Informationssignal, das ein Informationssignal darstellt, das zu Repräsentationssymbolen abgetastet und quantisiert wird, die daraufhin in Codeworte verschiedener Codewortlängen codiert werden, wobei Codeworte einer geringen Länge den Repräsentationssymbolen zugeordnet werden, die eine hohe Wahrscheinlichkeit des Auftritts haben und Codeworte einer größeren Länge Repräsentationssymbolen zugeordnet werden, deren Auftrittswahrscheinlichkeit gering ist, und zwar entsprechend einer vorbestimmten Codierungstechnik, dadurch gekennzeichnet, dass das codierte Informationssignal Information über die Länge des mit jedem möglichen Repräsentationssymbol assoziierten Codewortes aufweist, wobei die Information über die Länge jedes der Codeworte durch eine Anzahl Bit gegeben wird, die der Anzahl Bits entspricht, die notwendig sind zum Codieren der Länge des Codewortes mit der maximalen Länge.An encoded information signal representing an information signal sampled and quantized into representation symbols which are subsequently encoded into codewords of different codeword lengths, wherein codewords of short length are assigned to representation symbols having a high probability of occurrence and codewords of a greater length representations associated with a predetermined coding technique, characterized in that the coded information signal has information about the length of the codeword associated with each possible representation symbol , the information about the length of each of the codewords being given by a number of bits which is the number of bits necessary to code the length of the maximum length codeword. Signal nach Anspruch 1, wobei die Repräsentationssymbole mit Hilfe einer Huffman-Codierungstechnik codiert werden.The signal of claim 1, wherein the representation symbols be encoded using a Huffman coding technique. Signal nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Entropie-Codierung angewandt wird zum Spezifizieren der Codewortlängen.Signal according to claim 1 or 2, characterized that an entropy coding is used to specify the codeword lengths.
DE69734613T 1996-12-20 1997-03-03 Coded information signal Expired - Fee Related DE69734613T2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP96203651 1996-12-20
EP96203651 1996-12-20

Publications (2)

Publication Number Publication Date
DE69734613D1 DE69734613D1 (en) 2005-12-15
DE69734613T2 true DE69734613T2 (en) 2006-07-27

Family

ID=35404633

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69734613T Expired - Fee Related DE69734613T2 (en) 1996-12-20 1997-03-03 Coded information signal

Country Status (1)

Country Link
DE (1) DE69734613T2 (en)

Also Published As

Publication number Publication date
DE69734613D1 (en) 2005-12-15

Similar Documents

Publication Publication Date Title
DE69726661T2 (en) METHOD AND DEVICE FOR CODING A DIGITAL INFORMATION SIGNAL
DE3943879B4 (en) Digital coding method
DE19840835C2 (en) Apparatus and method for entropy coding information words and apparatus and method for decoding entropy coded information words
DE69932958T2 (en) Lossless decoding method
EP0227956B1 (en) Vector quantization data reduction method of digital picture signals
DE4241131B4 (en) Device for coding and decoding transmission signals by means of transformations
DE3736193C2 (en)
DE19634600A1 (en) Image signal coding device and associated method
EP1472888B1 (en) Context-sensitive encoding and decoding of a video data stream
EP1323313B1 (en) Method and assembly used for vector transfer
DE19907728C2 (en) Device and method for generating a data stream and device and method for reading a data stream
DE69937761T2 (en) Arithmetic coding / decoding of a digital information signal
DE69734613T2 (en) Coded information signal
DE4004857A1 (en) Bandwidth reduction video signal coding systems - uses low and high pass filtering to divide signal into partial bands for different data reduction
DE3726601C2 (en)
EP0905918A2 (en) Method and apparatus for encoding audio signals
WO2006056529A1 (en) Encoding and decoding method and encoding and decoding device
EP1153481B1 (en) Method and device for generating a data flow from variable-length code words and a method and device for reading a data flow from variable-length code words
EP1206840B1 (en) Method and device for coding/decoding
DE3732045C2 (en)
DE19549491C2 (en) Palletised image compression with entropy encoding
EP1530824B1 (en) Scalable coding of image information, especially video image information
EP0284962B1 (en) Method for reducing the image data of digital television signals
EP0525349B1 (en) Device for redundancy reduction encoding
WO2003085917A1 (en) Device and method for the controlled scaling and quantization of soft output values of an equalizer

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee