DE69029876T2 - Anpassungsfähiger Wahrscheinlichkeitsabschätzer für Entropie-Kodierung/-Dekodierung - Google Patents

Anpassungsfähiger Wahrscheinlichkeitsabschätzer für Entropie-Kodierung/-Dekodierung

Info

Publication number
DE69029876T2
DE69029876T2 DE69029876T DE69029876T DE69029876T2 DE 69029876 T2 DE69029876 T2 DE 69029876T2 DE 69029876 T DE69029876 T DE 69029876T DE 69029876 T DE69029876 T DE 69029876T DE 69029876 T2 DE69029876 T2 DE 69029876T2
Authority
DE
Germany
Prior art keywords
representations
prescribed
supplied
signal
context
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69029876T
Other languages
English (en)
Other versions
DE69029876D1 (de
Inventor
Donald L Duttweiler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AT&T Corp filed Critical AT&T Corp
Application granted granted Critical
Publication of DE69029876D1 publication Critical patent/DE69029876D1/de
Publication of DE69029876T2 publication Critical patent/DE69029876T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/42Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code using table look-up for the coding or decoding process, e.g. using read-only memory
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

  • Die vorliegende Erfindung betrifft adaptive Codierer, adaptive Decodierer und Verfahren zur Codierung eines Signais.
  • Bekanntlich erfordert Entropie-Codierung und -Decodierung, z.B. arithmetische Codierung und Decodierung, für das zu codierende und danach zu decodierende Zeichen eine Wahrscheinlichkeitsabschätzung. Bei arithmetischer Codierung und Decodierung führen genauere Wahrscheinlichkeitsabschätzungen zu größerer Datenkompression. Dazu ist es wünschenswert, daß sich die Wahrscheinlichkeitsabschätzungen den sich verändernden zugrundeliegenden Zeichenwahrscheinlichkeiten anpassen.
  • Bisher bekannte Anordnungen mit Wahrscheinlichkeitsabschätzfunktionen haben eine gewisse Fähigkeit zur Adaption aufgewiesen, waren jedoch wegen der Notwendigkeit, Zeichenwahrscheinlichkeiten mit relativ niedrigen Werten abzuschätzen, hinsichtlich der verwendeten Adaptionsgeschwindigkeit begrenzt. Die effektive Adaptionsgeschwindigkeit war bei bisherigen Anordnungen tatsächlich konstant und unabhängig von den Istwerten der gerade abgeschätzten Wahrscheinlichkeiten. Dies führt zu weniger genauen Wahrscheinlichkeitsabschätzungen und infolgedessen zu einer niedrigeren Effizienz bei der Codierung und Decodierung der Zeichen.
  • EP-A-0 224 753 offenbart eine Anordnung zum Adaptieren des Wertes einer Wahrscheinlichkeit des Auftretens eines ersten von zwei Binärzeichen. Es werden Zählwerte davon erhalten, wie oft das erste Zeichen und wie oft alle Zeichen insgesamt auftreten. Für die Wahrscheinlichkeit werden Konfidenzgrenzen ausgewählt, und wenn die Wahrscheinlichkeit außerhalb der Konfidenzgrenzen liegt, wird der Wahrscheinlichkeitswert in Richtung auf eine Wiederherstellung der Konfidenz darin nachgestellt.
  • Nach einem Aspekt der vorliegenden Erfindung wird ein adaptiver Codierer nach Anspruch 1 bereitgestellt.
  • Nach einem weiteren Aspekt der vorliegenden Erfindung wird ein adaptiver Decodierer nach Anspruch 5 bereitgestellt.
  • Nach einem weiteren Aspekt der vorliegenden Erfindung wird ein Verfahren zum Codieren eines Signals nach Anspruch 9 bereitgestellt.
  • Die mit bisherigen bekannten Wahrscheinlichkeitsschätzfunktionen zusammenhängenden Probleme und anderen Begrenzungen können dadurch überwunden werden, daß die Geschwindigkeit der Adaption an die abgeschätzten Wahrscheinlichkeiten von zu codierenden und/oder decodierenden Zeichen optimiert wird.
  • Insbesondere wird, falls die Werte der abzuschätzenden Wahrscheinlichkeiten nicht klein sind, bei ihrer Erzeugung eine "schnelle" Adaptionsgeschwindigkeit realisiert, und falls die Werte der abzuschätzenden Wahrscheinlichkeiten klein sind, wird bei ihrer Erzeugung eine notwendigerweise niedrigere Adaptionsgeschwindigkeit realisiert.
  • Bei einer besonderen Ausführungsform wird die Adaptionsgeschwindigkeit dadurch optimiert, daß sie an den abzuschätzenden tatsächlichen Wahrscheinlichkeitswert angepaßt wird. Insbesondere wird die Adaptionsgeschwindigkeit so optimiert, daß sie proportional zum Kehrwert des kleinsten abzuschätzenden Wertes der Wahrscheinlichkeit ist. Bei einem Beispiel wird dies dadurch erzielt, daß zuerst bestimmt wird, ob eine mindestens erste Eigenschaft einer Menge von vorgeschriebenen Parametern einen mindestens ersten Schwellwert übersteigt, und, falls die mindestens erste Eigenschaft den mindestens ersten Schwellwert übersteigt, die Menge vorgeschriebener Parameter auf vorgeschriebene Weise eingestellt wird.
  • Bei der erfindungsgemäßen Ausführungsform handelt es sich bei der mindestens ersten vorgeschriebenen Eigenschaft um den Minimalwert der Menge vorgeschriebener Parameter für einen gegebenen Kontext und bei dem min destens ersten Schwellwert um einen kleinen Wert, zum Beispiel acht (8). Jedes Element in der vorgeschriebenen Menge von Parametern ist eine Funktion einer kontextempfindlichen Aufsummierung, d.h., Zählung, von empfangenen Zeichen.
  • Kurze Beschreibung der Zeichnung
  • In der Zeichnung zeigen:
  • Figur 1 Einzelheiten einer Anordnung, die einen Codierer und einen entfernten Decodierer verwendet; und
  • Figur 2 ein Flußdiagramm, das den Betrieb der Elemente der adaptiven Abschätzungseinrichtung zeigt, die in dem in Figur 1 gezeigten Codierer und Decodierer verwendet wird.
  • Ausführliche Beschreibung
  • Figur 1 zeigt Einzelheiten eines Entropiecodierers 101 in der vereinfachten Form eines die Erfindung verkörpernden Blockschaltbilds, der Datenzeichen s(k) empfängt, sie in einen Datenstrom a(i) codiert und sie an ein Übertragungsmedium 102 zur Übertragung an einen abgesetzten Entropiedecodierer 103 anschaltet. Der Entropiedecodierer 103, der ebenfalls die Erfindung verkörpert, schaltet an das Übertragungsmedium an, um den Empfängerdatenstrom zu erhalten, und decodiert ihn zu Kopien der Kopien der übertragenen Zeichen s(k). Die Zeichen s(k) enthalten Elemente [0,...,S-1], nämlich s(k) [0,...,S-1]. Die Zeichen können somit mehrstufig oder binär sein, wie gewünscht.
  • Der Codierer 101 enthält dementsprechend in diesem Beispiel eine arithmetische Codiereinheit 104, eine Kontextableitungseinrichtung 105, eine adaptive Wahrscheinlichkeitsabschätzungseinrichtung 106 und eine Leitungsschnittstelle 107. Zeichen s(k) und Wahrscheinlichkeitsabmessungen (k) werden der arithmetischen Codiereinheit 104 zugeführt und in ihr auf bekannte Weise verwendet, um einen codierten Datenstrom a(i) zu erzeugen. Derartige arithmetische Codiereinheiten sind in der Technik bekannt. In Hinblick auf arithmetische Codierer/Decodierer, die zum Codieren und Decodieren von Zeichen mit binären Elementen verwendet werden, wird zum Beispiel auf einen Artikel mit dem Titel "Compression of Black-White Image with Arithmetic Coding", IEEE Transactions On Communications, BAND COM.-29, Nr. 6, Juni 1981, Seiten 858-867, und auf das am 30. Dezember 1986 erteilte US-Patent Nr. 4 633 490 verwiesen. In Hinblick auf einen arithmetischen Codierer/Decodierer, der zum Codieren/Decodieren von Zeichen mit mehrstufigen Elementen verwendet wird, wird auch auf einen Artikel mit dem Titel "Arithmetic Coding For Data Compression", Communications of the ACM, Band 30, Nr. 6, Juni 1987, Seiten 520-540, verwiesen. Die Leitungsschnittstelle 107 schaltet den codierten Datenstrom a(i) an das Übertragungsmedium 102 an, das wiederum den Datenstrom dem abgesetzten Decodierer 103 zuführt. Dazu enthält die Leitungsschnittstelle 107 eine entsprechende Vorrichtung zum Formatieren des Datenstroms in das Signalformat, das im Übertragungsmedium 102 verwendet wird. Einige gut bekannte Beispiele möglicher Übertragungsmedien 102 sind T-Netz träger-Leitungen, ISDN-Teilnehmerbasisleitungen, Ortsnetze und dergleichen. Derartige Leitungsanschaltungsvorrichtungen sind in der Technik bekannt.
  • Die Kontextableitungseinrichtung 105 besorgt sich einfach den Kontext c(k) des empfangenen Zeichens s(k), wobei c(k) [0,...,C-1]. Das heißt, die Kontextableitungseinrichtung 106 erzeugt auf der Grundlage zuvor zugeführter Zeichen einen eindeutigen Kontext (oder Zustand) für Zeichen s(k). Beispielhaft soll, was nicht als den Schutzumfang der Erfindung einschränkend ausgelegt werden soll, fur ein Bildkompressionssystem Zeichen s(k) die Farbe eines zu codierenden gegenwärtigen Bildpunktes darstellen, und der Kontext c(k) kann durch die Farben vorgeschriebener vorausgehender Bildpunkte bestimmt werden. Beispielsweise kann die Farbe eines dem gegenwärtigen Bildpunkt in der gleichen Zeile und der Farbe eines Bildpunktes (A) in einer vorausgehenden Zeile direkt über dem gegenwärtigen Bildpunkt benachbarten und vorausgehenden Bildpunkts (P) vorteilhafterweise dazu verwendet werden, für Zeichen s(k) in einer Binäranwendung einen Kontext c(k) zu erzeugen. Somit ist c(k) null (0), falls sowohl Bildpunkt P als auch Bildpunkt A weiß sind; ist c(k) eins (1), falls Bildpunkt P weiß und Bildpunkt (A) schwarz ist; ist c(k) zwei (2), falls Bildpunkt P schwarz und Bildpunkt A weiß ist; und ist c(k) drei (3), falls beide Bildpunkte P und A schwarz sind. In Hinblick auf eine weitere Kontextableitungseinrichtung (Zustandsgenerator), der in einer Binäranwendung eingesetzt werden kann, wird auch auf US-Patent Nr. 4 633 490 verwiesen. Für den Fachmann ist offensichtlich, wie derartige binäre Kontextableitungseinrichtungen erweitert werden können, um den Kontext für mehrstufige Anwendungen zu erhalten. Eine Darstellung des abgeleiteten Kontextes c(k) wird einer adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 zugeführt.
  • Die adaptive Wahrscheinlichkeitsabschätzungseinrichtung 106 wird vorteilhafterweise zum Erzeugen von Wahrscheinlichkeitsabschätzungen (k)=( &sub0; (k),... s-1(k) für ankommende Zeichen s(k) [0,...,S-1] und zugeordneten Kontext c(k) [0,... ,C-1] eingesetzt. Dazu unterhält die adaptive Wahrscheinlichkeitsabschätzungseinrichtung 106 eine Matrix {ns,c} mit einer Dimensionalität S mal C, wobei jedes Element ns,c der Matrix eine Aufsummierung, d.h. eine "Zählung", der Vorkommen des Zeichens s im Kontext c ist und s und c Platzhalterindizes sind, die die Stelle von ns,c in der Matrix identifizieren. Die adaptive Wahrscheinlichkeitsabmessungseinrichtung 106 kann ohne weiteres dadurch realisiert werden, daß ein Rechner oder ein Digitalsignalprozessor entsprechend programmmiert wird. Es ist jedoch vorgesehen, daß ein höherer Realisierungsmodus in einer Konfiguration mit einem Schaltkreis mit sehr hohem Integrationsgrad (VLSI) auf einem Halbleiterchip besteht.
  • Das in Figur 2 gezeigte Flußdiagramm zeigt den Betrieb von Elementen in der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 bei der Erzeugung genauerer Wahrscheinlichkeitsabschätzungen durch Optimierung der Adaptionsgeschwindigkeit auf die abgeschätzten Wahrscheinlichkeiten von zu codierenden Zeichen. Der Betrieb der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 beginnt dementsprechend mit Startschritt 201. Danach initialisiert ein Funktionsblock 202 k=0 und die Zählungen von ns,c für alle s [0,...,S-1] und c [0,...,C-1] zu ns,c=Ns,c, wobei es sich bei Ns,c um gewisse vorbestimmte Werte handelt. Funktionsblock 203 erhält einen neuen Kontext c(k). Es sei darauf hingewiesen, daß der neue Kontext der gleiche wie der zuvor erhaltene Kontext sein kann. Danach erhält Funktionsblock 204 die Summe Z der Zählungen für den erhaltenen Kontext c(k) für alle s [0,...S-1], nämlich
  • Funktionsblock 205 bewirkt, daß die adaptive Wahrscheinlichkeitsabschätzungseinrichtung 106 (Figur 1) die Wahrscheinlichkeitsabschätzungen ausgibt, die wiederum der arithmetischen Codiereinheit 104 (Figur 1) zugeführt werden. Da es sich hierbei um den ersten Durchgang handelt, basieren diese Wahrscheinlichkeitsabschätzungen lediglich auf den initialisierten Bedingungen und dem erhaltenen Kontext c(k). In nachfolgenden Durchgängen basieren die Wahrscheinlichkeitsabschätzungen auf der Summe der Zählungen, d.h. Aufsummierungen, der Vorkommen von Zeichen s(k) für den Kontext c(k). Schritt 205 bewirkt somit die Ausgabe der Wahrscheinlichkeitsabschätzungen, nämlich
  • Funktionsblock 206 erhält das zu codierende Zeichen s(k). Funktionsblock 207 bewirkt, daß die Zählung für das erhaltene Zeichen s(k) und Kontext c(k) um 1 inkrementiert werden, d.h. ns(k),c(k) wird um 1 inkrementiert.
  • Funktionsblock 208 erhält eine mindestens erste Eigenschaft und eine mindestens zweite Eigenschaft einer vorbeschriebenen Menge von Parametern. In diesem Beispiel handelt es sich bei jedem Element der vorgeschriebenen Menge von Parametern um eine Funktion einer kontext empfindlichen Aufsummierung, d.h. Zählung, empfangener, zu codierender Zeichen. Das heißt, bei der vorgeschriebenen Menge von Parametern handelt es sich um "aufsummierte" Vorkommen der Zeichen s(k) für den Kontext c(k), nämlich n0,c(k) ,...,nS-1,c(k). Bei dieser mindestens ersten Eigenschaft handelt es sich in diesem Beispiel um das kleinste der aufsummierten Vorkommen für den Kontext c(k), nämlich
  • MIN = MINIMUM{n&sub0;,c(k)..., nS-1,c(k)} . (3)
  • Bei der mindestens zweiten Eigenschaft handelt es sich in diesem Beispiel um das größte der aufsummierten Vorkommen für den Kontext c(k), nämlich
  • MAX = MAXIMUM{n&sub0;,c(k),..., nS-1,c(k)} . (4)
  • Eine bedingte Sprungstelle 209 prüft, um zu bestimmen, ob entweder die mindestens erste Eigenschaft größer oder gleich einem mindestens ersten Schwellwert, nämlich
  • MIN≥T&sub1;, (5)
  • oder die mindestens zweite Eigenschaft größer oder gleich einem mindestens zweiten Schwellwert, nämlich
  • MAX≥T&sub2;. (6)
  • ist.
  • Es ist wichtig, darauf hinzuweisen, daß die Verwendung der mindestens ersten Eigenschaft (MIN) die Optimierung der Adaptionsgeschwindigkeit der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 (Figur 1) gestattet. Bei bisherigen Anordnungen wurde nur ein maximaler Schweliwert eingesetzt. Bei einer derartigen bisherigen Anordnung besteht ein bedeutsames Problem darin, daß es erforderlich ist, entweder einen großen Schwellwert zu verwenden, so daß Wahrscheinlichkeiten für kleinere Werte dargestellt werden können, oder einen kleinen Schwellwert, um eine schnelle Adaption zu erhalten. Der kleine Schweliwert allerdings macht es unmöglich, Wahrscheinlichkeiten für kleine Werte darzustellen. Hinzu kommt, daß der Schweliwert für große Werte zu einer relativ niedrigen Adaptionsgeschwindigkeit führt. Diese Probleme werden dadurch gelöst, daß vorteilhafterweise die mindestens erste Eigenschaft, die in dem vorliegenden Beispiel MIN ist, wie in Gleichung (4) dargelegt, und ein niedriger Schwellwert T&sub1;, der in dem vorliegenden Beispiel acht (8) ist, eingesetzt werden. Im vorliegenden Beispiel muß somit jedes der möglichen Zeichenvorkommen für den Kontext c(k), nämlich [0,...,S-1], mindestens achtmal vorkoznmen, bevor die Bedingung von Gleichung (5) erfüllt ist. Folglich ergibt die Verwendung der mindestens ersten Eigenschaft, d.h. MIN, und des mindestens ersten Schwellwerts T&sub1; = 8 eine Adaptionsgeschwindigkeit, die an dem tatsächlichen Wahrscheinlichkeitswert, der gerade geschätzt wird, auf ideale Weise angepaßt ist. Beispielsweise werden, was nicht als Einschränkung des Schutzbereichs der Erfindung aufgefaßt werden soll, bei einer Binäranwendung und einer als einhalb (1/2) abgeschätzten Wahrscheinlichkeit die aufsummierten Vorkommen eingestellt, nachdem der Kontext c(k) ungefähr 8+8=16-mal gesehen worden ist; bei einer als ein Viertel (1/4) abgeschätzten Wahrscheinlichkeit werden die aufsummierten Vorkommen eingestellt, nachdem der Kontext c(k) ungefähr 8+24=32-mal gesehen worden ist; und bei einer als ein Achtel (1/8) abgeschätzten Wahrscheinlichkeit werden die auf summierten Vorkommen eingestellt, nachdem der Kontext c(k) ungefähr 8+56=64-mal eingestellt worden ist. Es ist somit zu erkennen, daß die Adaptionsgeschwindigkeit für die größeren (nicht die kleinen) Wahrscheinlichkeitswerte, die abgeschätzt werden, höher ist und für die kleineren Wahrscheinlichkeitswerte, die abgeschätzt werden, notwendigerweise geringer ist. Die Einstellung der Adaptionsgeschwindigkeit geht aus den Schritten 209 und 210 hervor.
  • Die mindestens zweite Eigenschaft, in diesem Beispiel MAX gemäß Gleichung (4), wird zusammen mit dem mindestens zweiten Schwellwert T&sub2; eingesetzt, um Überlauf bei der Aufsummierung der Vorkommen der Zeichen s(k) im Kontext c(k) sicher zu verhindern. Sofern eine der Wahrscheinlichkeiten, die abgeschätzt wird, nicht einen ungewöhnlich kleinen Wert aufweist, wird MAX nicht die Eigenschaft sein, die zur Parametereinstellung führt. Bei einem Beispiel hat T&sub2; den Wert 2048. Es wird darauf hingewiesen, daß andere Eigenschaften der Menge von Parametern ebenfalls eingesetzt werden können. So zum Beispiel könnte anstelle von MAX die Summe Z, die im Schritt 204 erhalten wird, verwendet werden.
  • Unter Rückkehr zu Schritt 209 bewirkt der Funktionsblock 210 somit eine Einstellung der auf summierten Zeichenelemente im Kontext c(k), falls entweder die Bedingung von Gleichung (5) (MIN≥ T&sub1;) oder die Bedingung von Gleichung (6) (MAX≥ T&sub2;) erfüllt worden ist. Bei diesem Beispiel wird die Einstellung der Adaptionsgeschwindigkeit durch Schritt 210 zusammen mit Schritt 209 realisiert, was eine Einstellung, z.B. einer Skalierung der dargestellten auf summierten Werte, d.h. Zählungen, durch ein sogenanntes Halbieren der aufsummierten Vorkommen für den Kontext c(k) für alle S [0,...,S-1] bewirkt, nämlich das
  • ns,c(k) = (ns,c(k) + 1)/2 (7)
  • gesetzt wird. Obwohl bei dieser Ausführungsform die Zählungen auf die gleiche Weise eingestellt werden, wenn die Bedingung entweder von Gleichung (5) oder von Gleichung (6) erfüllt ist, wäre es bei einigen Anwendungen vorteilhaft, die Zählungen für jede der obigen Bedingungen unterschiedlich einzustellen. Es wird darauf hingewiesen, daß, nachdem die Zählungen eingestellt worden sind, sie die aufsummierten Vorkommen darstellen. Diese Einstellung der aufsummierten Vorkommen führt zu einer größeren Abhängigkeit der Wahrscheinlichkeitsabschätzungen von jüngeren Vorkommen der Zeichen im Kontext c(k). Wie oben indiziert, wird dadurch, daß bewirkt wird, daß die Einstellung der aufsummmierten Vorkommen gemäß Gleichung (5) eintritt, d.h. MIN ≥ T&sub1;, die Adaptionsgeschwindigkeit auf ideale Weise an die tatsächlichen Wahrscheinlichkeiten, die abgeschätzt werden, angepaßt. Die Einstellung der aufsummierten Vorkommen der Zeichen s(k) im Kontext c(k), die als Reaktion auf Gleichung (6) geschieht, d.h. MAX ≥ T&sub2;, soll wiederum in dem seltenen Fall, daß ein sehr kleiner Wahrscheinlichkeitswert abgechätzt wird, vor einer möglichen arithmetischen Überlaufbedingung schützen.
  • Danach prüft die bedingte Sprungstelle 211, um zu bestimmen, ob es sich bei dem Zeichen s(k) um das letzte zu codierende/zu decodierende Zeichen handelt. Es wird darauf hingewiesen, daß die Anzahl zu codierender Zeichen in der Regel bekannt ist. Falls dies nicht der Fall ist, würde der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 eine Anzeige über die Anzahl von Zeichen zugeführt. Falls das Ergebnis der Prüfung im Schritt 211 JA ist, wird die Funktion der Elemente der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 über den ENDE-Schritt 212 beendet. Falls das Ergebnis der Prüfung im Schritt 211 NEIN ist, wird die Steuerung an Schritt 203 zurückgegeben, und entsprechende Schritte der Schritte 203 bis 211 werden so lange iteriert, bis Schritt 211 das Ergebnis JA ausgibt.
  • Unter Rückkehr zu Schritt 209 wird die Steuerung, falls das Ergebnis der Prüfung NEIN ist, an Schritt 211 übertragen, um zu bestimmen, ob es sich bei dem Zeichen s(k) um das letzte zu codierende (decodierende) Zeichen handelt. Wiederum wird, falls das Ergebnis der Prüfung im Schritt 211 JA ist, die Funktion der Elemente der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 über den ENDE-Schritt 212 beendet. Falls das Ergebnis der Prüfung im Schritt 211 NEIN ist, wird der Index k im Schritt 213 um eins inkrementiert, die Steuerung wird an Schritt 203 zurückgegeben und entsprechende Schritte der Schritte 203 bis 211 werden so lange iteriert, bis Schritt 211 ein Ergebnis JA ausgibt.
  • Der Decodierer 103 enthält in dem vorliegenden Beispiel eine Leitungsschnittstelle 108, eine arithmetische Decodiereinheit 109, eine Kontextableitungseinrich tung 110 und eine adaptive Wahrscheinlichkeitsabschätzungseinrichtung 111. Die Leitungsschnittstelle 108 führt die der Leitungsschnittstelle 107 entgegengesetzte Funktion aus und deformatiert das ankommende Signal auf bekannte Weise, um den Datenstrom a(i) zu erhalten. Die arithmetische Decodiereinheit 109 führt die zur arithmetischen Codiereinheit 104 entgegengesetzte Funktion aus. Dazu werden der empfangene Datenstrom a(i) und Wahrscheinlichkeitsabschätzungen (k) von der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 110 der arithmetischen Decodiereinheit 109 zugeführt und darin auf bekannte Weise verwendet, um die Zeichen s(k) zu erhalten. Derartige arithmetische Decodiereinheiten wiederum sind in der Technik bekannt. Es wird wiederum in Hinblick auf Binäranwendungen auf den oben angeführten Artikel mit dem Titel "Compression of Black-White Image with Arithmetic Coding" und das oben angeführte US-Patent Nr. 4 633 490 und in Hinblick auf mehrstufige Anwendungen auf den ebenfalls oben angeführten Artikel "Arithmetic Coding for Data Compression" verwiesen. Die Kontextableitungseinrichtung 110 ist hinsichtlich Aufbau und Funktion der Kontextableitungseinrichtung 105 identisch und wird nicht nochmals beschrieben. Analog dazu ist die adaptive Wahrscheinlichkeitsabschätzungseinrichtung 111 in Aufbau und Funktion der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung 106 identisch und wird nicht nochmals beschrieben.

Claims (9)

1. Adaptiver Codierer (101) zum Codieren eines zugeführten Signals mit mehreren Zeichenwerten, mit:
einer Quelle des zugeführten Signals (s(k)) mit Zeichenwerten,
einer Vorrichtung (105) zum Ableiten eines Kontextes (c(k)) des zugeführten Signals,
einer adaptiven Wahrscheinlichkeitsabschätzungseinrichtung (106), der das Signal von der Quelle und der Kontext zum Erzeugen von Wahrscheinlichkeitsabschätzungen des zugeführten Signals zugeführt wird,
einem Entropiecodierer (104), dem das Signal von der Quelle zugeführt wird und der auf die Wahrscheinlichkeitsabschätzungen zum Erzeugen einer codierten Version der zugeführten Signale reagiert, und
einer Vorrichtung (107) zum Anschalten der codierten Version als Ausgabe an ein Übertragungsmedium (102),
wobei die adaptive Wahrscheinlichkeitsabschätzungseinrichtung gekennzeichnet ist durch
eine Vorrichtung zum Erhalten von Darstellungen (ns,c) von aufsummierten Zählungen, wieviel Mal einzelne Zeichenwerte in dem zugeführten Signal in dem zugeführten Kontext gewesen sind, und
eine Einstellvorrichtung, die auf die Darstellungen der auf summierten Zählungen reagiert, um eine Adaptionsgeschwindigkeit der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung gemäß vorgeschriebenen Kriterien einzustellen, wobei die Einstellvorrichtung eine Vorrichtung zum Erhalten einer mindestens ersten vorgeschriebenen Eigenschaft (MIN) der Darstellungen von aufsummierten Zählungen und eine Vorrichtung enthält, die auf die mindestens erste vorgeschriebene Eigenschaft zum Skaheren der Darstellungen der aufsummierten Zählungen reagiert, wenn die mindestens erste vorgeschriebene Eigenschaft einem ersten der vorgeschriebenen Kriterien genügt, wobei die erste vorgeschriebene Eigenschaft auf der Basis einer der einzelnen Darstellungen der aufsummierten Zählungen in Verbindung mit einem Zeichenwert, der in dem zugeführten Kontext am wenigsten häufig aufgetreten ist, erhalten wird.
2. Codierer nach Anspruch 1, wobei die Vorrichtung zum Erhalten dazu dient, die mindestens erste vorgeschriebene Eigenschaft, die die kleinste der einzelnen Darstellungen der aufsummierten Zählungen ist, zu erhalten.
3. Codierer nach Anspruch 2, wobei das vorgeschriebene Kriterium enthält, daß die mindestens erste vorgeschriebene Eigenschaft einen ersten Schweliwert (T&sub1;) übersteigt.
4. Codierer nach Anspruch 1, wobei die Einstellvorrichtung eine Vorrichtung enthält, um zu bestimmen, welche der Darstellungen der aufsummierten Zählungen dem am wenigsten auftretenden Zeichenwert entspricht, und eine Vorrichtung zum proportionalen Skalieren der Darstellungen der aufsummierten Zählungen gemäß dem vorgeschriebenen Kriterium.
5. Adaptiver Decodierer (103) zum Rekonstruieren eines ursprunglichen Signals mit mehreren Zeichenwerten aus einem komprimierten Datensignal, mit:
einer Vorrichtung (108) zum Anschalten an ein Übertragungsmedium zum Erhalten des komprimierten Datensignals (a(i)),
einer Vorrichtung (110) zum Bestimmen eines Kontextes (c(k)) für die zu rekonstruierenden Zeichenwerte, einer adaptiven Wahrscheinlichkeitsabschätzungseinrichtung (111), der ein rekonstruiertes Signal (s(k)) und der Kontext (c(k)) zum Erzeugen von Wahrscheinlichkeitsabschätzungen des rekonstruierten Signals zugeführt wird, und
einem Entropiedecodierer (109), dem das komprimierte Datensignal zugeführt wird und der auf die Wahrscheinlichkeitsabschätzungen zum Rekonstruieren einer Version der ursprünglichenen Signals reagiert,
wobei die adaptive Wahrscheinlichkeitsabschätzungseinrichtung gekennzeichnet ist durch
eine Vorrichtung zum Erhalten von Darstellungen (ns,c) von aufsummierten Zählungen, wieviel Mal einzelne Zeichenwerte in dem zugeführten rekonstruierten Signal in dem zugeführten Kontext gewesen sind, und
eine Einstellvorrichtung, die auf die Darstellungen der auf summierten Zählungen reagiert, um eine Adaptionsgeschwindigkeit der adaptiven Wahrscheinlichkeitsabschätzungseinrichtung gemäß vorgeschriebenen Kriterien einzustellen, wobei die Einstellvorrichtung eine Vorrichtung zum Erhalten einer mindestens ersten vorgeschriebenen Eigenschaft (MIN) der Darstellungen von aufsummierten Zählungen und eine Vorrichtung enthält, die auf die mindestens erste vorgeschriebene Eigenschaft zum Skalieren der Darstellungen der aufsummierten Zählungen reagiert, wenn die erste vorgeschriebene Eigenschaft einem ersten der vorgeschriebenen Kriterien genügt, wobei die erste vorgeschriebene Eigenschaft auf der Basis einer der einzelnen Darstellungen der aufsummierten Zählungen in Verbindung mit einem Zeichenwert, der in dem zugeführten Kontext am wenigsten häufig aufgetreten ist, erhalten wird.
6. Decodierer nach Anspruch 5, wobei die Vorrichtung zum Erhalten dazu dient, die mindestens erste vorgeschriebene Eigenschaft, die die kleinste der einzelnen Darstellungen der aufsummierten Zählungen ist, zu erhalten.
7. Decodierer nach Anspruch 6, wobei das erste vorgeschriebene Kriterium enthält, daß die mindestens erste vorgeschriebene Eigenschaft einen ersten Schwellwert (T&sub1;) übersteigt.
8. Decodierer nach Anspruch 5, wobei die Einstellvorrichtung eine Vorrichtung enthält, um zu bestimmen, welche der Darstellungen der aufsummierten Zählungen dem am wenigsten auftretenden Zeichenwert entspricht, und ein Mittel zum proportionalen Skalieren der Darstellungen der aufsummierten Zählungen gemäß dem vorgeschriebenen Kriterium.
9. Verfahren zum Codieren eines zugeführten Signals mit mehreren Zeichenwerten, mit folgenden Schritten:
Erhalten (206) eines zugeführten Zeichens aus dem zugeführten Signal (s(k)),
Ableiten (203) eines Kontextes aus dem zugeführten Signal in Abhängigkeit von einer Konfiguration bisheriger Zeichen des zugeführten Signals,
Erzeugen (204, 205) von Wahrscheinlichkeitsabschätzungen des zugeführten Signals als Reaktion auf das zugeführte Signal und den Kontext,
Entropiecodierung der zugeführten Signale als Reaktion auf das zugeführte Signal und die Wahrscheinlichkeitsabschätzungen zur Erzeugung einer codierten Version des zugeführten Signals, und
Anschalten der codierten Version des zugeführten Signals an ein Übertragungsmedium (102),
wobei der Schritt des Erzeugens von Wahrscheinlichkeitsabschätzungen gekennzeichnet ist durch:
Erhalten (206, 207) von Darstellungen (ns,c) von aufsummierten Zählungen der Häufigkeit, mit der einzelne Zeichenwerte in dem zugeführten Signal in dem Kontext gewesen sind, und
adaptives (208-210) Einstellen einer Adaptions geschwindigkeit bei der Erzeugung der Wahrscheinlichkeitsabschätzungen als Reaktion auf die Darstellungen der aufsummierten Zählungen gemäß vorgeschriebenen Kriterien, wobei der Schritt des adaptiven Einstellens das Bestimmen (208) einer Eigenschaft (MIN) der Darstellungen der aufsummierten Zählungen, die dem am wenigsten häufig auftretenden Zeichenwert entsprechen, und das Skalieren (209, 210) der Darstellungen der aufsummierten Zählungen, wenn die Eigenschaft einem ersten der vorgeschriebenen Kriterien genügt, enthält.
DE69029876T 1989-06-01 1990-05-25 Anpassungsfähiger Wahrscheinlichkeitsabschätzer für Entropie-Kodierung/-Dekodierung Expired - Lifetime DE69029876T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/359,559 US5025258A (en) 1989-06-01 1989-06-01 Adaptive probability estimator for entropy encoding/decoding

Publications (2)

Publication Number Publication Date
DE69029876D1 DE69029876D1 (de) 1997-03-20
DE69029876T2 true DE69029876T2 (de) 1997-05-28

Family

ID=23414339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69029876T Expired - Lifetime DE69029876T2 (de) 1989-06-01 1990-05-25 Anpassungsfähiger Wahrscheinlichkeitsabschätzer für Entropie-Kodierung/-Dekodierung

Country Status (6)

Country Link
US (1) US5025258A (de)
EP (1) EP0400913B1 (de)
JP (1) JPH0779261B2 (de)
KR (1) KR940011437B1 (de)
CA (1) CA2014549C (de)
DE (1) DE69029876T2 (de)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0480115A1 (de) * 1990-10-09 1992-04-15 International Business Machines Corporation Verfahren zur Datenkomprimierung und Datenkodierung und Einrichtung zur Durchführung dieses Verfahrens
US5309381A (en) * 1991-04-10 1994-05-03 Ricoh Company, Ltd. Probability estimation table apparatus
CA2077271C (en) * 1991-12-13 1998-07-28 David J. Craft Method and apparatus for compressing data
US5396228A (en) * 1992-01-16 1995-03-07 Mobile Telecommunications Technologies Methods and apparatus for compressing and decompressing paging data
US5357250A (en) * 1992-11-20 1994-10-18 International Business Machines Corporation Adaptive computation of symbol probabilities in n-ary strings
US5533051A (en) * 1993-03-12 1996-07-02 The James Group Method for data compression
US5414423A (en) * 1993-04-29 1995-05-09 International Business Machines Corporation Stabilization of probability estimates by conditioning on prior decisions of a given context
US5563595A (en) * 1993-12-23 1996-10-08 International Business Machines Corporation Method and apparatus for compressing data
US5473385A (en) * 1994-06-07 1995-12-05 Tv/Com Technologies, Inc. Clock correction in a video data decoder using video synchronization signals
DE4429585C1 (de) * 1994-08-19 1995-11-23 Bosch Gmbh Robert Verfahren zur arithmetischen Decodierung
US5543795A (en) * 1995-06-02 1996-08-06 Intermedics, Inc. Hybrid analog-to-digital convertor for low power applications, such as use in an implantable medical device
US5710562A (en) * 1995-08-31 1998-01-20 Ricoh Company Ltd. Method and apparatus for compressing arbitrary data
JP3409552B2 (ja) * 1995-12-27 2003-05-26 三菱電機株式会社 ディジタル情報符号化装置、ディジタル情報復号化装置、及びディジタル情報符号化・復号化装置
US5818369A (en) * 1996-03-07 1998-10-06 Pegasus Imaging Corporation Rapid entropy coding for data compression or decompression
JPH09298668A (ja) * 1996-05-07 1997-11-18 Mitsubishi Electric Corp ディジタル情報符号化装置、ディジタル情報復号化装置、ディジタル情報符号化・復号化装置、ディジタル情報符号化方法、及びディジタル情報復号化方法
JP3621512B2 (ja) * 1996-06-19 2005-02-16 株式会社ルネサステクノロジ ディジタル情報符号化装置、ディジタル情報復号化装置、ディジタル情報符号化・復号化装置、ディジタル情報符号化方法、及びディジタル情報復号化方法
KR100319919B1 (ko) * 1996-07-06 2002-06-20 윤종용 가변 확률모형을 사용한 개선된 산술 부호화기 및/또는 복호화기
EP0820150B1 (de) * 1996-07-15 2002-12-11 Koninklijke KPN N.V. System mit Kodierungssektion, Kodierungsvorrichtung und Methode
US6055338A (en) * 1996-08-22 2000-04-25 Sumitomo Metal Industries Limited Bi-level adaptive coding using a dual port memory and a context comparator
US6058216A (en) * 1996-09-03 2000-05-02 Sumitomo Metal Industries Limited Apparatus for encoding image data
CN1179348C (zh) * 1996-11-07 2004-12-08 皇家菲利浦电子有限公司 比特流信号的数据处理
DE69701183T2 (de) * 1997-01-24 2000-06-21 Koninkl Kpn Nv Datenkompressionsverfahren und -system mit Kontext Baumstruktur Algorithmus
EP0922334A2 (de) * 1997-06-04 1999-06-16 Koninklijke Philips Electronics N.V. Kompression und dekompression eines n-pegel-informationssignals
ES2210782T3 (es) * 1997-07-09 2004-07-01 Quvis, Inc. Aparato y metodo de codificacion entropica.
JP3391251B2 (ja) 1998-03-25 2003-03-31 三菱電機株式会社 適応確率推定方法及び適応符号化方法並びに適応復号方法
CN1249473A (zh) 1998-09-30 2000-04-05 朗迅科技公司 无乘法的算术编码
US6318156B1 (en) * 1999-10-28 2001-11-20 Micro Motion, Inc. Multiphase flow measurement system
US20060173848A1 (en) * 2000-03-09 2006-08-03 Pkware, Inc. System and method for manipulating and managing computer archive files
US20050015608A1 (en) * 2003-07-16 2005-01-20 Pkware, Inc. Method for strongly encrypting .ZIP files
US20060143180A1 (en) * 2000-03-09 2006-06-29 Pkware, Inc. System and method for manipulating and managing computer archive files
US8230482B2 (en) 2000-03-09 2012-07-24 Pkware, Inc. System and method for manipulating and managing computer archive files
US20060143253A1 (en) * 2000-03-09 2006-06-29 Pkware, Inc. System and method for manipulating and managing computer archive files
US6879988B2 (en) 2000-03-09 2005-04-12 Pkware System and method for manipulating and managing computer archive files
US20060143199A1 (en) * 2000-03-09 2006-06-29 Pkware, Inc. System and method for manipulating and managing computer archive files
US20060155788A1 (en) * 2000-03-09 2006-07-13 Pkware, Inc. System and method for manipulating and managing computer archive files
US20060143237A1 (en) * 2000-03-09 2006-06-29 Pkware, Inc. System and method for manipulating and managing computer archive files
US8959582B2 (en) 2000-03-09 2015-02-17 Pkware, Inc. System and method for manipulating and managing computer archive files
US20060143249A1 (en) * 2000-03-09 2006-06-29 Pkware, Inc. System and method for manipulating and managing computer archive files
US7844579B2 (en) * 2000-03-09 2010-11-30 Pkware, Inc. System and method for manipulating and managing computer archive files
US20060173847A1 (en) * 2000-03-09 2006-08-03 Pkware, Inc. System and method for manipulating and managing computer archive files
CN100459489C (zh) * 2000-11-29 2009-02-04 朗迅科技公司 可变大小的密钥以及使用该密钥的方法和装置
JP3807342B2 (ja) * 2002-04-25 2006-08-09 三菱電機株式会社 デジタル信号符号化装置、デジタル信号復号装置、デジタル信号算術符号化方法、およびデジタル信号算術復号方法
US6714145B1 (en) 2002-09-26 2004-03-30 Richard Marques Method and apparatus for integer-based encoding and decoding of bits
US20040101205A1 (en) * 2002-11-27 2004-05-27 General Electric Company Position coding system and method
US7688895B2 (en) * 2003-07-22 2010-03-30 Lsi Corporation Method and/or circuit for binary arithmetic decoding decisions before termination
US7233622B2 (en) * 2003-08-12 2007-06-19 Lsi Corporation Reduced complexity efficient binarization method and/or circuit for motion vector residuals
US8176155B2 (en) * 2003-11-26 2012-05-08 Riip, Inc. Remote network management system
US7161507B2 (en) * 2004-08-20 2007-01-09 1St Works Corporation Fast, practically optimal entropy coding
US7265691B2 (en) * 2005-06-23 2007-09-04 1Stworks Corporation Modeling for enumerative encoding
US7319417B2 (en) * 2005-11-18 2008-01-15 Intel Corporation Compression using multiple Markov chain modeling
WO2007123257A1 (en) * 2006-04-21 2007-11-01 Kabushiki Kaisha Toshiba Method and apparatus for entropy coding and decoding
US20080243518A1 (en) * 2006-11-16 2008-10-02 Alexey Oraevsky System And Method For Compressing And Reconstructing Audio Files
JP4893657B2 (ja) * 2008-02-29 2012-03-07 ソニー株式会社 算術復号装置
EP2734942A4 (de) 2011-08-23 2014-06-04 Huawei Tech Co Ltd Vorrichtung zur schätzung einer wahrscheinlichkeitsverteilung eines quantisierungsindex
US8779950B2 (en) 2012-03-05 2014-07-15 Dcba, Llc Command encoded data compression
US9543980B2 (en) 2014-10-10 2017-01-10 Massachusettes Institute Of Technology Systems and methods for model-free compression and model-based decompression

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4122440A (en) * 1977-03-04 1978-10-24 International Business Machines Corporation Method and means for arithmetic string coding
US4475227A (en) * 1982-04-14 1984-10-02 At&T Bell Laboratories Adaptive prediction
CA1208789A (en) * 1983-11-25 1986-07-29 Peter E. Chow Adpcm encoder/decoder with improved tracking
US4633490A (en) * 1984-03-15 1986-12-30 International Business Machines Corporation Symmetrical optimized adaptive data compression/transfer/decompression system
JPH0683202B2 (ja) * 1985-06-25 1994-10-19 日本電気株式会社 デ−タ符号化/復号化装置
EP0224753B1 (de) * 1985-12-04 1994-01-26 International Business Machines Corporation Wahrscheinlichkeitsanpassung für arithmetische Codierer
US4933883A (en) * 1985-12-04 1990-06-12 International Business Machines Corporation Probability adaptation for arithmetic coders
US4749983A (en) * 1986-04-29 1988-06-07 International Business Machines Corporation Compression of multilevel signals
US4935882A (en) * 1986-09-15 1990-06-19 International Business Machines Corporation Probability adaptation for arithmetic coders
US4725885A (en) * 1986-12-22 1988-02-16 International Business Machines Corporation Adaptive graylevel image compression system
US4745474A (en) * 1987-04-17 1988-05-17 General Electric Company Two resolution level DPCM system
US4821290A (en) * 1988-02-09 1989-04-11 General Electric Company Decoder for digital signal codes

Also Published As

Publication number Publication date
CA2014549A1 (en) 1990-12-01
EP0400913A2 (de) 1990-12-05
KR940011437B1 (ko) 1994-12-15
EP0400913A3 (de) 1991-10-16
DE69029876D1 (de) 1997-03-20
EP0400913B1 (de) 1997-02-05
JPH0779261B2 (ja) 1995-08-23
KR910002143A (ko) 1991-01-31
JPH03163918A (ja) 1991-07-15
US5025258A (en) 1991-06-18
CA2014549C (en) 1994-09-20

Similar Documents

Publication Publication Date Title
DE69029876T2 (de) Anpassungsfähiger Wahrscheinlichkeitsabschätzer für Entropie-Kodierung/-Dekodierung
DE68923875T2 (de) Entropie-Kodierer/Dekodierer mit einem Kontextextrahierer.
DE69726661T2 (de) Verfahren und vorrichtung zur kodierung eines digitalen informationssignales
EP1112621B1 (de) Vorrichtung und verfahren zum entropie-codieren von informationswörtern und vorrichtung und verfahren zum decodieren von entropie-codierten informationswörtern
DE3851468T2 (de) Kodierungsverfahren von Bildsignalen.
DE69025033T2 (de) Vorrichtung zur Dekodierung von Kode variabler Länge und geeignetes Adresssteuerungsverfahren
DE69735679T2 (de) Verfahren zur Bilddecodierung
DE69126940T2 (de) Blockadaptive lineare prädiktionskodierung mit adaptiver verstärkung und vorspannung
DE68926876T2 (de) Vorrichtung zur Vektorquantisierung von Bildern
EP2068448B1 (de) Verfahren und Anordnung zur arithmetischen Enkodierung und Dekodierung mit Verwendung mehrerer Tabellen
EP0517324B1 (de) Vorrichtung zur Steuerung des Quantisierers eines Hybridkodierers
DE69026292T2 (de) Methode zur Bilddatenkodierung
EP0201679A1 (de) Verfahren zur Bilddatenreduktion für digitale Fernsehsignale
WO2003094529A2 (de) Verfahren von transformations-koeffizienten in bild-oder videokodierern
DE3853899T2 (de) Verfahren und Vorrichtung zur Codierung und Decodierung eines Signals.
DE69917304T2 (de) Verfahren und vorrichtung zur identifizierung der kodierungstype eines codes in einer telefonvermittlungsanlage
DE68909592T2 (de) Vorrichtung zur Redundanzreduktion in Blöcken digitaler Videodaten in DCT-Kodierung.
DE60215220T2 (de) Einbettung und extraktion von wasserzeichendaten
DE10049571C1 (de) Verfahren und Anordnung zum Übertragen eines Vektors
DE3883358T2 (de) Blockadaptive prädiktionskodierung mit adaptiver verstärkung und vorspannung.
DE68915914T2 (de) Verfahren zur Quantisierung mit einer variablen Schwelle in einer Transformationskodierung für die Übertragung von Bildsignalen.
DE2703854C2 (de) Bildübertragungsanlage
DE19855451B4 (de) Videokodierverfahren und Videokoder zur Erzeugung kodierter Videoinformation
EP1206840B1 (de) Verfahren und vorrichtung zur codierung/decodierung
DE69734613T2 (de) Kodiertes Informationssignal

Legal Events

Date Code Title Description
8364 No opposition during term of opposition