DE69735390T2 - Bildkodierung und -dekodierung unter Verwendung von Abbildungskoeffizienten, die gewissen Pixelblockklasseninformation entsprechen - Google Patents

Bildkodierung und -dekodierung unter Verwendung von Abbildungskoeffizienten, die gewissen Pixelblockklasseninformation entsprechen Download PDF

Info

Publication number
DE69735390T2
DE69735390T2 DE69735390T DE69735390T DE69735390T2 DE 69735390 T2 DE69735390 T2 DE 69735390T2 DE 69735390 T DE69735390 T DE 69735390T DE 69735390 T DE69735390 T DE 69735390T DE 69735390 T2 DE69735390 T2 DE 69735390T2
Authority
DE
Germany
Prior art keywords
hierarchy
image data
unit
prediction
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69735390T
Other languages
English (en)
Other versions
DE69735390D1 (de
Inventor
c/o Sony Corporation Tetsujiro Kondo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69735390D1 publication Critical patent/DE69735390D1/de
Publication of DE69735390T2 publication Critical patent/DE69735390T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Bildkodiergerät und ein Bildkodierverfahren, ein Bilddekodiergerät, ein Aufzeichnungsmedium und ein Bildverarbeitungsgerät und ein Bildübertragungsverfahren und bezieht sich insbesondere auf ein Bildkodiergerät und ein Bildkodierverfahren, ein Bilddekodiergerät, ein Aufzeichnungsmedium und ein Bildverarbeitungsgerät und ein Bildübertragungsverfahren, die eine derartige Dezimation (Unterabtastung) und Kompressionskodierung ermöglichen, daß das dekodierte Bild mit dem Quellbild fast identisch ist.
  • Es wurden verschiedene Methoden als Verfahren zum Komprimieren von Bildern vorgeschlagen. Eine dieser Methoden benutzt die originalen Bilddaten (d.h. das zu kodierende Bild), während durch Reduzieren der Pixelzahl ein Bild einer zweiten Hierarchie und ein Bild einer dritten Hierarchie erzeugt wird (d.h. die Auflösung wird sukzessiv herabgesetzt).
  • Bei einem herkömmlichen hierarchischen Kodiersystem werden Bilder mehrerer Hierarchien von einem sendenden Gerät zu einem empfangenden Gerät übertragen. Als Reaktion auf jedes dieser Bilder der mehreren Hierarchien können in dem empfangenden Gerät die Bilder der jeweiligen Hierarchien (z.B. auf einem Monitor) angezeigt werden.
  • Bei einem herkömmlichen hierarchischen Dekodiersystem wird für die Daten zu dem Bild in der untersten Hierarchie (d.h. dem Bild mit der niedrigsten Auflösung), nicht jedoch für die Bilder der anderen, höheren Hierarchien ein Fehlerkorrekturprozeß durchgeführt. Dies hat zur Folge, daß bei den Bildern anderer Hierarchien als der untersten Hierarchie keine Fehlerkorrektur möglich ist, wenn ein Fehler auftritt. Deshalb können in einem Fehlerzustand nur die Daten des Bilds der untersten Hierarchie akquiriert und korrigiert werden. Bilder der höheren Hierarchien als der untersten Hierarchie enthalten keine Daten für die Fehlerermittlung und können somit an dem empfangsseitigen Ende z.B. nur durch einen Interpolationsprozeß aus den Daten zu dem Bild der untersten Hierarchie gewonnen werden. Deshalb kann die Wiederstandsfähigkeit gegenüber Fehlern dem hierarchischen Kodiersystem entsprechend verbessert werden.
  • 36 zeigt ein Beispiel für ein herkömmliches Bildkodiergerät zur Durchführung der oben beschriebenen hierarchischen Kodierung. Die zu kodierenden Bilddaten werden als Daten einer ersten Hierarchie (oberste Hierarchie) einer Dezimationseinheit (d.h. Unterabtasteinheit) 11 und einer Signalverarbeitungseinheit 501 zugeführt.
  • In der Dezimationseinheit 11 wird die Pixelmenge der Bilddaten der ersten Hierarchie dezimiert, so daß Bilddaten einer zweiten Hierarchie (die um eine Hierarchie niedriger ist als die erste Hierarchie) erzeugt werden. Die erzeugten Bilddaten werden einer Dezimationseinheit 12 und der Signalverarbeitungseinheit 501 zugeführt. In der Dezimationseinheit 12 wird die Pixelmenge der Bilddaten der zweiten Hierarchie dezimiert, so daß Bilddaten einer dritten Hierarchie (die wieder um eine Hierarchie niedriger ist als die zweite Hierarchie) erzeugt, und diese Bilddaten werden der Signalverarbeitungseinheit 501 zugeführt.
  • In der Signalverarbeitungseinheit 501 werden die Bilddaten der ersten Hierarchie, der zweiten Hierarchie und der dritten Hierarchie einem Fehlerkorrekturprozeß und anderen notwendigen Signalverarbeitungsoperationen unterzogen. Anschließend werden die signalverarbeiteten Bilddaten gemultiplext, und die gemultiplexten Daten werden als die kodierten Daten ausgegeben. Es ist zu beachten, daß bei der Verarbeitung in der Signalverarbeitungseinheit 501 die Bilddaten der dritten Hierarchie einer stärkeren Fehlerkorrektur unterzogen werden als diejenigen der anderen Hierarchien.
  • 37 zeigt ein Beispiel eines herkömmlichen Bilddekodiergeräts zum hierarchischen Dekodieren der kodierten Bilddaten, die von dem Bildkodiergerät von 36 ausgegeben werden.
  • In der Signalverarbeitungseinheit 601 werden die kodierten Daten in die kodierten Bilddaten der ersten Hierarchie, der zweiten Hierarchie und der dritten Hierarchie getrennt. Darüber hinaus werden in der Signalverarbeitungseinheit 601 der Fehlerkorrekturprozeß und andere notwendige Verarbeitungsoperationen an den getrennten Bilddaten vorgenommen. Die Bilddaten der ersten Hierarchie werden direkt als kodiertes Bild einer ersten Hierarchie ausgegeben. Die Bilddaten der zweiten Hierarchie werden einer Interpolationseinheit 602 zugeführt. Die Interpolationseinheit 602 unterzieht die Bilddaten der zweiten Hierarchie einem Interpolationsprozeß, um Bilddaten zu erzeugen, die die gleiche Pixelzahl haben wie die Bilddaten der ersten Hierarchie (die um eine Hierarchie höher ist als die zweite Hierarchie). Die so erzeugten Bilddaten werden dann als dekodiertes Bild einer ersten Hierarchie ausgegeben.
  • Die Bilddaten der dritten Hierarchie werden einer weiteren Interpolationseinheit 603 zugeführt. Die Interpolationseinheit 603 unterzieht die Bilddaten der dritten Hierarchie einem Interpolationsprozeß, um Bilddaten, die die gleiche Pixelzahl haben wie die Bildda ten der zweiten Hierarchie (die um eine Hierarchie höher ist als diese dritte Hierarchie), d.h. ein dekodiertes Bild einer zweiten Hierarchie zu erzeugen. Die dekodierten Bilddaten der zweiten Hierarchie werden an eine weitere Interpolationseinheit 604 ausgegeben. Die Interpolationseinheit 604 unterzieht das Ausgangssignal der Interpolationseinheit 603 einem ähnlichen Interpolationsprozeß wie die Interpolationseinheit 602, so daß Bilddaten erzeugt werden, die die gleiche Pixelzahl haben wie die Bilddaten der ersten Hierarchie (die um eine Hierarchie höher ist als die zweite Hierarchie). Diese Bilddaten werden dann als dekodiertes Bild der ersten Hierarchie ausgegeben.
  • Deshalb kann in dem Bilddekodiergerät das dekodierte Bild der ersten Hierarchie selbst dann aus Bilddaten der zweiten Hierarchie gewonnen werden, wenn die Bilddaten der ersten Hierarchie aus irgendeinem Grund nicht gewonnen werden können. Ähnlich ist es möglich, die dekodierten Bilder der ersten Hierarchie und der zweiten Hierarchie aus den Bilddaten der dritten Hierarchie zu gewinnen, selbst wenn die Bilddaten der ersten Hierarchie und die Bilddaten der zweiten Hierarchie aus irgendwelchen Gründen nicht gewonnen werden können.
  • Die Bildqualität des dekodierten Bilds der obersten Hierarchie, das aus dem Bild (den Bildern) der unteren Hierarchien interpoliert wird, ist jedoch erheblich beeinträchtigt.
  • Eine Gerät zur Durchführung einer hierarchischen Kodierung, die alle Merkmale des Oberbegriffs von Anspruch 1 aufweist, ist in Patent Abstracts of Japan Vol. 095, Nr. 009, 31, Oktober 1995 (= JP 07 147681 A ; = US 5 598 214 A ) beschrieben.
  • EP-A-0 635 978 offenbart ein Gerät zur Umwandlung eines ersten Bildsignals (SD) in ein zweites Bildsignal (HD) mit höherer Auflösung mit Hilfe von Schätzwerten, die auf der Basis von Schätzkoeffizienten generiert werden, wobei ein bekanntes HD-Signal und das daraus erzeugte SD-Signal dazu benutzt werden, die Schätzkoeffizienten zu bestimmen.
  • Es ist ein Ziel der vorliegenden Erfindung, ein Gerät und ein Verfahren durch Durchführung einer hierarchischen Kodierung sowie ein System bereitzustellen, das ein Gerät durch Durchführung einer hierarchischen Kodierung und ein Gerät zum Dekodieren umfaßt, die selbst dann eine Verbesserung der Bildqualität des dekodierten Bilds ermöglichen, wenn es nur aus kodierten Daten einer untersten Hierarchie gewonnen wird.
  • Dieses Ziel wird durch ein Gerät und ein Verfahren zur Durchführung einer hierarchischen Kodierung und ein System nach den anliegenden unabhängigen Ansprüchen erreicht.
  • Vorteilhafte Weiterbildungen der Erfindung sind in den entsprechenden Unteransprüchen angegeben.
  • 1 zeigt ein Blockdiagramm einer Anordnung eines Bildverarbeitungssystems nach einem Ausführungsbeispiel der Erfindung,
  • 2 zeigt ein Blockdiagramm einer Anordnung des Sendegeräts von 1 nach einem ersten Ausführungsbeispiel,
  • 3 zeigt ein Diagramm zur Erläuterung der Verarbeitungen der Dezimationseinheiten 11 und 12 von 2,
  • 4 zeigt ein Diagramm zur Erläuterung der Verarbeitungen der Dezimationseinheiten 11 und 12 von 2,
  • 5 zeigt ein Blockdiagramm eines Beispiels für den Aufbau für die Einheit 13 (14) zur Berechnung optimaler Korrekturdaten in 2,
  • 6 zeigt ein Flußdiagramm zur Erläuterung der Verarbeitung in der Einheit 13 zur Berechnung optimaler Korrekturdaten in 5,
  • 7 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Korrektureinheit 21 von 5,
  • 8 ist ein Flußdiagramm zur Erläuterung der Operationen der Korrektureinheit 21 von
  • 7,
  • 9 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der lokalen Dekodiereinheit 22 von 5,
  • 10 zeigt ein Diagramm zur Erläuterung der Verarbeitungen in der Einheit 41 zur Bildung von Klassenklassifizierungsblöcken in 9,
  • 11 zeigt ein Diagramm zur Erläuterung des Klassenklassifizierungsprozesses, 12 zeigt ein Diagramm zur Erläuterung der ADRC-Verarbeitung,
  • 13 zeigt ein Flußdiagramm zur Erläuterung der Operationen der lokalen Dekodiereinheit 22 in 9,
  • 14 zeigt ein Diagramm eines Beispiels für den Aufbau der Fehlerberechnungseinheit 23 in 5,
  • 15 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Fehlerberechnungseinheit 23 in 14,
  • 16 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Entscheidungseinheit 24 in der Einheit 23 in 5,
  • 17 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Entscheidungseinheit 24 in 16,
  • 18 zeigt ein Blockdiagramm einer Anordnung des Empfangsgeräts 4 in 1,
  • 19 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Prädiktionseinheit 72 in 18,
  • 20 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Prädiktionseinheit 73 in 18,
  • 21 zeigt ein Blockdiagramm eines weiteren Beispiels für den Aufbau der lokalen Dekodiereinheit 22 in 5,
  • 22 zeigt ein Blockdiagramm einer Anordnung eines Bildverarbeitungsgeräts nach einem Ausführungsbeispiel zur Berechnung der in dem Prädiktionskoeffizienten-ROM 88 von 21 gespeicherten Prädiktionskoeffizienten,
  • 23 zeigt ein Blockdiagramm eines weiteren Beispiels für den Aufbau der Dekodiereinheit 80 in 19,
  • 24 zeigt ein Blockdiagramm einer Anordnung des Sendegeräts 1 von 1 nach einem zweiten Ausführungsbeispiel,
  • 25 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Einheit 101 (102) in 24 zur Berechnung der optimalen Korrekturdaten,
  • 26 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Einheit 101 von 25 zur Berechnung der optimalen Korrekturdaten,
  • 27 zeigt ein Blockdiagramm einer Anordnung des Bildverarbeitungsgeräts nach einem ersten Ausführungsbeispiel zur Durchführung eines Lernvorgangs zur Gewinnung der Abbildungskoeffizienten,
  • 28 zeigt ein Flußdiagramm zur Erläuterung der Operationen des Bildverarbeitungsgeräts von 27,
  • 29 zeigt ein Blockdiagramm einer Anordnung eines Bildverarbeitungsgeräts nach einem zweiten Ausführungsbeispiel zur Durchführung des Lernvorgangs, der zur Gewinnung der Abbildungskoeffizienten benutzt wird,
  • 30 zeigt ein Flußdiagramm zur Erläuterung der Operationen des Bildverarbeitungsgeräts von 29,
  • 31 zeigt ein Diagramm zur Erläuterung eines Verfahrens zum Dekodieren einer ersten Hierarchie nach der vorliegenden Erfindung,
  • 32 zeigt ein Diagramm zur Erläuterung eines Verfahrens zur Dekodierung einer zweiten Hierarchie gemäß der vorliegenden Erfindung,
  • 33 zeigt ein Diagramm einer Anordnung des Sendegeräts 1 von 1 nach einem dritten Ausführungsbeispiel,
  • 34 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Einheit 201 in 33 zur Berechnung der optimalen Korrekturdaten,
  • 35 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Einheit 201 in 34 zur Berechnung der optimalen Korrekturdaten,
  • 36 zeigt ein Blockdiagramm eines Beispiels für den Aufbau des herkömmlichen Bildkodiergeräts zur Durchführung der hierarchischen Kodierung,
  • 37 zeigt ein Blockdiagramm eines Beispiels für den Aufbau des herkömmlichen Bilddekodiergeräts zum hierarchischen Dekodieren,
  • 38 zeigt ein Blockdiagramm eines alternativen Beispiels einer Einheit zur Berechnung der optimalen Korrekturdaten,
  • 39 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Einheit von 38 zur Berechnung der optimalen Korrekturdaten,
  • 40 Blockdiagramm eines alternativen Ausführungsbeispiels einer Einheit zur Berechnung der optimalen Korrekturdaten,
  • 41 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Einheit von 40 zur Berechnung der optimalen Korrekturdaten,
  • 42 zeigt ein Blockdiagramm eines alternativen Ausführungsbeispiels einer lokalen Dekodiereinheit,
  • 43 zeigt ein Flußdiagramm zur Erläuterung der Operationen der lokalen Dekodiereinheit von 42,
  • 44 zeigt ein Blockdiagramm einer Entscheidungseinheit 24,
  • 45 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Entscheidungseinheit 24,
  • 46 zeigt ein Blockdiagramm eines alternativen Ausführungsbeispiels einer Prädiktionseinheit,
  • 47 zeigt ein Blockdiagramm eines alternativen Ausführungsbeispiels einer Einheit zur Berechnung optimaler Korrekturdaten,
  • 48 zeigt ein Flußdiagramm zur Erläuterung der Operationen der Einheit von 47 zur Berechnung optimaler rrekturdaten.
  • Zur Klarstellung der Beziehung zwischen den einzelnen Einrichtungen der verschiedenen hier beschriebenen Ausführungsbeispiele werden zunächst gewisse Eigenschaften der Erfindung anhand der Figuren kurz beschrieben. Es ist zu beachten, daß der Ausdruck "Einheit" in seinem weitesten Sinne zu interpretieren ist, und eine festverdrahtete Einheit, einen Mainframe-Computer, in den eine geeignete Software geladen ist, einen programmierten Mikroprozessor oder Mikrocontroller oder eine Kombination dieser Einrichtungen umfaßt.
  • 1 zeigt ein Ausführungsbeispiel eines Bildverarbeitungssystems gemäß der Erfindung. Einem Sendegerät i werden digitale Bilddaten zugeführt. Das Sendegeräte 1 kodiert die Eingangsbilddaten hierarchisch, um kodierte Bilddaten zu gewinnen, und zeichnet diese kodierten Bilddaten auf einem Aufzeichnungsmedium 2, z.B. einer optischen Platte, einer magneto-optischen Platte, einem Magnetband oder anderen Aufzeichnungsmedien auf. Alternativ (oder zusätzlich) werden die kodierten Daten über einen Übertragungspfad 3, z.B. über terrestrische Funkwellen, eine Satellitenverbindung, eine Telefonleitung, ein Kabelfernsehnetz oder über andere Wege, übertragen.
  • In einem Empfangsgerät 4 werden die auf dem Aufzeichnungsmedium 2 aufgezeichneten kodierten Daten reproduziert oder es werden die über den Übertragungspfad 3 übertragenen kodierten Daten werden empfangen, und diese kodierten Daten werden hierarchisch dekodiert, um ein dekodiertes Bild zu gewinnen, das einer (nicht dargestellten) Anzeigevorrichtung zugeführt wird.
  • Es ist auch zu beachten, daß das oben beschriebene Bildverarbeitungssystem in Bildaufzeichnungs-/-wiedergabegeräten, z.B. einem optischen Plattengerät, einem magnetooptischen Plattengerät, einem Magnetbandgerät und dgl. angewendet werden kann. Alternativ kann das Bildverarbeitungssystem bei Bildübertragungsgeräten, z.B. einem Fernsehtelefon, einem Fernsehrundfunksystem, einem Kabelfernsehsystem und dgl. angewendet werden. Da die von dem Sendegerät 1 ausgegebenen kodierten Daten eine relativ kleine Datenmenge haben, kann das Bildverarbeitungssystem 1 von 1 beispielsweise auch in einem tragbaren Telefon und in einem anderen tragbaren Endgerät angewendet werden.
  • 2 zeigt ein Beispiel für die Anordnung des oben erwähnten Sendegeräts 1.
  • Die zu kodierenden digitalen Bilddaten (d.h. die Bilddaten der ersten oder höchsten Hierarchie) werden als dekodierte Daten der ersten Hierarchie direkt der Signalverarbeitungseinheit 5 zugeführt. Außerdem werden die Bilddaten der ersten Hierarchie einer Dezimationseinheit 11 und einer Einheit 13 zur Berechnung optimaler Korrekturdaten zugeführt. in der Dezimationseinheit 11 wird die Pixelzahl der Bilddaten der ersten Hierarchie dezimiert, so daß Bilddaten einer zweiten Hierarchie (die um eine Hierarchie niedriger ist als die erste Hierarchie) erzeugt werden. Mit anderen Worten, in der Dezimationseinheit 11 werden, wie z.B. in 3 dargestellt, die Bilddaten der ersten Hierarchie (in dieser Zeichnung ein durch das Symbol "O" gekennzeichneter Teil) einfach um den Faktor 1/9 dezimiert (d.h. unterabgetastet) (sie werden sowohl in transversaler Richtung als auch in longitudinaler Richtung um jeweils 1/3 dezimiert). Als Ergebnis werden die Bilddaten der zweiten Hierarchie (in dieser Zeichnung ein durch das Symbol "O" gekennzeichneter Teil) erzeugt. Diese Bilddaten der zweiten Hierarchie werden der Dezimationseinheit 12 und einer Einheit 13 zur Berechnung von optimalen Korrekturdaten zugeführt.
  • In der Dezimationseinheit 12 wird die Pixelzahl der Bilddaten der zweiten Hierarchie dezimiert, so daß Bilddaten einer dritten Hierarchie erzeugt werden, die um eine Hierarchie niedriger ist als die zweite Hierarchie. Das heißt, in der Dezimationseinheit 12 werden die Bilddaten der zweiten Hierarchie, z.B. ähnlich wie im Fall der Dezimationseinheit 11, einfach um den Faktor 1/9 dezimiert, so daß die Bilddaten der dritten Hierarchie erzeugt werden, die in 3 durch das Symbol "X" gekennzeichnet sind. Diese Bilddaten der drit ten Hierarchie werden einer weiteren Einheit 14 zur Berechnung der optimalen Korrekturdaten zugeführt.
  • Wie 4 zeigt, werden in den Dezimationseinheiten 11 und 12 aus den Bilddaten der ersten Hierarchie (d.h. den originalen Bilddaten) in der oben beschriebenen Weise sowohl die Bilddaten der zweiten Hierarchie als auch die Bilddaten der dritten Hierarchie erzeugt.
  • Die Einheit 13 zur Berechnung der optimalen Korrekturdaten berechnet optimale Korrekturdaten (die hier als "optimale Korrekturdaten einer zweiten Hierarchie" bezeichnet werden), die geeignet sind, um aus den Bilddaten der zweiten Hierarchie ein dekodiertes Bild einer ersten Hierarchie zu gewinnen. Die berechneten optimalen Korrekturdaten werden als kodierte Daten einer zweiten Hierarchie an die Signalverarbeitungseinheit 15 ausgegeben. In der Einheit 14 zur Berechnung der optimalen Korrekturdaten werden weitere optimale Korrekturdaten (die hier als "optimale Korrekturdaten einer dritten Hierarchie" bezeichnet werden) berechnet, die sich zur Gewinnung optimaler Korrekturdaten eignen, die von dieser Einheit 14 zur Berechnung optimaler Korrekturdaten ausgegeben werden. Diese optimalen Korrekturdaten werden als kodierte Daten einer dritten Hierarchie der Signalverarbeitungseinheit 15 zugeführt.
  • Da die optimalen Korrekturdaten der dritten Hierarchie sich im vorliegenden Fall dazu eignen, die optimalen Korrekturdaten der zweiten Hierarchie zu gewinnen, und da außerdem die optimalen Korrekturdaten der zweiten Hierarchie sich dazu eignen, das dekodierte Bild der ersten Hierarchie zu gewinnen, können die optimalen Korrekturdaten der dritten Hierarchie, ähnlich wie die optimalen Korrekturdaten der zweiten Hierarchie, sich auch dazu eignen, das dekodierte Bild der ersten Hierarchie zu gewinnen.
  • In der Signalverarbeitungseinheit 15 wird ein Prädiktionskoeffizient (der weiter unten diskutierte Prädiktionskoeffizient der ersten Hierarchie) hergeleitet, und die kodierten Daten der zweiten Hierarchie enthalten den Prädiktionskoeffizienten der ersten Hierarchie. Außerdem enthalten die kodierten Daten der dritten Hierarchie den Prädiktionskoeffizienten der zweiten Hierarchie. In der Signalverarbeitungseinheit 15 werden dann ein Fehlerkorrekturprozeß und weitere notwendige Signalverarbeitungsoperationen an den kodierten Daten der ersten Hierarchie bis zur dritten Hierarchie ausgeführt. Anschließend werden die signalverarbeiteten, kodierten Daten gemultiplext und die gemultiplexten Daten dann als endgültig kodierte Daten ausgegeben. Es ist zu beachten, daß der Fehlerkorrekturprozeß, der für die kodierten Daten der dritten Hierarchie (die die unterste Hierarchie ist) durchgeführt wird, stärker ist als der Fehlerkorrekturprozeß für die kodierten Daten der anderen Hierarchien.
  • Die kodierten Daten, die in der oben beschriebenen Weise von der Signalverarbeitungseinheit 15 ausgegeben werden, werden auf dem Aufzeichnungsmedium 2 aufgezeichnet und/oder über den Übertragungspfad 13 übertragen.
  • Wie oben beschrieben wurde, werden die Dezimationsoperationen in den beiden Dezimationseinheiten 11 und 12 mit der gleichen Rate durchgeführt. Es ist jedoch nicht notwendig, daß die Dezimationsrate der Dezimationseinheit 11 mit der Dezimationsrate der Dezimationseinheit 12 identisch ist.
  • 5 zeigt ein Beispiel für den Aufbau der in 3 dargestellten Einheit 13 zur Berechnung optimaler Korrekturdaten. Da die Einheit 14 zur Berechnung optimaler Korrekturdaten ähnlich aufgebaut sein kann, ist deren Beschreibung hier weggelassen.
  • Die von der Dezimationseinheit 11 hergeleiteten Bilddaten der zweiten Hierarchie werden einer Korrektureinheit 21 zugeführt, und die Bilddaten der ersten Hierarchie werden einer lokalen Dekodiereinheit 22 zugeführt. Die Bilddaten der ersten Hierarchie werden außerdem einer Fehlerberechnungseinheit 23 zugeführt.
  • Die Korrektureinheit 21 korrigiert die Bilddaten der zweiten Hierarchie nach Maßgabe eines Steuersignals, das von einer Entscheidungseinheit 24 geliefert wird. Die durch den Korrekturprozeß in der Korrektureinheit 21 gewonnenen Korrekturdaten werden der lokalen Dekodiereinheit 22 und der Entscheidungseinheit 24 zugeführt.
  • Die lokale Dekodiereinheit 22 prädiziert auf der Basis der von der Korrektureinheit 21 ausgegebenen Korrekturdaten, d.h. des Korrekturergebnisses der Bilddaten der zweiten Hierarchie, Prädiktionswerte einer ersten Hierarchie (die um eine Hierarchie höher ist als die zweite Hierarchie). Der Ausdruck "Prädiktionswerte" soll mehrere Pixelwerte umfassen, wobei jeder Pixelwert einem Pixel der Bilddaten der zweiten Hierarchie entspricht. Die Prädiktionswerte werden der Fehlerberechnungseinheit 23 zugeführt.
  • Wie weiter unten erläutert wird, führt die lokale Dekodiereinheit 22 durch lineare Verknüpfung mit den Korrekturdaten einen Prozeß durch, um für jede Klasse Prädiktionskoeffizienten zu gewinnen, die dann zur Berechnung des Prädiktionswerts der ersten Hierarchie benutzt werden, wobei Bilddaten der ersten Hierarchie sowie die Korrekturdaten benutzt werden. Auf der Basis dieser Prädiktionskoeffizienten führt die lokale Dekodiereinheit 22 einen adaptiven Prozeß durch, um die Prädiktionswerte der ersten Hierarchie zu gewinnen. Die resultierenden Prädiktionskoeffizienten für jede Klasse werden auch der Entscheidungseinheit 24 zugeführt.
  • Die Fehlerberechnungseinheit 23 berechnet für die Bilddaten (Originalbild) der ersten Hierarchie einen Prädiktionsfehler der von der lokalen Dekodiereinheit 22 hergeleiteten Prädiktionswerte. Dieser Prädiktionsfehler wird als Fehlerinformation der Entscheidungseinheit 24 zugeführt.
  • Auf der Basis der von der Fehlerberechnungseinheit 23 hergeleiteten Fehlerinformation prüft die Entscheidungseinheit 24, ob die von der Korrektureinheit 21 ausgegebenen korrigierten Daten im wesentlichen mit dem kodierten Ergebnis des Originalbilds (d.h. in diesem Fall dem Bild der ersten Hierarchie) übereinstimmen. Wenn die Entscheidungseinheit 24 feststellt, daß die von der Korrektureinheit 21 ausgegebenen korrigierten Daten nicht im wesentlichen mit dem kodierten Ergebnis des Originalbilds übereinstimmen, steuert die Entscheidungseinheit 24 die Korrektureinheit 21, damit diese die Bilddaten der zweiten Hierarchie weiter korrigiert, so daß die Korrektureinheit 21 neu gewonnene Korrekturdaten ausgibt. Wenn die Entscheidungseinheit 24 feststellt, daß die von der Korrektureinheit 21 ausgegebenen korrigierten Daten mit dem kodierten Ergebnis des Originalbilds im wesentlichen übereinstimmen, werden die von der Korrektureinheit 21 gelieferten korrigierten Daten als optimale Korrekturdaten (optimale Korrekturdaten der zweiten Hierarchie) an eine Multiplexereinheit 25 geliefert. Außerdem werden die von der lokalen Dekodiereinheit 22 gelieferten Prädiktionskoeffizienten der Multiplexereinheit 25 zugeführt.
  • Die Multiplexereinheit 25 multiplext die aus der Entscheidungseinheit 24 kommenden optimalen Korrekturdaten mit den Prädiktionskoeffizienten für jede Klasse und gibt dann das Multiplexergebnis als kodierte Daten der zweiten Hierarchie aus.
  • Anhand des Flußdiagramms von 6 wird nun die Arbeitsweise der Einheit 13 zur Berechnung optimaler Korrekturdaten beschrieben. Wenn der Korrektureinheit 21 die Bilddaten der zweiten Hierarchie zugeführt werden, gibt die Korrektureinheit 21 die Bilddaten der zweiten Hierarchie zunächst direkt an die lokale Dekodiereinheit 22 und die Entscheidungseinheit 24 aus. In dem Schritt S2 werden die Korrekturdaten aus der Korrektureinheit 21, d.h., wie oben erläutert, die Bilddaten der zweiten Hierarchie, in der lokalen Dekodiereinheit 22 direkt lokal dekodiert.
  • Mit anderen Worten, in dem Schritt S2 wird der adaptive Prozeß zur Gewinnung der Prädiktionskoeffizienten für jede Klasse an den Bilddaten der ersten Hierarchie und unter Verwendung der Korrekturdaten durchgeführt, um die Prädiktionswerte der ersten Hierarchie (die um eine Hierarchie höher ist als die zweite Hierarchie) durch lineare Verknüpfung mit den Korrekturdaten aus der Korrektureinheit 21 zu berechnen. Auf der Basis der Prädiktionskoeffizienten werden die Prädiktionswerte gewonnen und dann der Fehlerberechnungseinheit 23 zugeführt.
  • Wenn die Fehlerberechnungseinheit 23 die Prädiktionswerte der ersten Hierarchie aus der lokalen Dekodiereinheit 22 empfängt, berechnet die Fehlerberechnungseinheit 23 in dem Schritt S3 den Prädiktionsfehler der Prädiktionswerte aus der lokalen Dekodiereinheit 22 für die Bilddaten der ersten Hierarchie und liefert den Prädiktionsfehler als Fehlerinformation an die Entscheidungseinheit 24. Wenn die Entscheidungseinheit 24 die Fehlerinformation aus der Fehlerberechnungseinheit 23 empfängt, prüft sie in dem Schritt S4, ob die von der Korrektureinheit 21 ausgegebenen Korrekturdaten mit dem kodierten Ergebnis des Bilds der ersten Hierarchie im wesentlichen übereinstimmen.
  • Mit anderen Worten, in dem Schritt S4 wird geprüft, ob die Fehlerinformation kleiner ist als ein vorbestimmter Schwellwert "ε". Wenn in dem Schritt S4 festgestellt wird, daß die Fehlerinformation nicht kleiner ist als der vorbestimmte Schwellwert "ε", wird gefolgert, daß die von der Korrektureinheit 21 ausgegebenen Korrekturdaten mit den kodierten Daten des Bilds der ersten Hierarchie nicht im wesentlichen übereinstimmen. Der Prozeß geht dann weiter zu dem Schritt S5, in dem die Entscheidungseinheit 24 die Korrektureinheit 21 so steuert, daß die Bilddaten der zweiten Hierarchie korrigiert werden. Die Korrektureinheit 21 variiert unter dem Steuereinfluß der Entscheidungsschaltung 24 eine Korrekturgröße (nämlich den weiter unten diskutierten Korrekturwert "Δ"), um die Bilddaten der zweiten Hierarchie zu korrigieren. Die resultierenden Korrekturdaten werden an die lokale Dekodiereinheit 22 und die Entscheidungseinheit 24 ausgegeben. Der Prozeß kehrt dann zu dem vorherigen Schritt S2 zurück und es wird ein ähnlicher Prozeß wiederholt.
  • Wenn in dem Schritt S4 hingegen festgestellt wird, daß die Fehlerinformation kleiner ist als der vorbestimmte Schwellwert "ε", zeigt dies an, daß die von der Korrektureinheit 21 ausgegebenen Korrekturdaten mit dem kodierten Ergebnis des Bilds der ersten Hierarchie im wesentlichen übereinstimmen. Wenn die Fehlerinformation kleiner oder gleich dem vorbestimmten Schwellwert "ε" ist, gibt die Entscheidungsschaltung 24 die Korrekturdaten als optimale Korrekturdaten zusammen mit den Prädiktionskoeffizienten für jede Klasse an die Multiplexereinheit 25 aus. In dem Schritt S6 multiplext die Multiplexereinheit 25 die Prädiktionskoeffizienten für jede Klasse mit den optimalen Korrekturdaten aus der Entscheidungsschaltung 24 und gibt das gemultiplexte Ergebnis als kodierte Daten der zweiten Hierarchie aus. Der Prozeß ist dann beendet.
  • Da die durch Korrigieren der Bilddaten der zweiten Hierarchie erzeugten Korrekturdaten unter der Bedingung, daß die Fehlerinformation kleiner als ein vorbestimmter Schwell wert "ε" wird, wie oben erläutert, als das Kodierresultat des Bilds der ersten Hierarchie benutzt wird, ist es möglich, auf der Seite des Empfangsgeräts 4 aus den kodierten Bilddaten der zweiten Hierarchie auf der Basis der Korrekturdaten (d.h, der optimalen Korrekturdaten) ein Bild zu gewinnen, das im wesentlichen mit den originalen Bilddaten (Bilddaten der ersten Hierarchie) identisch ist.
  • Es ist zu beachten, daß die Verarbeitungsoperation zur Gewinnung der Prädiktionskoeffizienten für jede Klasse, die, wie oben erläutert, zur Berechnung der Prädiktionswerte der ersten Hierarchie (die um eine Hierarchie höher ist als die zweite Hierarchie) durch lineare Verknüpfung mit den Korrekturdaten benutzt werden in der Einheit 13 zur Berechnung der optimalen Korrekturdaten durchgeführt wird, wobei die Bilddaten der ersten Hierarchie benutzt werden, wohingegen die adaptive Verarbeitung unter Verwendung der von der Einheit 13 zur Berechnung der optimalen Korrekturdaten ausgegebenen optimalen Korrekturdaten durchgeführt wird. Alternativ kann die Einheit 14 zur Berechnung der optimalen Korrekturdaten die adaptive Verarbeitungsoperation für die von der Dezimationseinheit 11 ausgegebenen Bilddaten der zweiten Hierarchie durchführen.
  • 7 zeigt ein Beispiel für den Aufbau der Korrektureinheit 21 von 5.
  • Die Bilddaten der zweiten Hierarchie werden einer Korrektureinheit 32 zugeführt. In Abhängigkeit von einem Steuersignal, das von der Entscheidungseinheit 24 (5) zugeführt wird, liefert die Korrektureinheit 32 eine Adresse an ein Korrekturwert-ROM 33, so daß aus dem Rom 33 der Korrekturwert " Δ " ausgelesen wird. Die Korrektureinheit 32 erzeugt dann die Korrekturdaten, indem sie z.B. den aus dem Korrekturwert-ROM 33 ausgelesenen Korrekturwert Δ zu den Bilddaten der zweiten Hierarchie addiert und die erzeugten Korrekturdaten dann an die lokale Dekodiereinheit 22 und die Entscheidungseinheit 24 liefert. Das Korrekturwert-ROM 33 speichert Kombinationen aus verschiedenen Arten von Korrekturwerten Δ (z.B. eine Kombination von Korrekturwerten zum Korrigieren von Bilddaten der zweiten Hierarchie für ein Vollbild), um die Bilddaten der zweiten Hierarchie zu korrigieren. Aus dem Korrekturwert-ROM 33 wird eine Kombination von Korrekturwerten Δ ausgelesen, die der aus der Korrektureinheit 32 gelieferten Adresse entsprechen, um dann der Korrektureinheit 32 zugeführt zu werden.
  • Anhand von 8 wird nun die Verarbeitung in der Korrektureinheit 21 von 7 erläutert.
  • Wenn der Korrektureinheit 32 z.B. die Bilddaten der zweiten Hierarchie für ein Vollbild zugeführt werden, empfängt die Korrektureinheit 32 diese Bilddaten der zweiten Hierarchie in dem Schritt S11 und prüft in dem Schritt S12, ob das Steuersignal aus der Ent scheidungsschaltung 24 (5) empfangen wird oder nicht. Wenn in dem Schritt S12 festgestellt wird, daß das Steuersignal nicht empfangen wird, überspringt der Prozeß die Schritte S13 und S14 und wird in dem Schritt S15 fortgesetzt, in dem die Korrektureinheit 32 die Bilddaten der zweiten Hierarchie als Korrekturdaten direkt an die lokale Dekodiereinheit 22 und an die Entscheidungseinheit 24 ausgibt. Dann kehrt der Prozeß zu dem vorherigen Schritt S12 zurück.
  • Mit anderen Worten, die Entscheidungseinheit 24 steuert, wie oben beschrieben, die Korrektureinheit 21 (die Korrektureinheit 32) auf der Basis der Fehlerinformation. Da die Fehlerinformation unmittelbar nach dem Empfang der Bilddaten der zweiten Hierarchie in der Korrektureinheit 32 noch nicht akquiriert wurde (weil die Fehlerinformation von der Fehlerberechnungseinheit 23 noch nicht ausgegeben wurde), gibt die Entscheidungseinheit 24 kein Steuersignal aus. Deshalb korrigiert die Korrektureinheit 32 unmittelbar nach dem Empfang der Bilddaten der zweiten Hierarchie die Bilddaten der zweiten Hierarchie nicht, sondern gibt diese Bilddaten als Korrekturdaten direkt an die lokale Dekodiereinheit 22 und an die Entscheidungseinheit 24 aus.
  • Wenn in dem Schritt S12 hingegen festgestellt wird, daß das Steuersignal aus der Entscheidungseinheit 24 empfangen wird, gibt die Korrektureinheit 32 in dem Schritt S13 eine durch das Steuersignal definierte Adresse an das Korrekturwert-ROM 23 aus. Deshalb wird in dem Schritt S13 die Kombination (der Satz) der an dieser Adresse gespeicherten Korrekturwerte Δ aus dem Korrekturwert-ROM 33 ausgelesen und dann der Korrektureinheit 32 zugeführt. Wenn die Korrektureinheit 32 die Kombination der aus dem Korrekturwert-ROM 33 ausgelesenen Kor rekturwerte Δ empfängt, addiert sie die entsprechenden Korrekturwerte Δ zu den betreffenden Bilddaten der zweiten Hierarchie für ein Vollbild, so daß die durch das Korrigieren der Bilddaten der zweiten Hierarchie erzeugten Korrekturdaten in dem Schritt S14 berechnet werden. Anschließend geht der Prozeß weiter zu dem Schritt S15, in dem die Korrekturdaten von der Korrektureinheit 32 an die lokale Dekodiereinheit 22 und an die Entscheidungsschaltung 24 ausgegeben werden. Die Verarbeitung kehrt dann zu dem Schritt S12 zurück.
  • Wie oben diskutiert wurde, gibt die Korrektureinheit 21 wiederholt die Korrekturdaten aus, die durch Korrigieren der Bilddaten der zweiten Hierarchie in die verschiedenen Werte unter dem Steuereinfluß der Entscheidungseinheit 24 gewonnen werden.
  • Es ist zu beachten, daß dann, wenn die Kodieroperation für ein Vollbild des Bilds abgeschlossen ist, die Entscheidungsschaltung 24 der Korrektureinheit 21 ein Steuersignal zuführt, um den Abschluß der Kodieroperation anzuzeigen. Beim Empfang dieses Steuersignals in dem Schritt S12 beendet die Korrektureinheit 21 die Verarbeitungsoperation für ein Bild des laufenden Vollbilds und führt dann die in dem Flußdiagramm von 8 dargestellte Verarbeitung für das nächste Vollbild des Bildes aus.
  • 9 zeigt ein Ausführungsbeispiel der in 5 dargestellten lokalen Dekodiereinheit 22.
  • Die Korrekturdaten aus der Korrektureinheit 21 werden einer Einheit 41 zur Bildung von Klassenklassifikationsblöcken und einer Blockbildungseinheit 42 für die Berechnung der Prädiktionswerte zugeführt. Die Einheit 41 zur Bildung von Klassenklassifikationsblöcken erzeugt Klassenkiassifikationsblöcke, die um die notierten Korrekturdaten zentriert sind, um die Korrekturdaten in Abhängigkeit von ihrer Natur in einer bestimmten Klasse zu klassifizieren.
  • Wenn man z.B. annimmt, daß ein in 10 durch das Symbol "O" gekennzeichnetes Pixel das Bild der ersten Hierarchie repräsentiert und ein anderes, durch das Symbol "•" gekennzeichnete Pixel das Bild der zweiten Hierarchie (Korrekturdaten) repräsentiert, und daß Korrekturdaten (andernfalls Pixel), die sich an der i-ten Position von oben und an der j-ten Position von links befinden, mit "Xij" bezeichnet werden, erzeugt die Blockbildungseinheit 1 für die Klassenklassifikation einen Klassenklassifikationsblock mit insgesamt 9 Pixeln, nämlich einem interessierenden Pixel "Xij" und den folgenden 8 Pixeln, die diesem interessierenden Pixel in den Positionen oben links, oben, oben rechts, links, rechts, unten links, unten und unten rechts benachbart sind: X(i-1)(j-1), X(i-1)j, X(i-1)(j+1), Xi(j-1), Xi(j+1), X(i+1)(j-1), X(i+1)j, X(i+1)(j+1). Der Klassenklassifikationsblock wird einer adaptiven Klassenklassifikationsverarbeitungseinheit 43 zugeführt.
  • In diesem Fall ist der Klassenklassifikationsblock ein regelmäßiger quadratischer Block mit 3 × 3 Pixeln. Die Form des Klassenklassifikationsblocks ist jedoch nicht notwendigerweise ein solches regelmäßiges Quadrat. Alternativ können auch andere Formen benutzt werden, z.B. Rechteckform, Kreuzform und andere beliebige Formen. Außerdem ist die Gesamtzahl der Pixel zur Bildung des Klassenklassifikationsblocks nicht auf 9 Pixel (= 3 × 3 Pixel) beschränkt.
  • Die Blockbildungseinheit 42 für die Prädiktionswertberechnung verarbeitet die Korrekturdaten, um einen Prädiktionswert-Berechnungsblock zu erzeugen, der um die erwähnten Korrekturdaten zentriert ist und für die Berechnung des Prädiktionswerts des Bilds der ersten Hierarchie benutzt wird. Mit anderen Worten, wenn man annimmt, daß in 10 die Pixelwerte von 9 Pixeln (= 3 × 3) in Daten des Originalbilds (in diesem Fall Bilddaten der ersten Hierarchie) bei der Positionierung der Korrekturdaten Xij (der in 10 durch das Symbol "•" gekennzeichnete Teil) von links nach rechts und von oben nach unten mit Yij(1), Yij(2), Yij(3), Yij(4), Yij(5), Yij(6), Yij(7), Yij(8), Yij(9) bezeichnet werden, erzeugt die Blockbildungseinheit 42 für die Berechnung der Prädiktionswerte einen quadratischen Prädiktionswert-Berechnungsblock, um Prädiktionswerte der Pixel Yij(1) bis Yij(9) zu berechnen. Dieser Prädiktionswert-Berechnungsblock wird z.B. von den folgenden 25 Pixeln (= 5 × 5) gebildet, wobei ein Pixel Xij als Zentrum gesetzt ist: X(i-2)(j-2), X(i-2)(j-1), X(i-2)j, X(i-2)(j+1), X(i-2)(j+2), X(i-1)(j-2), X(i-1)(j-1), X(i-1)j, X(i-1)(j+1), X(i-1)(j+2), Xi(j-2), Xi(j-1), Xij, Xi(j+1), Xi(j+2), X(i+1)(j-2), X(i+1)(j-1), X(i+1)j, X(i+1)(j+1), X(i+1)(j+2), X(i+2)(j-2), X(i+2)(j-1), X(i+2)j, X(i+2)(j+1), X(i+2)(j+2).
  • Anhand von 10 sei auf ein konkretes Beispiel Bezug genommen. Zur Berechnung der Prädiktionswerte von neun Pixeln Y33(1) bis Y33(9) in den Bilddaten der ersten Hierarchie, die von einem Rechteck umrandet sind, ist der Prädiktionswert-Berechnungsblock aus den folgenden Korrekturdaten aufgebaut: X11, X12, X13, X14, X15, X21, X22, X23, X24, X25, X31, X32, X33, X34, X35, X41, X42, X43, X44, X45, X51, X52, X53, X54, X55.
  • Der Prädiktionswert-Berechnungsblock, der in der Blockbildungseinheit 42 für die Prädiktionswertberechnung erzeugt wird, wird der adaptiven Klassenklassifikationsverarbeitungseinheit 3 zugeführt.
  • Ähnlich wie im Fall des Klassenklassifikationsblocks sind die Pixelzahl und die Form für den Prädiktionswert-Berechnungsblock nicht auf die oben beschriebenen Beispiele beschränkt. Vielmehr kann die Gesamtzahl der Pixel des Prädiktionswert-Berechnungsblocks vorzugsweise größer gemacht werden als die Gesamtzahl der Pixel des Klassenklassifikationsblocks.
  • Wenn der oben erwähnte Blockbildungsprozeß durchgeführt wird, gibt es (ähnlich wie bei anderen Verarbeitungen als der Blockbildung) keine korrespondierenden Pixel in der Nähe des Vollbilds der Bilddaten. In diesem Fall kann z.B. die Verarbeitung durchgeführt werden, indem nun angenommen wird, daß die gleichen Pixel wie die Pixel zur Bildung des Vollbilds außerhalb dieses Vollbilds liegen.
  • Die adaptive Klassenklassifikationsverarbeitungseinheit 43 umfaßt eine ADRC-Verarbeitungseinheit 44 (ADRC = Kodierung mit adaptivem Dynamikbereich), ferner eine Klassenklassifizierungseinheit 45 und eine adaptive Verarbeitungseinheit 46 und führt eine adaptive Klassenklassifikationsverarbeitung durch.
  • Unter adaptiver Klassenklassifizierungsverarbeitung wird verstanden, daß ein Eingangssignal auf der Basis seiner Merkmale in verschiedene Klassen klassifiziert wird und daß für das Eingangssignal jeder dieser Klassen ein adaptiver Prozeß durchgeführt wird, der für jede dieser Klassen passend ist. Man kann ungefähr sagen, daß der adaptive Klassen klassifikationsprozeß unterteilt ist in einen Klassenklassifikationsprozeß und einen adaptiven Prozeß.
  • Im folgenden werden nun sowohl der Klassenklassifikationsprozeß als auch der adaptive Prozeß beschrieben.
  • Zunächst wird der Klassenklassifikationsprozeß erläutert. Zum Zwecke der Diskussion sei angenommen, daß, wie in 11A dargestellt, ein Block (Klassenklassifizierungsblock) aus 2 × 2 Pixeln aus einem interessierenden Pixel und drei Pixeln aufgebaut ist, die diesem benachbart sind, und daß jedes dieser Pixel durch ein Bit (das entweder den Pegel "0" oder den Pegel "1" hat) ausgedrückt wird. In diesem Fall kann ein Block aus vier Pixeln (2 × 2), wie in 11B dargestellt, in Abhängigkeit von den Pegelverteilungen der betreffenden Pixel in 16 (= (21)4) Klassen klassifiziert werden. Eine solche Musterklassifikation entspricht dem Klassenklassifikationsprozeß, der in der Klassenklassifiziereinheit 45 ausgeführt wird.
  • Es ist zu erwähnen, daß der Klassenklassifikationsprozeß vorzugsweise Eigenschaften des Bilds berücksichtigt, wie z.B. die Komplexität des Bilds oder die Größe der Änderung des Bilds innerhalb des Blocks.
  • Normalerweise werden in diesem Beispiel jedem der Pixel z.B. 8 Bit oder mehr zugeordnet. Auch in diesem Ausführungsbeispiel wird der Klassenklassifizierungsblock, wie oben erläutert, aus 9 Pixeln (= 3 × 3) gebildet. Wenn ein Klassenklassifikationsprozeß für einen solchen Klassenklassifizierungsblock durchgeführt wird, wird dieser Block deshalb in eine sehr große Anzahl von Klassen, d.h. (28)9, klassifiziert.
  • Deshalb wird bei diesem Ausführungsbeispiel der ADRC-Prozeß für den Klassenklassifizierungsblock in der ADRC-Verarbeitungseinheit 44 durchgeführt. Die Zahl der Klassen wird durch Verringerung der Bitzahl der Pixel in dem Klassenklassifizierungsblock reduziert.
  • Wenn man zur Vereinfachung der Erläuterung z.B. einen Block betrachtet, der, wie in 12A dargestellt, aus vier Pixeln aufgebaut ist, die auf einer geraden Linie ausgerichtet sind, werden in dem ADRC-Prozeß sowohl ein Maximalwert "MAX" als auch ein Minimalwert "MIN" detektiert. Wenn man nun annimmt, daß DR = MAX – MIN als lokaler Dynamikbereich des Blocks benutzt wird, werden die Pixelwerte der Pixel für den Aufbau des Blocks auf der Basis dieses Dynamikbereichs DR auf k Bits requantisiert.
  • Mit anderen Worten, von jedem der Pixelwerte in dem Block wird der Minimalwert MIN subtrahiert und der Subtraktionswert dann durch DR/2k geteilt. Der resultierende Wert wird in einen dem dividierten Wert entsprechenden Code (ADRC-Code) umgewandelt. Wenn als konkretes Beispiel k = 2 benutzt wird, wie dies in 12B dargestellt ist, wird geprüft, ob der geteilte Wert zu einem der Bereiche gehört, die durch gleichmäßiges Unterteilen des Dynamikbereichs DR durch 4 (= 22) gewonnen werden. Falls der dividierte Wert zu dem untersten Pegelbereich, dem zweituntersten Pegelbereich, dem drittuntersten Pegelbereich oder dem obersten Pegelbereich gehört, wird jeder der geteilten Werte mit zwei Bits kodiert, z.B. 00B, 01B, 10B oder 11B (das Symbol "B" repräsentiert eine Binärzahl), die den Bereich repräsentieren. Auf der Dekodiererseite wird dann der ADRC-Code 00B, 01B, 10B oder 11B in einen zentralen Wert L00 des untersten Pegelbereichs, einen zentralen Wert L01 des zweituntersten Pegelbereichs, einen zentralen Wert L10 des drittuntersten Pegelbereichs oder einen zentralen Wert L11 des obersten Pegelbereichs umgewandelt. Dann wird zu jedem dieser Werte der Minimalwert MIN addiert und so der Dekodiervorgang ausgeführt.
  • Ein solcher ADRC-Prozeß wird in diesem Fall als "Nicht-Kanten-Abgleich" bezeichnet. Wie 12C zeigt, gibt es im Gegensatz zu diesem Nicht-Kanten-Abgleich einen weiteren ADRC-Prozeß, der als verbesserter Nicht-Kanten-Abgleich bezeichnet wird. In der ADRC-Verarbeitungsoperation mit verbessertem Nicht-Kanten-Abgleich wird entweder der ADRC-Code 00B oder der ADRC-Code 11B in einen Mittelwert MIN' der Pixelwerte umgewandelt, die zu dem untersten Pegelbereich gehören, der durch gleichmäßiges Unterteilen des Dynamikbereichs DR durch 4 gewonnen wird, oder durch einen Mittelwert MAX' der Pixelwerte, die zu dem obersten Pegelbereich gehören. Auch die beiden ADRC-Codes 01B und 10B werden in einen Pegel umgewandelt, der durch gleichmäßiges Unterteilen eines durch MAX' – MIN' definierten Dynamikbereichs DR' durch 3 gewonnen wird, so daß die ADRC-Codes dekodiert werden.
  • Eine detaillierte Beschreibung zu dieser ADRC-Verarbeitungsoperation findet sich z.B. in der offengelegten japanischen Patentanmeldung Nr. 3-53778, offengelegt 1991, die von der Inhaberin der vorliegenden Anmeldung eingereicht wurde.
  • Wie oben erläutert wurde, kann durch die ADRC-Verarbeitungsoperation die Zahl der Klassen reduziert werden, so daß die Quantisierung auf der Basis einer Bitzahl durchgeführt wird, die kleiner ist als die Bitzahl, die den den Block bildenden Pixeln zugeteilt ist. Eine solche ADRC-Verarbeitungsoperation wird in der ADRC-Verarbeitungseinheit 44 durchgeführt.
  • Im vorliegenden Ausführungsbeispiel wird der Klassenklassifizierungsprozeß in der Klassenklassifizierungseinheit 45 auf der Basis des von der ADRC-Verarbeitungseinheit 44 ausgegebenen ADRC-Codes durchgeführt. Alternativ kann der Klassenklassifizierungsprozeß auch für solche Daten durchgeführt werden, die durch andere Verarbeitungsoperationen verarbeitet werden, z.B. durch DPCM (prädiktive Kodierung), BTC (Block-Truncation-Kodierung), VQ (Vektorquantisierung), DCT (diskrete Cosinustransformation) und Hadamard-Umwandlung.
  • Im folgenden wird der adaptive Prozeß beschrieben.
  • Es sei z.B. angenommen, daß ein Prädiktionswert eines Pixelwerts "y" der Bilddaten der ersten Hierarchie durch ein lineares primäres Verknüpfungsmodell berechnet wird. Dieses lineare primäre Verknüpfungsmodell wird durch Pixelwerte X1, X2, ... verschiedener Pixel definiert, die um diesen Pixelwert liegen (in diesem Fall werden Korrekturdaten, die durch Korrigieren von Bilddaten der zweiten Hierarchie gewonnen werden, als "Lerndaten" bezeichnet, falls dies erforderlich ist, und durch lineare Verknüpfung ausgewählter Prädiktionskoeffizienten W1, W2, .... Der Prädiktionswert kann in diesem Fall durch die folgende Formel ausgedrückt werden: = W1X1 + W2X2 + ... (1)
  • Wenn zur Verallgemeinerung dieser Formel eine Matrix W, die aus einem Satz der Prädiktionskoeffizienten w gebildet ist, eine Matrix X, die aus einem Satz der Lerndaten gebildet ist, und eine Matrix Y', die aus einem Satz der Prädiktionswerte gebildet ist, durch
    Figure 00180001
    definiert werden, kann die folgende Beobachtungsgleichung befriedigt werden XW = Y' (2)
  • Der an den Pixelwert y der Bilddaten der ersten Hierarchie approximierte Prädiktionswert wird gewonnen, indem auf diese Beobachtungsgleichung das Verfahren der kleinsten Quadrate angewendet wird. Wenn in diesem Fall eine Matrix Y, die aus einem Satz von Pixelwerten der Bilddaten der ersten Hierarchie gebildet ist (die im folgenden als "Lehrerdaten" bezeichnet werden, falls dies notwendig ist) und eine weitere Matrix E, die aus einem Satz von Resten des Prädiktionswerts bezüglich des Pixelwerts y der Bilddaten der ersten Hierarchie gebildet ist, definiert werden, kann aus der Formel (2) die unten erwähnte Restgleichung befriedigt werden:
    Figure 00190001
  • In diesem Fall kann ein Prädiktionskoeffizient Wi der ersten Hierarchie, der zur Berechnung des an den Pixelwert y der Bilddaten der ersten Hierarchie approximierten Prädiktionswerts benutzt wird, durch Minimieren des quadratischen Fehlers berechnet werden.
  • Figure 00190002
  • Als Konsequenz wird der oben beschriebene quadratische Fehler nach dem Prädiktionskoeffizienten differenziert und der quadratische Fehler auf 0 gesetzt. Der Prädiktionskoeffizient Wi, der die folgende Gleichung befriedigen kann, wird ein optimaler Wert, der zur Berechnung des an den Pixelwert "y" der Bilddaten der ersten Hierarchie approximierten Prädiktionswert benutzt wird.
  • Figure 00190003
  • Da die Formel (3) nach dem Prädiktionskoeffizienten Wi der ersten Hierarchie differenziert wird, kann die folgende Formel befriedigt werden:
    Figure 00190004
  • Aus den Formeln (4) und (5) läßt sich die folgende Formel (6) gewinnen:
    Figure 00190005
  • Wenn man die Beziehung zwischen den Lerndaten "x", dem Prädiktionskoeffizienten "w", den Lehrerdaten "y" und dem Rest "e" betrachtet, der in der in der Formel (3) definierten Restgleichung enthalten ist, ist es möglich, aus der Formel (6) die folgende Normalgleichung zu gewinnen:
    Figure 00200001
  • Die Zahl der in der Formel (7) definierten Normalgleichungen ist die gleiche wie die Zahl der zu berechnenden Prädiktionskoeffizienten w. Deshalb kann durch Lösen der Formel (7) ein optimaler Prädiktionskoeffizient w gewonnen werden. Eine Möglichkeit zur Lösung der Formel (7) besteht in der Verwendung des Ausräumverfahrens (Gauss-Jordan-Eliminationsverfahrens).
  • Wie oben beschrieben wurde, wird die adaptive Verarbeitungsoperation in der Weise durchgeführt, daß der optimale Prädiktionskoeffizient w der ersten Hierarchie für jede Klasse und weiterhin der an den Pixelwert y der Bilddaten der ersten Hierarchie approximierte Prädiktionswert E[y] auf der Basis der Formel (1) unter Verwendung dieses Prädiktionskoeffizienten w berechnet wird. Diese adaptive Verarbeitungsoperation wird in der adaptiven Verarbeitungseinheit 46 durchgeführt.
  • Die adaptive Verarbeitung unterscheidet sich von der Interpolationsverarbeitung. Bei der adaptiven Verarbeitung wird nämlich eine Komponente reproduziert, die in den originalen Bilddaten (im vorliegenden Ausführungsbeispiel den Bilddaten der ersten Hierarchie), jedoch nicht in einem dezimierten Bild (im vorliegenden Ausführungsbeispiel den Bilddaten der zweiten Hierarchie) enthalten ist. Mit anderen Worten, die adaptive Verarbeitung ist identisch mit der Interpolationsverarbeitung, bei der ein sog. "Interpolationsfilter" benutzt wird, soweit nur die Formel (1) betrachtet wird. Da der Prädiktionskoeffizient w, der dem Abgriff-Koeffizienten des Interpolationsfilters entspricht, jedoch unter Verwendung der Lehrerdaten "y", d.h. des Lernsystems, berechnet wird, kann die in den originalen Bilddaten enthaltene Komponente reproduziert werden. Im Hinblick auf diesen technischen Punkt kann die adaptive Verarbeitung als ein Prozeß mit einem Bilderzeugungseffekt bezeichnet werden. Anhand des Flußdiagramms von 13 werden nun die Verarbeitungen der lokalen Dekodiereinheit 22 von 9 erläutert.
  • Zunächst verarbeitet die lokale Dekodiereinheit 22 in dem Schritt S21 die Korrekturdaten aus der Korrektureinheit 21, um Blöcke zu bilden. Mit anderen Worten, in der Einheit 41 zur Bildung von Klassenklassifikationsblöcken werden die Korrekturdaten in einen Klassenklassifizierungsblock mit 3 × 3 Pixeln unterteilt, der um die notierten Korrekturdaten zentriert ist, und dann der adaptiven Klassenklassifikationsverarbeitungseinheit 43 zugeführt. In der Blockbildungseinheit 42 für die Prädiktionswertberechnung werden die Korrekturdaten in einen Prädiktionswert-Berechnungsblock unterteilt, der aus 5 × 5 Pixeln gebildet ist und um die notierten Korrekturdaten zentriert ist, die dann der adaptiven Klassenklassifikationsverarbeitungseinheit 43 zugeführt werden .
  • Wie oben erläutert wurde, werden der adaptiven Klassenklassifikationsverarbeitungseinheit 43 zusätzlich zu dem Klassenklassifikationsblock und dem Prädiktionswert-Berechnungsblock auch die Bilddaten der ersten Hierarchie zugeführt. Der Klassenklassifikationsblock wird der ADRC-Verarbeitungseinheit 44 zugeführt, und der Prädiktionswert-Berechnungsblock und die Bilddaten der ersten Hierarchie werden der adaptiven Verarbeitungseinheit 46 zugeführt.
  • Beim Empfang des Klassenklassifikationsblocks führt die ADRC-Verarbeitungseinheit 44 in dem Schritt S22 für diesen Klassenklassifikationsblock die ADRC-Verarbeitung z.B. mit 1 Bit durch (ADRC zur Requantisierung mit 1 Bit). Die Korrekturdaten werden also in ein Bit umgewandelt (d.h. kodiert), das an die Klassenklassifizierungseinheit 45 ausgegeben wird. In dem Schritt S23 führt die Klassenklassifizierungseinheit 45 die Klassenklassifizierungsverarbeitung an dem ADRC-verarbeiteten Klassenklassifizierungsblock durch (d.h. sie detektiert den Verteilungszustand der einzelnen Pixelpegel in dem Block) und entscheidet, zu welcher Klasse dieser Klassenklassifizierungsblock gehört. Das Ergebnis der Klassenentscheidung wird als Klasseninformation der adaptiven Verarbeitungseinheit 46 zugeführt.
  • Da der Klassenklassifizierungsprozeß im vorliegenden Ausführungsbeispiel für den aus 9 Pixeln (= 3 × 3) aufgebauten Klassenklassifizierungsblock durchgeführt wird, der der ADRC-Verarbeitung mit 1 Bit unterzogen wurde, wird jeder der Klassenklassifizierungsblöcke in einer von 512 (= (21)9) Klassen klassifiziert.
  • Die Verarbeitung geht dann weiter zu dem Schritt S24, in dem die adaptive Verarbeitungseinheit 46 für jede Klasse die adaptive Verarbeitung auf der Basis der Klasseninformation aus der Klassenklassifizierungseinheit 45 ausführt. Dadurch werden sowohl die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie als auch die Prädiktionswerte eines Vollbilds berechnet.
  • Das heißt, bei dem vorliegenden Ausführungsbeispiel werden für ein bestimmtes Exemplar der Korrekturdaten 25 × 9 Prädiktionskoeffizienten aus den Korrekturdaten und den Bilddaten der ersten Hierarchie berechnet. Darüber hinaus werden Prädiktionswerte bis zu insgesamt 9 Pixeln, nämlich 1 Pixel der Bilddaten der ersten Hierarchie entsprechend diesen interessierenden Korrekturdaten sowie 8 an dieses Pixel angrenzenden Pixeln, durch die adaptive Verarbeitungsoperation berechnet, wobei der Prädiktionswert-Berechnungsblock mit 5 × 5 Pixeln benutzt wird, in welchem das den Korrekturdaten entsprechende Pixel in dem Prädiktionswert-Berechnungsblock zentriert ist.
  • Als Beispiel wird die Klasseninformation C betrachtet, die von der Klassenklassifizierungseinheit 45 ausgegeben wird. Diese Klasseninformation C bezieht sich auf einen Klassenklassifizierungsblock mit 3 × 3 Korrekturdaten X22, X23, X24, X32, X33, X34, X42, X43, X44, wobei die Korrekturdaten X33 zentriert sind, wie dies in 10 dargestellt ist. Es sei nun angenommen, daß als Prädiktionswert-Berechnungsblock ein Prädiktionswert-Berechnungsblock, der dem Klassenklassifizierungsblock entspricht, von der Blockbildungseinheit 42 zur Prädiktionswertberechnung ausgegeben wird. Dieser Prädiktionswert-Berechnungsblock wird von X11, X12, X13, X14, X15, X21, X22, X23, X24, X25, X31, X32, X33, X34, X35, X41, X42, X43, X44, X45, X51, X52, X53, X54, X55 gebildet, wobei die korrigierten Daten X33 zentriert sind. Während die korrigierten Daten des Prädiktionswert-Berechnungsblocks als Lerndaten gesetzt werden und die Pixelwerte Y33(1) bis Y33(9) der 3 × 3 Pixel (dem in 10 von einem Rechteck umrandeten Teil), in denen die korrigierten Daten X33 in den Bilddaten der ersten Hierarchie zentriert sind, als Lehrerdaten gesetzt werden, kann zunächst die in der Formel (7) angegebene Normalgleichung aufgestellt werden.
  • Darüber hinaus wird die Normalgleichung, z.B. für ein Vollbild, in ähnlicher Weise für andere Prädiktionswert-Berechnungsblöcke aufgestellt, die anderen in die Klasseninformation C klassifizierten Klassifizierungsblöcken entsprechen. Wenn die Normalgleichungen aufgestellt sind, mit denen die für die Berechnung eines Prädiktionswert E[Y33(k)] eines Pixelwerts Y33(k), (k = 1, 2, ..., 9) benutzten Prädiktionskoeffizienten W1(k) bis W25(k) berechnet werden können, werden diese Normalgleichungen gelöst, so daß optimale Prädiktionskoeffizienten w1(k) bis w5(k) berechnet werden, die sich für die Berechnung des Prädiktionswerts E[y] des Pixelwerts y33(k) für die Klasseninformation C eignen. Die oben beschriebenen Prädiktionskoeffizienten w1(k) bis w25(k) erfordern 25 Normalgleichungen, da in diesem Ausführungsbeispiel für die Gewinnung eines Prädiktionswerts 25 Stücke der Lerndaten benutzt werden. Die Prozeßoperationen für die Aufstellung der Normalgleichungen werden in dem Schritt S24 solange durchgeführt, bis die oben beschriebene Zahl von Normalgleichungen erreicht ist. Dieser Prozeß wird für jede Klasse durchgeführt, wobei für jede Klasse 25 × 9 Prädiktionskoeffizienten berechnet werden. Dann wird nach der oben erwähnten Formel, die der Formel (1) entspricht, der Prädiktionswert E[Y33(k)] ermittelt, wobei die der Klasseninformation C entsprechenden 25 × 9 Prädiktionskoeffizienten und die 25 Korrekturdaten in dem Prädiktionswert-Berechnungsblock benutzt werden: E[Y33(k)) = w1(k)X11 + w2(k)X12 + w3(k)X13 + w4(k)X14 + w5(k)X15 + w6(k)X21 + w7(k)X22 + w8(k)X23 + w9(k)X24 + w10(k)X25 + w11(k)X31 + w12(k)X32 + w13(k)X33 + w14(k)X34 + w15(k)X35 + w16(k)X41 + w17(k)X42 + w18(k)X43 + w19(k)X44 + w20(k)X45 + w21(k)X51 + w22(k)X52 + w23(k)X53 + w24(k)X54 + w25(k)X55 (8)
  • Nachdem 25 × 9 Prädiktionskoeffizienten für jede Klasse berechnet sind, werden in dem Schritt S23 3 × 3 Prädiktionswerte in Einheiten von 3 × 3 Pixeln berechnet, die um die erwähnten Korrekturdaten zentriert sind. Anschließend werden in dem Schritt S24 die 25 × 9 Prädiktionskoeffizienten für jede Klasse der Entscheidungseinheit 24 zugeführt und Prädiktionswerte zur Fehlerberechnung für alle 3 × 3 Pixel zur Verfügung gestellt. Die Verarbeitung kehrt dann zu dem Schritt S21 zurück, und der Prozeß wird für das nächste Vollbild wiederholt.
  • 14 zeigt ein Ausführungsbeispiel der Fehlerberechnungseinheit 23 von 5.
  • Die originalen Bilddaten (d.h. die Bilddaten der ersten Hierarchie) werden der Blockbildungseinheit 51 zugeführt. Die Blockbildungseinheit 51 verarbeitet die Eingangsbilddaten, um 9 Blöcke zu erzeugen, die mit den von der lokalen Dekodiereinheit 22 ausgegebenen Prädiktionswerten der ersten Hierarchie korrespondieren. Die resultierenden Bildblöcke, die aus 3 × 3 Pixeln aufgebaut sind, werden von der Blockbildungseinheit 51 einer Einheit 52 zur Berechnung des quadratischen Fehlers zugeführt. Wie oben beschrieben wurde, wird der Einheit 52 zur Berechnung des quadratischen Fehlers zusätzlich zu den von der Blockbildungseinheit 5 gelieferten Blöcken auch der aus der lokalen Dekodiereinheit 22 kommende Prädiktionswert der ersten Hierarchie in Einheiten von 9 Teilen (Blockeinheit mit 3 × 3 Pixeln) zugeführt. Die Einheit 52 zur Berechnung des quadratischen Fehlers berechnet einen quadratischen Fehler als Prädiktionsfehler dieses Prädiktionswerts bezüglich der Bilddaten der ersten Hierarchie und liefert den berechneten quadratischen Fehler an eine Multiplizierereinheit 55.
  • Die Einheit 52 zur Berechnung des quadratischen Fehler enthält Rechenglieder 53 und 54. Das Rechenglied 53 subtrahiert den entsprechenden Prädiktionswert von allen einzelnen blockverarbeiteten Bilddaten, die von der Blockbildungseinheit 51 ausgegeben werden, und liefert dann das Subtraktionergebnis an das Rechenglied 54. Das Rechenglied 54 quadriert das Ausgangssignal des Rechenglieds 53 und liefert den quadrierten Wert an die Multipliziereinheit 55.
  • Wenn die Multipliziereinheit 55 den quadratischen Fehler aus der Einheit 52 zur Berechnung des quadratischen Fehlers empfängt, liest sie aus einem Speicher 56 einen Speicherwert aus, addiert diesen Speicherwert zu dem quadratischen Fehler und liefert den Summenwert an den Speicher 56 zurück, so daß er dort gespeichert wird. Die Muitipliziereinheit 55 wiederholt dann die oben beschriebene Operation, um einen multiplizierten Wert des quadratischen Fehlers zu erzeugen (Fehlerverteilung). Wenn die Multiplikation für eine vorgegebene Menge (z.B. für ein Vollbild) von quadratischen Fehlern von der Multipliziereinheit 55 beendet ist, liest die Multipliziereinheit 55 den multiplizierten Wert aus dem Speicher 56 aus und liefert den multiplizierten Wert als Fehlerinformation an die Entscheidungseinheit 24. Die Werte in dem Speicher 56 werden jedesmal gelöscht, wenn ein Vollbild verarbeitet ist, und es werden die Ausgangswerte der Multipliziereinheit 55 in dem Speicher 56 gespeichert.
  • Anhand des Flußdiagramms in 15 wird nun die Arbeitsweise der Fehlerberechnungseinheit 23 beschrieben. Zunächst wird in dem Schritt S31 der Speicherwert des Speichers 56 in der Fehlerberechnungseinheit 23 (z.B. auf "0") gelöscht. Die Verarbeitung wird dann in dem Schritt S32 fortgesetzt, in dem die Bilddaten der ersten Hierarchie in der Blockbildungseinheit 51 blockverarbeitet werden. Der resultierende Block wird der Einheit 52 zur Berechnung des quadratischen Fehlers zugeführt. In dem Schritt S33 berechnet die Einheit 52 zur Berechnung des quadratischen Fehlers das Quadrat des Fehlers zwischen den Bilddaten des Bilds der ersten Hierarchie, die den von der Blockbildungseinheit 51 gelieferten Block darstellen, und dem Prädiktionswert der ersten Hierarchie, der aus der lokalen Dekodiereinheit 22 zugeführt wird.
  • Mit anderen Worten, in dem Schritt S33 subtrahiert das Rechenglied 53 die entsprechenden Prädiktionswerte von den Bilddaten der ersten Hierarchie, die blockverarbeitet und von der Blockbildungseinheit 51 zugeführt wurden, und liefert dann den Subtraktionswert an das Rechenglied 54. In dem Schritt S33 wird außerdem das Ausgangssignal des Rechenglieds 53 in dem Rechenglied 54 quadriert, und der quadrierte Wert wird der Multipliziereinheit 55 zugeführt.
  • Wenn die Multipliziereinheit 55 den quadratischen Fehler aus der Einheit 52 zur Berechnung des quadratischen Fehlers empfängt, liest sie den Speicherwert aus dem Speicher 56 aus und berechnet den multiplizierten Wert des quadratischen Fehlers, indem sie den aus dem Speicher 56 ausgelesenen Wert zu dem quadratischen Fehler addiert. Der in der Multipliziereinheit 55 berechnete multiplizierte Wert des quadratischen Fehlers wird dem Speicher 56 zugeführt, in dem der multiplizierte Wert des quadratischen Fehlers über den zuvor gespeicherten Wert geschrieben wird.
  • In dem Schritt S35 prüft die Multipliziereinheit 55 dann, ob die Multiplikationen der quadratischen Fehler bis zu einer vorgegebenen Menge, z.B. den Daten eines Vollbilds, beendet sind. Wenn in dem Schritt S35 festgestellt wird, daß die Multiplikationen des quadratischen Fehlers für die Daten eines Vollbilds noch nicht beendet sind, kehrt die Verarbeitung zu dem Schritt S32 zurück. Wenn in dem Schritt S35 hingegen festgestellt wird, daß die Multiplikationen der quadratischen Fehler für die Daten eines Vollbilds abgeschlossen sind, geht die Verarbeitung weiter zu dem Schritt S36. In dem Schritt S36 liest die Multipliziereinheit 55 den multiplizierten Wert der quadratischen Fehler für die Daten eines Vollbilds aus dem Speicher 56 aus und liefert diesen multiplizierten Wert als Fehlerinformation an die Entscheidungseinheit 24. Die Verarbeitung kehrt dann zu dem Schritt S31 zurück.
  • Wenn die Bilddaten der ersten Hierarchie mit Yij(k) und der Prädiktionswert der ersten Hierarchie, der in der lokalen Dekodiereinheit 22 aus den Korrekturdaten verarbeitet wurde, mit E[Yij(k)] bezeichnet werden, kann in der Fehlerberechnungseinheit 22 die Fehlerinformation Q aus der folgenden Formel berechnet werden: Q = Σ(Yij(k) – E[Yij(k)])2 worin das Symbol "Σ" eine Summierung der Daten eines Vollbilds bedeutet.
  • Als Nächstes sei anhand von 16 ein Ausführungsbeispiel der Entscheidungsschaltung 24 von 5 beschrieben.
  • Ein Prädiktionskoeffizientenspeicher 61 speichert die Prädiktionskoeffizienten für jede Klasse, die von der lokalen Dekodiereinheit 22 gelieferten werden. Ein Korrekturdatenspeicher 62 speichert die von der Korrektureinheit 21 zugeführten korrigierten Daten.
  • Es ist zu beachten, daß dann, wenn die Bilddaten der zweiten Hierarchie erneut korrigiert werden und deshalb die neuen Korrekturdaten von der Korrektureinheit 21 geliefert werden, diese neuen Korrekturdaten anstelle der zuvor gespeicherten Korrekturdaten (d.h. der vorherigen Korrekturdaten) in dem Korrekturdatenspeicher 62 gespeichert werden. Nachdem die Korrekturdaten durch die neuen Korrekturdaten ersetzt wurden, wird auch ein Satz von neuen Prädiktionskoeffizienten für jede Klasse, die den neuen Korrekturdaten entsprechen, von der lokalen Dekodiereinheit 22 ausgegeben. Wenn dem Prädiktionskoeffizientenspeicher 61 neue Prädiktionskoeffizienten für jede Klasse zugeführt werden, werden auch die neuen Prädiktionskoeffizienten für jede Klasse anstelle der zuvor gespeicherten Prädiktionskoeffizienten (d.h. der vorhergehenden Prädiktionskoeffizienten für jede Klasse) gespeichert.
  • Der Fehlerinformationsspeicher 63 speichert die aus der Fehlerberechnungseinheit 23 zugeführte Fehlerinformation. Es ist auch zu beachten, daß der Fehlerinformationsspeicher 63 zusätzlich zu der laufend zugeführten Fehlerinformation (laufende Fehlerinformation) die Fehlerinformation speichert, die von der Fehlerberechnungseinheit 23 in dem vorhergehenden Fall geliefert wurde (die vorherige Fehlerinformation). Das heißt, auch wenn die neue Fehlerinformation geliefert wird, wird die zuvor gespeicherte Fehlerinformation gesichert, bis die weitere neue Fehlerinformation zugeführt wird. Außerdem wird der Inhalt des Fehlerinformationsspeichers 63 jedesmal gelöscht, wenn ein neues Vollbild verarbeitet wird (d.h. am Beginn der Verarbeitung eines neuen Vollbilds).
  • Eine Vergleichereinheit 64 vergleicht einen vorbestimmten Schwellwert "ε" mit der laufend zugeführten Fehlerinformation, die in dem Fehlerinformationsspeicher 63 gespeichert ist, und kann darüber hinaus im Bedarfsfall die laufend zugeführte Fehlerinformation mit der vorherigen Fehlerinformation vergleichen. Das in der Vergleichereinheit 64 gewonnene Vergleichsergebnis wird einer Steuereinheit 65 zugeführt.
  • Die Steuereinheit 65 prüft auf der Basis des Vergleichsergebnisses aus der Vergleichereinheit 64, ob die in dem Korrekturdatenspeicher 62 gespeicherten Korrekturdaten mit dem kodierten Ergebnis des Bilds im wesentlichen (optimal) übereinstimmen. Wenn festgestellt wird, daß die Korrekturdaten mit dem kodierten Ergebnis nicht im wesentlichen übereinstimmen, liefert die Steuereinheit 65 ein Steuersignal an die Korrektureinheit 21 (5), um die Ausgabe neuer Korrekturdaten anzufordern. Wenn die Steuereinheit 65 hingegen erkennt, daß die in dem Korrekturdatenspeicher 62 gespeicherten Korrekturdaten im wesentlichen mit dem Ergebnis der Bildkodierung übereinstimmen, werden die für jede Klasse in dem Prädiktionskoeffizientenspeicher 61 gespeicherten Prädiktionskoeffizienten ausgelesen und an die Multiplexereinheit 25 ausgegeben. Die in dem Korrekturdatenspeicher 62 gespeicherten Korrekturdaten werden ebenfalls ausgelesen und als optimale Korrekturdaten an die Multiplexereinheit 25 ausgegeben. Darüber hinaus liefert die Steuereinheit 65 in diesem Fall ein Steuersignal an die Korrektureinheit 21. Dieses Steuersignal zeigt an, daß der Kodiervorgang für ein Vollbild abgeschlossen wurde. Die Steuereinheit 65 veranlaßt daraufhin die Korrektureinheit 21, mit der Verarbeitung für das nächste Vollbild zu beginnen, wie dies oben erläutert wurde.
  • Als Nächstes wird anhand von 17 die Arbeitsweise der Entscheidungsschaltung 24 beschrieben. In einem ersten Schritt S41 prüft die Vergleichereinheit 64 in der Entscheidungseinheit 24, ob die Fehlerinformation aus der Fehlerberechnungseinheit 23 empfangen wurde. Wenn die Vergleichereinheit 64 feststellt, daß die Fehlerinformation nicht empfangen wurde, geht die Verarbeitung weiter zu dem Schritt S41. Wenn die Vergleichereinheit 64 hingegen feststellt, daß die Fehlerinformation empfangen wurde, d.h. wenn die Fehlerinformation in dem Fehlerinformationsspeicher 63 gespeichert ist, geht die Verarbeitung weiter zu dem Schritt S42. In dem Schritt S42 vergleicht die Vergleichereinheit 64 die laufend gespeicherte Fehlerinformation (laufende Fehlerinformation) mit dem vorbestimmten Schwellwert "ε", um zu prüfen, ob die laufende Fehlerinformation kleiner ist als der vorbestimmte Schwellwert.
  • Wenn in dem Schritt S42 festgestellt wird, daß die laufende Fehlerinformation nicht kleiner ist als der vorbestimmte Schwellwert "ε", liest die Vergleichereinheit 64 die in dem Fehlerinformationsspeicher 63 gespeicherte vorhergehende Fehlerinformation aus. In dem Schritt S43 vergleicht die Vergleichereinheit 64 dann die vorherige Fehlerinformation mit der laufenden Fehlerinformation, um zu prüfen, ob die vorhergehende Fehlerinformation größer ist als die laufende Fehlerinformation.
  • Wenn die Verarbeitung beginnt und die Fehlerinformation erstmalig zugeführt wird, führt die Entscheidungseinheit 24 die auf den Schritt S43 folgenden Prozeßschritte nicht aus, da in dem Fehlerinformationsspeicher 63 keine vorhergehende Fehlerinformation gespeichert ist. Die Steuereinheit 65 liefert ein Steuersignal für die Steuerung der Korrektureinheit 32 (7), damit diese eine bestimmte Anfangsadresse ausgibt.
  • Wenn in dem Schritt S43 festgestellt wird, daß die laufende Fehlerinformation kleiner oder genauso groß ist wie die vorherige Fehlerinformation, d.h. wenn die Bilddaten der zweiten Hierarchie korrigiert werden, um dadurch die Fehlerinformation zu reduzieren, wird die Verarbeitung in dem Schritt S44 fortgesetzt. In dem Schritt S44 gibt die Steuereinheit 65 ein Steuersignal an die Korrektureinheit 32 aus, um darüber zu informieren, daß der Korrekturwert in ähnlicher Weise geändert wurde wie in dem vorherigen Fall. Die Verarbeitung kehrt dann zu dem Schritt S41 zurück. Wenn in dem Schritt S43 hingegen festgestellt wird, daß die laufende Fehlerinformation größer ist als die vorherige Fehlerin formation (d.h. daß die Fehlerinformation durch das Korrigieren der Bilddaten der zweiten Hierarchie größer geworden ist), geht die Verarbeitung weiter zu dem Schritt S45. In dem Schritt S45 gibt die Steuereinheit 65 ein Steuersignal an die Korrektureinheit 32 aus, um darüber zu informieren, daß der Korrekturwert Δ in der entgegengesetzten Richtung geändert wurde wie in dem vorhergehenden Fall. Die Verarbeitung wird dann mit dem Schritt S41 fortgesetzt.
  • Wenn die kontinuierlich reduzierte Fehlerinformation in einer bestimmten Zeitlage vergrößert wird, gibt die Steuereinheit 65 ein Steuersignal aus, um darüber zu informieren, daß der Korrekturwert Δ um beispielsweise 1/2 verringert und in der zu der vorigen Richtung entgegengesetzten Richtung geändert wurde.
  • Da die Verarbeitung von dem Schritt S41 bis zu dem Schritt S45 wiederholt wird, wird die Fehlerinformation verkleinert. Wenn nun in dem Schritt S42 festgestellt wird, daß die laufende Fehlerinformation kleiner ist als der vorbestimmte Schwellwert "ε", geht die Verarbeitung weiter zu dem Schritt S46. In dem Schritt S46 liest die Steuereinheit 64 die in den Prädiktionskoeffizientenspeicher 61 gespeicherten Prädiktionskoeffizienten für jede Klasse aus und liest außerdem aus dem Korrekturdatenspeicher 62 die Korrekturdaten für ein Vollbild aus. Diese Prädiktionskoeffizienten für jede Klasse und die Korrekturdaten werden dann der Multiplexereinheit 25 zugeführt, und die Verarbeitung wird beendet.
  • Anschließend werden die Verarbeitungsoperationen nach dem Flußdiagramm von 17 wiederholt, während auf die Zuführung der Fehlerinformation für das nächste Vollbild gewartet wird.
  • Es ist auch zu beachten, daß in der Korrektureinheit 32 für die Korrektur der Bilddaten der zweiten Hierarchie entweder alle Bilddaten für ein Vollbild oder nur ein Teil der Bilddaten für ein Vollbild korrigiert werden können. Wenn nur ein Teil der Bilddaten der zweiten Hierarchie korrigiert wird (z.B. wenn die Steuereinheit 65 Pixel detektiert, die einen starken Einfluß auf die Fehlerinformation haben können), brauchen nur die Daten zu diesem Teil (z.B. zu den Pixeln, die einen starken Einfluß ausüben können) korrigiert zu werden. Es wird nun ein Beispiel diskutiert, auf welche Weise Pixel detektiert werden können, die einen Einfluß auf die Fehlerinformation haben können. Zunächst wird die Verarbeitungsoperation ausgeführt, indem die Bilddaten der zweiten Hierarchie direkt benutzt werden, so daß die Fehlerinformation akquiriert wird. Dann liefert die Steuereinheit 65 ein Steuersignal an die Korrektureinheit 32, die die Verarbeitung zum Korrigieren der Bilddaten der zweiten Hierarchie mit dem gleichen Korrekturwert Δ für jedes einzelne Pixel durchführt. Die resultierende Fehlerinformation wird mit der Fehlerinformation verglichen, die man erhält, wenn die Bilddaten der zweiten Hierarchie direkt benutzt werden. Dann kann ein Pixel zu der Fehlerinformation, bei der die Vergleichsdifferenz größer oder gleich einem vorbestimmten Wert wird, als das Pixel detektiert werden, das einen starken Einfluß auf die Fehlerinformation ausübt.
  • Wie oben beschrieben wurde, wird das Korrigieren der Bilddaten der zweiten Hierarchie wiederholt, bis die Fehlerinformation so stark reduziert oder verkleinert ist, daß sie unter dem vorbestimmten Schwellwert "ε" liegt. Die Korrekturdaten, die man erhält, wenn die Fehlerinformation kleiner wird als der vorbestimmte Schwellwert "ε" werden als Kodierresultat des Bildes ausgegeben. Es ist deshalb möglich, in dem Empfangsgerät 4 (1) aus den Korrekturdaten (den optimalen Korrekturdaten) das dekodierte Bild zu erzeugen, das mit den originalen Bilddaten identisch (oder im wesentlichen identisch) ist, wobei die Pixelwerte der Pixel der dezimierten Bilddaten als die für die Rückgewinnung der originalen Bilddaten am besten geeigneten Werte benutzt werden.
  • Da das Bild durch den Dezimationsprozeß und auch durch den ADRC-Prozeß und den adaptiven Klassenklassifikations-Prozeß komprimiert wird, ist es möglich, kodierte Daten mit einer sehr hohen Kompressionsrate zu gewinnen. Es ist darauf hinzuweisen, daß die oben beschriebene Kodierverarbeitung, die in dem Sendegerät 1 durchgeführt wird, als "kombinierter Kodierprozeß" bezeichnet werden kann, da der Komprimierprozeß durch Dezimieren organisch mit dem adaptiven Klassenklassifizierungs-Prozeß kombiniert wird, um die hocheffiziente Kompression zu realisieren.
  • 18 zeigt ein Beispiel für die Anordnung des Empfangsgeräts 4 von 1.
  • Die auf dem Aufzeichnungsmedium 2 aufgezeichneten kodierten Daten werden in der Signalverarbeitungseinheit 71 reproduziert, und die über den Übertragungspfad 3 übertragenen kodierten Daten werden empfangen, um ebenfalls der Signalverarbeitungseinheit 71 zugeführt zu werden. In der Signalverarbeitungseinheit 71 werden die kodierten Daten getrennt in die kodierten Daten der ersten Hierarchie, der zweiten Hierarchie und der dritten Hierarchie. Die Fehlerkorrektur und andere Verarbeitungsvorgänge werden in der Signalverarbeitungseinheit 71 durchgeführt. Außerdem kopiert die Signalverarbeitungseinheit die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie aus den kodierten Daten der dritten Hierarchie, die bei der Kodierung der kodierten Daten der zweiten Hierarchie zu benutzen sind. Anschließend gibt die Signalverarbeitungseinheit die kodierten Daten der ersten Hierarchie bis zu den kodierten Daten der dritten Hierarchie aus.
  • Die kodierten Daten der ersten Hierarchie werden als dekodierte Daten der ersten Hierarchie direkt ausgegeben. Die kodierten Daten der zweiten Hierarchie und der dritten Hierarchie werden an eine Prädiktionseinheit 72 bzw. an eine Prädiktionseinheit 73 ausgegeben.
  • Auf der Basis der kodierten Daten der zweiten Hierarchie berechnet die Prädiktionseinheit 72 Prädiktionswerte des Bilds der ersten Hierarchie und gibt diese dann als dekodiertes Bild der ersten Hierarchie aus. In der Prädiktionseinheit 72 werden Prädiktionswerte der ersten Hierarchie auf der Basis der dekodierten Bilddaten der dritten Hierarchie berechnet und dann ausgegeben.
  • 19 zeigt ein Ausführungsbeispiel der Prädiktionseinheit 72.
  • Die kodierten Daten der zweiten Hierarchie, die aus der Signalverarbeitungseinheit 71 (18) kommen, werden einer Trenneinheit 81 zugeführt, die optimale Korrekturdaten der zweiten Hierarchie und Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie abtrennt. Die Korrekturdaten der zweiten Hierarchie und die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie werden einer Dekodiereinheit 80 zugeführt.
  • Die Dekodiereinheit 80 umfaßt eine Einheit 82 zur Bildung von Klassenklassifikationblöcken, eine Blockbildungseinheit 83 für die Prädiktionswertberechnung, eine ADRC-Verarbeitungseinheit 84, eine Klassenklassifizierungseinheit 85 und eine Prädiktionseinheit 86. Diese Elemente der Dekodiereinheit 80 sind ähnlich angeordnet wie die Einheit 41 zur Bildung von Klassenklassifikationsblöcken, die Blockbildungseinheit 42 für die Prädiktionswertberechnung, die ADRC-Verarbeitungseinheit 44 bzw. die Klassenklassifizierungseinheit 45. Deshalb ist auch die Arbeitsweise in diesen Blöcken ähnlich.
  • Die von der Trenneinheit 81 gelieferten optimalen Korrekturdaten werden der Einheit 82 zur Bildung von Klassenklassifikationblöcken und der Blockbildungseinheit 83 für die Prädiktionswertberechnung zugeführt, während die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie der Prädiktionseinheit 86 zugeführt und dann in einem (nicht dargestellten) Speicher gespeichert werden.
  • Der von der Blockbildungseinheit 83 für die Prädiktionswertberechnung ausgegebene Prädiktionswert-Berechnungsblock wird der Prädiktionseinheit 86 zugeführt. Die von der Klassenklassifizierungseinheit 85 ausgegebene Klasseninformation wird in der ADRC-Verarbeitungseinheit 84 einer ADRC-Verarbeitung unterzogen. Die ADRC-verarbeitete Klasseninformation wird ebenfalls der Prädiktionseinheit 86 zugeführt.
  • In der Prädiktionseinheit 86 werden 3 × 3 Prädiktionswerte der ersten Hierarchie nach der Formel (1) berechnet, wobei in Abhängigkeit von der Klasseninformation von den in dem (nicht dargestellten) Speicher gespeicherten Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie 25 × 9 ausgelesene Prädiktionskoeffizienten der ersten Hierarchie benutzt werden, die der Klasseninformation entsprechen, und wobei außerdem 5 × 5 optimale Korrekturdaten des Prädiktionswert-Berechnungsblocks benutzt werden, der aus der Blockbildungseinheit 83 für die Prädiktionswertberechnung zugeführt wird. Der berechnete Prädiktionswert der ersten Hierarchie wird von der Dekodiereinheit 80 als das dekodierte Bild der ersten Hierarchie ausgegeben.
  • Wie oben beschrieben wurde, werden die optimalen Korrekturdaten der zweiten Hierarchie dazu benutzt, die Prädiktion in der Prädiktionseinheit 86 so durchzuführen, daß der Fehler zwischen dem Prädiktionswert der ersten Hierarchie und den Bilddaten der ersten Hierarchie kleiner wird als der Schwellwert "ε". Dadurch ist es möglich, die dekodierten Bilddaten der ersten Hierarchie nach Maßgabe der optimalen Korrekturdaten der zweiten Hierarchie mit hoher Auflösung zu gewinnen.
  • 20 zeigt ein Ausführungsbeispiel der Prädiktionseinheit 73 von 18.
  • Die kodierten Daten der dritten Hierarchie aus der Signalverarbeitungseinheit 71 (18) werden einer Trenneinheit 221 zugeführt, die die kodierten Daten der dritten Hierarchie in optimale Korrekturdaten der dritten Hierarchie, in Prädiktionskoeffizienten für jede Klasse einer zweiten Hierarchie und in Prädiktionskoeffizienten für jede Klasse einer ersten Hierarchie trennt. Sowohl die optimalen Korrekturdaten der dritten Hierarchie als auch die Prädiktionskoeffizienten für jede Klasse der zweiten Hierarchie werden einer Dekodiereinheit 222 zugeführt, während die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie einer anderen Dekodiereinheit 223 zugeführt werden.
  • Die Dekodiereinheit 222 ist ähnlich ausgebildet wie die Dekodiereinheit 80 von 19. Infolgedessen wird in dieser Dekodiereinheit 222, ähnlich wie in dem obigen Fall, ein Prädiktionswert der korrigierten Bilddaten der zweiten Hierarchie aus den optimalen Korrekturdaten der dritten Hierarchie und den Prädiktionskoeffizienten für jede Klasse der zweiten Hierarchie berechnet, und die berechneten Prädiktionswerte werden dann der Dekodiereinheit 223 zugeführt. Die Dekodiereinheit 223 ist ebenfalls ähnlich ausgebildet wie die Dekodiereinheit 80. Deshalb wird aus dem Prädiktionswert der zweiten Hierarchie und dem Prädiktionskoeffizienten der ersten Hierarchie ein Prädiktionswert der ersten Hierarchie berechnet, und der berechnete Prädiktionswert wird als dekodiertes Bild der ersten Hierarchie ausgegeben.
  • Die Prädiktionskoeffizienten für jede Klasse der zweiten Hierarchie werden in der Einheit 14 von 2 zur Berechnung der optimalen Korrekturdaten berechnet, um optimale Da ten als optimale Korrekturdaten der zweiten Hierarchie zu gewinnen. Da die dekodierten Bilddaten der ersten Hierarchie, die die hohe Auflösung haben, wie oben erläutert, aus den optimalen Korrekturdaten der zweiten Hierarchie gewonnen werden können, ist es auch möglich, die dekodierten Bilddaten der ersten Hierarchie mit hoher Auflösung aus den kodierten Daten der dritten Hierarchie zu gewinnen. Wenn ein Teil oder sogar alle kodierten Daten der ersten Hierarchie und die kodierten Daten der zweiten Hierarchie aus irgendeinem Grund verlorengehen, können die dekodierten Bilddaten mit der hohen Auflösung, wie oben erläutert wurde, aus den kodierten Daten der dritten Hierarchie (der untersten Hierarchie) gewonnen werden, nämlich den optimalen Korrekturdaten der ersten Hierarchie in Verbindung mit den Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie und der zweiten Hierarchie.
  • Auch im Fall des Empfangsgeräts, das nur die kodierten Daten einer dritten Hierarchie empfangen kann (d.h. die optimalen Korrekturdaten der dritten Hierarchie, Prädiktionskoeffizienten für jede Klasse einer ersten und zweiten Hierarchie), ist es z.B. möglich, ein dekodiertes Bild mit hoher Auflösung zu dekodieren. Weiterhin ist es im Fall des Empfangsgeräts, das nur die kodierten Daten der zweiten Hierarchie und die kodierten Daten einer dritten Hierarchie empfangen kann (d.h. die optimalen Korrekturdaten einer zweiten Hierarchie, Prädiktionskoeffizienten für jede Klasse einer ersten und einer zweiten Hierarchie), ist es möglich, ein dekodiertes Bild mit hoher Auflösung zu dekodieren.
  • Natürlich sind in dem beschriebenen Ausführungsbeispiel die optimalen Korrekturdaten der zweiten Hierarchie in den kodierten Daten der zweiten Hierarchie enthalten. Alternativ können die Bilddaten der zweiten Hierarchie selbst, im Gegensatz zu den optimalen Korrekturdaten der zweiten Hierarchie, in den kodierten Daten der zweiten Hierarchie enthalten sein.
  • Die kodierten Daten der ersten Hierarchie, die kodierten Daten der zweiten Hierarchie und die kodierten Daten der dritten Hierarchie sind auch in den kodierten Daten enthalten, die von der Signalverarbeitungseinheit 15 ausgegeben werden. Da das kodierte Bild mit der hohen Bildauflösung nur aus den kodierten Daten der dritten Hierarchie (den optimalen Korrekturdaten der dritten Hierarchie und den Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie und der zweiten Hierarchie) erzeugt werden kann, ist es auch akzeptabel, daß in den von der Signalverarbeitungseinheit 15 ausgegebenen kodierten Daten nur die kodierten Daten der dritten Hierarchie enthalten sind, wie dies oben beschrieben wurde.
  • Wie 2 zeigt, werden die optimalen Korrekturdaten der zweiten Hierarchie, die von der Einheit 13 zur Berechnung der optimalen Korrekturdaten ausgegeben werden, der Einheit 14 zur Berechnung der optimalen Korrekturdaten zugeführt, so daß der optimale Prädiktionskoeffizient für jede Klasse berechnet wird, um die optimalen Korrekturdaten der zweiten Hierarchie zu erhalten. Alternativ können anstelle der optimalen Korrekturdaten der zweiten Hierarchie die Bilddaten der zweiten Hierarchie selbst der Einheit 14 zur Berechnung der optimalen Korrekturdaten zugeführt werden, so daß für die Gewinnung der Bilddaten der zweiten Hierarchie der optimale Prädiktionskoeffizient für jede Klasse gewonnen werden kann.
  • In dem oben beschriebenen Fall werden die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie in der lokalen Dekodiereinheit 22 von 9 gewonnen (und die Prädiktionskoeffizienten für jede Klasse der zweiten Hierarchie in der lokalen Dekodiereinheit 22 für die Einheit 14 zur Berechnung der optimalen Korrekturdaten), und die Prädiktionswerte der ersten Hierarchie werden dann unter Verwendung der Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie berechnet. Alternativ können die jeweiligen Prädiktionswerte der ersten Hierarchie berechnet werden, ohne daß in der lokalen Dekodiereinheit 22 die Prädiktionskoeffizienten für jede Klasse gewonnen werden.
  • Die 21 zeigt ein weiteres Ausführungsbeispiel der lokalen Dekodiereinheit 22. Zur Kennzeichnung der entsprechenden Teile werden die gleichen Bezugszeichen benutzt wie in 9. Anstelle der adaptiven Verarbeitungseinheit 46 benutzt die lokale Dekodiereinheit 22 von 21 ein Prädiktionskoeffizienten-ROM 88 und eine Prädiktionseinheit 89. Die anderen Einheiten können ähnlich ausgebildet sein wie in der Anordnung von 9.
  • Die Einheit 13 zur Berechnung der optimalen Korrekturdaten, die die lokale Dekodiereinheit 22 von 21 enthalten kann, ist in 38 dargestellt. Die Einheit 13 von 38 zur Berechnung der optimalen Korrekturdaten gleicht der Einheit 13 von 5 zur Berechnung der optimalen Korrekturdaten mit dem Unterschied, daß die Bilddaten der ersten Hierarchie (optimale Korrekturdaten der zweiten Hierarchie) nicht der lokalen Dekodiereinheit 22 in der Einheit zur Berechnung der optimalen Korrekturdaten von 38 zugeführt werden. Wie weiter unten im einzelnen erläutert wird, benötigt die lokale Dekodiereinheit von 21 nicht die Bilddaten der ersten Hierarchie (optimale Korrekturdaten der zweiten Hierarchie).
  • Es wird nun auf 21 Bezug genommen.
  • Das Prädiktionskoeffizienten-ROM 88 speichert Prädiktionskoeffizienten für Klassen, die durch Lernen gewonnen wurden (dies wird weiter unten in der Beschreibung erläutert). Beim Empfang der von der Klassenklassifizierungseinheit 44 ausgegebenen Klassenin formation werden die Prädiktionskoeffizienten, die an der dieser Klasseninformation entsprechenden Adresse gespeichert sind, aus dem Prädiktionskoeffizienten-ROM 88 ausgelesen und der Prädiktionseinheit 89 zugeführt.
  • In der Prädiktionseinheit 89 wird die lineare Gleichung der Formel (1) berechnet (die Formel (8) zeigt eine konkrete Anwendung der Formel (1)), wobei der aus der Blockbildungseinheit 2 für die Prädiktionswertberechnung abgeleitete Prädiktionswert und das Prädiktionskoeffizienten-ROM 88 benutzt werden. Es wird also ein Prädiktionswert des Originalbilds berechnet, ohne daß die Originalbilder der betreffenden Hierarchien benutzt werden.
  • In der in 21 dargestellten Einheit 43 zur adaptiven Klassenklassifikationsverarbeitung kann dieser Prädiktionswert berechnet werden, ohne daß die Originalbilder der betreffenden Hierarchien benutzt werden. Ähnlich wie dies oben beschrieben wurde, werden für jede Klasse 25 × 9 Prädiktionskoeffizienten an die Entscheidungseinheit 4 ausgegeben, die in dem Prädiktionskoeffizienten-ROM 88 gespeichert werden.
  • 39 zeigt ein Flußdiagramm, das den Prozeß illustriert, nach welchem die lokale Dekodiereinheit 22' von 21 arbeitet. Der Prozeß, nach dem die lokale Dekodiereinheit 22' von 21 arbeitet, ähnelt in gewisser Weise dem in 13 dargestellten Prozeß. Die Schritte S21 bis S23 sind z.B. identisch. In dem Schritt S23A werden jedoch die Prädiktionskoeffizienten für die klassifizierte Klasse aus dem Prädiktionskoeffizienten-ROM 88 ausgelesen. In dem Schritt S23B wird dann in der Prädiktionseinheit 89 ein adaptiver Prozeß ausgeführt, um einen Prädiktionswert zu berechnen. In dem Schritt S23C liefert das Prädiktionskoeffizienten-ROM die Prädiktionskoeffizienten für die klassifizierte Klasse, die der Entscheidungseinheit zugeführt werden.
  • 22 zeigt ein Ausführungsbeispiel eines Bildverarbeitungsgeräts zur Durchführung eines Lernprozesses für die Gewinnung der in dem Prädiktionskoeffizienten-ROM 88 von 21 gespeicherten Prädiktionskoeffizienten.
  • Bilddaten für Lernzwecke (Lernbild) werden einer Einheit 91 zur Bildung von Lernblöcken zugeführt sowie einer Einheit 92 zur Bildung von Lehrerblöcken. Wie weiter unten beschrieben wird, werden diese Daten dazu benutzt, Prädiktionskoeffizienten zu gewinen, die auf irgendwelche Bilder anwendbar sind. Es ist zu beachten, daß dann, wenn die Prädiktionskoeffizienten für jede Klasse der ersten Hierarchie gewonnen werden, die Bilddaten der ersten Hierarchie der Einheit 91 zur Bildung von Lernblöcken und der Einheit 92 zur Bildung von Lehrerblöcken als Lernbild zugeführt werden. Wenn die Prädiktionskoeffizienten für jede Klasse der zweiten Hierarchie gewonnen sind, werden die Bild daten der zweiten Hierarchie als Lernbild der Einheit 91 zur Bildung von Lernblöcken und der Einheit 92 zur Bildung von Lehrerblöcken zugeführt.
  • Die Einheit 91 zur Bildung von Lernblöcken extrahiert aus den eingegebenen Bilddaten z.B. 25 Pixel (5 × 5 Pixel), die um das notierte Pixel einer in 10 durch das Symbol "•" gekennzeichneten Positionsbeziehung zentriert sind, und liefert anschließend einen Block mit diesen 25 Pixeln als Lernblock an die ADRC-Verarbeitungseinheit 93 und an einen Lerndatenspeicher 96.
  • In der Einheit 92 zur Bildung von Lehrerblöcken wird aus den Eingangsbilddaten ein Block erzeugt, der z.B. aus 9 Pixeln (3 × 3 Pixeln) besteht, und anschließend wird ein Block mit diesen 9 Pixeln als Lehrerblock einem Lehrerdatenspeicher 98 zugeführt.
  • Wenn der Lernblock, der z.B. aus den 25 Pixeln besteht, die sich in der durch das Symbol
    "•" von 10 gekennzeichneten Positionsbeziehung befinden, und um das notierte Pixel in der Einheit 91 zur Bildung von Lernblöcken zentriert sind, erzeugt die Einheit 92 zur Bildung von Lehrerblöcken den Lehrerblock mit 3 × 3 Pixeln, die in 10 von einem Rechteck umrandet sind.
  • Die ADRC-Verarbeitungseinheit 93 extrahiert aus diesen 25 Pixeln 9 Pixel (3 × 3 Pixel), um den Lernblock zu bilden, und führt dann für den aus diesen 9 Pixeln bestehenden Block, ähnlich wie die ADRC-Verarbeitungseinheit von 21 einen 1-Bit-ADRC-Verarbeitungsvorgang durch. Der durch die ADRC-Verarbeitung verarbeitete Block mit 3 × 3 Pixeln wird einer Klassenklassifizierungseinheit 94 zugeführt. In der Klassenklassifizierungseinheit 94 wird die Klasse des Blocks aus der ADRC-Verarbeitungseinheit 93 klassifiziert, um eine Klasseninformation zu gewinnen. Diese Klasseninformation wird über einen Anschluß "a" eines Schalters 95 an den Lerndatenspeicher 96 und an den Lehrerdatenspeicher 98 geliefert.
  • In dem Lerndatenspeicher 96 oder dem Lehrerdatenspeicher 98 wird der von der Einheit 91 zur Bildung von Lernblöcken ausgegebene Lernblock bzw. der von der Einheit 92 zur Bildung von Lehrerblöcken ausgegebene Lehrerblock an einer Adresse gespeichert, die der zugeführten Klasseninformation entspricht.
  • Es sei angenommen, daß z.B. der Block aus 5 × 5 Pixeln, der in 10 durch die Symbole
    "•" gekennzeichnet ist, als Lernblock an einer bestimmten Adresse des Lerndatenspeichers 96 gespeichert wird und der aus 3 × 3 Pixeln aufgebaute Block, der in der Zeich nung dargestellt und von dem Rechteck umrandet ist, als Lehrerblock an der gleichen wie der obigen Adresse gespeichert wird.
  • Anschließend wird ein ähnlicher Prozeß für alle vorbereiteten Lernbilder wiederholt, so daß der Lernblock und der Lehrerblock in dem Lerndatenspeicher 96 bzw. dem Lehrerdatenspeicher 98 an den gleichen Adressen gespeichert werden. Der Lehrerblock besteht aus 9 Pixeln, in denen der Prädiktionswert in der lokalen Dekodiereinheit 22 von 21 unter Verwendung des Prädiktionswert-Berechnungsblocks berechnet wird, der aus 25 Korrekturdaten bestehen, die die gleiche Positionsbeziehung haben wie die 25 Pixel des Lernblocks.
  • Da in dem Lerndatenspeicher 96 und in dem Lehrerdatenspeicher 98 mehrere Informationen an den gleichen Adressen gespeichert sind, können mehrere Lernblöcke und mehrere Lehrerblöcke an den gleichen Adressen gespeichert werden.
  • Wenn die Lernblöcke und die Lehrerblöcke für alle Lernbilder in dem Lerndatenspeicher 96 bzw. in dem Lehrerdatenspeicher 8 gespeichert sind, wird der Schalter 95 von dem Anschluß "a" auf den Anschluß "b" umgeschaltet, so daß das Ausgangssignal eines Zählers 97 dem Lerndatenspeicher 96 und dem Lehrerdatenspeicher 98 als Adresse zugeführt wird. Der Zähler 97 zählt einen vorbestimmten Takt, um einen sequentiellen Zählwert desselben auszugeben, während in dem Lerndatenspeicher 96 oder dem Lehrerdatenspeicher 98 entweder der Lernblock oder der Lehrerblock, die an der diesem Zählwert entsprechenden Adresse gespeichert sind, ausgelesen und einer Recheneinheit 99 zugeführt werden.
  • Als Ergebnis werden der Recheneinheit 99, dem Zählwert des Zählers 97 entsprechend, ein Satz von Lernblöcken und ein Satz von Lehrerblöcken zugeführt.
  • Beim Empfang eines Satzes von Lernblöcken und eines Satzes von Lehrerblöcken zu einer bestimmten Klasse berechnet die Recheneinheit 99 nach dem Verfahren der kleinsten Quadrate und unter Verwendung dieser Blocksätze Prädiktionskoeffizienten, mit denen ein Fehler minimiert werden kann.
  • Wenn man z.B. annimmt, daß die Pixelwerte von Pixeln zur Bildung eines Lernblocks mit X1, X2, X3, ... und die zu gewinnenden Prädiktionskoeffizienten mit w1, w2, w3, ... bezeichnet werden, müssen die Prädiktionskoeffizienten w1, w2, w3, ... die folgende Formel befriedigen, um einen Pixelwert "y" eines bestimmten Pixels zur Bildung eines Lehrerblocks durch eine lineare Gleichung dieser Werte zu erhalten: Y = w1x1 + w2×2 + w3×3 + ...
  • Als Konsequenz können die Prädiktionskoeffizienten w1, w2, w3, ... in der Recheneinheit 99 so berechnet werden, daß die in der obigen Formel (7) angegebene Normalgleichung aufgestellt und gelöst wird, während diese Prädiktionskoeffizienten den quadratischen Fehler der Prädiktionswerte w1x1 + w2×2 + w3×3 + ... für einen wahren Wert "y" sowohl aus dem Lernblock in der gleichen Klasse als auch aus dem entsprechenden Lehrerblock minimieren. Deshalb werden für jede Klasse 25 × 9 Prädiktionskoeffizienten berechnet, indem der oben beschriebene Prozeß für jede Klasse durchgeführt wird.
  • Die in der Recheneinheit 99 berechneten Prädiktionskoeffizienten für die jeweiligen Klassen werden einem Speicher 100 zugeführt. Zusätzlich zu den Prädiktionskoeffizienten aus der Recheneinheit 99 wird dem Speicher 100 der Zählwert aus dem Zähler 97 zugeführt. Deshalb werden in dem Speicher 100 die Prädiktionskoeffizienten aus der Recheneinheit 99 an den Adressen gespeichert, die den von dem Zähler 97 ausgegebenen Zählwerten entsprechen.
  • Wie oben beschrieben wurde, werden die 25 × 9 optimalen Prädiktionskoeffizienten, die für die Prädiktion der 3 × 3 Pixel des Blocks in dieser Klasse benutzt werden, in dem Speicher 100 an Adressen gespeichert, die den jeweiligen Klassen entsprechen.
  • Die in der oben beschriebenen Weise in dem Speicher 100 gespeicherten Prädiktionskoeffizienten für jede Klasse werden in dem Prädiktionskoeffizienten-ROM 88 von 21 gespeichert.
  • Die Prädiktionskoeffizienten werden in dem Prädiktionskoeffizienten-ROM 88 nicht an den Adressen gespeichert, die den jeweiligen Klassen entsprechen. Es können jedoch Mittelwerte der Pixelwerte der Lehrerblöcke gespeichert werden. Wenn in diesem Fall die Klasseninformation zugeführt wird, wird der dieser Klasse entsprechende Pixelwert ausgegeben. Deshalb ist in der lokalen Dekodiereinheit 22 von 21 weder die Blockbildungseinheit 42 für die Prädiktionswertberechnung noch die Prädiktionseinheit 89 vorgesehen.
  • Die Verwendung der in 21 dargestellten lokalen Dekodiereinheit bringt es mit sich, daß entweder die Prädiktionseinheit 72 oder die Prädiktionseinheit 73, die in 19 bzw. 20 dargestellt sind, entweder auf die Benutzung der Trenneinheit 81 oder auf die Benutzung der Trenneinheit 221 verzichten können. Die Dekodiereinheit 80 von 19 könnte (ähnlich wie die Dekodiereinheiten 222 und 223 in 20) so ausgebildet sein, wie dies in 23 dargestellt ist. In diesem Fall kann die Dekodiereinheit 80 die Einheit 41 zur Bil dung des Klassenklassifizierungsblocks, die Einheit 42 zur Bildung des Prädiktionswert-Berechnungsblocks, die ADRC-Verarbeitungseinheit 44, die Klassenklassifizierungseinheit 45 und das Prädiktionskoeffizienten-ROM 88 enthalten, die in der lokalen Dekodiereinheit 22 von 21 benutzt werden, oder die Dekodiereinheit 80 kann die Einheit 141 zur Bildung des Klassenklassifizierungsblocks, die Einheit 142 zur Bildung des Prädiktionswert-Berechnungsblocks, die ADRC-Verarbeitungseinheit 144, die Klassenklassifizierungseinheit 145, das Prädiktionskoeffizienten-ROM 146 oder die Prädiktionseinheit 147 enthalten, die der Prädiktionseinheit 89 entspricht.
  • Wie oben anhand von 9 diskutiert wurde, werden die Prädiktionskoeffizienten erfolgreich berechnet, um dadurch die Prädiktionswerte zu gewinnen, wobei dieses Verfahren "als sequentielles Verfahren" bezeichnet wird, während, wie oben anhand von 21 diskutiert wurde, die Prädiktionskoeffizienten für jede Klasse zuvor in dem Prädiktionskoeffizienten-ROM 88 gespeichert werden und diese gespeicherten Prädiktionskoeffizienten für jede Klasse zur Gewinnung des Prädiktionswerts benutzt werden, wobei dieses Verfahren als "ROM-Verfahren" bezeichnet wird.
  • Nach einem dritten Beispiel für ein Sendegerät 1, das in 40 dargestellt ist, ist eine Einheit 13 zur Berechnung optimaler Korrekturdaten für die Benutzung mit der lokalen Dekodiereinheit 22 von 21 vorgesehen. Gemäß 40 müssen bei diesem weiteren Ausführungsbeispiel in dem Sendegerät 1 (2) die Bilddaten der ersten Hierarchie nicht der lokalen Dekodiereinheit 22' zugeführt werden. Außerdem werden bei der in 40 dargestellten Einheit 13 zur Berechnung der optimalen Korrekturdaten, anders als bei der in 5 dargestellten Einheit 13 zur Berechnung der optimalen Korrekturdaten, die Prädiktionskoeffizienten für jede Klasse nicht der Signalverarbeitungseinheit zugeführt. Darüber hinaus werden die Bilddaten der ersten Hierarchie (oder die optimalen Korrekturdaten der zweiten Hierarchie) von der lokalen Dekodiereinheit nicht benötigt und ihr deshalb nicht zugeführt.
  • 41 zeigt ein Flußdiagramm, das die Verarbeitung in der in 40 dargestellten Einheit 13' zur Berechnung der optimalen Korrekturdaten veranschaulicht. Das Flußdiagramm von 41 gleicht dem Flußdiagramm von 6 mit dem Unterschied, daß in dem Schritt S6' (im Gegensatz zum Schritt S6 in 6) des Flußdiagramms von 40 nicht die Prädiktionskoeffizienten für jede Klasse ausgegeben werden, während die optimalen Korrekturdaten als dekodierte Daten ausgegeben werden.
  • 42 zeigt die lokale Dekodiereinheit 42 der Einheit 13 zur Berechnung der optimalen Korrekturdaten von 40. Die lokale Dekodiereinheit 22 in 42 gleicht der lokalen Dekodiereinheit 22 mit dem Unterschied, daß die Prädiktionskoeffizienten nicht von der lokalen Dekodiereinheit 22 nach außen gegeben werden.
  • 43 zeigt eine Prozedur für den Betrieb der in 42 dargestellten lokalen Dekodiereinheit 22. Das Flußdiagramm von 43 ist dem Flußdiagramm von 13 sehr ähnlich, das die Arbeitsweise der lokalen Dekodiereinheit von 9 veranschaulicht. Die Schritte S21 bis S23 sind z.B. identisch. In dem Schritt S24 werden jedoch die Prädiktionskoeffizienten für die klassifizierte Klasse aus dem Prädiktionskoeffizienten-ROM 88 ausgelesen. Dann führt die Prädiktionseinheit 89 in dem Schritt S24A einen adaptiven Prozeß zum Berechnen von Prädiktionswerten durch. In dem Schritt S24B werden die Prädiktionswerte ausgegeben.
  • 44 zeigt die Entscheidungseinheit 24 der lokalen Dekodiereinheit von 42. Die Entscheidungseinheit 24 von 44 unterscheidet sich von der Entscheidungseinheit 24 von 24 darin, daß die Entscheidungseinheit 24 von 44 keinen Prädiktionskoeffizientenspeicher 41 aufweist. Außerdem liefert die Entscheidungseinheit 24 von 44 keine Prädiktionskoeffizienten an die Multiplexereinheit.
  • 45 zeigt ein Flußdiagramm, das die Arbeitsweise der Entscheidungseinheit 24 von 44 der lokalen Dekodiereinheit von 42 veranschaulicht. Das Flußdiagramm von 45 gleicht dem Flußdiagramm von 17 (das die Arbeitsweise der Entscheidungseinheit von 16 illustriert), mit dem Unterschied, daß in dem Schritt S46 die Prädiktionskoeffizienten für jede Klasse (die in der Entscheidungseinheit von 44 nicht erzeugt werden) nicht ausgegeben werden.
  • 46 zeigt eine Prädiktionseinheit für die dritte Hierarchie zur Benutzung in dem Empfangsgerät 4, das zu dem oben diskutierten Sendegerät nach dem dritten Beispiel komplementär ist. Insbesondere ist aus 46 ersichtlich, daß zwischen der Dekodiereinheit 222 und der Dekodiereinheit 233 keine Korrekturdaten oder Prädiktionskoeffizienten für jede Klasse übergeben werden. Die Dekodiereinheit 222 empfängt vielmehr kodierte Daten der dritten Hierarchie und liefert Prädiktionswerte der zweiten Hierarchie an die Dekodiereinheit 223. Aus den Prädiktionswerten der zweiten Hierarchie bestimmt die Dekodiereinheit 223 Prädiktionswerte der ersten Hierarchie (die in Wirklichkeit das dekodierte Bild der ersten Hierarchie bilden).
  • 24 zeigt ein erstes Ausführungsbeispiel der Erfindung für das Sendegerät von 1. Es sei erwähnt, daß für gleiche oder ähnliche Komponenten in 24 die gleichen Bezugszeichen benutzt werden wie in 2.
  • In der Anordnung von 24 werden nur die Bilddaten der ersten Hierarchie einer Einheit 101 zur Berechnung der optimalen Korrekturdaten zugeführt, und dann werden aus den Bilddaten der ersten Hierarchie optimale Korrekturdaten einer zweiten Hierarchie berechnet. Diese berechneten optimalen Korrekturdaten der zweiten Hierarchie werden dann als kodierte Daten der zweiten Hierarchie einer Signalverarbeitungseinheit 15 zugeführt. Einer Einheit 102 zur Berechnung optimaler Korrekturdaten, in der aus den Bilddaten der zweiten Hierarchie optimale Korrekturdaten einer dritten Hierarchie berechnet werden, werden ausschließlich Bilddaten der zweiten Hierarchie zugeführt, die von einer Dezimationseinheit 11 ausgegeben werden. Diese berechneten optimalen Korrekturaten der dritten Hierarchie werden dann als kodierte Daten der dritten Hierarchie der Signalverarbeitungseinheit 15 zugeführt.
  • Als nächstes zeigt 25 ein Beispiel für die Ausbildung der in 24 dargestellten Einheit 101. Da diese Einheit 102 ähnlich ausgebildet ist wie die Einheit 101 zum Berechnen der optimalen Korrekturdaten, wird hier auf ihre Erläuterung verzichtet.
  • Die Bilddaten der ersten Hierarchie (Bilddaten der zweiten Hierarchie im Falle der Einheit 102 zum Berechnen der optimalen Korrekturdaten) werden einer Blockbildungseinheit 111 zugeführt. Die Blockbildungseinheit 111 verarbeitet die Bilddaten der ersten Hierarchie, um einen um das notierte Pixel zentrierten Klassenklassifizierungsblock zu bilden, der eine Einheit darstellt, um diese Bilddaten der ersten Hierarchie in Abhängigkeit von ihrer Natur in eine vorbestimmte Klasse zu klassifizieren. Die Blockbildungseinheit 111 liefert den Bildblock an eine ADRC-Verarbeitungseinheit 112 und an eine Verzögerungseinheit 115.
  • Die ADRC-Verarbeitungseinheit 112 unterzieht den aus der Blockbildungseinheit 111 kommenden Block (Klassenklassifizierungsblock) einer ADRC-Verarbeitung und liefert den resultierenden Block, der aus einem ADRC-Code besteht, an eine Klassenklassifizierungseinheit 113.
  • Die Klassenklassifizierungseinheit 113 führt einen Klassenklassifizierungsprozeß durch, um den von der ADRC-Verarbeitungseinheit 112 ausgegebenen Block in Abhängigkeit von seiner Natur in eine vorbestimmte Klasse zu klassifizieren, und liefert dann eine Information, die anzeigt, daß dieser Block zu einer Klasse gehört, als Klasseninformation an einen Abbildungskoeffizientenspeicher 114.
  • Wie weiter unten diskutiert wird, speichert der Abbildungskoeffizientenspeicher 114 die Abbildungskoeffizienten, die durch Lernoperationen (Lernen von Abbildungskoeffizienten) für jede Klasseninformation gewonnen werden. Unter Verwendung der von der Klassen klassifizierungseinheit 113 gelieferten Klasseninformation werden die an dieser Adresse gespeicherten Abbildungskoeffizienten aus dem Speicher 114 ausgelesen und einer Recheneinheit 116 zugeführt.
  • Die Verzögerungseinheit 115 verzögert den von der Blockbildungseinheit 111 gelieferten Block, bis die der Klasseninformation dieses Block entsprechenden Abbildungskoeffizienten aus dem Abbildungskoeffizientenspeicher 114 ausgelesen sind, und liefert den verzögerten Block dann an die Recheneinheit 116.
  • Die Recheneinheit 116 führt eine bestimmte Berechnung durch, wobei sie die Pixelwerte der Pixel für den Aufbau des Blocks aus der Verzögerungseinheit 115 und außerdem den der Klasse dieses Blocks entsprechenden Abbildungskoeffizienten benutzt, der aus dem Abbildungskoeffizientenspeicher 114 zugeführt wird. Hieraus werden die kodierten Daten berechnet, die durch Dezimieren (oder Reduzieren) der Pixelzahl des Bilds gewonnen werden, um dieses Bild zu kodieren. Mit anderen Worten, die Recheneinheit 116 berechnet einen vorgewählten Funktionswert "f" (y1, y2, ..., k1, k2, ...), wobei sie die folgenden Werte als Argumente benutzt. Das heißt, die Pixelwerte der jeweiligen Pixel für den Aufbau des von der Blockbildungseinheit 111 ausgegebenen Blocks sind y1, y2, ... und die Abbildungskoeffizienten, die der Klasse dieses Blocks entsprechen und von dem Abbildungskoeffizientenspeicher 114 ausgegeben werden, sind k1, k2, .... Der berechnete Funktionswert "f" (y1, y2, ..., k1, k2, ...) wird z.B. ausgegeben als Pixelwert eines zentralen Pixels der Pixel für den Aufbau des Blocks (Klassenklassifizierungsblocks), der von der Blockbildungseinheit 111 ausgegeben wird .
  • Wenn man annimmt, daß die Zahl der Pixel für den Aufbau des von der Blockbildungseinheit 111 ausgegebenen Klassenklassifizierungsblocks gleich N ist, dezimiert die Recheneinheit 16 die Bilddaten um 1/N und gibt die 1/N-dezimierten Daten als die kodierten Bilddaten aus.
  • Man erkennt, daß die von der Recheneinheit 116 ausgegebenen kodierten Daten nicht solche Daten sind, wie sie durch Extrahieren des zentralen Pixels des von den N Pixeln gebildeten Blocks, d.h. durch die Ausführung eines einfachen Dezimationsprozesses, erzeugt werden, sondern, wie oben beschrieben, dem Funktionswert "f" (y1, y2, ..., k1, k2, ...) entsprechen, der durch die N Pixel für den Aufbau dieses Blocks definiert ist. Mit anderen Worten, dieser Funktionswert "f" (y1, y2, ..., k1, k2, ...) legt einen optimalen Wert fest. Das heißt, der Pixelwert des zentralen Pixels in dem Block, der durch den einfachen Dezimationsprozeß gewonnen wird, wird als der optimale Wert korrigiert, mit dem die originalen Bilddaten auf der Basis der Pixelwerte, die um dieses zentrale Pixel angeordnet sind, gewonnen werden können. Dementsprechend können die Daten, die durch Be rechnen der Abbildungskoeffizienten und der Pixel zum Aufbau des Blocks gewonnen werden, als "optimale Korrekturdaten" bezeichnet werden.
  • Der Rechenprozeß, der in der Recheneinheit 116 durchgeführt wird, kann auch als ein Prozeß aufgefaßt werden, um die Pixelwerte der betreffenden Pixel für den Aufbau des von der Blockbildungseinheit 111 ausgegebenen Klassenklassifizierungsblocks in die Funktion "f" (y1, y2, ..., k1, k2, ...) abzubilden. Deshalb werden die in einem solchen Prozeß benutzten Koeffizienten k1, k2, ... als "Abbildungskoeffizienten" bezeichnet.
  • Anhand des Flußdiagramms von 26 wird dieser Prozeß nun erläutert.
  • Die Bilddaten der ersten Hierarchie werden in Einheiten von (beispielsweise) einem Vollbild der Blockbildungseinheit 111 zugeführt. In der Blockbildungseinheit 111 wird in dem Schritt S101 das Bild der ersten Hierarchie für ein Vollbild verarbeitet, um den Klassenklassifizierungsblock zu erzeugen. Das heißt, wie z.B. in 10 durch die von einem Rechteck umrandeten Pixel dargestellt, die Blockbildungseinheit 111 unterteilt die Bilddaten in den Klassenklassifizierungsblock, der aus 9 Pixeln besteht, die um das notierte Pixel zentriert sind (3 × 3 Pixel in transversaler Richtung und in longitudinaler Richtung), und liefert diesen Klassenklassifizierungsblock anschließend an die ADRC-Verarbeiungseinheit 112 und an die Verzögerungseinheit 115.
  • Der Klassenklassifizierungsblock besteht in diesem Fall aus dem von 3 × 3 Pixeln gebildeten quadratischen Block. Die Form des Klassenklassifizierungsblocks ist nicht auf die quadratische Form beschränkt, sondern kann z.B. auch rechteckförmig, kreuzförmig und beliebigen anders geformt sein. Auch ist die Gesamtzahl der Pixel für den Aufbau des Klassenklassifizierungsblocks nicht auf 9 Pixel (d.h. 3 × 3 Pixel) beschränkt. Außerdem muß der Klassenklassifizierungsblock nicht aus angrenzenden Pixeln bestehen, sondern kann statt dessen auch von Pixeln gebildet sein, die Abstand voneinander haben. Es ist jedoch zu beachten, daß die Form und die Pixelmenge des Klassenklassifizierungsblocks mit der Form und der Pixelmenge des Klassenklassifizierungsblocks übereinstimmen müssen, der während des Lernvorgangs (d.h. des Abbildungskoeffizienten-Lernvorgangs, der weiter unten diskutiert wird) benutzt wird.
  • In dem Schritt S102 führt die ADRC-Verarbeitungseinheit 112 beim Empfang des Klassenklassifizierungsblocks aus der Blockbildungseinheit 111 für diesen Block den 1-Bit-ADRC-Verarbeitungsvorgang durch, so daß sich ein Block von Pixeln ergibt, die durch 1 Bit ausgedrückt werden. Der ADRC-verarbeitete Klassenklassifizierungsblock wird der Klassenklassifizierungseinheit 113 zugeführt.
  • In der Klassenklassifizierungseinheit 113 wird der Klassenklassifizierungsblock aus der ADRC-Verarbeitungseinheit 112 in dem Schritt S103 in eine Klasse klassifiziert, und die daraus resultierende Klasseninformation wird dem Abbildungskoeffizientenspeicher 114 als Adresse zugeführt. Infolgedessen werden in dem Schritt S103A die Abbildungskoeffizienten, die der von der Klassenklassifizierungseinheit 113 gelieferten Klasseninformation entsprechen, aus dem Abbildungskoeffizientenspeicher 114 ausgelesen und dann der Recheneinheit 116 zugeführt.
  • Auf der anderen Seite wird der aus der Blockbildungseinheit 111 kommende Klassenklassifikationsblock in der Verzögerungseinheit 115 verzögert, und der verzögerte Klassenklassifizierungsblock wird zugeführt, während darauf gewartet wird, daß die der Klasseninformation dieses Blocks entsprechenden Abbildungskoeffizienten aus dem Abbildungskoeffizientenspeicher 114 ausgelesen werden. In dem Schritt S104 wird in der Recheneinheit 116 die oben beschriebene Funktion "f" (•)" (das Symbol "•" in dieser Funktion "f" bezeichnet einen Satz von Pixelwerten y1, y2, ... und von Abbildungskoeffizienten k1, k2, ...) auf der Basis der Pixelwerte der betreffenden Pixel zur Bildung des aus der Verzögerungseinheit 115 kommenden Klassenklassifizierungsblocks sowie auf der Basis der Abbildungskoeffizienten berechnet, die aus dem Abbildungskoeffizientenspeicher 114 ausgelesen werden. Auf diese Weise kann ein optimaler Korrekturwert berechnet werden, der durch Korrigieren des Pixelwerts des zentralen Pixels des Klassenklassifizierungsblocks erzeugt wird, um einen optimalen Pixelwert zu erzeugen. Diese optimalen Korrekturdaten werden in dem Schritt S105 als die kodierten Daten der zweiten Hierarchie an die Signalverarbeitungseinheit 15 (24) ausgegeben.
  • In dem Schritt S106 wird dann geprüft, ob die Verarbeitung der Bilddaten der ersten Hierarchie für ein Vollbild abgeschlossen wurde. Wenn in dem Schritt S106 festgestellt wird, daß der Prozeß für die Bilddaten der ersten Hierarchie für ein Vollbild noch nicht abgeschlossen ist, kehrt die Verarbeitung zu dem früheren Schritt S102 zurück, in welchem die nach dem Schritt S102 definierte Verarbeitung für den nächsten Klassenklassifizierungsblock wiederholt wird. Wenn hingegen in dem Schritt S106 festgestellt wird, daß die Verarbeitung für die Bilddaten der ersten Hierarchie für ein Vollbild abgeschlossen ist, kehrt die Verarbeitung zu dem Schritt S101 zurück, in welchem der hinter dem Schritt S101 definierte Prozeß für das nächste Vollbild wiederholt wird.
  • 27 zeigt ein Beispiel für den Aufbau eines Bildverarbeitungsgeräts nach einem zweiten Ausführungsbeispiel der Erfindung zur Durchführung eines Lernprozesses (Abbildungskoeffizienten-Lernprozesses), der für die Berechnung der in dem Abbildungskoeffizientenspeicher 114 (25) gespeicherten Abbildungskoeffizienten benutzt wird.
  • In dem Speicher 121 sind die für den Lernprozeß geeigneten Bilddaten der ersten Hierarchie für mehr als ein Vollbild gespeichert (wird im folgenden als "Lernbild" bezeichnet). Es ist zu beachten, daß die in dem Koeffizientenspeicher 114 für die Bildung der Einheit 102 (24) zur Berechnung der optimalen Korrekturdaten gespeicherten Abbildungskoeffizienten berechnet werden und die Bilddaten der zweiten Hierarchie in dem Speicher 121 gespeichert sind.
  • Eine Blockbildungseinheit 122 liest die in dem Speicher 121 gespeicherten Bilddaten aus und erzeugt einen Klassenklassifizierungsblock wie denjenigen, der von der Blockbildungsschaltung 111 von 25 ausgegeben wird, und liefert den Block an eine ADRC-Verarbeitungseinheit 123 und an eine Recheneinheit 126.
  • Die ADRC-Verarbeitungseinheit 123 und die Klassenklassifizierungseinheit 124 führen ähnliche Operationen aus wie die ADRC-Verarbeitungseinheit 112 bzw. die Klassenklassifizierungseinheit 113 (25). Als Ergebnis liefert die Klassenklassifizierungseinheit 124 die Klasseninformation des von der Blockbildungseinheit 122 ausgegebenen Blocks. Diese Klasseninformation wird dann dem Abbildungskoeffizientenspeicher 131 als Adresse zugeführt.
  • Die Recheneinheit 126 führt die gleiche Berechnung durch wie die Recheneinheit 116 von 25, wobei sie die Pixel zur Bildung des von der Blockbildungseinheit 22 gelieferten Blocks sowie die von dem Abbildungskoeffizientenspeicher 131 gelieferten Abbildungskoeffizienten benutzt. Somit liefert die Recheneinheit 126 die resultierenden Korrekturdaten (Funktion "f" (•)) an die lokale Dekodiereinheit 127. (Die lokale Dekodiereinheit 127 kann eine der in 9, 21 und 42 dargestellten lokalen Dekodiervorrichtungen sein).
  • Auf der Basis der Korrekturdaten aus der Recheneinheit 126 prädiziert (berechnet) die lokale Dekodiereinheit 127 einen Prädiktionswert von originalen Lern-Bilddaten (nämlich den Prädiktionswert von Pixelwerten der Pixel des von der Blockbildungseinheit 122 ausgegebenen Blocks) nach dem oben beschriebenen ROM-Verfahren (d.h. dem "sequentiellen Verfahren") und liefert den Prädiktionswert an eine Fehlerberechnungseinheit 128. Bei dem sequentiellen Verfahren werden die Lern-Bilddaten aus dem Speicher 12 der lokalen Dekodiereinheit (7) zugeführt. Die Fehlerberechnungseinheit 128 liest einen Pixelwert (wahren Wert) der Lern-Bilddaten, der dem Prädiktionswert aus der lokalen Dekodiereinheit 127 entspricht, berechnet (detektiert) einen Prädiktionsfehler des Prädiktionswerts relativ zu dem Pixelwert dieser Lern-Bilddaten und liefert diesen berechneten Prädiktionsfehler dann als Fehlerinformation an eine Entscheidungsschaltung 129.
  • Die Entscheidungsschaltung 129 vergleicht die aus der Fehlerberechnungseinheit 128 zugeführte Fehlerinformation mit einem vorbestimmten Schwellwert "ε1" und steuert dann eine Abbildungskoeffizienten-Einstelleinheit 130 nach Maßgabe des Vergleichsergebnisses. Unter dem Steuereinfluß der Entscheidungsschaltung 129 setzt (ändert) die Abbildungskoeffizienten-Einstelleinheit 130 einen Satz von Abbildungskoeffizienten, deren Zahl mit der Zahl der Klassen identisch ist, die von der Klassenklassifizierungseinheit 124 gewonnen wurden, und liefert den geänderten Satz von Abbildungskoeffizienten an einen Abbildungskoeffizientenspeicher 131.
  • Der Abbildungskoeffizientenspeicher 131 speichert die von der Abbildungskoeffizienten-Einstelleinheit 130 gelieferten Abbildungskoeffizienten für jede Klasse temporär. Die Speicherregionen des Abbildungskoeffizientenspeichers 131 sind natürlich in der Lage, die Abbildungskoeffizienten (Satz von Abbildungskoeffizienten) zu speichern. Die Zahl der Speicherregionen ist gleich der Zahl der Klassen, die in der Klassenklassifizierungseinheit 124 klassifiziert werden sollen. Wenn neue Abbildungskoeffizienten für jede Klasse aus der Abbildungskoeffizienten-Einstelleinheit 130 zugeführt werden, werden diese neuen Abbildungskoeffizienten für jede Klasse in den einzelnen Speicherregionen vorzugsweise anstelle der zuvor gespeicherten Abbildungskoeffizienten für jede Klasse gespeichert.
  • Der Abbildungskoeffizientenspeicher 131 liest die Abbildungskoeffizienten aus, die an der Adresse gespeichert sind, die der von der Klassenklassifizierungseinheit 124 gelieferten Klasseninformation entspricht, und liefert die ausgelesenen Abbildungskoeffizienten dann an die Recheneinheit 126.
  • Diese Operationen werden nun anhand des in 28 dargestellten Flußdiagramms erläutert.
  • Die Abbildungskoeffizienten-Einstelleinheit 130 setzt zunächst in dem Schritt S151 einen Satz von Anfangswerten der Abbildungskoeffizienten lediglich in einer Zahl, die gleich der Zahl der in der Klassenklassifizierungseinheit 124 zu klassifizierenden Klassen ist, und liefert dann den Satz dieser Anfangswerte an den Abbildungskoeffizientenspeicher 131. In dem Abbildungskoeffizientenspeicher 131 werden die von der Abbildungskoeffizienten-Einstelleinheit 130 gelieferten Abbildungskoeffizienten für jede Klasse (Anfangswert) an der Adresse der entsprechenden Klasse gespeichert.
  • In dem Schritt S152 verarbeitet die Blockbildungseinheit 122 dann, ähnlich wie die Blockbildungseinheit 111 von 25, alle in dem Speicher 121 gespeicherten Lernbilder, um Blöcke mit 3 × 3 Pixeln zu bilden, die in ähnlicher Weise um das notierte Pixel zentriert sind. Darüber hinaus liest die Blockbildungseinheit 122 den Block aus dem Speicher 121 aus und liefert den ausgelesenen Block sequentiell an die ADRC-Verarbeitungseinheit 121 und an die Recheneinheit 126.
  • In dem Schritt S153 führt die ADRC-Verarbeitungseinheit 123, ähnlich wie bei der Verarbeitung in der ADRC-Verarbeitungseinheit 112 von 25, die 1-Bit-ADRC-Verarbeitung für den von der Blockbildungseinheit 122 ausgegebenen Block durch und liefert dann den ADRC-verarbeiteten Block an die Klassenklassifizierungseinheit 124. In dem Schritt S154 entscheidet die Klassenklassifizierungseinheit 124 über die Klasse des von der ADRC-Verarbeitungseinheit 123 gelieferten Blocks, und die Klasseninformation wird dem Abbildungskoeffizientenspeicher 131 als Adresse zugeführt. Deshalb wird in dem Schritt S155 ein Abbildungskoeffizient von einer Adresse des Abbildungskoeffizientenspeichers 131 ausgelesen, die der von der Klassenklassifizierungseinheit 124 gelieferten Klasseninformation entspricht. Die ausgelesenen Abbildungskoeffizienten werden der Recheneinheit 126 zugeführt.
  • Wenn der Block aus der Blockbildungseinheit 122 empfangen ist und auch die Abbildungskoeffizienten, die der Klasse dieses Blocks entsprechen, aus dem Abbildungskoeffizientenspeicher 131 empfangen sind, berechnet die Recheneinheit 126 in dem Schritt S156 den oben erläuterten Funktionswert "f(•)" auf der Basis der Abbildungskoeffizienten und der Pixelwerte der Pixel des Blocks, der von der Blockbildungseinheit 122 zugeführt wird. Das Rechenergebnis wird an die lokale Dekodiereinheit 127 als die Korrekturdaten geliefert, die durch Korrigieren des Pixelwerts des zentralen Pixel des von der Blockbildungseinheit 122 gelieferten Blocks gewonnen werden.
  • Wenn man z.B. annimmt, daß die Blockbildungseinheit 122 den in 10 von dem Rechteck umrandeten Block aus 3 × 3 Pixeln ausgibt, berechnet die Recheneinheit 126 Korrekturdaten, die durch Korrigieren der Pixelwerte der in der Zeichnung durch das Symbol "•" gekennzeichneten Pixel erzeugt werden, und gibt die berechneten Korrekturdaten an die lokale Dekodiereinheit 127 aus.
  • Infolgedessen wird in der Recheneinheit 126 die Zahl der Pixel zur Bildung der Lern-Bilddaten um den Faktor 1/9 dezimiert, und diese dezimierte Pixelzahl wird der lokalen Dekodiereinheit 127 zugeführt.
  • Nachdem die Korrekturdaten in dem Schritt S156 berechnet wurden, geht die Verarbeitung weiter zu dem Schritt 157, in dem geprüft wird, ob die Korrekturdaten für alle in dem Speicher 121 gespeicherten Lern-Bilddaten berechnet wurden. Wenn in dem Schritt S157 festgestellt wird, daß noch nicht die Korrekturdaten aller Lern-Bilddaten berechnet sind, kehrt die Verarbeitung zu dem früheren Schritt S15 zurück. Dann werden die Verarbeitungsschritte S153 bis S157 wiederholt, bis die Korrekturdaten für alle Lern-Bilddaten berechnet sind.
  • Wenn in dem Schritt S157 festgestellt wird, daß die Korrekturdaten für alle Lern-Bilddaten berechnet wurden (d.h. daß ein dezimiertes Bild gewonnen werden kann, das durch Dezimieren aller in dem Speicher 121 gespeicherten Lern-Bilddaten um den Faktor 1/9 erzeugt wird), geht die Verarbeitung weiter zu dem Schritt S158, in dem dieses um 1/9 dezimierte Bild in der lokalen Dekodiereinheit 127 lokal dekodiert wird, so daß ein Prädiktionswert des originalen Lernbilds berechnet wird. Dieses 1/9-dezimierte Bild ist selbstverständlich nicht das gleiche wie ein dezimiertes Bild, das durch einfaches Dezimieren des Lernbilds um den Faktor 1/9 erzeugt wird. Das 1/9-dezimierte Bild gleicht vielmehr anderen dezimierten Bilddaten, die durch Berechnen der Abbildungskoeffizienten gewonnen werden, um den Pixelwert zu akquirieren. Der Prädiktionswert wird dann der Fehlerberechnungseinheit 128 zugeführt.
  • In der Fehlerberechnungseinheit 128 werden in dem Schritt S159 die Lern-Bilddaten aus dem Speicher 121 ausgelesen, und dann wird unter Bezugnahme auf diese ausgelesenen Lern-Bilddaten ein Prädiktionsfehler des Prädiktionswerts, der von der lokalen Dekodiereinheit 127 zugeführt wird, berechnet. Mit anderen Worten, wenn der Pixelwert der Lern-Bilddaten mit "Yij" bezeichnet wird und ihr Prädiktionswert, der von der lokalen Dekodiereinheit 127 ausgegeben wird, mit "E[Yij]" bezeichnet wird, wird in der Fehlerberechnungseinheit 128 die Fehlerstreuung (d.h. die quadrierte Fehlersumme) berechnet, die in der folgenden Formel mit "Q" bezeichnet ist. Diese Fehlerstreuung wird der Entscheidungsschaltung 129 als Fehlerinformation zugeführt. Q = Σ(Yij- E[Yij])2 worin das Symbol "Σ" eine Summierung aller Pixel der Lern-Bilddaten bezeichnet.
  • Wenn die Entscheidungseinheit 129 die Fehlerinformation aus der Fehlerberechnungseinheit 128 empfängt, vergleicht sie diese Fehlerinformation mit dem vorgewählten Schwellwert "ε1" und prüft in dem Schritt S160, ob die Fehlerinformation größer ist als der Schwellwert "ε1 ". Wenn in dem Schritt S160 festgestellt wird, daß die Fehlerinformation nicht kleiner ist als der Schwellwert "ε1" (d.h. wenn nicht erkannt wird, daß das aus dem in der lokalen Dekodiereinheit 127 gewonnenen Prädiktionswert konstituierte Bild mit den originalen Lern-Bilddaten im wesentlichen übereinstimmt), gibt die Entscheidungseinheit 129 ein Steuersignal an die Abbildungskoeffizienten-Einstelleinheit 130 aus. In dem Schritt S161 ändert die Abbildungskoeffizienten-Einstelleinheit 130 in Abhängigkeit von dem Steuersignal aus der Entscheidungseinheit 129 die Abbildungskoeffi zienten für jede Klasse und veranlaßt, daß diese geänderten Abbildungskoeffizienten für jede Klasse erneut in dem Abbildungskoeffizientenspeicher 131 gespeichert werden. Die Verarbeitung kehrt dann zu dem früheren Schritt S153 zurück, in welchem die Verarbeitungsschritte nach dem Schritt S153 noch einmal wiederholt werden, wobei die in dem Abbildungskoeffizientenspeicher 131 gespeicherten geänderten Abbildungskoeffizienten für jede Klasse benutzt werden.
  • Die Abbildungskoeffizienten können in der Abbildungskoeffizienten-Einstelleinheit 130 einer zufälligen Änderung unterzogen werden. Falls die laufende Fehlerinformation kleiner wird als die vorhergehende Fehlerinformation, können die Abbildungskoeffizienten alternativ mit einem Trend geändert werden, der dem vorherigen Trend ähnlich ist. Falls die Fehlerinformation größer wird als die vorherige Fehlerinformation, können die Abbildungskoeffizienten auch mit einem Trend geändert werden, der dem vorherigen Trend entgegengesetzt ist.
  • Außerdem können die Abbildungskoeffizienten entweder für alle Klassen oder nur für einen Teil der Klassen geändert werden. Wenn die Abbildungskoeffizienten nur für einen Teil der Klassen geändert werden, wird z.B. eine Klasse detektiert, die die Fehlerinformation stark beeinflussen kann, und dann brauchen nur solche Abbildungskoeffizienten variiert werden. Eine Klasse, die starken Einfluß auf die Fehlerinformation ausüben kann, kann folgendermaßen detektiert werden. Zunächst wird der Prozeß ausgeführt, in welchem ein Anfangswert von Abbildungskoeffizienten benutzt wird, um dadurch deren Fehlerinformation zu gewinnen. Anschließend werden die Abbildungskoeffizienten in jeder einzelnen Klasse um den gleichen Betrag geändert, und die resultierende Fehlerinformation wird mit der Fehlerinformation verglichen, die man bei Benutzung der Anfangswerte erhält. Die Klasse, in der die Vergleichsdifferenz vorbestimmte Werte nicht übersteigt, kann als Klasse detektiert werden, die einen starken Einfluß auf die Fehlerinformation ausübt.
  • Auch wenn mehrere Abbildungskoeffizienten, wie die oben beschriebenen Koeffizienten k1, k2, ... als ein Satz gesetzt werden, brauchen nur die Abbildungskoeffizienten geändert zu werden, die den starken Einfluß auf die Fehlerinformation ausüben.
  • In dem obigen Fall werden die Abbildungskoeffizienten in jeder Klasse gesetzt. Alternativ können die Abbildungskoeffizienten z.B. für jeden der Blöcke oder in Einheiten der angrenzenden Blöcke unabhängig gesetzt werden.
  • Wenn die Abbildungskoeffizienten z.B. in jedem Block unabhängig gesetzt werden, ist es möglich, daß mehrere Sätze von Abbildungskoeffizienten in Bezug auf eine bestimmte einzelne Klasse akquiriert werden (umgekehrt ist es möglich, daß eine Klasse auftritt, in der kein Satz von Abbildungskoeffizienten gewonnen werden kann). Da die Abbildungskoeffizienten, wie oben erläutert, für jede Klasse bestimmt werden sollten, wird dann, wenn man für eine bestimmte Klasse mehrere Sätze von Abbildungskoeffizienten erhält, für die mehreren Sätze von Abbildungskoeffizienten ein bestimmter Prozeß durchgeführt, so daß ein Satz von Abbildungskoeffizienten festgelegt werden muß.
  • Wenn in dem Schritt S160 hingegen festgestellt wird, daß die Fehlerinformation kleiner geworden ist als der Schwellwert "ε1 ", d.h. wenn erkannt wird, daß das durch den in der lokalen Dekodiereinheit 127 gewonnenen Prädiktionswert konstituierte Bild im wesentlichen mit den originalen Lern-Bilddaten identisch ist, wird der Prozeß beendet.
  • Nun werden die Abbildungskoeffizienten jeder Klasse, die in dem Abbildungskoeffizientenspeicher 131 gespeichert wurden, in dem Abbildungskoeffizientenspeicher 114 von 25 als die optimalen Abbildungskoeffizienten gesetzt, mit denen die Korrekturdaten gewonnen werden können, mit denen die dekodierten Bilddaten (Prädiktionswert) reproduziert werden können, die ein Bild liefern, das den originalen Bilddaten im wesentlichen gleicht.
  • Infolgedessen ist es mit den optimalen Korrekturdaten, die durch solche Abbildungskoeffizienten gewonnen werden, möglich, die Bilddaten zu erhalten, die mit den originalen Bilddaten im wesentlichen identisch sind.
  • Wie oben beschrieben wurde, wird in dem Ausführungsbeispiel von 27 das Bild von der Blockbildungseinheit 122 in den Block unterteilt, der aus 9 Pixel (3 × 3 Pixeln) besteht, die um das notierte Pixel zentriert sind, während in der ADRC-Verarbeitungseinheit 123 die 1-Bit-ADRC-Verarbeitung für den Bildblock durchgeführt wird. Infolgedessen ist die Zahl der durch die Klassenklassifikation in der Klassenklassifiziereinheit 124 gewonnenen Klassen gleich 512 (= (21)9). Man erhält also 512 Sätze von Abbildungskoeffizienten.
  • Die Prädiktionseinheit 73 von 46 kann als Teil des Empfangsgerät 4 zur Dekodierung der kodierten Daten (genauer gesagt, der kodierten Bilddaten der dritten Hierarchie) benutzt werden, die von dem Sendegerät von 24 erzeugt werden.
  • 29 zeigt ein weiteres Beispiel für den Aufbau eines Bildverarbeitungsgeräts zur Durchführung des Lernprozesses (Erlernen von Abbildungskoeffizienten), der für die Berechnung der in dem Abbildungskoeffizientenspeicher 114 von 25 gespeicherten Abbildungskoeffizienten benutzt wird.
  • Es ist zu beachten, daß mit dem Bildverarbeitungsgerät von 27 der optimale Prädiktionskoeffizient auch dann gewonnen werden kann, wenn die Funktion "f" z.B. durch eine lineare Gleichung und weiter durch die nichtlineare Gleichung und die zweite oder mehr Gleichungen ausgedrückt wird. In dem Bildbearbeitungsgerät von 29 kann der optimale Prädiktionskoeffizient hingegen nur dann berechnet werden, wenn die Funktion "f" durch die lineare Gleichung ausgedrückt wird.
  • Mit anderen Worten, das Bildverarbeitungsgerät von 29 kann in dem folgenden Fall benutzt werden. Wenn in 25 die Pixelwerte der betreffenden Pixel zur Bildung des Blocks aus 3 × 3 Pixeln, der von der Blockbildungseinheit 111 ausgegeben wird, auf y1, y2, ..., y9 gesetzt werden und die von dem Abbildungskoeffizientenspeicher 114 ausgegebenen Abbildungskoeffizienten auf k1, k2, k3, ..., k9 gesetzt werden, berechnet die Recheneinheit 116 die Funktion "f" (y1, y2, ..., k1, k2, ...) nach der folgenden Formel, um Korrekturdaten zu gewinnen. F(y1, y2, ..., k1, k2, ...) = k1y1 + k2y2 + ... + k9y9
  • Bilddaten einer ersten Hierarchie, die als Lern-Bilddaten fungieren, die für den Lernzweck geeignet sind, werden in Einheiten von (beispielsweise) einem Vollbild an eine Dezimationseinheit 171 geliefert. In der Dezimationseinheit 171 wird die Pixelzahl der Bilddaten der ersten Hierarchie dezimiert, so daß Bilddaten einer zweiten Hierarchie erzeugt werden. Wenn die Abbildungskoeffizienten berechnet werden, die für die spätere Verwendung in der Einheit 102 (24) zur Berechnung der optimalen Korrekturdaten in dem Abbildungskoeffizientenspeicher 114 gespeichert werden sollen, werden die Bilddaten der zweiten Hierarchie der Dezimationsschaltung 171 zugeführt, so daß die Bilddaten der dritten Hierarchie erzeugt werden.
  • Die in der Dezimationseinheit 171 gewonnenen Bilddaten der zweiten Hierarchie werden einer Einheit 170 zur Berechnung der optimalen Korrekturdaten zugeführt. Die Einheit 170 zur Berechnung der optimalen Korrekturdaten besteht aus einer Korrektureinheit 172, einer lokalen Dekodiereinheit 173, einer Fehlerberechnungseinheit 174 und einer Entscheidungseinheit 175 (die der oben beschriebenen Korrektureinheit 21, der lokalen Dekodiereinheit 22, der Fehlerberechnungseinheit 23 bzw. der Entscheidungsschaltung 24 von 5, 38 oder 40 ähneln). In der Einheit 170 zur Berechnung der optimalen Korrekturdaten werden die optimalen Korrekturdaten für das Eingangsbild, d.h. das Bild der zweiten Hierarchie erzeugt und dann einer Verriegelungseinheit 176 zugeführt. Falls die Anordnung von 5 zur Berechnung der optimalen Korrekturdaten benutzt wird, werden die Bilddaten zum Lernen der lokalen Dekodiereinheit zugeführt.
  • Die Verriegelungseinheit 176 enthält einen Speicher 176A zum Speichern der optimalen Korrekturdaten, die von der Einheit 170 zum Berechnen der optimalen Korrekturdaten geliefert werden. Die Verriegelungseinheit 176 liest von den optimalen Korrekturdaten, die in dem Speicher 176A gespeichert sind, diejenigen optimalen Korrekturdaten aus, die dem zentralen Pixel des Blocks entsprechen, der aus einem Speicher 177A einer Blockbildungseinheit 177 ausgelesen wird. Wenn in dem Speicher 176A die Korrekturdaten für ein Vollbild gespeichert sind, gibt die Verriegelungseinheit 176 ein Steuersignal an die Blockbildungseinheit 177 aus, um diese Datenspeicherung anzuzeigen.
  • Die gleichen Bilddaten wie die Bilddaten, die der Dezimationseinheit 171 zugeführt werden, nämlich die Bilddaten der ersten Hierarchie, werden der Blockbildungseinheit 177 in Einheiten von einem Vollbild zugeführt. Die Blockbildungseinheit 177 enthält den Speicher 177A für die Speicherung der ihr zugeführten Lern-Bilddaten. Beim Empfang des Steuersignal aus der Verriegelungseinheit 176 unterteilt die Blockbildungseinheit 177 die in dem Speicher 177A gespeicherten Lern-Bilddaten in einen Block, der aus 3 × 3 Pixeln aufgebaut ist, die um das notierte Pixel zentriert sind, ähnlich wie bei der Blockbildungseinheit 111 von 25. Dieser Block wird dann sequentiell ausgelesen, um einer ADRC-Verarbeitungseinheit 178 und einem Speicher 180 zugeführt zu werden.
  • Wenn der Block aus dem in der Blockbildungseinheit 177 enthaltenen Speicher 177A ausgelesen wird, liefert die Blockbildungseinheit 177 an die Verriegelungseinheit 176 ein Steuersignal, das für die Position des Blocks kennzeichnend ist. Als Reaktion auf dieses Steuersignal wird in der Verriegelungseinheit 176 der Block aus 3 × 3 Pixeln erkannt, der aus dem Speicher 177A ausgelesen wird, und dann werden die optimalen Korrekturdaten, die dem zentralen Pixel dieses Blocks entsprechen, wie oben erläutert, aus dem Speicher 176A ausgelesen. Das heißt, als Ergebnis werden dem Speicher 180 gleichzeitig sowohl ein bestimmter Block mit 3 × 3 Pixeln als auch die diesem Block entsprechenden optimalen Korrekturdaten zugeführt.
  • Die ADRC-Verarbeitungseinheit 178 und die Klassenklassifizierungseinheit 179 sind ähnlich aufgebaut wie die ADRC-Verarbeitungseinheit 112 bzw. die Klassenklassifizierungseinheit 113 von 25. Die von der Klassenklassifizierungseinheit 179 ausgegebene Klasseninformation zu dem aus der Blockbildungseinheit 177 abgeleiteten Block wird dann dem Speicher 180 als Adresse zugeführt.
  • Der Speicher 180 speichert die von der Verriegelungseinheit 176 gelieferten optimalen Korrekturdaten und den von der Blockbildungseinheit 177 gelieferten Block und stellt eine Beziehung zu einer Adresse auf, die der von der Klassenklassifizierungseinheit 179 gelieferten Klasseninformation entspricht. Es ist zu beachten, daß in dem Speicher 180 mehrere Informationen an einer Adresse gespeichert sein können. Deshalb können mehrere Sätze sowohl der optimalen Korrekturdaten als auch des einer bestimmten Klasseninformation entsprechenden Blocks gespeichert werden.
  • Eine Recheneinheit 181 liest sowohl die neun Pixel y1, y2, ..., y9 des Blocks aus 3 × 3 Pixeln des Lernbilds als auch die diesem Block entsprechenden optimalen Korrekturdaten y' aus, die in dem Speicher 180 gespeichert sind. Dann wird auf sie das Verfahren der kleinsten Quadrate angewendet, so daß die Abbildungskoeffizienten k1 bis k9 für jede Klasse berechnet werden, die dann einem Speicher 182 zugeführt werden. Der Speicher 182 speichert die von der Recheneinheit 181 gelieferten Abbildungskoeffizienten k1 bis k9 für jede Klasse an der dieser Klasse entsprechenden Adresse.
  • Anhand des Flußdiagramms von 30 wird nun die Arbeitsweise des in 29 dargestellten Geräts beschrieben.
  • Wenn die Bilddaten der ersten Hierarchie als Lern-Bilddaten zugeführt werden, werden diese Lern-Bilddaten in dem Speicher 177A der Blockbildungseinheit 177 gespeichert und der Dezimationseinheit 171 zugeführt. In der Dezimationseinheit 171 werden aus den Bilddaten der ersten Hierarchie die Bilddaten der zweiten Hierarchie erzeugt und dann der Einheit 170 zur Berechnung der optimalen Korrekturdaten zugeführt.
  • Beim Empfang der Bilddaten der zweiten Hierarchie berechnet die Einheit 170 zur Berechnung der optimalen Korrekturdaten in dem Schritt S131 die optimalen Korrekturdaten der zweiten Hierarchie und liefert die berechneten optimalen Korrekturdaten an den Speicher 176A der Verriegelungseinheit 176, so daß sie dort gespeichert werden.
  • Wenn die optimalen Korrekturdaten für ein Vollbild in dem Speicher 176A gespeichert sind, gibt die Verriegelungseinheit 176 das Steuersignal an die Blockbildungseinheit 177 aus. Beim Empfang des Steuersignals aus der Verriegelungseinheit 176 unterteilt die Blockbildungseinheit 177 in dem Schritt S132 die in dem Speicher 177A gespeicherten Lern-Bilddaten in den aus 3 × 3 Pixeln aufgebauten Block. Die Blockbildungseinheit 177 liest dann den in dem Speicher 177A gespeicherten Block der Lern-Bilddaten aus und liefert den ausgelesenen Block an die ADRC-Verarbeitungseinheit 178 und an den Speicher 180.
  • Wenn der Block aus dem Speicher 177A ausgelesen wird, liefert die Blockbildungseinheit 177 gleichzeitig das Steuersignal, das die Position dieses Blocks kennzeichnet, an die Verriegelungseinheit 176. Als Reaktion auf das Steuersignal erkennt die Verriegelungseinheit 176 den aus dem Speicher 177A ausgelesenen Block mit 3 × 3 Pixeln, liest die optimalen Korrekturdaten, die dem zentralen Pixel dieses Blocks entsprechen, aus und führt diese ausgelesenen optimalen Korrekturdaten dem Speicher 180 zu.
  • In dem Schritt S133 wird dann der aus der Blockbildungseinheit 177 kommende Block ADRC-verarbeitet und in der Klassenklassifikationseinheit 179 in eine Klasse klassifiziert. Das Klassifizierungsergebnis wird dem Speicher 180 als Adresse zugeführt.
  • In dem Schritt S134 speichert der Speicher 180 die von der Verriegelungseinheit 176 gelieferten optimalen Korrekturdaten und den von der Blockbildungseinheit 177 gelieferten Block (Lerndaten), die die entsprechende Beziehung zu der Adresse haben, die der von der Klassenklassifizierungseinheit 179 gelieferten Klasseninformation entspricht.
  • Die Verarbeitung geht dann weiter zu dem Schritt S135, in dem geprüft wird, ob sowohl der Block für ein Vollbild als auch die optimalen Korrekturdaten in dem Speicher 180 gespeichert sind oder nicht. Wenn in dem Schritt S135 festgestellt wird, daß der Block für ein Vollbild und die optimalen Korrekturdaten noch nicht in dem Speicher 180 gespeichert sind, wird der nächste Block von der Blockbildungseinheit 177 ausgelesen, und außerdem werden die optimalen Korrekturdaten, die diesem ausgelesenen Block entsprechen, aus der Verriegelungseinheit 176 ausgelesen. Die Verarbeitung kehrt dann zu dem Schritt S133 zurück, in welchem die hinter dem Schritt 131 definierten Prozeßschritte wiederholt werden.
  • Wenn in dem Schritt S135 hingegen festgestellt wird, daß der Block für ein Vollbild und die optimalen Korrekturdaten in dem Speicher 180 gespeichert wurden, geht die Verarbeitung weiter zu dem Schritt S136, in dem geprüft wird, ob die Verarbeitung für alle Lernbilder abgeschlossen wurde. Wenn festgestellt wird, daß die Verarbeitungsoperationen noch nicht für alle Lernbilder abgeschlossen wurden, kehrt die Verarbeitung zu dem Schritt S131 zurück, und die Schritte danach werden für die nächsten Lernbilddaten wiederholt.
  • Wenn in dem Schritt S136 hingegen festgestellt wird, daß der Prozeß für alle Lern-Bilddaten abgeschlossen wurde, geht die Verarbeitung weiter zu dem Schritt S137, in dem die Recheneinheit 181 sowohl die optimalen Korrekturdaten als auch den Block ausliest, die in dem Speicher 180 für jede Klasse gespeichert sind, und stellt dann auf der Basis dieser Daten und des Blocks die in der Formel (7) angegebene Normalgleichung auf. In dem Schritt S138 löst die Recheneinheit 181 diese Normalgleichung, um die Abbildungskoeffizienten zu berechnen, mit denen der Fehler für jede Klasse minimiert werden kann. In dem Schritt S139 werden die berechneten Abbildungskoeffizienten dem Speicher 182 zugeführt, um dort gespeichert zu werden. Dann endet die Verarbeitung.
  • Falls die Funktion "f" durch die lineare Gleichung ausgedrückt wird, werden die in dem Speicher 182 gespeicherten Abbildungskoeffizienten in der oben beschriebenen Weise in dem Abbildungskoeffizientenspeicher 114 von 25 gespeichert, und die optimalen Korrekturdaten können mit Hilfe dieser Abbildungskoeffizienten gewonnen werden.
  • In manchen Fällen erhält man jedoch keine ausreichende Anzahl von Normalgleichungen, mit denen die Abbildungskoeffizienten gewonnen werden können. In diesen Fällen werden in der Recheneinheit 116 von 25 Abbildungskoeffizienten als Vorgabewert, nämlich k1 bis k9 = 1/9, gesetzt, von dem z.B. ein Mittelwert der neun Pixel für den von der Blockbildungseinheit 111 ausgegebenen Block aus 3 × 3 Pixeln ausgegeben wird.
  • Der Aufbau eines Empfangsgeräts sowohl für das vierte als auch für das fünfte Ausführungsbeispiel gleicht dem in 18 dargestellten Aufbau. Auch der Aufbau der einzelnen Prädiktionseinheiten für eine zweite und dritte Hierarchie gleicht dem in 23 und 46 dargestellten Aufbau. Die Prädiktionskoeffizienten für jede Klasse, die in dem Prädiktionskoeffizienten-ROM gespeichert sind, entsprechen den (sind die gleichen wie die) Prädiktionskoeffizienten, die in der Vorrichtung zum Lernen der Abbildungskoeffizienten benutzt werden.
  • Im Fall von 2 werden zunächst, wie in 31A dargestellt, die folgenden optimalen Korrekturdaten in der Einheit 13 zur Berechnung der optimalen Korrekturdaten berechnet. Diese Korrekturdaten werden erzeugt, indem die Bilddaten der zweiten Hierarchie korrigiert werden, mit denen der Prädiktionswert der ersten Hierarchie gewonnen werden kann, bei dem der Fehler (die Fehlerinformation) aus den Bilddaten der ersten Hierarchie kleiner wird als ein vorbestimmter Schwellwert "ε". Anschließend werden, wie in 31B dargestellt, in der Einheit 14 zur Berechnung der optimalen Korrekturdaten die folgenden optimalen Korrekturdaten berechnet. Diese Korrekturdaten werden erzeugt, indem die Bilddaten der dritten Hierarchie korrigiert werden, mit denen der Prädiktionswert der zweiten Hierarchie gewonnen werden kann, bei dem der Fehler (die Fehlerinformation) aus den optimalen Korrekturdaten der zweiten Hierarchie kleiner wird als ein vorbestimmter Schwellwert "ε". Alternativ können z.B., wie in 32 dargestellt, die optimalen Korrekturdaten der dritten Hierarchie, die der untersten Hierarchie entspricht, gewonnen werden.
  • Das heißt, der Prädiktionswert der zweiten Hierarchie wird aus den Korrekturdaten berechnet, die durch Korrigieren der Bilddaten der dritten Hierarchie erzeugt werden. Der Prädiktionswert der ersten Hierarchie wird berechnet, indem der berechnete Prädiktionswert der zweiten Hierarchie direkt benutzt wird. Korrekturdaten, bei denen der Prä diktionsfehler (die Fehlerinformation) des Prädiktionswerts der ersten Hierarchie kleiner wird als ein vorbestimmter Schwellwert "ε", werden dann als die optimalen Korrekturdaten der dritten Hierarchie benutzt.
  • 33 zeigt eine weitere beispielhafte Anordnung für das Sendegerät, mit dem die optimalen Korrekturdaten der dritten Hierarchie in der oben beschriebenen Weise gewonnen werden können. In 33 werden für Teile, die Teilen von 2 entsprechen, die gleichen Bezugszeichen benutzt wir dort.
  • In der Anordnung von 33 werden die Bilddaten der ersten bis dritten Hierarchie einer Einheit 201 zur Berechnung optimaler Korrekturdaten zugeführt. In der Recheneinheit 201 wird ein Prädiktionswert einer zweiten Hierarchie aus den Korrekturdaten berechnet, die durch Korrigieren der Bilddaten der dritten Hierarchie gewonnen werden. Außerdem wird ein Prädiktionswert einer ersten Hierarchie berechnet, indem der berechnete Prädiktionswert der zweiten Hierarchie direkt benutzt wird. Wenn Korrekturdaten erhalten werden, bei denen der Prädiktionsfehler (die Fehlerinformation) des Prädiktionswerts der ersten Hierarchie kleiner wird als ein vorbestimmter Schwellwert "ε", gibt die Einheit 201 zur Berechnung der optimalen Korrekturdaten diese berechneten Korrekturdaten als die optimalen Korrekturdaten der dritten Hierarchie und die kodierten Daten der dritten Hierarchie an die Signalverarbeitungseinheit 15 aus.
  • In dem Ausführungsbeispiel von 33 werden die Bilddaten der ersten Hierarchie der Signalverarbeitungseinheit 15 direkt als die kodierten Bilddaten der ersten Hierarchie zugeführt. Die Bilddaten der zweiten Hierarchie werden jedoch nicht der Signalverarbeitungseinheit zugeführt. In einem verbesserten Ausführungsbeispiel können ihr die Bilddaten der zweiten Hierarchie als die kodierten Bilddaten der zweiten Hierarchie zugeführt werden.
  • 34 zeigt ein Ausführungsbeispiel für die Recheneinheit 201 von 33 zur Berechnung der optimalen Korrekturdaten. In 33 werden die gleichen Bezugszeichen benutzt wie in 5, um die entsprechenden Teile in 33 zu kennzeichnen. Außerdem gleicht die Einheit 201 zur Berechnung der optimalen Korrekturdaten der Einheit 13 von 5 zur Berechnung der optimalen Korrekturdaten mit dem Unterschied, daß die lokale Dekodiereinheit 231 sich von der lokalen Dekodiereinheit 22 von 5 etwas unterscheidet.
  • In dem Ausführungsbeispiel von 33 werden Bilddaten der dritten Hierarchie der Korrektureinheit 21 zugeführt, und die durch Korrigieren der Bilddaten der dritten Hierarchie gewonnenen Korrekturdaten werden ausgegeben. Sowohl die korrigierten Bilddaten, die von der Korrektureinheit 21 ausgegeben werden, als auch die Bilddaten der zweiten Hierarchie werden der lokalen Dekodiereinheit 22 zugeführt. In der Dekodiereinheit 22 wird der Prädiktionswert der zweiten Hierarchie berechnet der ausgegeben werden soll. Außerdem werden der Prädiktionswert der zweiten Hierarchie, der von der lokalen Dekodiereinheit 22 ausgegeben wird, sowie die Bilddaten der ersten Hierarchie der lokalen Dekodiereinheit 231 zugeführt, in welcher der herzuleitende Prädiktionswert der ersten Hierarchie berechnet wird.
  • Bei dem vorliegenden Ausführungsbeispiel werden die Prädiktionswerte in den lokalen Dekodiereinheiten 22 und 231 nach dem oben erwähnten "sequentiellen Verfahren" berechnet. Alternativ können die Prädiktionswerte in den lokalen Dekodiereinheiten 22 und 231 auch nach dem oben erwähnten "ROM-Verfahren" (21) berechnet werden.
  • Anhand des Flußdiagramms von 35 wird die Verarbeitung in der in 34 dargestellten Einheit zur Berechnung der optimalen Korrekturdaten beschrieben.
  • Wenn in dem Schritt S201 der Korrektureinheit 21 die Bilddaten der dritten Hierarchie zugeführt werden, führt die Korrektureinheit 21 zunächst die Korrekturverarbeitung nicht durch. Statt dessen gibt die Korrektureinheit 21 zuerst das Bild der dritten Hierarchie direkt an die lokale Dekodiereinheit 22 und an die Entscheidungseinheit 24 aus. In dem Schritt S202 werden in der lokalen Dekodiereinheit 22 die Korrekturdaten, die von der Korrektureinheit 21 ausgegeben werden, lokal dekodiert (wie oben erläutert, werden die Bilddaten der dritten Hierarchie selbst ausgegeben, wenn der Prozeß startet).
  • Mit anderen Worten, in dem Schritt S202 werden, ähnlich wie bei der Verarbeitung von 9, die Prädiktionskoeffizienten jeder Klasse der zweiten Hierarchie berechnet. Darüber hinaus wird auf der Basis dieser Prädiktionskoeffizienten der Prädiktionswert der zweiten Hierarchie berechnet und der lokalen Dekodiereinheit 231 zugeführt.
  • In dem Schritt S203 wird in der lokalen Dekodiereinheit 231 der Prädiktionswert der zweiten Hierarchie aus der lokalen Dekodiereinheit 22 lokal dekodiert.
  • Das heißt, ähnlich wie bei der Verarbeitung in der lokalen Dekodiereinheit 22 werden in dem Schritt S203 die Prädiktionskoeffizienten jeder Klasse der ersten Hierarchie berechnet, und außerdem wird der Prädiktionswert der ersten Hierarchie auf der Basis dieser Prädiktionskoeffizienten berechnet und dann der Fehlerberechnungseinheit 23 zugeführt.
  • Die anschließende Verarbeitung in den Schritten S204 bis S207 gleicht der Verarbeitung in den Schritten S3 bis S6 des Flußdiagramms von 6. Infolgedessen können die opti malen Korrekturdaten der dritten Hierarchie gewonnen werden, mit denen der Prädiktionswert der ersten Hierarchie reduziert werden kann, so daß er kleiner wird als der Schwellwert "ε".
  • Dies hat zur Folge, daß sich selbst dann, wenn die auf diese Weise gewonnenen optimalen Korrekturdaten der dritten Hierarchie benutzt werden, ein dekodiertes Bild mit hoher Bildqualität gewinnen läßt.
  • Es ist zu beachten, daß in dem Ausführungsbeispiel von 33 die Bilddaten der zweiten Hierarchie nicht vorgesehen sind. Alternativ kann z.B. der Prädiktionswert der zweiten Hierarchie, der von der lokalen Dekodiereinheit 22 ausgegeben wird, als die dekodierten Daten der zweiten Hierarchie benutzt werden. Dort wird z.B. die in 2 dargestellte Einheit 13 zur Berechnung der optimalen Korrekturdaten benutzt, und die von ihr ausgegebenen optimalen Korrekturdaten der zweiten Hierarchie können als die korrigierten Daten der zweiten Hierarchie benutzt werden.
  • Auch in dem Fall des Ausführungsbeispiels von 33 müssen nicht alle kodierten Daten von der ersten Hierarchie bis zur dritten Hierarchie in den kodierten Daten enthalten sein, die von der Signalverarbeitungseinheit 15 hergeleitet werden. Es können z.B. nur die kodierten Daten der dritten Hierarchie enthalten sein.
  • Die von dem Sendegerät von 33 ausgegebenen kodierten Daten können von dem in 18 dargestellten Sendegerät 4 und der in 20 dargestellten Prädiktionseinheit dekodiert werden.
  • Als siebtes Ausführungsbeispiel ist in 47 die Einheit 201 zur Berechnung der optimalen Korrekturdaten in dem Sendegerät von 33 dargestellt. Die in 47 dargestellte Einheit 201 zur Berechnung der optimalen Korrekturdaten ist der in 34 darstellten Einheit zur Berechnung der optimalen Korrekturdaten sehr ähnlich, mit dem Unterschied, daß die lokale Dekodiereinheit 231 in der in 47 dargestellten Einheit zur Berechnung der optimalen Korrekturdaten nicht die Bilddaten der ersten Hierarchie benutzt.
  • 48 zeigt ein Flußdiagramm, das die Arbeitsweise der in 47 dargestellten Einheit 201 zur Berechnung der optimalen Korrekturdaten veranschaulicht. Das Flußdiagramm ähnelt dem Flußdiagramm von 35, das die Arbeitsweise der in 34 dargestellten Einheit zur Berechnung der optimalen Korrekturdaten illustriert, mit dem Unterschied, daß der Schritt S207 des Flußdiagramms von 48 ein Schritt zur Ausgabe der optimalen Korrekturdaten ist. (Der Schritt S207 des Flußdiagramms von 35 beinhaltet das Multiplexen der optimalen Korrekturdaten und der Prädiktionskoeffizienten für jede Klasse und die Ausgabe der kodierten Daten).
  • Es sollte beachtet werden, daß die Ausführungsbeispiele der vorliegenden Erfindung dazu benutzt werden können, viele verschiedene Arten von Bildsignalen von Fernsehsignalen von Standardformaten (z.B. NTSC) bis zu hochauflösenden Fernsehsignalen benutzt werden können, die eine relativ große Datenmenge enthalten. Außerdem kann in diesen Ausführungsbeispielen jeder Prozeß für ein Halbbild oder für zwei oder mehr Vollbilder ausgeführt werden, obwohl die einzelnen Prozesse so beschrieben wurden, daß sie für ein Vollbild ausgeführt werden.
  • Obwohl die Blockkodierung so beschrieben wurde, daß sie an Bildern eines Vollbilds gleichzeitig durchgeführt wird, können die Blöcke auch z.B. durch Sammeln von Pixeln der gleichen Position in mehreren zeitlich aufeinander folgenden Vollbildern gebildet werden.
  • Weiterhin wurde die Fehlerinformation beschrieben als Quadratsumme des Fehlers, statt dessen kann jedoch als Fehlerinformation auch der Absolutwert des Fehlers oder die kubische Summe (oder eine Summe höherer Ordnung) des Fehlers benutzt werden. Welcher Informationstyp als Fehlerinformation zu benutzen ist, kann auf der Basis von statistischen Eigenschaften (z.B. der Konvergenz) entschieden werden.
  • Obwohl die Bilder so beschrieben wurden, daß sie in drei Hierarchien kodiert sind, ist die Zahl der Hierarchien nicht auf drei beschränkt.
  • Was die optimalen Korrekturdaten der dritten Hierarchie (d.h. der untersten Hierarchie) betrifft, so können z.B. die Prädiktionsfehler der Prädiktionswerte in den betreffenden Hierarchien berechnet werden, und die Korrekturdaten können so berechnet werden, daß der Gesamtfehler für alle oder einige der kombinierten Prädiktionswerte kleiner ist als ein vorbestimmter Wert.

Claims (17)

  1. Gerät zur Durchführung einer hierarchischen mit einer Einrichtung (111...113) zum Extrahieren einer Mehrzahl von Pixeln von Bilddaten (Yij) einer ersten Hierarchie und zum Erzeugen einer den Eigenschaften der extrahierten Mehrzahl von Pixeln entsprechenden Klasseninformation, mit einer Einrichtung (114) zum Speichern von Abbildungskoeffizienten (k) für jede Klasse und mit einer Einrichtung (116) zum Auslesen von der Klasseninformation entsprechenden Abbildungskoeffizienten (k) und zum Berechnen von Bilddaten (Xij) einer zweiten Hierarchie unter Verwendung der Bilddaten (Yij) der ersten Hierarchie und der ausgelesenen Abbildungskoeffizienten (k), wobei die Bilddaten (Xij) der zweiten Hierarchie eine Pixelzahl haben, die kleiner ist als diejenige der Bilddaten (Yij) der ersten Hierarchie, dadurch gekennzeichnet, daß das Gerät für die Erzeugung der Abbildungskoeffizienten (k) aufweist: eine Prädiktionseinrichtung (127; 173) zum Prädizieren der Bilddaten der ersten Hierarchie unter Verwendung von Bilddaten (Xij) der zweiten Hierarchie, eine Einrichtung (128; 174) zum Berechnen des Prädiktionsfehlers der prädizierten Bilddaten der ersten Hierarchie im Hinblick auf die Bilddaten (Yij) der ersten Hierarchie, eine Korrektureinrichtung (126; 172) zum Korrigieren der Bilddaten der zweiten Hierarchie auf der Basis des Prädiktionsfehlers und zum Erzeugen von korrigierten Bilddaten und eine Festlegungseinrichtung (130; 181) zum Festlegen der Abbildungskoeffizienten (k) auf der Basis der korrigierten Bilddaten.
  2. Gerät nach Anspruch 1, bei dem die Korrektureinrichtung (126) so konzipiert ist, daß sie die Bilddaten (Xij) der zweiten Hierarchie aus den Bilddaten (Yij) der ersten Hierarchie und den Abbildungskoeffizienten (k) berechnet.
  3. Gerät nach Anspruch 2, bei dem die Festlegungseinrichtung (130) so konzipiert ist, daß sie die Abbildungskoeffizienten (k) nach Maßgabe des Prädiktionsfehlers aktualisiert, bis der Prädiktionsfehler der berechneten Bilddaten (Xij) kleiner ist als ein vorgeschriebener Schwellwert (129).
  4. Gerät nach einem der Ansprüche 1 bis 3, ferner mit einer Einrichtung (11, 102) zum Erzeugen von Bilddaten (Vij) einer dritten Hierarchie, deren Pixelzahl kleiner ist als diejenige der Bilddaten (Xij) der zweiten Hierarchie.
  5. Gerät nach einem der Ansprüche 1 bis 4, bei dem das Gerät für die Erzeugung der Abbildungskoeffizienten (k) ferner aufweist: eine Einrichtung (122) zum Extrahieren einer Mehrzahl von Pixeln von Bilddaten (Yij) einer ersten Hierarchie und zum Erzeugen (124) einer den Eigenschaften der extrahierten Mehrzahl von Pixeln entsprechenden Klasseninformation und eine Einrichtung (126) zum Berechnen von Bilddaten (Xij) der zweiten Hierarchie unter Verwendung von Bilddaten (Yij) der ersten Hierarchie und der der Klasseninformation entsprechenden Abbildungskoeffizienten (k), wobei die Prädiktionseinrichtung (127) so konzipiert ist, daß sie die Bilddaten (Yij) der ersten Hierarchie unter Verwendung der berechneten Bilddaten (Xij) der zweiten Hierarchie prädiziert, die Prädiktionsfehler-Berechnungseinrichtung (128) so konzipiert ist, daß sie den Prädiktionsfehler der prädizierten Daten des Bilds der ersten Hierarchie im Hinblick auf die Bilddaten (Yij) der ersten Hierarchie berechnet und die Festlegungseinrichtung (130) so konzipiert ist, daß sie die Abbildungskoeffizienten (k) nach Maßgabe des Prädiktionsfehlers aktualisiert, bis der Prädiktionsfehler kleiner ist als ein vorgeschriebener Schwellwert (129).
  6. Gerät nach Anspruch 5, bei dem die Festlegungseinrichtung (130) so konzipiert ist, daß sie die Abbildungskoeffizienten (k) nach Maßgabe des auf der Basis des laufenden Prädiktionsfehlers und des vorangehenden Prädiktionsfehlers ermittelten Fehlertrends aktualisiert.
  7. Gerät nach einem der Ansprüche 1 bis 4, bei dem das Gerät für die Erzeugung der Abbildungskoeffizienten (k) ferner aufweist: eine Einrichtung (171) zum Erzeugen von Bilddaten (Xij) der zweiten Hierarchie mit einer Pixelzahl, die kleiner ist als diejenige der Bilddaten (Yij) der ersten Hierarchie, aus Bilddaten (Yij) der ersten Hierarchie, wobei die Prädiktionseinrichtung (173) so konzipiert ist, daß sie die Bilddaten (Xij) der ersten Hierarchie unter Verwendung der erzeugten Bilddaten (Xij) der zweiten Hierarchie prädiziert, die Prädiktionsfehler-Berechnungseinrichtung (128) so konzipiert ist, daß sie den Prädiktionsfehler der prädizierten Daten des Bilds der ersten Hierarchie im Hinblick auf die Bilddaten (Yij) der ersten Hierarchie berechnet, und die Korrektureinrichtung (126; 172) für die Erzeugung optimaler korrigierter Bilddaten so steuert, daß der Korrekturvorgang (172) wiederholt wird, bis der Prädiktionsfehler kleiner ist als ein vorgeschriebener Schwellwert (129), und die Festlegungseinrichtung (180) so konzipiert ist, daß sie die Abbildungskoeffizienten (k) auf der Basis der optimalen korrigierten Bilddaten berechnet.
  8. System mit einem Gerät zur Durchführung einer hierarchischen Kodierung von Bilddaten nach einem der Ansprüche 1 bis 7 und einem Gerät zum Dekodieren der kodierten Bilddaten, wobei das Gerät zum Dekodieren der kodierten Bilddaten aufweist: eine Einrichtung (41) zum Empfangen der kodierten Bilddaten, die zumindest Bilddaten (Xij) der zweiten Hierarchie enthalten, und eine Dekodiereinrichtung (73) zum Dekodieren der Bilddaten (Yij) der ersten Hierarchie aus Bilddaten (Xij) der zweiten Hierarchie.
  9. System nach Anspruch 8, bei dem die Dekodiereinrichtung (72) aufweist: einen Speicher zum Speichern von Prädiktionskoeffizienten für jede Klasse, die zur Erzeugung der Abbildungskoeffizienten (k) für jede Klasse benutzt werden, eine Einrichtung zum Extrahieren einer Mehrzahl von Pixeln der Bilddaten (Xij) der zweiten Hierarchie und zum Erzeugen einer der Mehrzahl der extrahierten Mehrzahl von Pixeln entsprechenden Klasseninformation und eine Einrichtung zum Auslesen von der Klasseninformation entsprechenden Prädiktionskoeffizienten und zum Prädizieren von dekodierten Bilddaten (Yij) der ersten Hierarchie unter Verwendung der Bilddaten (Xij) der zweiten Hierarchie und der ausgelesenen Prädiktionskoeffizienten.
  10. Verfahren zur Durchführung einer hierarchischen Kodierung mit den Verfahrensschritten: Extrahieren (111...113) einer Mehrzahl von Pixeln von Bilddaten (Yij) einer ersten Hierarchie und Erzeugen einer den Eigenschaften der extrahierten Mehrzahl von Pixeln entsprechenden Klasseninformation, Speichern (114) von Abbildungskoeffizienten (k) für jede Klasse und Auslesen (116) von der Klasseninformation entsprechenden Abbildungskoeffizienten (k) und Berechnen von Bilddaten (Xij) einer zweiten Hierarchie unter Verwendung der Bilddaten (Yij) der ersten Hierarchie und der ausgelesenen Abbildungskoeffizienten (k), wobei die Bilddaten (Xij) der zweiten Hierarchie eine Pixelzahl haben, die kleiner ist als diejenige der Bilddaten (Yij) der ersten Hierarchie, dadurch gekennzeichnet, daß das Verfahren für die Erzeugung der Abbildungskoeffizienten (k) die Verfahrensschritte umfaßt: Prädizieren (127; 173) der Bilddaten der ersten Hierarchie unter Verwendung von Bilddaten (Xij) der zweiten Hierarchie, Berechnen (128; 174) des Prädiktionsfehlers der prädizierten Bilddaten der ersten Hierarchie im Hinblick auf die Bilddaten (Yij) der ersten Hierarchie, Korrigieren (126; 172) der Bilddaten der zweiten Hierarchie auf der Basis des Prädiktionsfehlers und Erzeugen von korrigierten Bilddaten und Festlegen (126; 172) der Abbildungskoeffizienten (k) auf der Basis der korrigierten Bilddaten.
  11. Verfahren nach Anspruch 10, bei dem in dem Korrekturschritt (126) die Bilddaten (Xij) der zweiten Hierarchie (126) aus den Bilddaten (Yij) der ersten Hierarchie und den Abbildungskoeffizienten (k) berechnet werden.
  12. Verfahren nach Anspruch 11, bei dem in dem Festlegungsschritt (130) die Abbildungskoeffizienten (k) nach Maßgabe des Prädiktionsfehlers aktualisiert werden, bis der Prädiktionsfehler der berechneten Bilddaten (Xij) kleiner ist als ein vorgeschriebener Schwellwert.
  13. Verfahren nach einem der Ansprüche 10 bis 12, mit dem weiteren Verfahrensschritt: Erzeugen (11, 102) von Bilddaten (Vij) einer dritten Hierarchie, deren Pixelzahl kleiner ist als diejenige der Bilddaten (Xij) der zweiten Hierarchie.
  14. Verfahren nach einem der Ansprüche 10 bis 13, bei dem die Abbildungskoeffizienten (k) für jede Klasse durch die folgenden Verfahrensschritte erzeugt werden: Extrahieren (122) einer Mehrzahl von Pixeln von Bilddaten (Yij) einer ersten Hierarchie und zum Erzeugen (124) einer den Eigenschaften der extrahierten Mehrzahl von Pixeln entsprechenden Klasseninformation, und Berechnen (126) von Bilddaten (Xij) der zweiten Hierarchie unter Verwendung von Bilddaten (Yij) der ersten Hierarchie und der der Klasseninformation entsprechenden Abbildungskoeffizienten (k), wobei Prädizieren (127) der Bilddaten (Yij) der ersten Hierarchie unter Verwendung der berechneten Bilddaten (Xij) der zweiten Hierarchie, Berechnen (128) des Prädiktionsfehlers der prädizierten Daten des Bilds der ersten Hierarchie im Hinblick auf die Bilddaten (Yij) der ersten Hierarchie und Aktualisieren (130) der Abbildungskoeffizienten (k) nach Maßgabe des Prädiktionsfehlers, bis der Prädiktionsfehler kleiner ist als ein vorgeschriebener Schwellwert (129).
  15. Verfahren nach Anspruch 14, bei dem die prädizierten Abbildungskoeffizienten (k) nach Maßgabe des auf der Basis des laufenden Prädiktionsfehlers und des vorangehenden Prädiktionsfehlers ermittelten Fehlertrends aktualisiert werden.
  16. Verfahren nach einem der Ansprüche 11 bis 15, bei dem die Abbildungskoeffizienten (k) für jede Klasse durch folgende Verfahrensschritte erzeugt werden: Erzeugen (171) von Bilddaten (Xij) der zweiten Hierarchie mit einer Pixelzahl, die kleiner ist als diejenige der Bilddaten (Yij) der ersten Hierarchie, aus Bilddaten (Yij) der ersten Hierarchie, wobei Prädizieren (173) der Bilddaten (Xij) der ersten Hierarchie unter Verwendung der erzeugten Bilddaten (Xij) der zweiten Hierarchie, Berechnen (128) des Prädiktionsfehlers der prädizierten Daten des Bilds der ersten Hierarchie im Hinblick auf die Bilddaten (Yij) der ersten Hierarchie und Wiederholen des Korrekturvorgangs, bis der Prädiktionsfehler kleiner ist als ein vorgeschriebener Schwellwert (129), um optimale korrigierte Bilddaten zu erzeugen, und Berechnen (180) der Abbildungskoeffizienten (k) auf der Basis der optimalen korrigierten Bilddaten.
  17. Verfahren nach einem der Ansprüche 10 bis 16 mit dem weiteren Verfahrensschritt: Ausgeben und Übertragen (3) der berechneten Bilddaten (Xij, Yij)
DE69735390T 1996-07-17 1997-07-17 Bildkodierung und -dekodierung unter Verwendung von Abbildungskoeffizienten, die gewissen Pixelblockklasseninformation entsprechen Expired - Lifetime DE69735390T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20655596 1996-07-17
JP20655596 1996-07-17

Publications (2)

Publication Number Publication Date
DE69735390D1 DE69735390D1 (de) 2006-05-04
DE69735390T2 true DE69735390T2 (de) 2006-11-09

Family

ID=16525337

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69733106T Expired - Lifetime DE69733106T2 (de) 1996-07-17 1997-07-17 Bildkodierung und -dekodierung unter Verwendung Pixelblockklasseninformation entsprechender Abbildungskoeffizienten
DE69735390T Expired - Lifetime DE69735390T2 (de) 1996-07-17 1997-07-17 Bildkodierung und -dekodierung unter Verwendung von Abbildungskoeffizienten, die gewissen Pixelblockklasseninformation entsprechen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69733106T Expired - Lifetime DE69733106T2 (de) 1996-07-17 1997-07-17 Bildkodierung und -dekodierung unter Verwendung Pixelblockklasseninformation entsprechender Abbildungskoeffizienten

Country Status (8)

Country Link
US (2) US6198770B1 (de)
EP (2) EP1309200B1 (de)
KR (1) KR100529662B1 (de)
CN (2) CN1145360C (de)
AU (1) AU718453B2 (de)
DE (2) DE69733106T2 (de)
SG (1) SG80576A1 (de)
TW (1) TW373371B (de)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU718453B2 (en) * 1996-07-17 2000-04-13 Sony Corporation Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
JP4093621B2 (ja) * 1997-12-25 2008-06-04 ソニー株式会社 画像変換装置および画像変換方法、並びに学習装置および学習方法
US6658155B1 (en) 1999-03-25 2003-12-02 Sony Corporation Encoding apparatus
JP2000308021A (ja) * 1999-04-20 2000-11-02 Niigata Seimitsu Kk 画像処理回路
EP1079625A3 (de) 1999-06-15 2003-03-12 Canon Research Centre France S.A. Datensignalcodierung, -decodierung und -übertragung, mit Aufteilung in Frequenzteilbänder und Segmentierung
US7679678B2 (en) * 2000-02-29 2010-03-16 Sony Corporation Data processing device and method, and recording medium and program
JP3702464B2 (ja) * 2002-05-08 2005-10-05 ソニー株式会社 データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP4211292B2 (ja) * 2002-06-03 2009-01-21 ソニー株式会社 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体
DK2278816T3 (da) * 2002-07-11 2013-05-21 Panasonic Corp Post-afkoder-buffer-styring til en H.264-SVC MPEG-bitstrøm
JP4055203B2 (ja) 2002-09-12 2008-03-05 ソニー株式会社 データ処理装置およびデータ処理方法、記録媒体、並びにプログラム
US7813576B2 (en) * 2002-11-27 2010-10-12 Fujifilm Corporation Image processing apparatus
CN100531396C (zh) * 2003-07-24 2009-08-19 日本电信电话株式会社 图像编码装置和方法以及图像解码装置和方法
US7595819B2 (en) * 2003-07-31 2009-09-29 Sony Corporation Signal processing device and signal processing method, program, and recording medium
US7185280B2 (en) * 2003-10-14 2007-02-27 Papilia, Inc. Personalized automatic publishing extensible layouts
JP4603947B2 (ja) * 2004-09-03 2010-12-22 キヤノン株式会社 画像通信システム、サーバ装置およびその制御方法、並びにコンピュータプログラム
US8514938B2 (en) * 2004-10-07 2013-08-20 Hewlett-Packard Development Company L.P. Picture coding apparatus for a still picture sequence and picture decoding apparatus for a still picture sequence
WO2006118114A1 (ja) * 2005-04-27 2006-11-09 Nec Corporation 画像復号方法、その装置及びプログラム
WO2008042023A2 (en) * 2006-05-18 2008-04-10 Florida Atlantic University Methods for encrypting and compressing video
CN100411439C (zh) * 2006-06-22 2008-08-13 上海交通大学 实时多媒体视频流的分层传输方法
US8118371B2 (en) * 2006-08-11 2012-02-21 Schlumberger Technology Corporation Resilient pick shank
KR100879999B1 (ko) 2007-11-09 2009-01-22 광주과학기술원 브이디지를 이용한 멀티미디어 스트림 제공 방법, 이방법을 이용하는 멀티미디어 스트림 제공 시스템 및 그방법
JP5400133B2 (ja) * 2008-04-15 2014-01-29 オランジュ 線形形状の画素区画にスライスされた画像または画像シーケンスの符号化および復号
US8363722B2 (en) * 2009-03-31 2013-01-29 Sony Corporation Method and apparatus for hierarchical bi-directional intra-prediction in a video encoder
JP2011139276A (ja) * 2009-12-28 2011-07-14 Sony Computer Entertainment Inc 画像処理装置および画像処理方法
US8711943B2 (en) * 2011-07-21 2014-04-29 Luca Rossato Signal processing and tiered signal encoding
US10783392B1 (en) * 2017-05-16 2020-09-22 SIF Codec, LLC Motion compensation in system and method for processing digital signals based on compression of hierarchical pyramid
US20190130027A1 (en) 2017-11-02 2019-05-02 International Business Machines Corporation Data classification
CN110187653B (zh) * 2019-04-08 2023-04-21 华北水利水电大学 一种基于LoRa分层传输的农作物病虫害监测系统及操作方法
CN116260974B (zh) * 2023-05-04 2023-08-08 杭州雄迈集成电路技术股份有限公司 一种视频缩放方法和系统、计算机可读存储介质

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2020120A (en) * 1930-10-17 1935-11-05 Quadrex Corp Vacuum cleaner filter
EP0185533B1 (de) 1984-12-19 1991-03-27 Sony Corporation Hochleistungsfähige Technik zur Kodierung eines digitalen Videosignals
NL8701261A (nl) * 1987-05-27 1988-12-16 Philips Nv Televisie-overdrachtsysteem met pyramidale kodeer/dekodeerschakeling.
US5122873A (en) 1987-10-05 1992-06-16 Intel Corporation Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels
US5200962A (en) 1988-11-03 1993-04-06 Racal-Datacom, Inc. Data compression with error correction
JP2840678B2 (ja) 1989-07-21 1998-12-24 ソニー株式会社 高能率符合化装置
US5193003A (en) 1989-08-15 1993-03-09 Sony Corporation Apparatus for decoding digital video data with small memory requirement
US5020120A (en) 1989-12-22 1991-05-28 Eastman Kodak Company Methods for reducing quantization error in hierarchical decomposition and reconstruction schemes
GB9013217D0 (en) 1990-06-13 1990-08-01 Indep Broadcasting Authority Evaluation of detail in video images,and applications thereof
GB9022326D0 (en) 1990-10-15 1990-11-28 British Telecomm Signal coding
US5680225A (en) * 1991-02-14 1997-10-21 Canon Kabushiki Kaisha Image reduction with fine-line protection
JP3278881B2 (ja) 1991-12-13 2002-04-30 ソニー株式会社 画像信号生成装置
US5331414A (en) 1991-12-23 1994-07-19 Intel Corporation Method and apparatus for encoding a digital motion video signal using pyramid specific filtering
GB2262854B (en) 1991-12-24 1995-05-24 Sony Broadcast & Communication Image processing apparatus
JP3438233B2 (ja) * 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
US5291281A (en) 1992-06-18 1994-03-01 General Instrument Corporation Adaptive coding level control for video compression systems
US5349385A (en) 1992-08-06 1994-09-20 Florida Atlantic University Adaptive scan converter
JPH06125533A (ja) 1992-10-13 1994-05-06 Sony Corp エラー訂正コード付加装置及びエラー訂正装置
JP3104439B2 (ja) 1992-11-13 2000-10-30 ソニー株式会社 高能率符号化及び/又は復号化装置
KR100360206B1 (ko) 1992-12-10 2003-02-11 소니 가부시끼 가이샤 화상신호변환장치
JP3572632B2 (ja) 1993-06-29 2004-10-06 ソニー株式会社 異常検出装置
JP3503166B2 (ja) 1993-07-29 2004-03-02 ソニー株式会社 信号変換装置および方法
DE69428979T2 (de) * 1993-08-30 2002-08-08 Sony Corp., Tokio/Tokyo Einrichtung und verfahren zur kodierung von bilddaten
JP2914549B2 (ja) 1993-09-17 1999-07-05 富士ゼロックス株式会社 画像符号化方法
JP3590996B2 (ja) * 1993-09-30 2004-11-17 ソニー株式会社 ディジタル画像信号の階層符号化および復号装置
US5663764A (en) 1993-09-30 1997-09-02 Sony Corporation Hierarchical encoding and decoding apparatus for a digital image signal
JP3373008B2 (ja) * 1993-10-20 2003-02-04 オリンパス光学工業株式会社 画像像域分離装置
JP3271108B2 (ja) 1993-12-03 2002-04-02 ソニー株式会社 ディジタル画像信号の処理装置および方法
JPH07184138A (ja) 1993-12-24 1995-07-21 Toshiba Corp 2画面映像処理回路
JP3470373B2 (ja) * 1994-01-18 2003-11-25 ソニー株式会社 ディジタル画像信号の処理装置および方法
JP3846642B2 (ja) 1994-01-31 2006-11-15 ソニー株式会社 動き量検出方法及び動き量検出装置
DE69516734T2 (de) * 1994-02-01 2000-09-28 Canon Kk Bildverarbeitungsverfahren und -gerät
US5555465A (en) 1994-05-28 1996-09-10 Sony Corporation Digital signal processing apparatus and method for processing impulse and flat components separately
US5553160A (en) 1994-09-01 1996-09-03 Intel Corporation Method and apparatus for dynamically selecting an image compression process based on image size and color resolution
US5796442A (en) 1994-11-02 1998-08-18 Texas Instruments Incorporated Multi-format television reciever
JP3781203B2 (ja) 1994-11-28 2006-05-31 ソニー株式会社 画像信号補間装置及び画像信号補間方法
US5754702A (en) 1994-12-02 1998-05-19 Allied Signal Inc. Scale oriented interband prediction method for image data compression and reconstruction
US5625712A (en) 1994-12-14 1997-04-29 Management Graphics, Inc. Iterative compression of digital images
DE69523550T2 (de) * 1994-12-29 2002-05-08 Sony Corp., Tokio/Tokyo Einrichtung und Verfahren zur Quantisierung
US5734433A (en) 1995-06-21 1998-03-31 Sony Corporation Picture encoding apparatus, picture encoding method, picture encoding and transmitting method, and picture record medium
US5703652A (en) * 1995-07-28 1997-12-30 Sony Corporation Information signal encoding system and method for adaptively encoding an information signal
US5825313A (en) 1995-08-01 1998-10-20 Sony Corporation Information signal encoding apparatus, encoding method thereof, information signal decoding method, and information signal record medium thereof
US5960116A (en) 1995-11-02 1999-09-28 Canon Kabushiki Kaisha Image processing apparatus and method for performing prediction data encoding
US5812699A (en) 1995-12-07 1998-09-22 Intel Corporation Counter-based controller for video compression
US6292591B1 (en) * 1996-07-17 2001-09-18 Sony Coporation Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
AU718453B2 (en) * 1996-07-17 2000-04-13 Sony Corporation Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
AU714554B2 (en) * 1996-07-17 2000-01-06 Sony Corporation Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
US5912708A (en) * 1996-12-26 1999-06-15 Sony Corporation Picture signal encoding device, picture signal encoding method, picture signal decoding device, picture signal decoding method, and recording medium
US5969764A (en) 1997-02-14 1999-10-19 Mitsubishi Electric Information Technology Center America, Inc. Adaptive video coding method
US5880784A (en) 1997-06-17 1999-03-09 Intel Corporation Method and apparatus for adaptively switching on and off advanced prediction mode in an H.263 video coder

Also Published As

Publication number Publication date
CN1281064C (zh) 2006-10-18
DE69733106D1 (de) 2005-06-02
CN1592415A (zh) 2005-03-09
EP0820197A2 (de) 1998-01-21
TW373371B (en) 1999-11-01
EP0820197B1 (de) 2005-04-27
CN1175167A (zh) 1998-03-04
AU718453B2 (en) 2000-04-13
KR100529662B1 (ko) 2006-02-28
EP0820197A3 (de) 2000-04-12
SG80576A1 (en) 2001-05-22
CN1145360C (zh) 2004-04-07
KR980013425A (ko) 1998-04-30
DE69735390D1 (de) 2006-05-04
EP1309200B1 (de) 2006-03-08
US6970508B1 (en) 2005-11-29
US6198770B1 (en) 2001-03-06
DE69733106T2 (de) 2006-03-09
EP1309200A2 (de) 2003-05-07
EP1309200A3 (de) 2003-05-21
AU2855597A (en) 1998-01-29

Similar Documents

Publication Publication Date Title
DE69735390T2 (de) Bildkodierung und -dekodierung unter Verwendung von Abbildungskoeffizienten, die gewissen Pixelblockklasseninformation entsprechen
DE69633039T2 (de) Vorrichtung und Verfahren zur Umwandlung eines Signals
DE69327375T2 (de) Verfahren und Vorrichtung zur Wiederherstellung von Bilddaten
DE69428979T2 (de) Einrichtung und verfahren zur kodierung von bilddaten
DE69323523T2 (de) Einrichtung zur Kodierung von digitalen bilddarstellenden Signalen und entsprechende Dekodierungseinrichtung
DE69223560T2 (de) Einrichtung zur Verminderung von Quantisierungsstörungen in einem Zwischenbild-Hybrid-Kodierungssystem mit Bewegungskompensation
DE3855648T2 (de) Verfahren und vorrichtung für eine hierarchische kodierung zum wirksamen übertragen von bildfolgen
DE69709914T2 (de) Vorrichtung zur Bildvorhersage und -decodierung
DE69124784T2 (de) HDTV-Empfänger
DE69131257T2 (de) Verfahren zur Kompression von bewegten Bildsignalen nach dem Zeilensprungverfahren
DE69416717T2 (de) Bewegtbildkoder und -dekoder
DE3005775C2 (de) Kodierverfahren für ein Farbbild
DE69525009T2 (de) Verfahren zur differentiellen Kodierung von Bewegungsvektoren mit Mittelwertprädiktion
DE69332584T2 (de) Verbesserte vorverarbeitung und nachverarbeitung von vektorquantifizierung
DE69433272T2 (de) Vorrichtung zum Vermeiden von Rundungsfehlern bei der inversen Transformation von Transformationskoeffizienten eines Bewegtbildsignales
DE69530336T2 (de) Bewegungskompensation für digitale Videosignale mit Zeilensprung
EP1599835B1 (de) Verfahren und anordnung zur videocodierung, wobei die videocodierung texturanalyse und textursynthese umfasst, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE69919641T2 (de) Adaptive Videokompromierung mit variabler Quantisierung
DE69126940T2 (de) Blockadaptive lineare prädiktionskodierung mit adaptiver verstärkung und vorspannung
DE3875334T2 (de) Verfahren zur synchronisierung fuer die uebertragung ueber einen asynchronen kanal einer folge von kodierten bildern, die mittels eines kodes mit variabler laenge kodiert sind und einrichtung zur durchfuehrung dieses verfahrens.
WO2012110491A1 (de) Kodierverfahren und bildkodiervorrichtung zur kompression einer bildsequenz
DE19541457C1 (de) Verfahren zur Codierung eines Videodatenstroms einer aus Bildblöcken bestehenden Videosequenz
DE69421795T2 (de) Vorrichtung und verfahren zur kodierung von bildern
DE69024002T2 (de) Vorrichtung zum Codieren von zweidimensionalen Informationen und entsprechende Decodiervorrichtung.
DE69416662T2 (de) Bewegtbildkodierer

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)