DE69712676T2 - Verfahren zur Videokodierung - Google Patents

Verfahren zur Videokodierung

Info

Publication number
DE69712676T2
DE69712676T2 DE69712676T DE69712676T DE69712676T2 DE 69712676 T2 DE69712676 T2 DE 69712676T2 DE 69712676 T DE69712676 T DE 69712676T DE 69712676 T DE69712676 T DE 69712676T DE 69712676 T2 DE69712676 T2 DE 69712676T2
Authority
DE
Germany
Prior art keywords
block
merging
shape information
blocks
extra
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69712676T
Other languages
English (en)
Other versions
DE69712676D1 (de
Inventor
Ji-Heon Kweon
Joo-Hee Moon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pantech Co Ltd
Original Assignee
Hyundai Curitel Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1019960027766A external-priority patent/KR100417131B1/ko
Priority claimed from KR1019960027767A external-priority patent/KR100417133B1/ko
Priority claimed from KR1019960038406A external-priority patent/KR100424680B1/ko
Priority claimed from KR1019970004739A external-priority patent/KR100466592B1/ko
Priority claimed from KR1019970004738A external-priority patent/KR100466591B1/ko
Application filed by Hyundai Curitel Co Ltd filed Critical Hyundai Curitel Co Ltd
Application granted granted Critical
Publication of DE69712676D1 publication Critical patent/DE69712676D1/de
Publication of DE69712676T2 publication Critical patent/DE69712676T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/602Rotation of whole images or parts thereof by block rotation, e.g. by recursive reversal or rotation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

    HINTERGRUND DER ERFINDUNG 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Videoinformations-Codierverfahren, das eine Objektgrenzenblock-Vereinigungs/Teilungs-Technik anwendet, und insbesondere auf ein verbessertes Videoinformations- Codierverfahren, das eine Objektgrenzenblock-Vereinigungs/Teilungs-Technik anwendet, welches es möglich macht, einen Objektgrenzenblock wirksamer zu vereinigen und zu codieren, wobei ein Raumüberschuss eines Videos oder zwischen Videos, die in einem Block oder zwischen Blöcken verwendet werden, und das Video durch eine Objektblock-Teilungstechnik zu teilen für eine Rekonstruktion eines wiedergewonnen Videos und eine Darstellung.
  • 2. Beschreibung des Standes der Technik
  • In neuerer Zeit plante die MPEG (Motion Picture Experts Group), welche MPEG-I und MPEG-II einführte, die eine internationale Standardempfehlung mit Bezug auf eine Video- und Audio-Codiertechnik und -Systemausbildung sind, 1998 MPEG-IV einzuführen, um als eine neue internationale Standardempfehlung mit Bezug auf eine neue Generation von Video- und Audio-Codiertechnik und -Systemausbildung verwendet zu werden.
  • Das MPEG-IV ist gerichtet auf die Stützung einer nächsten Generation der Video- und Audio-Anwendung, die nicht durch die vorhergehenden MPEGs gestützt werden kann.
  • Zusätzlich enthält MPEG-IV eine neue Technik für eine Kommunikation und Verbindung von Video- und Audiodaten, z. B. eine objektbasierende interaktive Funktion und Verbindungsfunktion durch ein Netzwerk mit einer unterschiedlichen Charakteristik.
  • Weiterhin ist es möglich, eine Charakteristik vorzusehen, durch welche das System unter einer vorbestimmten Kommunikationsumgebung wie einer fehlerhaften Kommunikationsumgebung und einem niedrigen Übertragungsverhältnis arbeitet.
  • Weiterhin ist es möglich, ein natürliches Video und Audio und ein künstliches Video und Audio durch Verwendung einer Computergrafiktechnik zu codieren und zu steuern.
  • D. h., das MPEG-IV ist in der Lage, viele Funktionen zu stützen, die in verschiedenen Anwendungsfeldern erforderlich sind.
  • Daher kann das MPEG-IV eine offene Struktur liefern, welche in der Lage ist, Funktionen zu stützen, die für geringe Kosten und Hochtechnik-Anwendungsfelder erforderlich sind, wenn die Multimediatechnik fortschreitet, sowie erweiterbare Funktionen.
  • Unter den Funktionen ist eine Funktion der Erhöhung eines Verdichtungswirkungsgrades für eine Codierwirkung bekannt, welche für eine Übertragungs- und Speicherfunktion sowie eine Kostenverringerung benötigt wird.
  • Als Anwendungsfelder mit Bezug auf das MPEG-IV sind bekannt ein NDB (Netzwerk-Datenbankservice) unter Verwendung eines IMM (Internet-Multimedien), ein IVG (Interaktive Videospiele), ein IPC (Interpersonelle Kommunikationen), ein ISM (Interaktive Speichermedien), ein MMM (Multimedien-Mailing), ein WMM (Drahtlose Multimedien), ein ATM usw., ein RES (Fernnothilfesystem) und ein RVS (Videofernüberwachung) usw.
  • Um eine bestehende Anwendung und eine Anwendung der nächsten Generation zu stützen, wird eine Videocodiertechnik benötigt, so dass ein Benutzer mit einem gewünschten Bestimmungsort in einem vorbestimmten Videobereich kommuniziert, einen gewünschten Bestimmungsort sucht und auf diesen zugreift, und denselben aufbereitet.
  • D. h., dass die MPEG-IV, das 1999 als eine neue Video- und Audio-Codiertechnik fertiggestellt werden soll, ist im Wesentlichen auf die Befriedigung der vorstehend beschriebenen Wünsche gerichtet.
  • Fig. 1 illustriert die Ausbildung einer Videocodiereinheit für ein MPEG-IV, das eine unterschiedliche Ausbildung gegenüber H.261, H.263, MPEG-I und MPEG-II hat, welche internationale Standards für eine Videocodiertechnik darstellen.
  • D. h., die Videocodiereinheit des MPEG-IV ist gerichtet auf die Schätzung einer Bewegung durch die Makroblockeinheit, wenn ein VOP mit Bezug auf ein Objektvideo, das durch eine VOP-Bildungseinheit 10 gebildet wurde, in eine Bewegungsschätzeinheit 11 eingegeben wird.
  • Zusätzlich wird die von der Bewegungsschätzeinheit 11 geschätzte Bewegungsinformation in eine Bewegungskompensationseinheit 12 eingegeben, wodurch die Bewegung kompensiert wird.
  • Das VOP, dessen Bewegung durch die Bewegungskompensationseinheit 12 kompensiert wird, wird zusammen mit einem VOP, das durch die VOP-Bildungseinheit 10 gebildet wurde, in eine Subtraktionsvorrichtung 13 eingegeben, wodurch ein Differenzwert zwischen diesen gemessen wird, und der so von der Subtraktionsvorrichtung 13 gemessene Differenzwert wird in eine Videosignal-Codiereinheit 14 eingegeben, so dass ein Videosignal eines Objekts durch die Subblockeinheit eines Makroblocks codiert wird.
  • Beispielsweise teilt die Videosignal-Codiereinheit 14 die X-Achse und die Y-Achse eines Makroblocks in 8 · 8- Subblöcke, die jeweils 8 Pixel haben, wodurch das Videosignal des Objekts codiert wird.
  • Zusätzlich werden das VOP, dessen Bewegung durch die Bewegungskompensationseinheit 12 kompensiert ist, und eine interne Information über ein durch die Videosignal-Codiereinheit 14 codiertes Objekt in einen Addierer 15 eingegeben, und ein Ausgangssignal des Addierers 15 wird in ein vorher rekonstruiertes VOP 16 eingegeben, wodurch ein VOP einer vorhergehenden Anzeige erfasst wird.
  • Das von der VOP-Erfassungseinheit 16 erfasste VOP der vorhergehenden Anzeige wird in die Bewegungsschätzeinheit 11 und die Bewegungskompensationseinheit 12 eingegeben und wird für eine Bewegungsschätzung und Bewegungskompensation verwendet.
  • Das durch die VOP-Bildungseinheit 10 gebildete VOP wird in eine Gestaltinformations-Codiereinheit 17 eingegeben, und dann werden die Gestaltinformationen codiert.
  • Hier wird das Ausgangssignal von der Gestaltinformations-Codiereinheit 17 bestimmt auf der Grundlage des Anwendungsfeldes der VOP-Codiereinheit. Das Ausgangssignal der Gestaltinformations-Codiereinheit 17 wird in die Bewegungsschätzeinheit 11, die Bewegungskompensationseinheit 12 und die Videosignal- Codiereinheit 14 eingegeben und wird dann verwendet für die Codierung der internen Informationen der Bewegungskompensation und des Objekts.
  • Zusätzlich werden die von der Bewegungsschätzeinheit 11 geschätzten Bewegungsinformationen, die von der Videosignal-Codiereinheit 14 codierten internen Informationen eines Objekts und die von der Gestaltinformations-Codiereinheit 17 codierten Gestaltinformationen durch einen Multiplexer 18 einer Multiplexverarbeitung unterzogen und dann über einen Puffer 19 in einen Bitstrom übertragen.
  • In der Videocodiereinheit für MPEG-IV werden eine Gestaltcodiereinheit und eine Videoobjektebene verwendet.
  • Hier bezeichnet das VOP ein Objekt auf einer Zeitbasisachse eines Inhalts mit einer vorbestimmten Gestalt, auf den ein Benutzer zugreifen und den er aufbereiten kann. Das VOP wird durch das VOP zum Stützen einer inhaltsbasierten Funktionalität codiert.
  • Fig. 2 illustriert ein von einem Objekt gebildetes Video, welches Video durch aus 16·16 Pixeln gebildeten Makroblöcken für eine Videocodierung rekonstruiert ist.
  • Wenn der Block so in Makroblöcke rekonstruiert ist, existieren drei Arten von Makroblöcken, wie in Fig. 3 gezeigt ist. D. h., es gibt einen Intraobjekt- Makroblock, der aus einer Intraobjektinformation gebildet ist, einen Außerobjektblock, der keine Informationen über das Objekt hat, und einen Objektgrenzen-Makroblock, der teilweise Intraobjektinformationen hat.
  • Fig. 4 illustriert eine Anordnung eines Helligkeitsblockes und eines Farbblockes. Der Intraobjekt- Makroblock wird aus Blöcken des Objekts gebildet, und der Außerobjekt-Makroblock ist aus Außerobjektblöcken gebildet.
  • Jedoch können in dem Objektgrenzen-Makroblock drei Arten von Blöcken existieren, die jeweils aus 8 · 8 Pixeln gebildet sind und dieselbe Charakteristik wie der Makroblock haben, wie in Fig. 5 gezeigt ist, wie ein Intraobjekt-Subblock, ein Außerobjekt-Subblock und ein Objektgrenzen-Subblock.
  • Fig. 6 illustriert eine herkömmliche Videosignal- Codiereinheit 14 (VM5.0). In der Codiereinheit 14 sind eine Außerobjektbereich-Auffülleinheit 14a zum Empfang von Intervideo-Informationen oder ursprünglichen Informationen von der Bewegungskompensationseinheit 12 und der VOP-Bildungseinheit 10, wie in Fig. 1 gezeigt, und von Auffüll-Gestaltinformationen (z. B. ursprüngliche Videogestaltinformationen und wiedergewonnene Gestaltinformationen) von der Gestaltinformations-Codiereinheit 17 und zum Auffüllen des Außerobjektbereichs, eine DCT- und Codiereinheit 14b für die DCT-Codierung des Signals von der Außerobjektbereich- Auffülleinheit 14a und die Ausgabe von Signalinformationen, und eine IDCT- und Decodiereinheit 14c für die IDCT-Decodierung des Signals von der DCT- und Codiereinheit 14b und die Ausgabe decodierter Informationen zu der vorhergehenden VOP-Erfassungseinheit 16 vorgesehen.
  • Um die Intravideo- und Intervideo-Informationen des Objektgrenzblocks zu decodieren, wird zuerst der Pixelwert von Pixeln in dem Außerobjektbereich bestimmt. Hier werden dieses Intravideosignal (Intrastrukturdaten) und ein Fehlersignal (restliche Strukturdaten) als Strukturinformationen bezeichnet.
  • Unter den Techniken sind ein Mittelwert- Ersetzungstechnik, welche auf das Auffüllen eines Mittelwertes einer Videoinformation in ein Objekt eines Blockes gerichtet ist, eine Nullauffülltechnik, welche auf das Füllen eines Nullwertes gerichtet ist, eine Wiederholungs-Auffülltechnik, die eine Objektgrenzinformation verwendet, eine adaptive Gestalt- DCT-Technik, welche sich mit Bezug auf die Außerobjektinformationen nicht kümmert, bekannt.
  • Jedoch haben Intravideo und Intervideo einen Raumüberschuss mit einer hohen Beziehung in dem Raum. Die kürzlich eingeführten Techniken werden durch DCT- Quantisierung des Raumüberschusses in dem Block verwendet. Jedoch verwenden diese Techniken nicht den Raumüberschuss zwischen Interblöcken.
  • Wenn die Techniken den zwischen den Blöcken existierenden Raumüberschuss verwenden, ist es möglich, einen Codierwirkungsgrad zu erhöhen.
  • Wenn verschiedene Videoblöcke vereinigt werden, die in verschiedenen Auffülltechniken aufgefüllt sind, kann eine Hochfrequenzkomponente in dem Videogrenzbereich auftreten. Daher wird eine geeignete Auffülltechnik, die einen Codierwirkungsgrad erhöhen kann, benötigt.
  • Die herkömmlichen Auffülltechniken werden mit Bezug auf die herkömmliche Videosignal-Codiereinheit 14 (VM5.0) erläutert.
  • Die Mittelwert-Ersetzungstechnik ist gerichtet auf das Füllen des Mittelwertes des Intraobjekt- Pixelwertes des Intrablocks, um die Intravideo- und Intervideo-Informationen in dem Objektgrenzblock des Objektgrenz-Makroblocks zu codieren, und dann wird der Codierschritt durchgeführt unter Verwendung einer DCT (Diskrete Kosinustransformation).
  • Die Mittelwert-Ersetzungstechnik wird wie in Fig. 7A gezeigt durchgeführt. In den Zeichnungen bezeichnet die Bezugszahl 20 eine Trennvorrichtung, 21 bezeichnet eine Mittelwert-Berechnungsvorrichtung und 22 bezeichnet eine Auswahlvorrichtung.
  • Der Mittelwert "a" des Intraobjektpixels in dem Objektgrenzblock wird berechnet, und der Außerobjekt- Pixelwert wird durch "a" ersetzt, und dann wird der Codierschritt durchgeführt unter Anwendung der DCT.
  • Als Nächstes wird bei der Nullauffülltechnik der Außerobjekt-Pixelwert mit einem Nullwert gefüllt, und dann wird der Codierschritt durchgeführt unter Anwendung einer DCT, um die Videoinformationen und eine Schätzfehlerinformation in dem Objektgrenzblock in dem Objektgrenz-Makroblock zu codieren.
  • Bei der Nullauffülltechnik wird, wie in Fig. 7A gezeigt ist, ein Weißpixel, das ein Außerobjektpixel in dem Objektgrenzblock ist, durch einen Nullwert ersetzt, und dann wird der Codierschritt unter Anwendung der DCT durchgeführt. Diese Technik wird für einen Codierschritt zwischen Intervideos von 2,0 bis 7,0 der MPEG-IV-VM-Vision angepasst.
  • Zusätzlich verwendet die Wiederholungs-Auffülltechnik wiedergegebene Gestaltinformationen und enthält fünf Schritte. Jeder Schritt wird nun mit Bezug auf Fig. 7B erläutert.
  • (1) Der Außerobjekt-Pixelwert in dem Objektgrenzblock wird so betrachtet, dass er einen Nullwert hat.
  • (2) Der Objektgrenzblock wird horizontal abgetastet. Zu dieser Zeit können zwei Arten von horizontalen Zeilen existieren.
  • D. h., es gibt ein Nullsegment, das aus einem Nullwert gebildet ist, und ein Nichtnullsegment, das aus einem Nichtnullwert gebildet ist.
  • Wenn kein Segment in der abgetasteten Horizontalzeile vorhanden ist oder nur ein Nichtnullsegment vorhanden ist, wird kein Schritt durchgeführt. Danach wird die Horizontalzeile abgetastet. Wenn ein Nullsegment zwischen dem Block und dem Nichtnullsegment existiert, werden die Pixel des Nullsegments mit einem Endpixelwert des Nichtnullsegments, welches mit dem Nullsegment in Kontakt ist, gefüllt. Wenn das Nullsegment zwischen den Nichtnullsegmenten existiert, wird das Pixel mit einem Mittelwert des Endpixelwerts des Nichtsegments, das mit dem Nullsegment in Kontakt ist, gefüllt.
  • (3) Der Objektgrenzblock wird in der vertikalen Richtung abgetastet und dann werden die Schritt von (2) durchgeführt.
  • (4) Wenn die Außerobjektpixel in (2) und (3) gefüllt werden, wird der Mittelwert zwischen zwei Werten dort hineingefüllt.
  • (5) Nachdem (1) bis (4) ausgeführt sind, werden die Extraobjektpixel, die nicht dort hineingefüllt sind, horizontal abgetastet, und dann wird das nächste Pixel, das nicht einen Nullwert hat, gesucht, und der Abstand ist identisch, der linksseitige Pixelwert, der nicht Null ist, wird fixiert, und die Schritt werden vertikal durchgeführt. Wenn der Abstand identisch ist, wird der oberseitige Pixelwert, der nicht Null ist, fixiert, und der Mittelwert zwischen zwei Werten wird durch den Wert ersetzt.
  • Fig. 7B illustriert ein Ergebnis der vorbeschriebenen Schritte. Das Ergebnis wird verwendet für einen Intravideo- und Intervideo-Codierschritt in MPEG-IV VM1.0 und wird verwendet für den Intervideo- Codierschritt von VM2.0 bis 4.0.
  • Zusätzlich enthält die LPE (Tiefpaß-Extrapolations)- Technik, wie in Fig. 7C gezeigt ist, eine Trennvorrichtung 20, eine Berechnungsvorrichtung 21, eine Auswahlvorrichtung 22 und ein Filter 23. Ein Mittelwert einer Videoinformation in dem Block wird durch die Mittelwert-Berechnungsvorrichtung 28 erhalten, wenn der zu codierende Block ein Objektgrenzblock ist, und dann wird der Wert "M" in die Pixel des Außerobjektbereichs gefüllt, und die Intraobjekt- Pixelwert unter den oberen, unteren, linksseitigen und rechtsseitigen Pixeln werden mit Bezug auf jedes Pixel, das mit dem Intraobjekt-Mittelwert gefüllt ist, hinzugefügt, und der so hinzugefügte Wert wird durch die Intraobjekt-Pixelzahl geteilt, und dann wird der Pixelwert hierdurch ersetzt.
  • Z. B. wird, wie in Fig. 7C gezeigt ist, f1 durch den unteren Intrapixelwert ersetzt, f2 wird durch einen rechtsseitigen Intraobjekt-Pixelwert ersetzt, und f4 wird durch einen unteren und rechtsseitigen Mittelwert ersetzt.
  • Bei der LPE-Technik wird, um die Videoinformationen des Objektgrenzblocks in den Makroblock zu codieren, das Außerobjektpixel mit einem Mittelwert des Intrablockobjekt-Pixelwertes in den Block gefüllt, und dann werden die Außerobjekt-Grenzpixel vor dem DCT-Schritt mit einem Mittelwert der in vier Richtungen benachbarten Pixelwerte gefüllt.
  • Wenn ein Außerobjektpixel in den in vier Richtungen benachbarten Pixeln vorhanden ist, wird der Pixelwert ausgeschlossen, und dann wird der Mittelwert des Intraobjektpixels erhalten.
  • Zusätzlich werden, wie in Fig. 7C gezeigt ist, nur die Pixel zwischen f1 und f9 Pixel, die durch den Mittelwert der in vier Richtungen benachbarten Intraobjekt-Pixelwerte ersetzt.
  • Danach wird die DCT angewendet und codiert den Block. Gegenwärtig wird die LPE-Technik angepasst für die Durchführung der Intravideocodierung des MPEG-IV VM5.0.
  • Zusätzlich wird die DCT-Technik (SADCT: gestaltadaptive diskrete Kosinustransformations-Technik) an einen Objektgrenzenblock eines vorbestimmten gestalteten VOPs angepasst.
  • Wenn ein Videocodierschritt durchgeführt wird auf der Grundlage eines vorbestimmten gestalteten VOP, wird unterschiedlich gegenüber einem Verfahren zum Ersetzen der Pixelwerte, welche nicht mit Bezug auf das Außerobjektpixel definiert sind, durch einen geeigneten Wert, der Codierschritt durchgeführt durch einen Codier- und Quantisierungsschritt unter Verwendung nur der Intraobjektinformationen.
  • Nachdem die DCT durchgeführt ist, hat der DCT- Koeffizient dieselbe Charakteristik wie die Pixelzahl.
  • Wie in Fig. 7D gezeigt ist, werden, wenn die Intraobjektinformationen wie "A" existieren, die Intravideo- und Intervideo-Informationen in der oberen Richtung wie "B" bewegt, und dann wird eine eindimensionale DCT in der vertikalen Richtung durchgeführt, und die vom DCT-Koeffizienten gebildete Linie "C" wird in der Richtungslinie "D" nach links bewegt, und dann wird eine eindimensionale DCT in der horizontalen Richtung wie "E" durchgeführt.
  • Nach dem der Schritt mit Bezug auf "E" durchgeführt ist, wird der SADCT-Koeffizient wie "F" gebildet, und der DCT-Koeffizient nach der SADCT wird quantisiert, und eine Zickzack-Abtastung wird mit Bezug hierauf durchgeführt. Zusätzlich wird eine adaptive Abtasttechnik mit Bezug auf den Bereich, in welchem ein Koeffizient nicht existiert, durchgeführt.
  • Die entlang der adaptiven Abtastung abgetasteten Koeffizientenwerte werden codiert durch Verwendung der herkömmlichen VLC-Tabelle und wird angepasst als eine Auswahltechnik eines Intravideo- und Intervideo- Codierens in einem Bereich von MPEG-IV VM5.0 bis VM7.0.
  • Jedoch haben die vorbeschriebenen Techniken Nachteile dahingehend, dass ein Codierwirkungsgrad beträchtlich verschlechtert wird, da der Raumüberschuss, der in dem Block existiert, nicht verwendet wird, selbst wenn der Raumüberschuss in dem Block durch die DCT und die Quantisierung ordnungsgemäß verwendet wird.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Demgemäß ist es eine Aufgabe der vorliegenden Erfindung, ein Videoinformations-Codierverfahren unter Verwendung einer Objektgrenzen-Vereinigungs/Teilungs- Technik anzugeben, das die vorgenannten Probleme des Standes der Technik überwindet.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein verbessertes Videoinformations- Codierverfahren für eine Objektgrenzblock- Vereinigungs/Teilungs-Technik anzugeben, welches ermöglicht, eine Objektgrenzblock-Vereinigung und eine Vereinigung/Trennung als einen umgekehrten Prozess hiervon zu verwenden, welche in der Lage sind, einen Codierwirkungsgrad zu erhöhen durch Verwendung eines Raumüberschusses eines Intravideos und eines Intervideos, welcher in einem Block oder in einem Nachbarblock existiert, durch Vereinigen, Codieren und Übertragen des BBM.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein verbessertes Videoinformations-Codierverfahren für eine Objektgrenzblock- Vereinigungs/Teilungs-Technik anzugeben, welche ermöglicht, eine Verarbeitungszeit zu reduzieren durch ein Überspringen mit Bezug auf einen Rückwärtsschritt, und einen Codierwirkungsgrad zu erhöhen ohne eine Komplexität zu bewirken, wenn das System konfiguriert wird, indem eine Vereinigungstechnik mit Bezug auf einen Vereinigungs- und Codierschritt angepasst wird auf der Grundlage von drei Arten wie horizontalen, vertikalen und diagonalen Vereinigungsschritten mit Bezug auf einen Objektgrenzblock für einen Codierschritt und Trenne des vereinigten Objektgrenzblocks durch den Vereinigungsschritt und den umgekehrten Schritt.
  • Es ist eine andere Aufgabe der vorliegenden Erfindung, ein verbessertes Videoinformations- Codierverfahren für eine Objektgrenzblock- Vereinigungs/Teilungs-Technik anzugeben, welches es ermöglicht, einen Codierwirkungsgrad wie DCT usw. zu erhöhen, indem eine neue Auffülltechnik mit Bezug auf das Außerobjektpixel vorgesehen wird, wenn verschiedene Objektgrenzblöcke vereinigt werden.
  • Um die obigen Aufgaben zu lösen, ist ein Videoinformations-Codierverfahren vorgesehen, das eine Objektgrenzblock-Vereinigungs/Teilungs-Technik anwendet, gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung, das die Schritte des Vereinigens mehrerer Objektgrenzgrenzblöcke, die Beurteilung, ob ein Signal für überlappende Blöcke unter den Blocksignalen vorhanden ist, das Gestaltinformationen der Objektgrenzblöcke verwendet, und des Vereinigens der Blöcke, in welchem keine überlappenden Blockpixel existieren, als ein Ergebnis der Beurteilung, enthält, wenn ein Strukturinformationssignal (Intrastrukturdaten und restliche Strukturdaten) codiert wird unter Verwendung von Gestaltinformationen, wobei ein Videoinformations-Codiersystem auf der Grundlage von Gestaltinformationen implementiert ist.
  • Um die obigen Aufgabe zu lösen, ist ein Videoinformations-Codierverfahren, das eine Objektgrenzblock- Vereinigungs/Teilungs-Technik anwendet, gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung vorgesehen, das die Schritte eines horizontalen Vereinigungsschrittes zum Vereinigen eines Strukturinformationsblocks in einer horizontalen Richtung und Beenden des Vereinigungsschritts, wenn keine überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen des Blocks, eines vertikalen Vereinigungsschritts zum Vereinigen eines Strukturinformationsblocks in einer vertikalen Richtung und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen der Blöcke, und einen diagonalen Vereinigungsschritt zum Vereinigen eines Strukturinformationsblocks in einer diagonalen Richtung und zum Beenden des Vereinigungsschritts, wenn kein überlappender Block vorhanden ist, durch Verwendung der Gestaltinformationen der Blöcke, enthält, wobei die Vereinigungsschritte aufeinander folgend in einer zufälligen Reihenfolge durchgeführt werden können und verbleibende Vereinigungsschritte nicht durchgeführt werden, wenn ein vereinigter Block vorhanden ist, und die Vereinigungsschritte durch die Makroblockeinheit durchgeführt werden, wenn ein Strukturinformationssignal (Intrastrukturdaten und restliche Strukturdaten) codiert wird unter Verwendung von Gestaltinformationen, worin ein Videoinformations-Codiersystem auf der Grundlage von Gestaltinformationen implementiert ist.
  • Um die obigen Aufgaben zu lösen, ist ein Videoinformations-Codierverfahren, das eine Objektgrenzblock- Vereinigungs/Teilungs-Technik anwendet, gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung vorgesehen, das die Schritte des Vereinigens mehrerer Objektgrenzblöcke der Beurteilung, ob ein Signal über überlappte Blöcke vorhanden ist, durch Verwendung von Gestaltinformationen der Objektgrenzblöcke, und des Nichtvereinigens der Blöcke mit einem überlappten Blockpixel als ein Ergebnis der Beurteilung, und des Vereinigens von Gestaltinformationsblöcken, des Beurteilens, ob ein vereinigter Block vorhanden ist, durch Prüfen, ob ein Signal für überlappte Blöcke vorhanden ist, des Teilens des vereinigten Blocks durch Verwendung durch Gestaltinformationen, wenn ein vereinigter Block als ein Ergebnis der Beurteilung vorhanden ist, und des Wiedergewinnens des vereinigten Blocks als eines anfänglichen Blocks, wenn mehrere Objektgrenzblöcke mit einem Strukturinformationssignal (Intrastrukturdaten und restliche Strukturdaten) codiert/decodiert werden unter Verwendung von Gestaltinformationen, enthält, worin ein Videoinformations-Codiersystem auf der Grundlage von Gestaltinformationen implementiert ist.
  • Um die obigen Probleme zu lösen, ist ein Videoinformations-Codierverfahren, das eine Objektgrenzblock- Vereinigungs/Teilungs-Technik anwendet, gemäß einem vierten Ausführungsbeispiel der vorliegenden Erfindung vorgesehen, das die Schritte enthält: Vereinigen von Strukturinformationsblöcken in einer horizontalen Richtung, Beurteilen, ob die Blöcke überlappt sind, durch Verwendung von Gestaltinformationen der Blöcke, und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist, Vereinigen von Strukturinformationsblöcken in einer vertikalen Richtung, Beurteilen, ob die Blöcke überlappt sind, durch Verwenden von Gestaltinformationen der Blöcke, und Beenden des Vereinigungsschritts, wenn kein überlappter Block vorhanden ist, Vereinigen von Strukturinformationsblöcken in einer diagonalen Richtung, Beurteilen, ob die Blöcke überlappt sind, durch Verwendung von Gestaltinformationen der Blöcke, und Beenden des Vereinigungsschritts, wenn kein überlappter Block vorhanden ist, aufeinander folgendes Durchführen der obigen drei Vereinigungsschritte in zufälliger Reihenfolge, und Beenden der verbleibenden Vereinigungsschritte, einen Horizontalteilungsschritt, in welchem ein horizontal gerichteter Strukturinformationsblock mit Bezug auf die Gestaltinformationen geteilt wird, und der Block als ursprünglicher Block wiederhergestellt wird, wenn kein überlappter Block vorhanden ist, durch Beurteilen, ob ein überlappter Block vorhanden ist unter Verwendung der Gestaltinformationen, einen vertikalen Teilungsschritt, in welchem ein vertikal gerichteter Strukturinformationsblock mit Bezug auf die Gestaltinformationen geteilt wird und der Block als ein ursprünglicher Block wiederhergestellt wird, wenn kein überlappter Block vorhanden ist, durch Feststellung, ob ein überlappter Block vorhanden ist, unter Verwendung der Gestaltinformationen, und ein diagonaler Teilungsschritt, in welchem ein diagonal gerichteter Strukturinformationsblock mit Bezug auf die Gestaltinformationen geteilt wird und der Block als ein ursprünglicher Block wiederhergestellt wird, wenn kein überlappter Block vorhanden ist, durch Beurteilung, ob ein überlappter Block vorhanden ist, unter Verwendung der Gestaltinformationen, wobei die obigen drei Teilungsschritte aufeinander folgend in zufälliger Reihenfolge durchgeführt werden, und die verbleibenden Teilungsschritte werden nicht durchgeführt, wenn ein geteilter Block vorhanden ist, und die obigen drei Teilungsschritte werden durch die Makroblockeinheit durchgeführt, wenn mehrere Objektgrenzblöcke mit einem Strukturinformationssignal (Intrastrukturdaten und restliche Strukturdaten) codiert/decodiert werden unter Verwendung von Gestaltinformationen, worin ein Videoinformations- Codiersystem implementiert wird auf der Grundlage von Gestaltinformationen.
  • Zusätzliche Vorteile, Aufgaben und andere Merkmale der Erfindung werden teilweise aus der folgenden Beschreibung ersichtlich und teilweise für den Fachmann augenscheinlich bei der Prüfung des Folgenden oder können durch die Praxis der Erfindung gelernt werden. Die Aufgabe und Vorteile der Erfindung können realisiert und erzielt werden, wie insbesondere in den anhängenden Ansprüchen dargestellt ist.
  • Die Erfindung ist durch die Ansprüche definiert.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung wird besser verständlich anhand der detaillierten Beschreibung, welche nachfolgend gegeben wird, sowie der begleitenden Zeichnungen, die nur beispielhaft gegeben sind und somit nicht für die vorliegende Erfindung einschränkend sind, und worin:
  • Fig. 1 ist ein Blockschaltbild, das eine herkömmliche MPEG-IV-VOP (Videoobjektebene)- Codiereinheit illustriert;
  • Fig. 2 ist eine Ansicht, die eine VOP zum Codieren eines vorbestimmten Objekts nach dem Stand der Technik illustriert;
  • Fig. 3 ist ein Ansicht, die eine Art eines Makroblocks eines VOP-Videos nach dem Stand der Technik illustriert;
  • Fig. 4 ist eine Ansicht, die die Ausbildung eines Blockes eines Makroblocks nach dem Stand der Technik illustriert;
  • Fig. 5 ist eine Ansicht, die eine Art eines Blockes eines VOP-Videos nach dem Stand der Technik illustriert;
  • Fig. 6 ist ein Blockschaltbild, das eine herkömmliche Videoinformations-Codiereinheit illustriert;
  • Fig. 7A ist ein Blockschaltbild, das ein Mittelwert- Ersetzungsverfahren nach dem Stand der Technik illustriert;
  • Fig. 7B ist eine Ansicht, die ein Schritt-für- Schritt-Ergebnis eines wiederholenden Auffüllverfahrens nach dem Stand der Technik illustriert;
  • Fig. 7C ist ein detailliertes Blockschaltbild, das eine Auffülleinheit in einem vorbestimmten Objekt ausgenommen von einem Objektbereich nach dem Stand der Technik illustriert;
  • Fig. 7D ist eine Ansicht, die einen SADCT-Schritt mit Bezug auf eine VOP mit vorbestimmter Gestalt illustriert;
  • Fig. 8 ist ein Blockschaltbild, das eine Videoinformations-Codiereinheit gemäß der vorliegenden Erfindung illustriert;
  • Fig. 9A bis 9C sind Ansichten, die einen Auffüllvorgang vor einem BBM, einem BBM und einem BBS gemäß der vorliegenden Erfindung illustrieren;
  • Fig. 10 ist eine Ansicht, die ein Ausführungsbeispiel der Anwendung von drei Modellen einer Helligkeitsblockanordnung und BBM/BBS in einem Makroblock gemäß der vorliegenden Erfindung illustriert;
  • Fig. 11A ist ein Flussdiagramm, das ein BBM illustriert, welches drei Modelle gemäß der vorliegenden Erfindung anwendet;
  • Fig. 11B ist ein Flussdiagramm, das ein BBS illustriert, welches drei Modelle gemäß der vorliegenden Erfindung anwendet;
  • Fig. 12 ist eine Ansicht, die ein Ausführungsbeispiel für die Anwendung von BBM/BBS auf einen Helligkeitsblock gemäß der vorliegenden Erfindung illustriert;
  • Fig. 13 ist eine Ansicht, die einen Prozess der Steuerung und Vereinigung von Gestaltinformationen in einem Block gemäß der vorliegenden Erfindung illustriert;
  • Fig. 14 ist ein Blockschaltbild, das ein Ausführungsbeispiel illustriert, das auf nur eine Makroblockeinheit gemäß der vorliegenden Erfindung angewendet ist; und
  • Fig. 15 ist ein Blockschaltbild, das ein Ausführungsbeispiel illustriert, welches ungeachtet einer Makroblockeinheit mit Bezug auf ein ganzes Video gemäß der vorliegenden Erfindung angewendet wird.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Die Ausführungsbeispiel gemäß der vorliegenden Erfindung, welche an einen Helligkeitsblock angepasst sind, werden nun erläutert auf der Grundlage einer 180º-Drehung und von drei Arten von Gestaltinformationen.
  • Zuerst enthält, wie in Fig. 8 gezeigt, die Videoinformations-Codiereinheit 30 eine Außerobjektbereich- Auffülleinheit 31 zum Empfangen von Intervideoinformationen oder von ursprünglichen Videoinformationen von der Bewegungskompensationseinheit 12 und der VOP- Bildungseinheit 10, wie in Fig. 1 gezeigt ist, Empfangen von Auffüll-Gestaltinformationen von der Gestaltinformations-Codiereinheit 17, und Auffüllen eines Außerobjektbereichs, eine Objektgrenzblock-Vereinigungseinheit 32 zum Vereinigen eines Objektgrenzblocks auf der Grundlage des Signals von der Außerobjektbereichs-Auffülleinheit 31 und der Vereinigungs- Gestaltinformationen, eine DCT- und Codiereinheit 33 für die DCT-Codierung des Signals von der Objektgrenzblock-Vereinigungseinheit 32 und die Ausgabe einer Signalinformation zu dem Multiplexer, eine IDCT- und Decodiereinheit 34 für die IDCT-Decodierung des Signals von der DCT- und Codierungseinheit 33, und eine Blocktrenneinheit 35 zum Trennen des vereinigten Blocks von den wiedergewonnenen Gestaltinformationen von der IDCT- und Decodiereinheit 34 und zum Ausgeben der decodierten Informationen zu der vorhergehenden VOP-Erfassungseinheit.
  • Hier bezeichnet der vereinigte Block zwei Blöcke, von denen der eine Signale und von denen der andere keine Signale hat. Zusätzlich hat ein Objekt vorbestimmte Gestaltinformationen, nicht zu codierende Hintergrund-Videoinformationen.
  • Die Techniken für die Objektgrenzblock-Vereinigung (BBM: Grenzblockvereinigung) und die Objektgrenzblock-Teilung (BBS: Grenzblockteilung) sind auf die Videosignal-Codiereinheit 14 nach Fig. 1 anwendbar und darauf gerichtet, einen Raumüberschuss eines Intrablocks und benachbarten Blocks einer Videoinformation und einer Intervideoinformation zu verwenden.
  • Insbesondere ist die Objektgrenzblock-Teilungstechnik eine Technik für die genaue Darstellung eines nach dem Decodierschritt wiederhergestellten Videos. Zu dieser Zeit verwenden die vorstehend beschriebenen zwei Techniken einer nach dem Decodierschritt für eine Gestaltinformation wiederhergestellte Gestaltinformation und sind an eine Helligkeitsinformation angepasst.
  • Zusätzlich sind bei der vorliegenden Erfindung eine vor eine BBM-Einheit geschaltete Auffülleinheit, eine BBM-Einheit und eine BBS-Einheit vorgesehen. Die vor die BBM-Einheit geschaltete Auffülleinheit empfängt Gestaltinformationen (VM.7X), die von der Gestaltinformations-Codiereinheit codiert und decodiert wurden, und Informationen über die ursprüngliche Gestalt (VM7.0) und die Videoinformationen werden durch die Blockeinheit auf der Grundlage der Informationen über die ursprüngliche Videogestalt oder der eingegebenen Informationen über die wiedergewonnene Gestalt verarbeitet, und die Intervideoinformationen werden für eine LPE-Auffülltechnik verwendet, und die Intervideoinformationen werden für eine Nullauffüllung verwendet.
  • Das BBM empfängt Gestaltinformationen und ursprüngliche Videoinformationen, die von der Gestaltinformations-Codiereinheit codiert, decodiert und dann rekonstruiert wurden, und führt einen Vereinigungsschritt mit Bezug auf Gestaltinformationen und Videoinformationen durch, wie in Fig. 9B gezeigt ist, unter Verwendung von Gestaltinformationen.
  • Danach wird der wie "C" in Fig. 9B zu vereinigende Block in einem Außerobjektblock geändert, und der wie "A" vereinigte Block wird ersetzt durch die Videoinformationen mit einem Mittelwert, der einen Pixelwert eines Außerobjektbereichs verwendet, der durch den Durchgangswert der Blöcke "A" und "C" ersetzt wurde, mit Bezug auf die Pixel des Außerobjektbereichs außerhalb der vereinigten Gestaltinformationen.
  • Zusätzlich empfängt das BBS Gestaltinformationen, die von der Eingangsgestaltinformations-Codiereinheit codiert und rekonstruiert wurden, und Videoinformationen, die nach der BBM decodiert und wiedergewonnen wurden, tastet einen in einem vereinigten Zustand codierten Block aus den wiedergewonnen Blöcken durch Verwendung von Gestaltinformationen ab, und teilt, wie in Fig. 9C gezeigt ist, durch Verwendung der eingegebenen Informationen der Gestaltinformationen vor dem Vereinigungsschritt wiedergewonnene Videoinformationen.
  • Zuerst wird die Objektgrenzblock-Vereinigungstechnik (BBM) wie folgt klassifiziert. Eine Horizontalvereinigungstechnik, wie in Fig. 10A gezeigt, eine Vertikalvereinigungstechnik wie in Fig. 10B gezeigt, und eine Diagonalrichtungs-Vereinigungstechnik wie in Fig. 100 gezeigt.
  • Fig. 11A ist ein Flussdiagramm, das eine BBM illustriert, welche drei Modelle gemäß der vorliegenden Erfindung anwendet. Fig. 11B ist ein Flussdiagramm, das eine BBS illustriert, die drei Modelle gemäß der vorliegenden Erfindung anwendet, und Fig. 12 ist eine Ansicht, die ein Ausführungsbeispiel für die Anwendung einer BBM/BBS auf einem Helligkeitsblock gemäß der vorliegenden Erfindung illustriert.
  • Hier werden Gestaltinformationen vereinigt für eine Beurteilung des überlappten Zustands, und die BBM und BBS werden nicht vereinigt und übertragen. Dieselben werden nur für eine Strukturinformationsvereinigung verwendet.
  • Zusätzlich können BBM und BBS an dem Übertragungsanschluss durchgeführt werden, d. h. in dem Videoinformations-Codiersystem. Nur die BBS wird an dem Empfangsanschluss durchgeführt, d. h. in dem Videoinformations-Decodiersystem.
  • Wie in Fig. 11A gezeigt ist, wird, nachdem ein Horizontalvereinigungsschritt im Schritt S1 durchgeführt wurde, im Schritt S2 festgestellt, ob zumindest ein vereinigter Block in einem Makroblock existiert. Als ein Ergebnis der Feststellung wird, wenn kein vereinigter Block vorhanden ist, ein Vertikalvereinigungsschritt im Schritt S3 durchgeführt. Danach wird festgestellt, ob zumindest ein vereinigter Block in einem Makroblock existiert. Als ein Ergebnis der Feststellung wird, wenn kein vereinigter Block vorhanden ist, ein Diagonalvereinigungsschritt im Schritt S5 durchgeführt.
  • Bei diesem Ausführungsbeispiel nach der vorliegenden Erfindung wird der Vereinigungsschritt wie folgt durchgeführt: Horizontalvereinigung -→ Vertikalvereinigung -→ Diagonalvereinigung. Der Vereinigungsschritt kann vorzugsweise wie folgt durchgeführt werden: Horizontalvereinigung -→ Diagonalvereinigung -→ Vertikalvereinigung, oder Vertikalvereinigung -→ Horizontalvereinigung -→ Diagonalvereinigung, oder Vertikalvereinigung -→ Diagonalvereinigung -→ Horizontalvereinigung, oder Diagonalvereinigung -→ Vertikalvereinigung -→ Horizontalvereinigung, oder Diagonalvereinigung -→ Horizontalvereinigung -→ Vertikalvereinigung.
  • Von den vorstehend beschriebenen Vereinigungsschritten wird nun die Horizontalvereinigung mit Bezug auf Fig. 10A erläutert.
  • In einem ersten Schritt werden, wenn sich ein Block A und ein Block B auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blocks B um 180º erhalten wurde, und dem Block A besteht, das Objekt und Gestaltinformationen, die durch Drehen des Blocks B um 180º erhalten wurden, mit dem Block A vereinigt, und der Block 8 wird in einen Außerobjektblock geändert.
  • Zu dieser Zeit bezeichnet der Block, der in den Außerobjektblock umgewandelt wurde, einen Block, in welchem das Vereinigungsergebnissignal bewegt ist, und es gibt keine Strukturinformationen.
  • In einem zweiten Schritt werden, wenn der Block C und der Block D sich auf den Objektgrenzblock beziehen und kein Objektpixel in dem Block, der durch Drehen des Blocks D um 180º erhalten wurde, und dem Block C vorhanden ist, das Objekt und Gestaltinformationen, die durch Drehen des Blocks D um 180º erhalten wurden, mit dem Block C vereinigt, und dann wird der Block D in einen Außerobjektblock geändert.
  • Wenn mehr als ein durch die Horizontalvereinigungstechnik vereinigter Objektgrenzblock vorhanden ist, werden die Vertikalvereinigung und die Diagonalrichtungsvereinigung übersprungen, und wenn kein durch die Horizontalvereinigungstechnik vereinigter Objektgrenzblock vorhanden ist, wird der Vertikalvereinigungsschritt durchgeführt.
  • Als Nächstes wird der Vertikalvereinigungsschritt mit Bezug auf Fig. 10B erläutert.
  • In einem ersten Schritt werden, wenn der Block A und der Block C sich auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blocks C um 180º und dem Block A vorhanden ist, das Objekt und Gestaltinformationen, die durch Drehen des Blocks C um 180º erhalten wurden, mit dem Block A vereinigt, und der Block C wird in einen Außerobjektblock geändert.
  • In einem zweiten Schritt werden, wenn der Block B und der Block D sich auf den Objektgrenzblock beziehen und kein Objektpixel in dem Block, der durch Drehen des Blocks um 180º erhalten wurde, und dem Block B befindet, das Objekt und die Gestaltinformationen, die durch Drehen des Blockes B um 180º erhalten wurden, mit dem Block B vereinigt, und dann wird der Block D in einen Außerobjektblock geändert.
  • Wenn mehr als ein durch die Vertikalvereinigungstechnik vereinigter Objektgrenzblock vorhanden ist, wird die Diagonalvereinigung übersprungen, und wenn kein durch die Vertikalvereinigungstechnik vereinigter Objektgrenzblock vorhanden ist, wird der Diagonalvereinigungsschritt durchgeführt.
  • Als Nächstes wird der Diagonalvereinigungsschritt nun mit Bezug auf Fig. 100 erläutert.
  • In einem ersten Schritt werden, wenn der Block A und der Block D sich auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blocks D um 180º erhalten wurde, und dem Block A vorhanden ist, das Objekt und die Gestaltinformationen, die durch Drehen des Blocks D um 180º erhalten wurden, mit dem Block A vereinigt, und der Block D wird in einem Außerobjektblock geändert.
  • In einem zweiten Schritt werden, wenn der Block B und der Block C sich auf den Objektgrenzblock beziehen und kein Objektpixel in dem Block, der durch Drehen des Blocks C um 180º erhalten wurde und dem Block B vorhanden ist, das Objekt und die Gestaltinformationen, die durch Drehen des Blocks C um 180º erhalten wurden, mit dem Block B vereinigt, und dann wird der Block D in einen Außerobjektblock geändert.
  • Wenn ein durch die Objektgrenzblock-Vereinigungstechnik vereinigter Block gebildet ist, werden die Pixelwerte mit Bezug auf das Außerobjektpixel in dem vereinigten Block bestimmt durch Verwendung der in dem vereinigten Block bestimmten Pixelwerte.
  • Zu dieser Zeit können Gestaltinformationen eines ursprünglichen Videos oder wiedergewonnene Gestaltinformationen als die Gestaltinformationen verwendet werden.
  • Wie in Fig. 10A gezeigt ist, wird unter der Annahme, dass der Außerobjekt-Pixelwert vor Vereinigung des aus den vereinigten Blöcken gebildeten Blocks A als "a" bezeichnet wird, der Außerobjekt-Pixelwert vor Vereinigung des Blockes B als "b" bezeichnet wird, die Anzahl der Intraobjektpixel als "num_a" bezeichnet wird und die Anzahl der Intraobjektpixel in dem Block B als "num_b" bezeichnet wird, wenn die Blöcke A und B vereinigt werden, ein vorbestimmter Wert "aX num_a+ bX num_b)/(num_a+num_b) bestimmt und dann wird der Auffüllvorgang durchgeführt.
  • Zusätzlich wird, wenn zwei Objektgrenzblöcke A und B vereinigt werden, ein Mittelwert (a+b)/2 für einen Wiederauffüllschritt bestimmt, und dann wird das Außerobjektpixel aufgefüllt.
  • Der eine Vereinigung des Objektgrenz-Subblocks verwendete Codierschritt wird nun in einem Zustand beschrieben, in welchem die Vereinigungsbedingung nicht codiert ist, wie in den Fig. 12, 13 und 14 gezeigt ist, in denen ein erster Objektgrenz-Subblock nicht angepasst ist. D. h., die Anpassung des zweiten Objektgrenz-Subblocks wird nun erläutert.
  • Wie in Fig. 12 gezeigt ist, wird der Helligkeitsblock mit einem anderen Helligkeitsblock vereinigt mit Bezug auf vier Helligkeitsblöcke und zwei Farbblöcke in dem Objektgrenzblock, und der Farbblock wird mit einem anderen Block vereinigt oder der Helligkeitsblock wird mit dem Farbblock vereinigt und dann codiert.
  • Wie in Fig. 12 gezeigt ist, werden der erste Helligkeitsblock, der vierte Helligkeitsblock, der erste Farbblock und der zweite Farbblock als ein Objektgrenz-Subblock bezeichnet.
  • Wie in Fig. 12 gezeigt ist, wird der Helligkeitsblock mit einem anderen Helligkeitsblock vereinigt, und der Farbblock wird mit einem anderen Farbblock vereinigt. Zusätzlich wird, wie in Fig. 13 gezeigt ist, wenn ein Subblock als ein Helligkeitsblock definiert ist, nur der Helligkeitsblock angepasst, und die Vereinigungsbedingung wird verwendet ohne Definieren des Helligkeitsblocks und des Farbblocks.
  • In den vorbeschriebenen beiden Fällen wird die Vereinigungsbedingung nach dem zweiten Block unter den Objektgrenz-Subblöcken an den Objektgrenz-Subblock angepasst.
  • Wenn kein überlapptes Blockpixel zwischen dem Objektgrenz-Subblock, für welchen die Vereinigungsbedingung angepasst ist, und dem ersten Objektgrenz- Subblock vorhanden ist, wird ein Codierblock auf der Grundlage des nicht codierten ersten Objektgrenz- Subblocks und der Blockinformationen, an welche die Vereinigungsbedingung angepasst ist, gebildet.
  • D. h., wie in Fig. 13 gezeigt ist, unter der Annahme, dass zwei Subblöcke vorhanden sind, dass der zweite Subblock, der in "a" in Fig. 13 gezeigt ist, um 180º gedreht ist, wie in "c" in Fig. 13 gezeigt ist, und dann mit dem Subblock wie "a" in Fig. 13 in einer solchen Weise, wie in "d" in Fig. 13 gezeigt ist, vereinigt wird. Der in "b" in Fig. 13 gezeigte Subblock ist in der diagonalen Richtung symmetrisch gemacht, und wird dann mit einem Subblock wie in "a" in Fig. 13 in einer solchen Weise wie in "f" in Fig. 13 gezeigt, vereinigt.
  • Zusätzlich wird, wie in "g" in Fig. 13 gezeigt ist, der Subblock im Uhrzeigersinn um 90º gedreht oder, wie in "h" in Fig. 13 gezeigt ist, entgegen dem Uhrzeigersinn gedreht, oder er wird zu der vertikalen Mittellinie symmetrisch gemacht, wie in "i" in Fig. 13 gezeigt ist, oder er wird symmetrisch zu der horizontalen Richtung (nicht gezeigt) gemacht. Danach wird der Vereinigungsschritt unter der Bedingung durchgeführt, dass die in dem Subblock existierenden Gestaltinformationen nicht überlappt werden.
  • Unterschiedlich gegenüber dem in Fig. 13 gezeigten Ausführungsbeispiel werden, wenn der Objektgrenz- Subblock, der nicht codiert ist, danach existiert, die vorbeschriebenen Schritte wiederholt mit Bezug auf den vereinigten Codierblock, in dem die Vereinigungsbedingung an den Subblock angepasst wird.
  • Zu dieser Zeit wird, wenn eine Vereinigungsbedingung verbleibt, der Codierblock, der durch den Vereinigungsschritt gebildet ist, einer DCT unterzogen.
  • Die vorbeschriebenen Schritte werden wiederholt durchgeführt mit Bezug auf den Objektgrenz-Subblock, welcher nicht dem vereinigten Codierblock bildet.
  • Wenn der vereinigte Codierblock gebildet ist, wird der Codierblock codiert, und dann wird der DCT- Schritt bei einem Objektgrenz-Subblock als einen Codierblock durchgeführt, welcher Subblock nicht der Vereinigungsbedingung genügt.
  • D. h., die Strukturinformationen mit Intravideo- und Intervideodaten werden vereinigt, codiert und übertragen.
  • Zusätzlich wird die Objektgrenzblock-Teilungstechnik klassifiziert in eine Horizontalteilungstechnik "a", wie in Fig. 10 gezeigt ist, eine Vertikalteilungstechnik "b" und eine Diagonalteilungstechnik "c".
  • Fig. 11A ist ein Flussdiagramm, welches eine BBM illustriert, die drei Modelle gemäß der vorliegenden Erfindung anwendet, Fig. 11B ist ein Flussdiagramm, das eine BBS illustriert, welche drei Modelle gemäß der vorliegenden Erfindung anwendet, und Fig. 12 ist eine Ansicht, die ein Ausführungsbeispiel der Anwendung einer BBM/BBS auf einen Helligkeitsblock gemäß der vorliegenden Erfindung illustriert.
  • Der Schritt wird nun mit Bezug auf Fig. 11B beschrieben.
  • Wie in Fig. 11B gezeigt ist, wird, nachdem ein Horizontalteilungsschritt im Schritt S6 durchgeführt wurde, im Schritt S7 festgestellt, ob zumindest ein geteilter Block in einem Makroblock existiert. Als ein Ergebnis der Feststellung wird, wenn kein geteilter Block vorhanden ist, ein Vertikalteilungsschritt im Schritt S8 durchgeführt. Danach wird im Schritt S9 festgestellt, ob zumindest ein geteilter Block in einem Makroblock existiert. Als ein Ergebnis der Feststellung wird, wenn ein geteilter Block nicht vorhanden ist, ein Diagonalteilungsschritt im Schritt S10 durchgeführt.
  • Bei diesem Ausführungsbeispiel nach der vorliegenden Erfindung wird der Teilungsschritt wie folgt durchgeführt: Horizontalteilung -→ Vertikalteilung -→ Diagonalteilung. Der Teilungsschritt kann vorzugsweise wie folgt durchgeführt werden: Horizontalteilung -→ Diagonalteilung -→ Vertikalteilung, oder Vertikalteilung -→ Horizontalteilung -→ Diagonalteilung, oder Vertikalteilung -→ Diagonalteilung -→ Horizontalteilung, oder Diagonalteilung -→ Vertikalteilung Horizontalteilung, oder Diagonalteilung -→ Horizontalteilung -→ Vertikalteilung.
  • Der vorbeschriebene Teilungsschritt wird in dem Videoinformations-Codiersystem bzw. dem Videoinformations-Decodiersystem durchgeführt.
  • Von den vorbeschriebenen Teilungsschritten wird die Horizontalteilung nun mit Bezug auf Fig. 10A erläutert.
  • In einem ersten Schritt werden, wenn sich ein Block A und ein Block B auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blocks B um 180º erhalten wurde, und dem Block A vorhanden ist, die Intravideo- und Intervideo-Informationen des Blockes B, der in dem Block A um 180º gedreht wurde, geteilt, und die so geteilten Informationen werden um 180º gedreht, wodurch der Block B gebildet wird.
  • In einem zweiten Schritt werden, wenn ein Block C und ein Block D sich auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blocks D um 180º erhalten wurde, und dem Block A vorhanden ist, ein Video und Schätzfehlerinformationen des Blocks D, der in dem Block A um 180º gedreht wurde, geteilt, und die so geteilten Informationen werden um 180º gedreht, wodurch der Block D gebildet wird.
  • Wenn mehr als ein Objektgrenzblock vorhanden ist, der durch die Horizontalteilungstechnik geteilt wurde, werden die Vertikalteilung und die Diagonalrichtungsteilung übersprungen, und wenn kein Objektgrenzblock vorhanden ist, der durch die Horizontalteilungstechnik geteilt wurde, wird der Vertikalteilungsschritt durchgeführt.
  • Als Nächstes wird der Vertikalteilungsschritt nun mit Bezug auf Fig. 10B erläutert.
  • In einem ersten Schritt werden, wenn ein Block A und ein Block C sich auf einem Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blocks C um 180º erhalten wurde, und dem Block A vorhanden ist, die Intravideo- und Intervideo-Informationen des Blockes C, der in dem Block A um 180º gedreht wurde, geteilt, und die so geteilten Informationen werden um 180º gedreht, wodurch der Block C gebildet wird.
  • In einem zweiten Schritt werden, wenn ein Block B und ein Block D sich auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blockes D um 180º erhalten wurde, und dem Block B vorhanden ist, ein Video und Schätzfehlerinformationen des Blockes D, der um 180º in dem Block B gedreht wurde, geteilt, und die so geteilten Informationen werden um 180º gedreht, wodurch der Block D gebildet wird.
  • Wenn mehr als ein Objektgrenzblock vorhanden ist, die durch die Vertikalteilungstechnik geteilt wurde, wird die Diagonalteilung übersprungen, und wenn kein Objektgrenzblock vorhanden ist, der durch die Vertikalteilungstechnik geteilt wurde, wird der Diagonalteilungsschritt durchgeführt.
  • Als Nächstes wird der Diagonalteilungsschritt nun mit Bezug auf Fig. 100 erläutert.
  • In einem ersten Schritt werden, wenn ein Block A und ein Block D sich auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blockes D um 180º erhalten wurde, und dem Block A vorhanden ist, die Intravideo- und Intervideo-Informationen des Blockes D, der in dem Block A um 180º gedreht wurde, geteilt, und die so geteilten Informationen werden um 180º gedreht, wodurch der Block D gebildet wird.
  • In einem zweiten Schritt werden, wenn ein Block B und ein Block C sich auf einen Objektgrenzblock beziehen und kein überlapptes Blockpixel zwischen dem Block, der durch Drehen des Blockes C um 180º erhalten wurde, und dem Block B vorhanden ist, ein Video und Schätzfehlerinformationen des Blockes C, der in dem Block B um 180º gedreht wurde, geteilt, und die so geteilten Informationen werden um 180º gedreht, wodurch der Block C gebildet wird.
  • Fig. 14 illustriert ein Ausführungsbeispiel, das an eine Makroblockeinheit angepasst ist, welches eine Makroblock-Abtasteinheit 21 zum blockieren der Makroblockeinheit zu einer Videovereinigungseinheit, eine Vereinigungseinheit 22 zur Durchführung eines Vereinigungsschrittes und eine Videoinformations- Codiereinheit 23 zum Codieren des vereinigten Blockes und zum Ausgeben des codierten Blockes zu dem Multiplexer 18 enthält.
  • Zusätzlich illustriert Fig. 15 ein Ausführungsbeispiel, welches nicht auf eine Makroblockeinheit für das gesamte Video begrenzt ist, das eine Gesamtvideo- Vereinigungseinheit 24 zur Durchführung eines Vereinigungsschrittes mit Bezug auf das Video eines Gesamtobjektes, das die VOP bildet, und eine Videoinformations-Codiereinheit 23 zum Codieren des nicht vereinigten Blockes und des Blockes, der durch die Gesamtvideo-Vereinigungseinheit 24 vereinigt wurde, enthält.
  • Wie in Fig. 15 gezeigt ist, ist bei einem anderen Ausführungsbeispiel der vorliegenden Erfindung der Schritt hiervon auf den Block in dem Makroblock, der die VOP bildet, beschränkt, oder die Beschränkung ist nicht vorgesehen, und der Codierschritt wird anwendbar auf der Grundlage der Vereinigung zwischen dem Objektgrenzblock, der nicht mit Bezug auf das Gesamtvideo codiert ist wobei die Blöcke in acht Richtungen gebildet sind, nämlich nach oben, nach unten, nach links und nach rechts und unter 45º nach oben, nach unten, nach links und nach rechts.
  • Zu dieser Zeit ist der Schritt nicht begrenzt in dem Makroblock sowie durch den Makroblock. Er ist anwendbar auf die Codiereinheit (MxN-Bereich, z. B. 8 · 8 Blöcke), die an dem Objektgrenzblock gebildet ist.
  • Zusätzlich ist gemäß einem anderen Ausführungsbeispiel der vorliegenden Erfindung dieses Ausführungsbeispiel, zu welchem ein sequentielles Vereinigungsverfahren gemäß der vorliegenden Erfindung mit Bezug auf Fig. 4 verschieden implementiert ist.
  • Bei diesem Ausführungsbeispiel ist der Helligkeitsblock angepasst und der Farbblock ist angepasst. Zusätzlich ist es anwendbar ungeachtet des Helligkeitsblocks und des Farbblocks.
  • Zusätzlich ist die Anzahl der zu vereinigenden Blöcke auf zwei Objektgrenzblöcke begrenzt oder kann auf N(N = 2, 3, ..., n) begrenzt sein. Die Anzahl derselben kann unbegrenzt angepasst sein.
  • Das sequentielle Vereinigungsverfahren, das an den Helligkeitsblock angepasst ist und nicht die Anzahl der Blöcke begrenzt, wird nun erläutert.
  • D. h., der Objektgrenzblock-Vereinigungsschritt wird aufeinanderfolgend durchgeführt mit Bezug auf den Objektgrenzblock von dem Block A bis zu dem Block D.
  • Wenn der Block B mit Ausnahme der mit dem Block A vereinigten Blöcke nicht vereinigt ist, wird der Vereinigungsschritt für den Block B und den Block C durchgeführt. Wenn der Block C nicht vereinigt ist, wird der Vereinigungsschritt mit dem Block D unter Verwendung der Blöcke des Blockes C durchgeführt.
  • Zu dieser Zeit wird die Vereinigung wie folgt implementiert. (A, B), (A, C), (A, D), (B, C), (B, D), (C, D), (A, B, C), (A, B, D), (B, C, D), (A, B, C, D).
  • Vorstehend beschrieben wird gemäß der vorliegenden Erfindung eine Technik zur Erzielung einer gewünschten Videoqualität durch Verwendung eines Raumüberschusses von Intravideo- und Intervideo-Informationen, der in einem Block und zwischen den Blöcken existiert, eine Reduzierung des Codierbits wird durchgeführt, und es ist möglich, die unnötigen Schritt zu überspringen, wodurch die Zeit verkürzt wird. Zusätzlich ist die für die Rekonstruktion eines wiedergewonnenen Videos und dessen Anzeige verwendete Objektgrenzblock-Teilungstechnik einfach. Zusätzlich ist es möglich, eine verbesserte Charakteristik hinsichtlich eines Codierwirkungsgrades und der Zeitverzögerung ohne Vergrößerung der Komplexität zu erhalten, wodurch das Schrittleistungsvermögen des Systems erhöht wird.
  • Obgleich die bevorzugten Ausführungsbeispiel der vorliegenden Erfindung für beispielhafte Zwecke offenbart wurden, erkennt der Fachmann, dass verschiedene Modifikationen, Zusätze und Ersetzungen möglich sind, ohne dass von dem Umfang und Geist der Erfindung abgewichen wird, wie sie in den begleitenden Ansprüchen wiedergegeben ist.

Claims (44)

1. Videoinformations-Codierverfahren, welches eine Objektgrenzen-Blockvereinigungstechnik anwendet, wenn ein Strukturinformations(Intra- Strukturdaten)-Signal codiert wird unter Verwendung von Gestaltinformationen, wobei ein Videoinformations-Codiersystem auf der Grundlage von Gestaltinformationen implementiert wird, welches aufweist:
Vereinigen mehrerer Objektgrenzenblöcke;
Beurteilen, ob ein überlapptes Blocksignal unter den Blocksignalen vorhanden ist, unter Verwendung von Gestaltinformationen der Objektgrenzenblöcke; und
Vereinigen der Blöcke, in welchen keine überlappten Blockpixel als ein Ergebnis der Beurteilung existieren.
2. Verfahren nach Anspruch 1, worin der Vereinigungsschritt gerichtet ist auf die Vereinigung mehrerer Objektgrenzenblöcke in einer vertikalen Richtung.
3. Verfahren nach Anspruch 1, worin der Vereinigungsschritt gerichtet ist auf die Vereinigung mehrerer Objektgrenzenblöcke in einer horizontalen Richtung.
4. Verfahren nach Anspruch 1, worin der Vereinigungsschritt gerichtet ist auf die Vereinigung mehrerer Objektgrenzenblöcke in einer diagonalen Richtung.
5. Verfahren nach Anspruch 1, worin der Vereinigungsschritt gerichtet ist auf die aufeinander folgende Vereinigung von Subblöcken in die identischen Makroblöcke.
6. Verfahren nach Anspruch 5, worin der Auffüllschritt durchgeführt wird durch Bestimmen von Extraobjekt-Pixelwerten der Objektgrenzenblöcke als einen vorbestimmten Wert, bevor der Vereinigungsschritt durchgeführt wird.
7. Verfahren nach Anspruch 6, weiterhin auffüllend den Pixelwert mit Bezug auf ein Extraobjekt- Pixel des vereinigten Blockes als einen vorbestimmten Wert.
8. Verfahren nach Anspruch 5, worin der Auffüllschritt durchgeführt wird durch Bestimmen eines Extraobjekt-Pixelwertes des vereinigten Blockes als einen vorbestimmten Wert, nachdem der Vereinigungsschritt durchgeführt wurde.
9. Verfahren nach Anspruch 8, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein vorbestimmter Wert für einen Wiederauffüllschritt wie folgt gegeben ist:
(aX num_a + bX num_b) / (num_a + num_b) worin "a" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes A bezeichnet;
"b" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes B bezeichnet;
"num_a" die Anzahl von Intraobjekt-Pixeln des Blockes A bezeichnet; und
"num_b" die Anzahl von Intraobjekt-Pixeln des Blockes B bezeichnet.
10. Verfahren nach Anspruch 8, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein Extraobjekt-Pixel durch den folgenden Mittelwert durchgeführt wird:
(a+b)/2
worin "a" einen Extraobjekt-Pixelwert vor Vereinigung des Blockes "A" bezeichnet; und
"b" einen Extraobjekt-Pixelwert vor Vereinigung des Blockes B bezeichnet.
11. Verfahren nach Anspruch 8, worin ein Auffüllschritt durchgeführt wird durch Bestimmen des Extraobjekt-Pixelwertes des vereinigten Blockes als Null, wenn die Extraobjekt-Pixel des Objektgrenzenblockes einer Nullauffüllung unterzogen werden, bevor der Vereinigungsschritt durchgeführt wird.
12. Verfahren nach Anspruch 1, worin die Gestaltinformationen auf die Verwendung von rekonstruierten Gestaltinformationen gerichtet sind.
13. Videoinformations-Codierverfahren, das eine Objektgrenzenblock-Vereinigungstechnik anwendet, wenn ein Strukturinformations(Intra- Strukturdaten und restliche Strukturdaten)-Signal codiert wird unter Verwendung von Gestaltinformationen, wobei ein Videoinformations- Codiersystem implementiert ist auf der Grundlage von Gestaltinformationen, welches aufweist:
einen Horizontalvereinigungsschritt zum Vereinigen eines Strukturinformationsblockes in einer horizontalen Richtung und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen der Blöcke;
einen Vertikalvereinigungsschritt zum Vereinigen eines Strukturinformationsblockes in einer vertikalen Richtung und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen der Blöcke; und
einen Diagonalvereinigungsschritt zum Vereinigen eines Strukturinformationsblockes in einer diagonalen Richtung und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen der Blöcke, wobei die Vereinigungsschritte aufeinander folgend in einer zufälligen Reihenfolge durchgeführt werden können und verbleibende Vereinigungsschritte nicht durchgeführt werden, wenn ein vereinigter Block vorhanden ist, und die Vereinigungsschritte und die Makroblockeinheit durchgeführt werden.
14. Verfahren nach Anspruch 13, worin der Auffüllschritt durchgeführt wird durch Bestimmen von Extraobjekt-Pixelwerten der Objektgrenzenblöcke als einen vorbestimmten Wert, bevor der Vereinigungsschritt durchgeführt wird.
15. Verfahren nach Anspruch 14, weiterhin auffüllend den Pixelwert mit Bezug auf ein Extraobjekt- Pixel des vereinigten Blockes als einen vorbestimmten Wert, nachdem der Vereinigungsschritt durchgeführt wurde.
16. Verfahren nach Anspruch 13, worin der Auffüllschritt durchgeführt wird durch Bestimmen eines Extraobjekt-Pixelwertes des vereinigten Blockes als einen vorbestimmten Wert, nachdem der Vereinigungsschritt durchgeführt wurde.
17. Verfahren nach Anspruch 16, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein vorbestimmter Wert für einen Wiederauffüllschritt wie folgt gegeben ist:
(aX num_a + bX num_b)/(num_a + num_b)
worin "a" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes A bezeichnet;
"b" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes B bezeichnet;
"num_a" die Anzahl von Intraobjekt-Pixeln des Blockes A bezeichnet; und
"num_b" die Anzahl von Intraobjekt-Pixeln des Blockes B bezeichnet.
18. Verfahren nach Anspruch 16, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein Extraobjekt-Pixel durch den folgenden Mittelwert durchgeführt wird:
(a+b)/2
worin "a" einen Extraobjekt-Pixelwert vor Vereinigung des Blockes "A" bezeichnet; und
"b" einen Extraobjekt-Pixelwert vor Vereinigung des Blockes B bezeichnet.
19. Verfahren nach Anspruch 16, worin ein Auffüllschritt durchgeführt wird durch Bestimmen des Extraobjekt-Pixelwertes des vereinigten Blockes als Null, wenn die Extraobjekt-Pixel des Objektgrenzenblockes einer Nullauffüllung unterzogen werden, bevor der Vereinigungsschritt durchgeführt wird.
20. Verfahren nach Anspruch 13, worin die Gestaltinformationen auf die Verwendung von rekonstruierten Gestaltinformationen gerichtet sind.
21. Videoinformations-Codier/Decodier-Verfahren, das eine Objektgrenzenblock-Vereinigungs/Teilungs- Technik anwendet, wenn mehrere Objektgrenzenblöcke mit einem Strukturinformations(Intra- Strukturdaten und restliche Strukturdaten)- Signal codiert/decodiert werden unter Verwendung von Gestaltinformationen, wobei ein Videoinformations-Codiersystem auf der Grundlage von Gestaltinformationen implementiert ist, welches aufweist:
Vereinigen mehrerer Objektgrenzenblöcke, Beurteilen, ob ein überlapptes Blocksignal vorhanden ist, durch Verwendung von Gestaltinformationen der Objektgrenzenblöcke, und Nichtvereinigen der Blöcke mit einem überlappten Pixel als ein Ergebnis der Beurteilung; und
Vereinigen von Gestaltinformationsblöcken, Beurteilen, ob ein vereinigter Block vorhanden ist, durch Prüfen, ob ein überlapptes Signal vorhanden ist, Teilen eines vereinigten Blockes durch Verwendung von Gestaltinformationen, wenn ein vereinigter Block als ein Ergebnis der Beurteilung vorhanden ist, und Wiedergewinnen des vereinigten Blockes als einen ursprünglichen Block.
22. Verfahren nach Anspruch 21, worin die Gestaltinformationen auf die Verwendung von rekonstruierten Gestaltinformationen gerichtet sind.
23. Verfahren nach Anspruch 21, worin der Auffüllschritt durchgeführt wird durch Bestimmen von Extraobjekt-Pixelwerten der Objektgrenzenblöcke als einen vorbestimmten Wert, bevor der Vereinigungsschritt durchgeführt wird.
24. Verfahren nach Anspruch 23, weiterhin auffüllend den Pixelwert mit Bezug auf ein Extraobjekt- Pixel des vereinigten Blockes als einen vorbestimmten Wert.
25. Verfahren nach Anspruch 21, worin der Auffüllschritt durchgeführt wird durch Bestimmen eines Extraobjekt-Pixelwertes des vereinigten Blockes als einen vorbestimmten Wert, nachdem der Vereinigungsschritt durchgeführt wurde.
26. Verfahren nach Anspruch 25, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein vorbestimmter Wert für einen Wiederauffüllschritt wie folgt gegeben ist:
(aX num_a + bX num_b)/(num_a + num_b)
worin "a" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes A bezeichnet;
"b" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes B bezeichnet;
"num_a" die Anzahl von Intraobjekt-Pixeln des Blockes A bezeichnet; und
"num_b" die Anzahl von Intraobjekt-Pixeln des Blockes B bezeichnet.
27. Verfahren nach Anspruch 25, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein Extraobjekt-Pixel durch den folgenden Mittelwert durchgeführt wird:
(a+b)/2
worin "a" einen Extraobjekt-Pixelwert vor Vereinigung des Blockes "A" bezeichnet; und
"b" einen Extraobjekt-Pixelwert vor Vereinigung des Blockes B bezeichnet.
28. Verfahren nach Anspruch 25, worin ein Auffüllschritt durchgeführt wird durch Bestimmen des Extraobjekt-Pixelwertes des vereinigten Blockes als Null, wenn die Extraobjekt-Pixel des Objektgrenzenblockes einer Nullauffüllung unterzogen werden, bevor der Vereinigungsschritt durchgeführt wird.
29. Videoinformations-Codier/Decodier-Verfahren, das eine Objektgrenzenblock-Vereinigungs/Teilungs- Technik anwendet, wenn mehrere Objektgrenzenblöcke mit einem Strukturinformations(Intra- Strukturdaten und restliche Strukturdaten)- Signal codiert/decodiert wird unter Verwendung von Gestaltinformationen, wobei ein Videoinformations-Codiersystem implementiert ist auf der Grundlage von Gestaltinformationen, welches aufweist:
Vereinigen von Strukturinformationsblöcken in einer horizontalen Richtung, Beurteilen, ob diese Blöcke überlappt sind, durch Verwendung von Gestaltinformationen der Blöcke, und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist;
Vereinigen von Strukturinformationsblöcken in einer vertikalen Richtung, Beurteilen, ob die Blöcke überlappt sind, durch Verwendung von Gestaltinformationen der Blöcke, und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist;
Vereinigen von Strukturinformationsblöcken in einer diagonalen Richtung, Beurteilen, ob die Blöcke überlappt sind, durch Verwendung von Gestaltinformationen der Blöcke, und Beenden des Vereinigungsschrittes, wenn kein überlappter Block vorhanden ist;
aufeinander folgendes Durchführen der vorstehenden drei Vereinigungsschritte in zufälliger Reihenfolge und Beenden der verbleibenden Vereinigungsschritte;
einen horizontalen Teilungsschritt, bei welchem ein Horizontalrichtungs- Strukturinformationsblock geteilt wird mit Bezug auf die Gestaltinformationen, und der Block als ein ursprünglicher Block wiedergewonnen wird, wenn kein überlappter Block vorhanden ist, durch Beurteilung, ob ein überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen;
einen vertikalen Teilungsschritt, bei welchem ein Vertikalrichtungs-Strukturinformationsblock geteilt wird mit Bezug auf die Gestaltinformationen, und der Block als ein ursprünglicher Block wiedergewonnen wird, wenn kein überlappter Block vorhanden ist, durch Beurteilen, ob ein überlappter Block vorhanden ist, unter Verwendung der Gestaltinformationen; und
einen Diagonalteilungsschritt, bei welchem ein Diagonalrichtungs-Strukturinformationsblock geteilt wird mit Bezug auf die Gestaltinformationen, und der Block als ein ursprünglicher Block wiedergewonnen wird, wenn kein überlappter Block vorhanden ist, durch Beurteilung, ob ein überlappter Block vorhanden ist, durch Verwendung der Gestaltinformationen, wobei die vorstehenden drei Teilungsschritte aufeinander folgend in zufälliger Reihenfolge durchgeführt werden, und die verbleibenden Teilungsschritte nicht durchgeführt werden, wenn ein geteilter Block vorhanden ist, und die obigen drei Teilungsschritte durch die Makroblockeinheit durchgeführt werden.
30. Verfahren nach Anspruch 29, worin die Gestaltinformationen auf die Verwendung von rekonstruierten Gestaltinformationen gerichtet sind.
31. Verfahren nach Anspruch 29, worin der Auffüllschritt durchgeführt wird durch Bestimmen von Extraobjekt-Pixelwerten der Objektgrenzenblöcke als einen vorbestimmten Wert, bevor der Vereinigungsschritt durchgeführt wird.
32. Verfahren nach Anspruch 31, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein vorbestimmter Wert für einen Wiederauffüllschritt wie folgt gegeben ist:
(aX num_a + bX num_b)/(num_a + num_b)
worin "a" einen Extraobjekt-Pixelwert vor einer Vereinigung des Blockes A bezeichnet;
"b" den Extraobjekt-Pixelwert vor einer Vereinigung des Blockes B bezeichnet;
"num_a" die Anzahl von Intraobjekt-Pixeln des Blockes A bezeichnet; und
"num_b" die Anzahl von Intraobjekt-Pixeln des Blockes B bezeichnet.
33. Verfahren nach Anspruch 31, worin, wenn zwei Objektgrenzenblöcke A und B vereinigt werden, ein Extraobjekt-Pixel durch den folgenden Mittelwert durchgeführt wird:
(a+b)/2
worin "a" einen Extraobjekt-Pixelwert vor der Vereinigung des Blockes "A" bezeichnet; und
"b" einen Extraobjekt-Pixelwert vor der Vereinigung des Blockes B bezeichnet.
34. Verfahren nach Anspruch 31, worin ein Auffüllschritt durchgeführt wird durch Bestimmen des Extraobjekt-Pixelwertes des vereinigten Blockes als Null, wenn die Extraobjekt-Pixel des Objektgrenzenblockes einer Nullauffüllung unterzogen werden, bevor der Vereinigungsschritt durchgeführt wird.
35. Verfahren nach Anspruch 31, weiterhin auffüllend den Pixelwert mit Bezug auf ein Extraobjekt- Pixel des vereinigten Blockes als einen vorbestimmten Wert.
36. Verfahren nach Anspruch 29, worin der Auffüllschritt durchgeführt wird durch Bestimmen eines Extraobjekt-Pixelwertes des vereinigten Blockes als einen vorbestimmten Wert, nachdem der Vereinigungsschritt durchgeführt wurde.
37. Videoinformations-Decodierverfahren, das eine Objektgrenzenblock-Teilungstechnik anwendet, wenn mehrere Objektgrenzenblöcke mit einem Strukturinformationen(Intra-Strukturdaten und restliche Strukturdaten)-Signal unter Verwendung von Gestaltinformationen decodiert werden, welches aufweist:
(a) Vereinigen von Gestaltinformationsblöcken;
(b) Beurteilen, ob ein vereinigter Block vorhanden ist, durch Prüfen, ob ein überlapptes Signal zwischen den Gestaltinformationsblöcken vorhanden ist, unter Verwendung von Gestaltinformationen der Gestaltinformationsblöcke; und
(c) Teilen des vereinigten Blockes durch Verwendung der Gestaltinformationen, wenn ein vereinigter Block vorhanden ist als ein Ergebnis der Beurteilung, um den vereinigten Block als einen ursprünglichen Block wiederzugewinnen.
38. Verfahren nach Anspruch 37, worin der Teilungsschritt auf die Teilung mehrerer Objektgrenzenblöcke in einer vertikalen Richtung gerichtet ist.
39. Verfahren nach Anspruch 37, worin der Teilungsschritt auf die Teilung mehrerer Objektgrenzenblöcke in einer horizontalen Richtung gerichtet ist.
40. Verfahren nach Anspruch 37, worin der Teilungsschritt auf die Teilung mehrerer Objektgrenzenblöcke in einer diagonalen Richtung gerichtet ist.
41. Verfahren nach Anspruch 37, worin der Teilungsschritt auf die aufeinander folgende Teilung von Subblöcken in die identischen Makroblöcke gerichtet ist.
42. Verfahren nach Anspruch 37, worin die Gestaltinformationen auf die Verwendung von rekonstruierten Gestaltinformationen gerichtet sind.
43. Videoinformations-Decodierverfahren, welches eine Objektgrenzenblock-Teilungstechnik anwendet, wenn mehrere Objektgrenzenblöcke mit einem Strukturinformations(Intra-Strukturdaten und restliche Strukturdaten)-Signal unter Verwendung von Gestaltinformationen decodiert werden, welches aufweist:
einen Horizontalteilungsschritt, in welchem ein Horizontalrichtungs-Strukturinformationsblock mit Bezug auf die Gestaltinformationen geteilt wird und der Block als ein ursprünglicher Block wiedergewonnen wird, wenn kein überlapptes Signal vorhanden ist durch Feststellung, daß ein vereinigter Block vorhanden ist, durch Verwendung der Gestaltinformationen;
einen Vertikalteilungsschritt, in welchem ein Vertikalrichtungs-Strukturinformationsblock mit Bezug auf die Gestaltinformationen geteilt wird und der Block als ein ursprünglicher Block wiedergewonnen wird, wenn kein überlapptes Signal vorhanden ist, durch Feststellen, ob ein vereinigter Block vorhanden ist, durch Verwendung der Gestaltinformationen; und
einen Diagonalteilungsschritt, bei welchem ein Diagonalrichtungs-Strukturinformationsblock mit Bezug auf die Gestaltinformationen geteilt wird und der Block als ein ursprünglicher Block wiedergewonnen wird, wenn kein überlapptes Signal vorhanden ist, durch Feststellen, ob ein vereinigter Block vorhanden ist, durch Verwendung der Gestaltinformationen, wobei die vorgenannten drei Teilungsschritte in zufälliger Reihenfolgen aufeinander folgend durchgeführt werden und die verbleibenden Teilungsschritte nicht durchgeführt werden, wenn ein geteilter Block vorhanden ist, und die vorstehenden drei Teilungsschritte durch die Makroblockeinheit durchgeführt werden.
44. Verfahren nach Anspruch 43, worin die Gestaltinformationen auf die Verwendung von rekonstruierten Gestaltinformationen gerichtet sind.
DE69712676T 1996-07-08 1997-07-08 Verfahren zur Videokodierung Expired - Lifetime DE69712676T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1019960027766A KR100417131B1 (ko) 1996-07-08 1996-07-08 매크로블록의합병과패딩을이용한모양적응영상부호화장치
KR1019960027767A KR100417133B1 (ko) 1996-07-08 1996-07-08 매크로블록의합병을이용한모양적응부호화시스템
KR1019960038406A KR100424680B1 (ko) 1996-09-05 1996-09-05 매크로블록의합병을이용한모양적응부호화시스템
KR1019970004739A KR100466592B1 (ko) 1997-02-17 1997-02-17 물체경계블록영상정보부호화방법
KR1019970004738A KR100466591B1 (ko) 1997-02-17 1997-02-17 영상정보부호화시물체경계블록합병후합병된블록내의픽셀값을부호화하는방법

Publications (2)

Publication Number Publication Date
DE69712676D1 DE69712676D1 (de) 2002-06-27
DE69712676T2 true DE69712676T2 (de) 2003-01-02

Family

ID=27532202

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69712676T Expired - Lifetime DE69712676T2 (de) 1996-07-08 1997-07-08 Verfahren zur Videokodierung

Country Status (4)

Country Link
US (1) US6314209B1 (de)
EP (1) EP0818930B1 (de)
JP (1) JP3895431B2 (de)
DE (1) DE69712676T2 (de)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0831658A3 (de) * 1996-09-24 1999-09-15 Hyundai Electronics Industries Co., Ltd. Koder/Dekoder zur Kodierung/Dekodierung von Grautonformdaten und Verfahren dafür
KR100501902B1 (ko) * 1996-09-25 2005-10-10 주식회사 팬택앤큐리텔 영상정보부호화/복호화장치및방법
JP4157929B2 (ja) * 1996-09-30 2008-10-01 株式会社ハイニックスセミコンダクター 映像情報符号化/復号化装置
KR100525563B1 (ko) * 1996-09-30 2006-01-12 주식회사 팬택앤큐리텔 영상정보 부호화/복호화 장치 및 그 방법
IL167288A (en) * 1997-04-01 2012-03-29 Sony Corp Image encryption device, image encryption method, image decryption device, image decryption method, and appropriate medium
US7239755B1 (en) 1997-07-30 2007-07-03 Lg Electronics Inc. Method of reducing a blocking artifact when coding moving picture
KR100244290B1 (ko) * 1997-09-09 2000-02-01 구자홍 저속 전송에서의 동영상을 위한 디블록킹 필터링 방법
DE69942224D1 (de) * 1998-01-27 2010-05-20 Sharp Kk Bewegtbilddecoder
KR100382516B1 (ko) * 1999-01-15 2003-05-01 주식회사 팬택앤큐리텔 물체 단위 영상신호 부호화/복호화 장치 및 방법
US6473876B1 (en) * 1999-06-29 2002-10-29 Sony Corporation Method and apparatus for encoding of bitstreams using rotation
US6493842B1 (en) 1999-06-29 2002-12-10 Sony Corporation Time-varying randomization for data synchronization and implicit information transmission
US6389562B1 (en) 1999-06-29 2002-05-14 Sony Corporation Source code shuffling to provide for robust error recovery
US6539517B1 (en) 1999-11-09 2003-03-25 Sony Corporation Data transformation for explicit transmission of control information
US6813388B2 (en) * 2000-02-07 2004-11-02 Matsushita Electric Industrial Co., Ltd. Image coding method, image coding apparatus and data storage medium
AU2001247315A1 (en) * 2000-03-10 2001-09-24 Sensormatic Electronics Corporation Method and apparatus for object tracking and detection
US7167259B2 (en) * 2000-05-16 2007-01-23 International Business Machines Corporation System and method for merging line work objects using tokenization and selective compression
KR100380229B1 (ko) * 2000-07-19 2003-04-16 엘지전자 주식회사 엠펙(MPEG) 압축 비디오 환경에서 매크로 블록의 시공간상의 분포를 이용한 와이프(Wipe) 및 특수 편집 효과 검출 방법
JP4571733B2 (ja) * 2000-07-31 2010-10-27 株式会社リコー 情報処理装置および情報処理方法
US6542087B2 (en) * 2001-01-31 2003-04-01 Hewlett-Packard Company System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device
WO2006034331A2 (en) * 2004-09-20 2006-03-30 Divx, Inc. Video deblocking filter
US7792385B2 (en) * 2005-01-25 2010-09-07 Globalfoundries Inc. Scratch pad for storing intermediate loop filter data
US8576924B2 (en) * 2005-01-25 2013-11-05 Advanced Micro Devices, Inc. Piecewise processing of overlap smoothing and in-loop deblocking
US7965773B1 (en) 2005-06-30 2011-06-21 Advanced Micro Devices, Inc. Macroblock cache
US7636497B1 (en) * 2005-12-27 2009-12-22 Advanced Micro Devices, Inc. Video rotation in a media acceleration engine
JP4507265B2 (ja) * 2008-06-30 2010-07-21 ルネサスエレクトロニクス株式会社 画像処理回路、及びそれを搭載する表示パネルドライバ並びに表示装置
US8249365B1 (en) * 2009-09-04 2012-08-21 Adobe Systems Incorporated Methods and apparatus for directional texture generation using sample-based texture synthesis
US8619098B2 (en) 2009-09-18 2013-12-31 Adobe Systems Incorporated Methods and apparatuses for generating co-salient thumbnails for digital images
US8599219B2 (en) 2009-09-18 2013-12-03 Adobe Systems Incorporated Methods and apparatuses for generating thumbnail summaries for image collections
EP2897365B1 (de) 2010-07-09 2017-02-01 Samsung Electronics Co., Ltd Vorrichtung zur Videodecodierung durch Verwendung von Blockzusammenführung
US9451253B2 (en) * 2012-04-24 2016-09-20 Lyrical Labs Video Compression Technology, LLC Macroblock partitioning and motion estimation using object analysis for video compression
US8861868B2 (en) 2011-08-29 2014-10-14 Adobe-Systems Incorporated Patch-based synthesis techniques
US9008436B2 (en) 2011-10-28 2015-04-14 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8938100B2 (en) 2011-10-28 2015-01-20 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9025836B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9025835B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8811747B2 (en) * 2011-10-28 2014-08-19 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
EP3157258B1 (de) * 2014-06-11 2020-08-05 LG Electronics Inc. Verfahren und vorrichtung zur codierung und decodierung eines videosignals unter verwendung von eingebetteter blockpartitionierung
US20190253624A1 (en) * 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
KR102531386B1 (ko) 2016-10-04 2023-05-12 주식회사 비원영상기술연구소 영상 데이터 부호화/복호화 방법 및 장치
US11284076B2 (en) * 2017-03-22 2022-03-22 Electronics And Telecommunications Research Institute Block form-based prediction method and device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5185808A (en) * 1991-06-06 1993-02-09 Eastman Kodak Company Method for merging images
US5321773A (en) * 1991-12-10 1994-06-14 Xerox Corporation Image recognition method using finite state networks

Also Published As

Publication number Publication date
EP0818930A2 (de) 1998-01-14
JP3895431B2 (ja) 2007-03-22
EP0818930A3 (de) 1998-12-02
EP0818930B1 (de) 2002-05-22
DE69712676D1 (de) 2002-06-27
US6314209B1 (en) 2001-11-06
JPH1079944A (ja) 1998-03-24

Similar Documents

Publication Publication Date Title
DE69712676T2 (de) Verfahren zur Videokodierung
DE69715239T2 (de) Videokompressionsmethode und vorrichtung
DE69723550T2 (de) Kodierung und dekodierung von grafischen symbolen
DE69522861T2 (de) Verfahren und Einrichtung zur Codeumwandlung von codiertem Datenstrom
DE69913990T2 (de) System zum editieren komprimierter bildsequenzen
DE69735402T2 (de) System und Methode zur Bewegungskompensation mit Hilfe eines Schrägziegelspeicherformats für verbesserte Effizienz
DE69320719T2 (de) Effiziente, frequenzskalierbare Videokodierung mit Koeffizientenwahl
DE69329983T2 (de) Bildverarbeitungsverfahren und -vorrichtung
DE69838729T2 (de) Verfahren und vorrichtung zur verringerung des benötigten speicherplatzes zur speicherung von referenzbildern in einem videodekoder
DE60309375T2 (de) Parametrisierung für verlauf-kompensation
DE19739266B4 (de) Verfahren und Vorrichtung zum Kodieren binärer Formen
DE19709391A1 (de) MPEG-Codier- und Decodiersystem für Multimediaanwendungen
EP1371229B1 (de) Verfahren zur komprimierung und dekomprimierung von videodaten
DE69937833T2 (de) Verfahren und vorrichtung zur skalierbaren formkodierung
DE69915843T2 (de) Teilbandkodierung/-dekodierung
DE102016125604A1 (de) Intelligente Sortierung der rekursiven Blockaufteilung für die erweiterte Intra-Prädiktion bei der Videocodierung
DE19752885A1 (de) Apparat und Verfahren zur Maskierung von Video-Datenfehlern
DE19816898B4 (de) Vorrichtung und Verfahren zum adaptiven Codieren eines Bildsignals
DE69324549T2 (de) Bewegtbilddekodierer
DE10204617A1 (de) Verfahren und Vorrichtungen zur Kompression und Dekompression eines Videodatenstroms
DE19744859B4 (de) Verfahren zum Codieren eines binären Formsignals
DE112021006478T5 (de) Verfahren und vorrichtung zum komprimieren von einer szene mit dreidimensionalem volumen repräsentierenden daten im hinblick auf eine echtzeit-dekompression für eine online-betrachtung
WO2000011874A1 (de) Verfahren und anordnung zur codierung eines digitalisierten bildes mit anwendung eines objektgesamtbewegungsvektors
DE69602125T2 (de) MPEG Dekoder
DE10022262A1 (de) Verfahren und eine Anordnung zur Codierung bzw. Decodierung einer Folge von Bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition