DE202016008177U1 - Bewegungsvektoraufteilung des letzten Frames - Google Patents

Bewegungsvektoraufteilung des letzten Frames Download PDF

Info

Publication number
DE202016008177U1
DE202016008177U1 DE202016008177.3U DE202016008177U DE202016008177U1 DE 202016008177 U1 DE202016008177 U1 DE 202016008177U1 DE 202016008177 U DE202016008177 U DE 202016008177U DE 202016008177 U1 DE202016008177 U1 DE 202016008177U1
Authority
DE
Germany
Prior art keywords
prediction
block
frame
motion vector
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202016008177.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE202016008177U1 publication Critical patent/DE202016008177U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Vorrichtung zum Kodieren oder Dekodieren eines Videosignals, wobei das Videosignal Frames beinhaltet, die eine Videosequenz definieren, wobei jeder Frame in mindestens einen Bereich aufgeteilt ist und jeder Bereich über Pixel verfügt, wobei die Vorrichtung die im Folgenden aufgeführten Sachverhalte umfasst: einen Prozessor; und einen nicht-transitorischen Speicher, der Anweisungen speichert, die den Prozessor dazu veranlassen, ein Verfahren auszuführen, welches die im Folgenden aufgeführten Sachverhalte umfasst: das Ermitteln einer ersten Aufteilung mindestens eines Abschnitts eines Frames, das sich vor einem gegenwärtigen Frame in der Videosequenz befindet; das Modifizieren der ersten Aufteilung zu einer zweiten Aufteilung unter Verwendung eines Bewegungsvektors, der mindestens einen Prädiktions-Unterbereich eines ersten Bereichs aus der ersten Aufteilung vorhersagt; und das Verwenden der zweiten Aufteilung zur Kodierung und zur Dekodierung eines gegenwärtigen Bereichs des gegenwärtigen Frames.

Description

  • HINTERGRUND
  • Digitale Videodatenströme stellen in der Regel Videos unter Verwendung einer Sequenz von Frames oder Standbilddateien dar. Jeder Frame kann eine Anzahl von Blöcken beinhalten, die wiederum Informationen umfassen können, die den Wert der Farbe, der Helligkeit oder sonstiger Pixelattribute beschreiben. Die Datenmenge eines Videodatenstroms ist hoch und die Übertragung und Speicherung von Video kann dementsprechend hohe Rechen- und Kommunikationskapazitäten in Anspruch nehmen. Aufgrund der großen Datenmenge, die in Verbindung mit Videodaten in Anspruch genommen wird, ist ein leistungsstarkes Komprimierungsverfahren für sowohl deren Übertragung als auch deren Speicherung erforderlich. In blockbasierten Codecs umfasst das Vorhersagetechniken, einschließlich der Vorhersage unter der Verwendung von Bewegungsvektoren. Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind dabei, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen.
  • ZUSAMMENFASSUNG
  • Diese Offenbarung betrifft im Allgemeinen das Kodieren und das Dekodieren visueller Daten, wie etwa Videostream-Daten, unter Verwendung einer Bewegungsvektoraufteilung des letzten Frames, die der Aufteilung des gegenwärtigen Frames erlaubt, auf der Aufteilung eines vorhergehenden Frames, der von einem oder mehreren Bewegungsvektoren eingestellt worden ist, basiert zu werden. Generell ausgedrückt, wird ein Block für eine Vorhersage in separate Bereiche aufgeteilt, indem die vorhergehenden Frame-Aufteilungen von einem der Bewegungsvektoren, die vom Bewegungsvektor des neuen Blocks abgedeckt werden, verschoben werden.
  • Ein Aspekt eines Verfahrens für das hierin durchgeführte Kodieren oder Dekodieren eines Videosignals beinhaltet das Ermitteln einer ersten Aufteilung mindestens eines Abschnitts eines Frames, das sich vor einem gegenwärtigen Frame in einer Videosequenz befindet. Das Videosignal beinhaltet Frames, welche die Videosequenz definieren, wobei der Frame in mindestens eine über Pixel verfügende Region aufgeteilt wird. Das Verfahren beinhaltet auch das Modifizieren der ersten Aufteilung zu einer zweiten Aufteilung unter der Verwendung eines Bewegungsvektors, der zumindest einen Prädiktions-Unterbereich eines ersten Bereichs aus der ersten Aufteilung vorhersagt, und die zweite Aufteilung verwendet, um einen gegenwärtigen Bereich des gegenwärtigen Frames zu kodieren oder zu dekodieren.
  • Ein Aspekt einer hierin beschriebenen Vorrichtung umfasst einen Prozessor und einen nicht-transitorischen Speicher, der Anweisungen speichert, welche den Prozessor dazu veranlassen, ein Verfahren, einschließlich der Ermittlung einer ersten Aufteilung mindestens eines Abschnitts eines Frames, das sich vor einem gegenwärtigen Frame in einer Videosequenz befindet, durchzuführen, wobei die erste Aufteilung zu einer zweiten Aufteilung unter der Verwendung eines Bewegungsvektors modifiziert wird, der zumindest einen Prädiktions-Unterbereich eines ersten Bereichs aus der ersten Aufteilung vorhersagt, und die zweite Aufteilung dazu verwendet, um einen gegenwärtigen Bereich des gegenwärtigen Frames zu kodieren oder zu dekodieren.
  • Ein weiterer Aspekt einer sich hierin befindlichen Vorrichtung besteht in einer Vorrichtung zur Kodierung eines Videosignals, wobei das Videosignal Frames beinhaltet, die eine Videosequenz definieren, wobei jeder Frame in Blöcke aufgeteilt ist, und jeder Block über Pixel verfügt. Die Vorrichtung umfasst einen Prozessor und einen nicht-transitorischen Speicher, der Anweisungen speichert, welche den Prozessor dazu veranlassen, ein Verfahren, einschließlich der Ermittlung einer ersten Aufteilung mindestens eines Abschnitts eines Frames, das sich vor einem gegenwärtigen Frame in einer Videosequenz befindet, durchzuführen, wobei die erste Aufteilung zu einer zweiten Aufteilung modifiziert wird, indem ein Standort, der die Grenzen des ersten Blocks identifiziert, von einem Vektor, der einen Prädiktions-Unterblock des ersten Blocks vorhersagt, innerhalb des Frames bewegt wird, um einen neuen Block zu identifizieren und wobei die erste Aufteilung, die innerhalb der Grenzen des neuen Blocks am Standort enthalten ist, von einem Bewegungsvektor eines Prädiktions-Unterblocks des Frames modifiziert wird, und dabei zumindest abschnittsweise den neuen Block unter Verwendung eines Bewegungsvektors, der mindestens einen Prädiktions-Unterblock des ersten Blocks, der von der ersten Aufteilung definiert wird, sowie unter Verwendung der zweiten Aufteilung, zur Kodierung eines gegenwärtigen Blocks des gegenwärtigen Frames, wobei der gegenwärtige Block sich innerhalb des ersten Blocks befindet, überlagert.
  • Diese und sonstige Aspekte der vorliegenden Offenbarung werden in der folgenden detaillierten Beschreibung, den beiliegenden Ansprüchen und den beiliegenden Figuren mit zusätzlichen Einzelheiten beschrieben.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Beschreibung nimmt Bezug auf die beiliegenden Zeichnungen, die nachfolgend beschrieben werden, wobei gleiche Referenzzahlen dieselben Teile für die verschiedenen Ansichten bezeichnen.
  • 1 ist ein Schaltplan eines Videokodierungs- und -dekodierungssystems.
  • 2 ist ein Blockdiagramm eines Beispiels eines Computergeräts, das eine Übertragungsstation oder eine Empfangsstation implementieren kann.
  • 3 ist ein Diagramm eines Videodatenstroms, der kodiert, und dann im Anschluss daran, dekodiert werden soll.
  • 4 ist ein Blockdiagramm eines Videokomprimierungssystems gemäß einem Aspekt der sich hierin befindlichen Lehren.
  • 5 ist ein Blockdiagramm eines Videodekomprimierungssystems gemäß einem anderen Aspekt der sich hierin befindlichen Lehren.
  • 6 ist ein Flussdiagramm eines Verfahrens für das Kodieren oder das Dekodieren eines Bereichs unter Verwendung einer Bewegungsvektoraufteilung des letzten Frames.
  • Bei den 7A7C sind Diagramme eines Beispiels, das verwendet wird, um das Verfahren aus 6 zu erläutern.
  • Bei den 8A und 8B sind Diagramme eines anderen Beispiels, das verwendet wird, um das Verfahren aus 6 zu erläutern.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ein Videodatenstrom kann von einer Vielzahl von Techniken komprimiert werden, um die Bandbreite zu reduzieren, die erforderlich ist, um den Videodatenstrom zu übermitteln oder zu speichern. Ein Videodatenstrom kann in einen Bitstream, der eine Kompression umfassen kann, kodiert werden, und kann dann an eine Dekodiervorrichtung übermittelt werden, die den Videodatenstrom dekodieren und dekomprimieren kann, um ihn auf eine Ansicht oder eine weitere Verarbeitung vorzubereiten. Das Kodieren eines Videodatenstroms kann Parameter umfassen, die Kompromisslösungen zwischen der Videoqualität und der Bitstream-Größe finden, wobei das Erhöhen der wahrgenommenen Qualität eines dekodierten Videodatenstroms die Anzahl der erforderlichen Bits zur Übertragung oder zur Speicherung des Bitstreams erhöhen.
  • Eine weitere Technik zur Erzielung einer überlegenen Kompressionsleistung nutzt die räumliche und zeitliche Wechselbeziehung des Videosignals über eine räumliche und/oder bewegungskompensierte Vorhersage aus. Die Interprädiktion bedient sich zum Beispiel eines Bewegungsvektors, um einen zuvor kodierten und dekodierten Block zu identifizieren, der einem gegenwärtigen Block, der kodiert werden soll, ähnelt. Und durch das Kodieren des Bewegungsvektors und aufgrund des Unterschieds zwischen den zwei Blöcken kann eine Dekodiervorrichtung den gegenwärtigen Block erneut erstellen.
  • Es ist oft wünschenswert, einen möglichst großen Block zu kodieren, um die Datenmenge, die Teil der Header des Bitstreams ist, das verwendet wird, um den Block zu dekodieren, auf ein Mindestmaß zu senken. Große Blöcke können jedoch dazu führen, dass ein größeres Verzerrungsausmaß als wünschenswert in Erscheinung tritt, und zwar insbesondere in denjenigen Fällen, in denen ein hoher Bewegungsanteil innerhalb des Blocks verzeichnet wird. Aus diesem Grund und um in der Lage zu sein. Objekte innerhalb eines Blocks besser miteinander abzugleichen, können größere Blocks in mehrere kleinere Blocks unterteilt werden. Zum Beispiel können Blocks von mindestens 16×16 Pixel im Frame einer Vorhersage in zwei Blöcke unterteilt werden, wobei die Größe eines Blocks infolge dieser Maßnahme auf jeweils 4×4 Pixel reduziert werden kann. Das Aufteilen von Frames unter Verwendung sonstiger Techniken, wie etwa Masken, Keile, usw. zeigt dieselben Qualitäten auf. Die Beschreibung der Aufteilung mit sich hierin befindlichen Blöcken ist demzufolge lediglich ein Beispiel der Ausgabe der Frameaufteilung.
  • Derzeit wird jeder Frame von Grund auf aufgeteilt – d. h. ohne Berücksichtigung der Aufteilung des vorhergehenden Frames. Im Gegensatz dazu beschreiben die sich hierin befindlichen Regeln eine Option, im Frame derer die Aufteilung des letzten Frames von Bewegungsvektoren im Frame verschoben wird, um eher eine neue Aufteilung zu generieren, als einen gesamten Frame jedes Mal aufs Neue aufteilen zu müssen. Im Allgemeinen werden Blöcke (oder vorhergehende Bereiche, die bereits von einem Frame aufgeteilt worden sind) in getrennte Bereiche aufgeteilt, indem eine vorhergehende Frameaufteilung (vorhergehende Frameaufteilungen) verschoben wird (werden), z. B. von einem der Bewegungsvektoren, der vom Bewegungsvektor der neuen Region oder des neuen Blocks abgedeckt wird. Jede der neuen Bereiche kann über seinen eigenen Bewegungsvektor verfügen und dies ermöglicht den Einsatz getrennter Modi und Bewegungsvektoren für nicht viereckige Bereiche eines Frames. Durch die Verwendung eines Bewegungsvektors, um vorhergehende Aufteilungen des Frames zu ändern, um eine Gültigkeit für den neuen Frame zu erzielen, besteht die Möglichkeit Vorhersagekosten (einschließlich Rechenzeit) zu verringern. Weitere Details werden nach einer anfänglichen Besprechung der Umgebung, in der die hierin aufgeführten Lehren verwendet werden können, besprochen.
  • 1 ist ein Schaltplan eines Videokodierungs- und -dekodierungssystems 100. Bei einer Übertragungsstation 102 kann es sich zum Beispiel um einen Computer handeln, der über eine interne Konfiguration von Hardware, wie diejenige, die in 2 beschrieben wird, verfügt. Sonstige geeignete Implementierungen der Übertragungsstation 102 sind jedoch möglich. Zum Beispiel kann die Verarbeitung der Daten von der Übertragungsstation 102 auf mehrere Geräte verteilt werden.
  • Ein Netzwerk 104 kann die Übertragungsstation 102 mit einer Empfangsstation 106 zur Kodierung und Dekodierung des Videodatenstroms verbinden. Insbesondere kann der Videodatenstrom in der Übertragungsstation 102 kodiert werden und der kodierte Videodatenstrom kann in der Empfangsstation 106 dekodiert werden. Bei Netzwerk 104 kann es sich zum Beispiel um das Internet handeln. Bei Netzwerk 104 kann es sich auch um ein lokales Netzwerk (LAN), ein Weitverkehrsnetzwerk (WAN), ein virtuelles privates Netzwerk (VPN), ein Mobilfunknetz oder um jedes andere Mittel für das Übertragen des Videodatenstroms von der Übertragungsstation 102 auf die Empfangsstation 106, wie in diesem spezifischen Beispiel dargestellt, handeln.
  • Bei der Empfangsstation 106 kann sich in einem Beispiel um einen Computer handeln, der über eine interne Konfiguration von Hardware verfügt, wie etwa derjenigen, die in 2 beschrieben wird. Dennoch sind sonstige geeignete Implementierungen der Empfangsstation 106 möglich. Zum Beispiel kann die Verarbeitung der Daten von der Empfangsstation 106 auf mehrere Geräte verteilt werden.
  • Sonstige Implementierungen des Videokodierungs- und Dekodierungssystems 100 sind möglich. Zum Beispiel kann eine Implementierung das Netzwerk 104 auslassen. In einer anderen Implementierung kann ein Videodatenstrom kodiert werden und dann zum Zwecke einer zu einem späteren Zeitpunkt stattfindenden Übertragung auf die Empfangsstation 106 oder auf jedes andere Gerät, das über einen Speicher verfügt, gespeichert werden. In einer Implementierung erhält die Empfangsstation 106 (z. B. über das Netzwerk 104, einen Computerbus und/oder einige Kommunikationspfade) den kodierten Videodatenstrom und speichert den Videodatenstrom für ein späteres Dekodieren. In einer exemplarischen Implementierung wird ein Echtzeit-Transportprotokoll (RTP) zur Übertragung des kodierten Videos über das Netzwerk 104 verwendet. In einer anderen Implementierung kann ein Transportprotokoll, zu dem das RTP nicht gehört, verwendet werden z. B. ein Hypertext-Übertragungsprotokoll(HTTP)-basiertes Videostreaming-Protokoll.
  • Wenn die Übertragungsstation 102 und/oder die Empfangsstation 106 beispielsweise in einem Videokonferenzsystem verwendet werden, können sie über die Fähigkeit verfügen, einen Videodatenstrom, wie unten beschrieben, sowohl zu kodieren als auch zu dekodieren. Zum Beispiel kann es sich bei der Empfangsstation 106 um einen Videokonferenzteilnehmer handeln, der einen kodierten Videobitstream von einem Videokonferenz-Server erhält (z. B. die Übertragungsstation 102), um diesen zu dekodieren und ihn sich anzusehen und ferner sein eigenes Videobitstream an den Videokonferenz-Server übermittelt, um von anderen Teilnehmern dekodiert und angesehen zu werden.
  • 2 ist ein Blockdiagramm eines Beispiels eines Computergeräts 200, das eine Übertragungsstation oder eine Empfangsstation implementieren kann. Zum Beispiel kann das Computergerät 200 sowohl die Übertragungsstation 102 als auch die Empfangsstation 106 aus 1 implementieren. Das Computergerät 200 kann in Form eines Computersystems, einschließlich mehreren Computergeräten, oder in Form eines einzelnen Computergeräts, zum Beispiel eines mobilen Telefons, eines Tablet-Computers, eines Laptop-Computers, eines Notebook-Computers, eines Desktop-Computers usw. zur Verfügung stehen.
  • Bei einer CPU 202 in Computergerät 200 kann es sich um eine zentrale Verarbeitungseinheit handeln. Alternativ dazu, kann es sich bei der CPU 202 um jede andere Art von Gerät handeln, oder um mehrere Geräte, die in der Lage sind, Informationen, die noch nicht existieren, oder erst zu einem späteren Zeitpunkt entwickelt werden, zu manipulieren und zu verarbeiten. Obwohl die offengelegten Implementierungen mit einem einzelnen Prozessor, wie ersichtlich, durchgeführt werden können, z. B. die CPU 202, können Vorteile hinsichtlich der Geschwindigkeit und des Wirkungsgrads unter Verwendung von mehr als einem Prozessor erzielt werden.
  • Bei einem Speicher 204 in Computergerät 200 kann es sich um ein Nur-Lese-Speicher-(ROM)-Gerät oder um ein Direktzugriff-Speicher-(RAM)-Gerät in einer Implementierung handeln. Jede andere geeignete Art von Speichergerät kann als der Speicher 204 verwendet werden. Der Speicher 204 kann Code und Daten 206 beinhalten, auf die, die CPU 202 unter Verwendung eines Busses 212 zugreifen kann. Der Speicher 204 kann ferner ein Betriebssystem 208 und Anwendungsprogramme 210 beinhalten, wobei die Anwendungsprogramme 210 das mindestens eine Programm beinhalten, welches der CPU 202 die Erlaubnis erteilt, die hier beschriebenen Verfahren durchzuführen. Zum Beispiel können Anwendungsprogramme 210 Anwendungen 1 bis N beinhalten, die ferner eine Videokodierungsanwendung beinhalten, welche dich hier beschriebenen Verfahren durchführt. Das Computergerät 200 kann auch eine zweite Speichervorrichtung 214 beinhalten, bei der es sich zum Beispiel um eine Speicherkarte handeln kann, die mit einem mobilen Computergerät verwendet wird. Da die Videokommunikationssitzungen unter Umständen eine beträchtliche Informationsmenge beinhalten können, können sie vollständig oder teilweise im sekundären Speicher 214 gespeichert werden und wenn sie zur Weiterverarbeitung erforderlich sind, auf den Speicher 204 geladen werden.
  • Das Computergerät 200 kann auch ein oder mehrere Ausgabegeräte, wie etwa ein Display 218, beinhalten. Bei Display 218 kann es sich in einem Beispiel um ein berührungsempfindliches Display handeln, das ein Display mit einem berührungsempfindlichen Element kombiniert, das während seines Betriebs in der Lage ist, Berührungseingaben wahrzunehmen. Das Display 218 kann an die CPU 202 über den Bus 212 gekoppelt sein. Sonstige Ausgabegeräte, die es einem Benutzer erlauben, das Computergerät 200 zu programmieren und auf sonstige Weise zu verwenden, können zusätzlich zum Display 218 oder als Alternative dazu, bereitgestellt werden. Wenn es sich bei dem Ausgabegerät um ein Display handelt oder dieses ein Display beinhaltet, kann das Display auf verschiedene Arten, einschließlich anhand einer Flüssigkristallanzeige (LCD), eines Kathodenstrahlröhren-(CRP)-Displays, oder eines Leuchtdioden-(LED)-Displays, wie etwa eines organischen LED(OLED)-Displays, implementiert werden.
  • Das Computergerät 200 kann auch eine Bildwahrnehmungsvorrichtung 220, wie zum Beispiel eine Kamera, oder jede andere Bildwahrnehmungsvorrichtung 220, die bereits existiert oder zu einem späteren Zeitpunkt entwickelt werden wird, die ein Bild, wie etwa ein Bild eines Benutzers, der das Computergerät 200 betreibt, wahrnehmen kann, beinhalten oder sich in Kommunikation damit befinden. Die Bildwahrnehmungsvorrichtung 220 kann so positioniert werden, dass sie dem Benutzer, der das Computergerät 200 betreibt, direkt zugewandt ist. In einem Beispiel kann die Position und die optische Achse der Bildwahrnehmungsvorrichtung 220 so konfiguriert werden, dass das Sichtfeld einen Bereich, der direkt an das Display 218 angrenzt, und von dem aus, das Display 218 sichtbar ist, beinhaltet.
  • Das Computergerät 200 kann auch eine Lautewahrnehmungsvorrichtung 222, wie zum Beispiel ein Mikrofon oder jede andere Lautewahrnehmungsvorrichtung, die bereits existiert, oder zu einem späteren Zeitpunkt entwickelt werden wird, und die in der Lage ist, Laute in der Nähe eines Computergeräts 200 wahrzunehmen, miteinbeziehen oder sich damit in Kommunikation befinden. Die Lautewahrnehmungsvorrichtung 222 kann so positioniert werden, dass sie dem Benutzer, der das Computergerät 200 betreibt, zugewendet ist, und kann konfiguriert werden, um Laute, wie zum Beispiel Sprechlaute oder sonstige von Äußerungen ausgehende Laute, zu empfangen, die vom Benutzer gemacht werden, während der Benutzer das Computergerät 200 betreibt.
  • Obwohl die CPU 202 und der Speicher 204 des Computergeräts 200 in 2, als innerhalb einer einzelnen Einheit integriert, abbildet werden, können auch andere Konfigurationen verwendet werden. Die Operationen der CPU 202 können über mehrere Maschinen (wobei jede Maschine über einen oder mehrere Prozessoren verfügt) verteilt werden, die direkt bzw. über ein lokales Netzwerk oder ein sonstiges Netzwerk aneinandergekoppelt werden können. Der Speicher 204 kann über mehrere Maschinen, wie etwa netzwerkbasierte Speicher oder Speicher innerhalb mehrerer Maschinen, welche die Operationen des Computergeräts 200 durchführen, verteilt werden. Obwohl der Bus 212 des Computergeräts 200 hier als ein einzelner Bus abgebildet wird, kann er aus mehreren Bussen bestehen. Ferner kann der sekundäre Speicher 214 direkt an die anderen Komponenten des Computergeräts 200 gekoppelt werden oder kann über ein Netzwerk zugänglich gemacht werden und kann eine einzelne integrierte Einheit, wie etwa eine Speicherkarte oder mehrere Einheiten, wie etwa mehrere Speicherkarten umfassen. Das Computergerät 200 kann somit in einer breiten Vielfalt von Konfigurationen implementiert werden.
  • 3 ist ein Diagramm eines Beispiels eines Videodatenstroms 300, der kodiert und dann im Anschluss daran, dekodiert werden soll. Der Videodatenstrom 300 beinhaltet eine Videosequenz 302. Auf der nächsten Ebene beinhaltet die Videosequenz 302 eine Anzahl an angrenzenden Frames 304. Während drei Frames als die angrenzenden Frames 304 abgebildet werden, kann die Videosequenz 302 jede Anzahl von angrenzenden Frames 304 beinhalten. Die angrenzenden Frames 304 können dann weiter in einzelne Frames, z. B. ein Frame 306, unterteilt werden. Auf der nächsten Ebene kann der Frame 306 in eine Serie von Ebenen oder Segmenten 308 unterteilt werden. Die Segmente 308 können Teilmengen von Frames sein, die zum Beispiel eine Parallelverarbeitung erlauben. Die Segmente 308 können auch Teilmengen von Frames sein, welche die Videodaten in unterschiedliche Farben trennen können. Zum Beispiel kann der Frame 306 von Farbvideodaten eine Leuchtdicke-Ebene und zwei Chrominanz-Ebenen beinhalten. Die Segmente 308 können bei verschiedenen Auflösungen abgetastet werden.
  • Unabhängig davon, ob der Frame 306 in die Segmente 308 unterteilt ist oder nicht, kann der Frame 306 ferner in Blöcke 310 unterteilt werden, welche Daten umfassen, die zum Beispiel 16×16 Pixel im Frame 306 entsprechen. Die Blöcke 310 können auch angeordnet werden, um Daten von einer oder mehreren Ebenen an Pixeldaten zu enthalten. Die Blöcke 310 können auch über jede andere geeignete Größe, wie etwa 4×4 Pixel, 8×8 Pixel, 16×8 Pixel, 8×16 Pixel, 16×16 Pixel oder größer, verfügen. Die Blöcke 310 oder sonstige Bereiche, die sich aus der Aufteilung der Frame 306 ergeben, können gemäß den hierin aufgeführten Lehren, wie nachfolgend detaillierter abgehandelt, aufgeteilt werden. Das bedeutet, dass es sich bei den zu kodierenden Bereichen um größere Bereiche handeln kann, die in kleinere Unterblöcke oder Bereiche aufgeteilt werden. Genauer gesagt kann ein gegenwärtiger zu kodierender Bereich in kleinere Gruppen von Pixeln aufgeteilt werden, die z. B. unter Verwendung unterschiedlicher Vorhersagemodi kodiert werden. Diese Gruppen von Pixeln können hierin als Prädiktions-Unterblöcke, Prädiktions-Unterbereiche oder Prädiktions-Einheiten bezeichnet werden. In einigen Fällen gibt es nur einen einzigen Prädiktions-Unterbereich, der den gesamten zu kodierenden Bereich als denjenigen Bereich umfasst, der unter Verwendung eines lediglich einzigen Vorhersagemodus kodiert wird. Sofern nicht anders angegeben, gilt die Beschreibung der Kodierung und der Dekodierung eines Blocks in den nachstehenden 4 und 5 in gleicher Weise für Prädiktions-Unterblöcke, Prädiktions-Unterbereiche oder Prädiktions-Einheiten eines größeren Bereichs.
  • 4 ist ein Blockdiagramm einer Kodiervorrichtung 400 gemäß einer Implementierung. Die Kodiervorrichtung 400 kann, wie vorstehend beschrieben, in der Übertragungsstation 102 implementiert werden, wie etwa durch das Bereitstellen eines Computersoftwareprogramms, das im Speicher, wie zum Beispiel dem Speicher 204, gespeichert ist. Das Computersoftwareprogramm kann Maschinenanweisungen beinhalten, die, wenn sie von einem Prozessor, wie etwa der CPU 202, ausgeführt werden, die Übertragungsstation 102 dazu veranlassen, Videodaten auf die in 4 beschriebene Weise zu kodieren. Die Kodiervorrichtung 400 kann auch als eine spezialisierte Hardware implementiert werden, die zum Beispiel Teil der Übertragungsstation 102 darstellt. Die Kodiervorrichtung 400 verfügt über die folgenden Stadien, um die verschiedenen Funktionen in einem Vorwärtspfad (anhand der durchgezogenen Verbindungslinien dargestellt) durchzuführen, um einen kodierten oder komprimierten Bitstream 420 unter Verwendung des Videodatenstroms 300 als Eingabe zu erstellen: ein Intra/Inter-Prädiktionsstadium 402, ein Transformationsstadium 404, ein Quantifizierungsstadium 406, und ein Entropiekodierungs-Stadium 408. Die Kodiervorrichtung 400 kann auch einen Rekonstruktionspfad (von der punktierten Verbindungslinie dargestellt) beinhalten, um einen Frame für das Kodieren von zukünftigen Blöcken zu rekonstruieren. In 4 verfügt die Kodiervorrichtung 400 über die folgenden Stadien, um die verschiedenen Funktionen im Rekonstruktionspfad durchzuführen: ein Dequantifizierungsstadium 410, ein inverses Transformationsstadium 412, ein Rekonstruktionsstadium 414, ein Loopfiltering-Stadium 416. Sonstige strukturelle Variationen der Kodiervorrichtung 400 können verwendet werden, um den Videodatenstrom 300 zu kodieren.
  • Wenn der Videodatenstrom 300 zur Kodierung präsentiert wird, kann jeder Frame 306 in Pixeleinheiten (z. B. Blocks), wie etwa beispielsweise Blocks, verarbeitet werden. Im Intra/Inter-Prädiktionsstadium 402 kann ein Block unter Verwendung einer Intra-Frameprädiktion (auch Intra-Prädiktion genannt) oder einer Inter-Frameprädiktion (hierin auch Interprädiktion, Inter-Prädiktion oder Inter-Vorhersage genannt) kodiert werden. In jedem Fall kann ein Prädiktionsblock (oder Prädiktor) ausgebildet werden. Im Falle einer Intra-Prädiktion kann ein Prädiktionsblock aus Proben des gegenwärtigen Frames ausgebildet werden, die zuvor schon kodiert und rekonstruiert worden sind. Im Falle einer Intra-Prädiktion kann ein Prädiktionsblock aus Proben ausgebildet werden, die sich in einem oder mehreren der zuvor schon konstruierten Referenzframes befinden.
  • Danach, und immer noch unter Bezugnahme auf 4, kann der Prädiktionsblock vom gegenwärtigen Block im Intra/Inter-Prädiktionsstadium 402 subtrahiert werden, um einen Restblock zu erzeugen (auch ein Rest genannt). Das Transformationsstadium 404 wandelt den Rest in Transformationskoeffizienten um – zum Beispiel in die Frequenz-Domain unter der Verwendung blockbasierter Transformationen. Derartige blockbasierte Transformationen beinhalten zum Beispiel die diskrete Kosinus-Transformation (DCT) die asymmetrische diskrete Sinus-Transformation (ADST). Sonstige blockbasierte Transformationen sind ebenfalls möglich. Ferner können Kombinationen verschiedener Transformationen auf einen einzigen Rest angewendet werden. In einem Beispiel einer Anwendung einer Transformation verwandelt die DCT den Restblock in den Frequenzbereich, innerhalb dessen die Koeffizientenwerte der Transformation auf der Ortsfrequenz basieren. Der niedrigste Frequenz-(DC)-Koeffizient im oberen linken Bereich der Matrix und der höchste Frequenzkoeffizient im unteren rechten Bereich der Matrix. Es ist erwähnenswert, dass die Größe eines Prädiktions-Blocks, und somit des sich daraus ergebenden Restblocks, sich von der Größe des Transformationsblocks unterscheiden kann. Zum Beispiel kann der Restblock oder der Bereich in kleinere Blockbereiche aufgeteilt werden, auf die separate Transformationen angewendet werden.
  • Das Quantifizierungsstadium 406 wandelt die Transformationskoeffizienten unter Verwendung eines vom Quantisierer ausgegebenen Wertes oder einer Quantisierungsstufe in diskrete Quantum-Werte, die als quantifizierte Transformationskoeffizienten bezeichnet werden, um. Zum Beispiel können die Transformationskoeffizienten durch den vom Quantisierer ausgegebenen Wert geteilt werden und trunkiert werden. Die quantifizierten Transformationskoeffizienten werden dann im Entropiekodierungsstadium 408 entropiekodiert. Entropiekodierungen können unter Verwendung einer beliebigen Anzahl von Techniken, einschließlich Token und binären Bäumen, durchgeführt werden. Die entropiekodierten Koeffizienten werden dann zusammen mit sonstigen Informationen, die verwendet werden, um den Block zu dekodieren, und die zum Beispiel die Art der Prädiktion, die verwendet wird, die Transformationsart, Bewegungsvektoren und den vom Quantisierer ausgegebenen Wert beinhalten, am komprimierten Bitstream 420 ausgegeben. Der komprimierte Bitstream 420 kann auch als ein kodierter Videodatenstrom oder ein kodierter Video-Bitstream bezeichnet werden, und die Begriffe können hierin austauschbar verwendet werden.
  • Der Rekonstruktionspfad in 4 (dargestellt mittels der punktierten Verbindungslinie) kann verwendet werden, um sicherzustellen, dass sowohl die Kodiervorrichtung 400 als auch die Dekodiervorrichtung 500 (im Folgenden beschrieben) denselben Referenzframe verwenden, um den komprimierten Bitstream 420 zu dekodieren. Der Rekonstruktionspfad führt Funktionen durch, die über ähnliche Eigenschaften wie Funktionen verfügen, die während des Dekodierverfahrens stattfinden, und auf die im Folgenden näher eingegangen wird, einschließlich der Dequantifizierung der quantifizierten Transformationskoeffizienten im Dequantifizierungsstadium 410 und der inversen Transformation der dequantifizierten Transformationskoeffizienten im inversen Transformationsstadium 412, um einen derivativen restlichen Block zu erzeugen (auch als ein derivativer Rest bezeichnet). Im Rekonstruktionsstadium 414 kann der Prädiktionsblock, der im Intra/Inter-Prädiktionsstadium 402 prognostiziert wurde, zum derivativen Rest zugefügt werden, um einen rekonstruierten Block zu erzeugen. Das Loopfiltering-Stadium 416 kann auf den rekonstruierten Block angewendet werden, um eine Verzerrung, wie etwa Sperrartefakte, zu reduzieren.
  • Andere Variationen der Kodiervorrichtung 400 können verwendet werden, um den komprimierten Bitstream 420 zu kodieren. Zum Beispiel kann eine nicht transformbasierte Kodiervorrichtung 400 das restliche Signal direkt und ohne das Transformationsstadium 404 für bestimmte Blöcke oder Frames quantisieren. In einer anderen Implementierung kann die Kodiervorrichtung 400 über ein Quantifizierstadium 406 und ein Dequantifizierstadium 410 verfügen, die in einem einzigen Stadium kombiniert sind. Gemäß dieser Technik kann die Kodiervorrichtung 400 Pixelgruppen jeder beliebigen Größe oder Form kodieren. Die zu kodierenden Pixelgruppen können demzufolge ganz allgemein auch als Bereiche bezeichnet werden.
  • 5 ist ein Blockdiagramm einer Dekodiervorrichtung 500 in Übereinstimmung mit einer anderen Implementierung. Die Dekodiervorrichtung 500 kann in der Empfangsstation 106 implementiert werden, zum Beispiel durch das Bereitstellen eines Computersoftwareprogramms, das in Speicher 204 gespeichert ist. Das Computersoftwareprogramm kann Maschinenanweisungen beinhalten, die, wenn sie von einem Prozessor, wie etwa einer CPU 202, ausgeführt werden, die Empfangsstation 106 dazu veranlassen, Videodaten auf diejenige Weise, die in 5 besprochen worden ist, zu dekodieren. Die Dekodiervorrichtung 500 kann auch in Hardware implementiert werden, die zum Beispiel in der Übertragungsstation 102 oder der Empfangsstation 106 enthalten ist.
  • Die Dekodiervorrichtung 500, die über ähnliche Eigenschaften wie der Rekonstruktionspfad der Kodiervorrichtung 400, die vorstehend besprochen wird, verfügt, beinhaltet ein Beispiel der folgenden Stadien, um verschiedene Funktionen durchzuführen, um einen Ausgabe-Videodatenstrom 516 vom komprimierten Bitstream 420 zu erzeugen: ein Entropie-Dekodierstadium 502, ein Dequantifizierungsstadium 504, ein inverses Transformationsstadium 506, eine Intra/Inter-Prädiktionsstadium 508, ein Rekonstruktionsstadium 510, ein Loopfiltering-Stadium 512, und ein Deblockier-Filtering-Stadium 514. Sonstige strukturelle Variationen der Dekodiervorrichtung 500 können verwendet werden, um den komprimierten Bitstream 420 zu dekodieren.
  • Wenn der komprimierte Bitstream 420 zur Dekodierung präsentiert wird, können Datenelemente innerhalb des komprimierten Bitstreams 420 vom Entropie-Dekodierstadium 502 dekodiert werden, um einen Satz quantisierter Transformationskoeffizienten zu erzeugen. Im Dequantifizierungsstadium 504 werden die quantifizierten Transformationskoeffizienten (z. B. durch das Multiplizieren der quantifizierten Transformationskoeffizienten mit dem vom Quantisierer ausgegebenen Wert) dequantifiziert und im inversen Transformationsstadium 506 werden die dequantifizierten Transformationskoeffizienten unter Verwendung des ausgewählten Tranformationstyps invers transformiert, um einen derivativen Rest zu erzeugen, der mit demjenigen Rest, der im inversen Transformationsstadium 412 in der Kodiervorrichtung 400 erzeugt wurde, identisch ist. Unter Verwendung der Header-Informationen, die vom komprimierten Bitstream 420 dekodiert worden sind, kann die Dekodiervorrichtung 500 das Intra/Inter-Prädiktionsstadium 508 verwenden, um denselben Prädiktionsblock, der in der Kodiervorrichtung 400 erzeugt worden ist, z. B. im Intra/Inter-Prädiktionsstadium 402, zu erzeugen. Im Rekonstruktionsstadium 510 kann der Prädiktionsblock zum derivaten Rest hinzugefügt werden, um einen rekonstruierten Block zu erzeugen. Das Loopfiltering Stadium 512 kann auf den rekonstruierten Block angewendet werden, um blockierende Artefakte zu reduzieren. Sonstige Filtervorgänge können auf den rekonstruierten Block angewendet werden. In diesem Beispiel wird das Deblockier-Filtering-Stadium 514 auf den rekonstruierten Block angewendet, um die Blockierverzerrung zu reduzieren, und das Ergebnis wird als ein Ausgabe-Videodatenstrom 516 ausgegeben. Der Ausgabe-Videodatenstrom 516 kann auch als ein dekodierter Videostream bezeichnet werden, und die Begriffe können austauschbar verwendet werden.
  • Sonstige Variationen der Dekodiervorrichtung 500 können verwendet werden, um den komprimierten Bitstream 420 zu dekodieren. Zum Beispiel kann die Dekodiervorrichtung 500 den Ausgabe-Videodatenstrom 516 ohne das Deblockier-Filtering-Stadium 514 erzeugen. Obwohl die Dekodiervorrichtung 500 der Einfachheit halber unter Bezugnahme auf die Blöcke beschrieben wird, ist sie gemäß dieser Technik in der Lage, Pixelgruppen (z. B. Bereiche) jeder Größe oder Form zu dekodieren.
  • Wie bereits vorstehend kurz angeführt, kann ein Frame oder ein Bereich eines Frames zum Zwecke der Kodierung oder der Dekodierung von der Bewegungsvektoraufteilung des letzten Frames aufgeteilt werden – d. h. mittels der Anpassung der letzten Aufteilung des Frames unter Verwendung eines Bewegungsvektors. Im Allgemeinen wird ein Bereich in separate Bereiche geteilt, indem die vorhergehenden Frameaufteilungen von einem der Bewegungsvektoren, der vom Bewegungsvektor des neuen Bereichs abgedeckt wird, verschoben werden.
  • 6 ist ein Flussdiagramm eines Verfahrens 600 für das Kodieren oder das Dekodieren eines Bereichs mittels einer Bewegungsvektoraufteilung des letzten Frames gemäß einer Implementierung dieser Offenbarung. Die Methode oder das Verfahren 600 können in einem System, wie etwa dem Computergerät 200, implementiert werden, um die Kodierung oder die Dekodierung eines Videodatenstroms zu unterstützen. Das Verfahren 600 kann zum Beispiel als ein Softwareprogramm implementiert werden, das von einem Computergerät, wie etwa der Übertragungsstation 102 oder der Empfangsstation 106, ausgeführt wird. Das Softwareprogramm kann maschinenlesbare Anweisungen beinhalten, die in einem Speicher, wie etwa dem Speicher 204 gespeichert werden, der, wenn er von einem Prozessor, wie etwa der CPU 202 ausgeführt wird, das Computergerät dazu veranlasst, das Verfahren 600 durchzuführen. Das Verfahren 600 können auch unter Verwendung von Hardware vollständig oder teilweise implementiert werden. Wie vorstehend erklärt, können einige Computergeräte über mehrere Speicher und mehrere Prozessoren verfügen und die Schritte oder die Operationen des Verfahrens 600 können in derartigen Fällen unter der Verwendung verschiedener Prozessoren und Speicher verteilt werden. Die Verwendung der Begriffe „Prozessor” und „Speicher” im Singular, umfasst hierin sowohl Computergeräte, die lediglich über einen Prozessor oder einen Speicher verfügen, als auch Computergeräte, die über mehrere Prozessoren oder Speicher verfügen, die jeweils bei der Durchführung einiger aber nicht notwendigerweise aller angegebenen Schritte verwendet werden.
  • Zur Vereinfachung der Erklärung wird das Verfahren 600 in einer Serie von Schritten oder Operationen abgebildet und beschrieben. Schritte und Operationen in Übereinstimmung mit dieser Offenbarung können jedoch in verschiedenen Reihenfolgen und/oder gleichzeitig erfolgen. Darüber hinaus können Schritte oder Operationen, in Übereinstimmung mit dieser Offenbarung, zusammen mit anderen Schritten oder Operationen, die hierin weder präsentiert noch beschrieben werden, erfolgen. Des Weiteren sind nicht alle veranschaulichten Schritte oder Operationen unbedingt notwendig, um ein Verfahren gemäß dem offenbarten Gegenstand zu implementieren. Das Verfahren 600 kann für jeden Block jedes Frames des Eingabesignals wiederholt werden. In einigen Implementierungen werden nur einige Blöcke des einen oder der mehreren Frames gemäß dem Verfahren 600 verarbeitet. Zum Beispiel können Blöcke bei der Durchführung von Verfahren 600, die unter Verwendung der Intra-Prädiktionsmodi kodiert werden, ausgespart werden.
  • Wenn es sich bei dem Verfahren 600 um ein Kodierungsverfahren handelt, kann es sich bei dem Eingabesignal zum Beispiel um den Videodatenstrom 300 handeln. Das Eingabesignal kann vom Computer, der das Verfahren 600 auf beliebige Art und Weise durchführt, empfangen werden. Zum Beispiel kann das Eingabesignal von der Bildwahrnehmungsvorrichtung 220 erfasst werden oder mittels einer anderen Vorrichtung über eine Eingabe, die mit dem Bus 212 verbunden ist, empfangen werden. Das Eingabesignal könnte in einer anderen Implementierung vom sekundären Speicher 214 abgerufen werden. Sonstige Arten des Empfangs und andere Quellen des Eingabesignals sind möglich. Wenn es sich zum Beispiel beim Verfahren 600 um ein Dekodierungsverfahren handelt, kann es sich bei dem Eingabesignal um einen kodierten Bitstream, wie etwa dem komprimierten Bitstream 420, handeln.
  • Unter der Verwendung des Eingabesignals wird eine erste Aufteilung eines Bereichs bei 602 ermittelt. Dies kann das Ermitteln einer ersten Aufteilung mindestens eines Abschnitts eines Frames, das sich vor einem gegenwärtigen Frame in einer Videosequenz befindet, beinhalten.
  • Wenn es sich bei Verfahren 600 um ein Kodierungsverfahren handelt, kann das Ermitteln der ersten Aufteilung die Verwendung von Berechnungen der Ratenverzerrung einschließen. Wenn es sich beim Frame zum Beispiel um den ersten Frame in der Videosequenz handelt, kann die erste Aufteilung durch das Aufteilen des Frames in Blocks und das Ermitteln des besten Vorhersagemodus für die Blöcke aus einer Vielzahl verfügbarer Vorhersagemodi, wie z. B. vom niedrigsten Ratenverzerrungswert gemäß dem Kodierungsverfahren aus 4 ermittelt, durchgeführt werden. In einem Beispiel handelt es sich bei dem Block um einen 16×16 Pixel Block und die verfügbaren Vorhersagemodi können mehrere Intra-Prädiktionsmodi und Inter-Prädiktionsmodi für den Block und für die Unterblöcke des Blocks, deren Größen 8×16 Pixel, 16×8 Pixel, 8×8 Pixel, 8×4 Pixel, 4×8 Pixel, und 4×4 Pixel betragen, beinhalten. In einem anderen Beispiel handelt es sich bei dem Frame nicht um den ersten Frame in der Videosequenz. In einem derartigen Fall kann die erste Aufteilung, wie hierin beschrieben wird, auf Basis der Aufteilung des vorhergehenden Frames, z. B. des letzten Frames in der sich vor dem Frame befindlichen Videosequenz, ermittelt werden.
  • Wenn es sich bei Verfahren 600 um ein Dekodierungsverfahren handelt, kann das Ermitteln der ersten Aufteilung, das Ermitteln des Frames eines kodierten Video-Bitstreams, wie etwa demjenigen, der mit Bezug auf 5 beschrieben wird, beinhalten. Der dekodierte Frame wird gemäß der Aufteilung, die von der Kodiervorrichtung in einer Implementierung ermittelt wird, dekodiert.
  • Unabhängig davon, ob es sich bei Verfahren 600 um ein Kodierungs- oder Dekodierungsverfahren handelt, definiert die erste Aufteilung mindestens einen Prädiktions-Unterbereich eines ersten Framebereichs. Die erste Aufteilung wird bei 604 unter Verwendung eines Bewegungsvektors modifiziert. In einer Implementierung beinhaltet das Modifizieren der ersten Aufteilung das Modifizieren der ersten Aufteilung zu einer zweiten Aufteilung unter Verwendung eines Bewegungsvektors, der mindestens einen Prädiktions-Unterbereich eines ersten Bereichs aus der ersten Aufteilung vorhersagt. In einigen Fällen wird dies durch das Bewegen des Standorts des ersten Bereichs mittels des Bewegungsvektors innerhalb des Frames und anschließend durch das Modifizieren der ersten sich innerhalb der Grenzen der neuen Bereichsposition befindlichen Aufteilung mittels mindestens eines Bewegungsvektors eines Prädiktions-Unterbereichs erreicht, der zumindest zum Teil eine Überlappung mit dem neuen Bereich aufweist. In anderen Fällen wird dies durch das Modifizieren der ersten sich innerhalb der Grenzen des ersten Bereichs befindlichen und mittels des Bewegungsvektors durchgeführten Aufteilung erreicht.
  • Die 7A7C sind Diagramme eines Beispiels, das verwendet wird, um das Verfahren 600 aus 6 zu erklären. Genauer gesagt erklären die 7A7C das Modifizieren der ersten bei 604 stattfindenden Aufteilung des Verfahrens 600. Dieses Beispiel zeigt eine Aufteilung, die dazu führt, dass Bereiche die Form von Blöcken annehmen, weswegen der Begriff Block verwendet wird. Die Beschreibung des Verfahrens 600 mit Bezugnahme auf die 7A7C könnte jedoch sowohl auf viereckige als auch auf nicht viereckige Bereiche angewendet werden.
  • 7A stellt einen Abschnitt einer ersten Aufteilung 700 eines Frames dar, das sich vor einem gegenwärtigen Frame in einer Videosequenz befindet. In diesem Beispiel einer blockbasierten Aufteilung wird der erste Block 702 in nur einen einzigen Prädiktions-Unterblock unterteilt. Das bedeutet, dass der erste Block 702 aus 7A unter Verwendung eines einzelnen Bewegungsvektors, der von einem sich innerhalb der Grenzen des ersten Blocks 702 befindlichen Pfeils dargestellt wird, vorhergesagt wird. Mehrere andere Prädiktions-Unterblöcke der ersten Aufteilung 700 werden in 7A dargestellt. Insbesondere werden Prädiktion-Unterblöcke drei anderer Blöcke nach Beispiel beschriftet.
  • Der Block oberhalb des ersten Blocks 702 wird in vier gleich große Prädiktions-Unterblöcke aufgeteilt, von denen zwei als Prädiktions-Unterblock 706 und Prädiktions-Unterblock 708 gekennzeichnet werden. Der Prädiktions-Unterblock 706 wird unter Verwendung eines Bewegungsvektors vorhergesagt, der vom Pfeil dargestellt wird, der sich innerhalb der Grenzen des Prädiktions-Unterblocks 706 aus 7A befindet, während der Prädiktions-Unterblock 708 unter Verwendung eines Bewegungsvektors vorhergesagt wird, der von einem Pfeil dargestellt wird, der sich innerhalb der Grenzen des Prädiktionsblocks 708 aus 7A befindet. Die Bewegungsvektoren der Prädiktions-Unterblöcke 706, 708 unterscheiden sich voneinander oder der Abschnitt des Blocks, den sie darstellen, würde als ein einzelner Unterblock dargestellt werden. Die verbliebenen zwei Unterblöcke des sich oberhalb des ersten Blocks 702 befindlichen Blocks werden unter Verwendung verschiedener Vorhersagemodi und/oder verschiedener Bewegungsvektoren kodiert.
  • Der Block zur Rechten des obenstehenden Blocks wird auch in vier gleich große Prädiktions-Unterblöcke unterteilt, von denen einer als Prädiktions-Unterblock 710 gekennzeichnet ist. Wie durch den Punkt, der sich innerhalb der Grenzen des Prädiktions-Unterblocks 710 aus 7A befindet, dargestellt, wird der Prädiktions-Unterblock 710 unter Verwendung einer Intra-Prädiktion vorhergesagt. Die verbliebenen Prädiktions-Unterblöcke werden in diesem Beispiel nicht deswegen nicht gekennzeichnet, weil sie hier nicht verwendet werden, sondern weil sie jeweils unter Verwendung unterschiedlicher Prädiktionsmodi und/oder unterschiedlicher Bewegungsvektoren kodiert worden sind.
  • Der Block zur Rechten des ersten Blocks 702 wird in zwei gleich große Prädiktions-Unterblöcke unterteilt, von denen einer als Prädiktions-Unterblock 712 gekennzeichnet ist. Wie durch den Punkt, der sich innerhalb der Grenzen des Prädiktions-Unterblocks 712 aus 7A befindet, dargestellt, wird der Prädiktions-Unterblock 712 unter Verwendung einer Intra-Prädiktion vorhergesagt. Der verbliebene Prädiktions-Unterblock dieses Blocks wird in diesem Beispiel nicht deswegen nicht gekennzeichnet, weil er hier nicht verwendet wird, sondern weil er unter Verwendung eines unterschiedlichen Prädiktionsmodus kodiert worden ist.
  • Bei dem ersten Block 702 kann es sich um einen Block von 16×16 Pixel, einen Block von 32×32 Pixel oder einen Block einer anderen Größe handeln. Wenn es sich bei dem ersten Block 702 zum Beispiel um einen Block von 16×16 Pixel handelt, umfassen die Prädiktions-Unterblöcke 706, 708, 710 jeweils 8×8 Pixel und der Prädiktions-Unterblock 712 verfügt über 8×16 Pixel.
  • Wie bereits vorstehend erwähnt, kann die erste Aufteilung unter Verwendung eines Bewegungsvektors, der mindestens einen Prädiktions-Unterbereiche eines ersten Bereichs aus der ersten Aufteilung vorhersagt, zu einer zweiten Aufteilung modifiziert werden. Im Beispiel der 7A7C wird dies durch das Bewegen des Standorts des ersten Bereichs (hier ein Block) mittels des Bewegungsvektors innerhalb des Frames und anschließend durch das Modifizieren der ersten sich innerhalb der Grenzen der neuen Bereichsposition befindlichen Aufteilung mittels mindestens eines Bewegungsvektors eines Prädiktions-Unterbereichs erreicht, der zumindest zum Teil eine Überlappung mit der neuen Position aufweist. Wie in 7A ersichtlich, wird der erste Block 702 zum Standort, der vom neuen Block 704 angegeben wird, bewegt. Die erste Aufteilung, die sich innerhalb der Grenzen des neuen Blocks 704 befindet, beinhaltet Abschnitte des ersten Blocks 702, der Prädiktions-Unterblöcke 706, 708, 710 und des Prädiktions-Unterblocks 712. Die Bewegungsvektoren der Prädiktions-Unterblöcke die zumindest zum Teil eine Überlappung mit dem neuen Block 704 aufweisen, beinhalten Bewegungsvektoren für den ersten Block 702 und die Prädiktions-Unterblöcke 706, 708. 7B stellt die Modifikation der ersten Aufteilung dar, wobei Grenzen, die von den Scheitelpunkten 720, 722 definiert werden, die sich zwischen angrenzenden Prädiktionsblöcken oder Unterblöcken innerhalb der Grenzen des neuen Blocks 704 befinden, von einem anderen Bewegungsvektor angepasst werden. Bei dem verwendeten Bewegungsvektor könnte sich um den einzigen der verfügbaren Bewegungsvektoren handeln, wie etwa den größten oder kleinsten Bewegungsvektor, und es könnte sich um eine Kombination der verfügbaren Bewegungsvektoren handeln, wie etwa einem Durchschnitt oder einem gewichteten Durchschnitt. Ein gewichteter Durchschnitt kann auf dem Abschnitt des neuen Blocks 704 (z. B. der Anzahl der Pixel im Bereich als Ganzes) basieren, der unter Verwendung jedes der Bewegungsvektoren vorhergesagt worden ist. 7C stellt die sich ergebende zweite Aufteilung 730 des neuen Blocks 704 dar, der fünf Prädiktions-Unterblöcke 732740 beinhaltet.
  • Allgemeiner ausgedrückt, stellen die 7A7C ein Verfahren dar, gemäß dem das Modifizieren der ersten Aufteilung das Anpassen der äußeren Grenzen des ersten Bereichs an eine aktualisierte Position innerhalb des Frames unter Verwendung des Bewegungsvektors umfasst, im Frame dessen die aktualisierte Position sich mit Abschnitten der Bereiche des Frames überschneidet (z. B. Abschnitte der Prädiktions-Unterbereiche). Dann werden die Scheitelpunkte (und mit ihnen die Grenzen) der Abschnitte der Bereiche innerhalb der aktualisierten Position vom selben Bewegungsvektor (oder einem unterschiedlichen Bewegungsvektor) bewegt, um die erste Aufteilung zu einer zweiten Aufteilung zu modifizieren.
  • Bei den 8A und 8B sind Diagramme eines anderen Beispiels, das verwendet wird, um das Verfahren 600 aus 6 zu erklären. In diesem Fall wird das Modifizieren der ersten Aufteilung unter Verwendung eines Bewegungsvektors durch das Modifizieren der ersten sich innerhalb der Grenzen des ersten Bereichs befindlichen und mittels des Bewegungsvektors durchgeführten Aufteilung erreicht. Aufgrund der Tatsache, dass die 8A und 8B eine Aufteilung in Blöcke darstellen, werden die Bereiche als Blöcke bezeichnet. Wie in 8A dargestellt, wird Block 800 in vier Prädiktions-Unterblöcke unterteilt, aus denen einer unter Verwendung eines Bewegungsvektors 802 vorhergesagt wird und die restlichen drei anhand einer Intraprädiktion vorhergesagt werden. In diesem Fall wird die modifizierte zweite Aufteilung für einen Block 810 dargestellt, im Falle dessen, wie in 7B ersichtlich, die Schnittstelle (Scheitelpunkt) zwischen den Prädiktions-Unterblöcken vom Bewegungsvektor 802 bewegt wird, um die erste Aufteilung seiner zweiten Aufteilung zu modifizieren.
  • Die Auswahl zwischen Bewegungsvektoren, die verwendet werden, um die Aufteilung zu modifizieren kann heuristisch, basierend auf, z. B. Vorhersagemodi oder Bewegungsvektor-Werten oder auf experimentelle Art und Weise durch das Testen verschiedener Techniken oder das Auswählen der einen Technik, die am besten für den Block (und den Frame), der gerade kodiert wird, geeignet ist, ermittelt werden. Die Technik, die verwendet wird, um die Aufteilung für jeden Block des Frames zu modifizieren, der gemäß 6 verarbeitet wird, kann von einer Flagge oder einem Identifikator identifiziert werden, der sich innerhalb des Bitstreams befindet, so dass die Dekodiervorrichtung dieselbe Aufteilung des nachfolgenden Frames generiert. Dies könnte in einem Frame-Header in dem Umfang gesendet werden, in dem dieselbe Technik für den Frame verwendet wird. Alternativ dazu und zusätzlich dazu kann der Bewegungsvektor, der verwendet wird, um die Aufteilung auf Basis eines Bereichs oder eines Segments zu modifizieren, in einen Bereich (z. B. einen Block) oder einen Segmentheader gesendet werden, um von der Dekodiervorrichtung verwendet werden. In einigen Implementierungen nur ein Modus-Identifikator von der Kodiervorrichtung gesendet werden, um anzugeben, dass die Aufteilung einer Region, eines Segments oder eines Frames unter Verwendung der Bewegungsvektoraufteilung des letzten Frames durchgeführt wurde, damit der Kodiervorrichtung in der Lage ist, die neue Aufteilung zu generieren. In einer Variation dieser Implementierungen wird das Verfahren 600 gemäß 5 nur an der Kodiervorrichtung durchgeführt und die Dekodiervorrichtung kann die aufgeteilten Bereiche, die sich innerhalb des Bitstreams befinden, dekodieren.
  • Sobald die modifizierte, zweite Aufteilung ermittelt wird, wird sie verwendet, um einen gegenwärtigen Bereich des gegenwärtigen Frames bei 606 zu kodieren oder zu dekodieren. Der gegenwärtige Bereich kann mit dem ersten Bereich ortsgleich sein. Zum Beispiel kann es sich beim gegenwärtigen Bereich und dem ersten Bereich ortsgleiche Blöcke handeln. Ortsgleiche Bereiche können über dieselben Koordinaten innerhalb unterschiedlicher Frames verfängen. Alternativ dazu kann der gegenwärtige Bereich innerhalb des gegenwärtigen Frames aus der ersten Bereichsposition von einem Bewegungsvektor, wie etwa dem Bewegungsvektor für den ersten Block 702 in einem Beispiel, verschoben werden. Das Kodieren des gegenwärtigen Bereichs beinhaltet das Kodieren der Prädiktions-Unterbereiche der zweiten Aufteilung durch das Generieren von Resten für die Prädiktions-Unterbereiche des gegenwärtigen Bereichs und das Kodieren der Rechte in den kodierten Bitstream mit erforderlichen Informationen für das Dekodieren des gegenwärtigen Bereichs. Zum Beispiel kann das Kodierungsverfahren die Verarbeitung der Reste unter Verwendung des Transformationsstadiums 404, des Quantifizierungsstadiums 406, und des Entropiekodierungsstadiums 408, wie mit Bezugnahme auf 4 beschrieben, beinhalten. Die Reste für jeden Prädiktions-Unterbereich können unter Verwendung unterschiedlicher Vorhersagemodi generiert werden, die mittels aufwendiger Tests an den verfügbaren Vorhersagemodi ermittelt werden, um den besten Modus für jeden von ihnen zu ermitteln, bzw. können anhand einer kleineren Liste von Vorhersagemodi auf Basis des vorhergehenden Vorhersagemodus für den ersten Bereich, ermittelt werden.
  • Wenn es sich bei Verfahren 600 um ein Dekodierverfahren handelt, kann die modifizierte Aufteilung verwendet werden, um die Größe der Reste für jeden Prädiktions-Unterbereich des gegenwärtigen Bereichs zur Dekodierung der Reste zu ermitteln und dann um einen Vorhersagebereich ähnlicher Größe für jeden davon zu generieren, um die Reste hinzuzufügen, um den gegenwärtigen Bereich zu rekonstruieren. Zum Beispiel kann das Dekodierungsverfahren die Verarbeitung des Rests unter Verwendung des Entropie-Dekodierstadiums 502, des Quantifizierungsstadiums 504, und des inversen Transformationsstadiums 506, wie mit Bezugnahme auf 5 beschrieben, beinhalten. Im Anschluss daran könnte der gegenwärtige Bereich am Rekonstruktionsstadium 510, wie auch mit Bezugnahme auf 5 beschrieben, rekonstruiert werden.
  • Während das Verfahren 600 mit Bezug auf bestimmte Beispiele mit Prädiktions-Unterblöcke von rechteckiger Form beschrieben worden ist, die unter Verwendung einer blockbasierten Aufteilungstechnik ausgebildet worden sind, kann das Verfahren 600 mit Bereichen verwendet werden, die sich aus verschiedenen Aufteilungstechniken für einen Frame ergeben. Das Verfahren 600 funktioniert sehr gut mit Masken, zum Beispiel mittels der Verwendung der Maske für den letzten Frame, der von einem Bewegungsvektor verschoben worden ist. Mit einer Maske, die über eine Grenze zwischen zwei im Allgemeinen angrenzenden und separat vorhergesagten Pixelbereichen verfügt, würde die erste Aufteilung zwei Prädiktions-Unterbereiche des ersten Bereichs definieren und die zweite Aufteilung würde zwei aktualisierte Prädiktions-Unterbereiche beinhalten, wobei eine Grenze zwischen den aktualisierten Prädiktions-Unterbereichen eine Grenze zwischen den ursprünglichen Prädiktions-Unterbereichen darstellt, die von einem Bewegungsvektor innerhalb des ersten Bereichs bewegt worden sind. Das bedeutet zum Beispiel, dass eine erste Aufteilung zwei Prädiktions-Unterbereiche eines ersten Bereichs unter Verwendung einer Maske definieren kann, wobei jeder der zwei Prädiktions-Unterbereiche eine gegenüberliegende Seite einer Grenze innerhalb der Maske darstellt. Dann beinhaltet das Modifizieren der ersten Aufteilung das Bewegen der Grenze zwischen der Maske mittels des Bewegungsvektors, um eine aktualisierte Grenze zur Vorhersage zu generieren, so dass die zweite Aufteilung zwei aktualisierte Prädiktions-Unterbereiche auf gegenüberliegenden Seiten der aktualisierten Grenze beinhaltet, wenn die aktualisierte Maske zur Vorhersage verwendet wird. Bereiche, die sich aus der Aufteilungstechnik ergeben, die beispielsweise Wedge, Farbe, Reste und drei Bewegungsvektormodi-Masken verwenden, könnten, gemäß Verfahren 600, insgesamt von der Bewegungsvektoraufteilung des letzten Frames profitieren.
  • Durch das Verwenden eines Bewegungsvektors, um eine vorhergehende Aufteilung des Frames zu ändern, um eine Gültigkeit für den neuen Frame zu erzielen, kann die Errechnung im Zusammenhang mit der Aufteilung bei der Kodierung eines neuen Frames auf ein Mindestmaß gesenkt werden. Die hierin aufgeführten Lehren stellen eine Option zur Vermeidung einer erneuten Aufteilung des gesamten Frames mit der Flexibilität bereit, den neu definierten Bereichen des Frames die Erlaubnis zu erteilen, über ihre eigenen Bewegungsvektoren und/oder Kodierungsmodi zu verfügen und separate Modi und Bewegungsvektoren für nicht viereckige Blöcke von Pixeln zu erlauben. Dies trägt zur Bereitstellung einer guten Vorhersage für die Kompression bei.
  • Die Aspekte der Kodierung und Dekodierung, die vorstehend beschrieben werden, veranschaulichen einige Beispiele von Kodierungs- und Dekodierungstechniken. Es ist jedoch selbstverständlich, dass das Kodieren und das Dekodieren, gemäß der Verwendung dieser Begriffe in den Ansprüchen, Komprimierung, Dekomprimierung, Transformation oder jede andere Verarbeitung oder Änderung von Daten bedeuten könnte.
  • So wie es hierin verwendet ist, bedeutet das Wort „Beispiel” „als ein Beispiel, eine Konkretisierung oder Darstellung dienend”. Jeglicher Gesichtspunkt oder Entwurf, der hierin als „Beispiel” beschrieben ist, ist nicht notwendigerweise als vorzugsweise oder vorteilhaft gegenüber sonstigen Gesichtspunkten oder Entwürfen aufzufassen. Das Ziel der Verwendung des Wortes „Beispiel” besteht darin, Konzepte auf eine konkrete Art und Weise präsentieren. Wie in dieser Anmeldung benutzt, soll der Begriff „oder” ein einschließendes „oder” und nicht ein ausschließendes „oder” bedeuten. Das heißt, wenn nicht anders angegeben oder aus dem Zusammenhang deutlich hervorgehend, soll der Ausdruck „X beinhaltet A oder B” alle der natürlichen einschließenden Permutationen bedeuten. Das heißt, wenn X A beinhaltet; X B beinhaltet; oder X sowohl A als auch B beinhaltet, dann ist unter allen der vorherigen Instanzen „X beinhaltet A oder B” erfüllt. Darüber hinaus kann die Verwendung des Artikels „ein” und „eine” in dieser Anmeldung und den beigefügten Ansprüchen generell so interpretiert werden, dass wenn nicht anders angegeben oder aus dem Zusammenhang deutlich „ein oder mehrere” gemeint ist, was in einer Singular-Form ausgedrückt wird. Außerdem soll die durchgängige Verwendung des Begriffs „eine Implementierung” oder „die Implementierung” nicht dasselbe wie Ausführungsform oder Implementierung bedeuten, es sei denn er wird ausdrücklich als eine solche bezeichnet.
  • Implementierungen der Übertragungsstation 102 und/oder der Empfangsstation 106 (und die Algorithmen, Verfahren, Anweisungen, usw., die darauf gespeichert sind und/oder davon ausgeführt werden, einschließlich von der Kodiervorrichtung 400 und der Dekodiervorrichtung 500) können mittels Hardware, Software oder einer Kombination davon realisiert werden. Die Hardware kann zum Beispiel Computer, Intellectual Property(IP)-Kerne, anwendungsspezifische integrierte Schaltungen (ASIC), programmierbare logische Anordnungen, optische Prozessoren, programmierbare logische Steuerungen, Mikrocode, Microcontroller, Server, Mikroprozessoren, digitale Signalprozessoren und alle sonstigen geeigneten Schaltungen beinhalten. In den Ansprüchen sollte der Begriff „Prozessor” als jede der vorstehend genannten Hardware umfassend, und zwar unabhängig davon, ob einzeln oder in Kombination, verstanden werden. Die Begriffe „Signal” und „Daten” werden austauschbar verwendet. Ferner müssen die Abschnitte der Übertragungsstation 102 und der Empfangsstation 106 nicht notwendigerweise auf dieselbe Weise implementiert werden.
  • Ferner können die Übertragungsstation 102 oder die Empfangsstation 106, zum Beispiel, gemäß einem Aspekt, unter Verwendung eines Allzweck-Computers oder eines Allzweck-Prozessors mit einem Computerprogramm implementiert werden, das, sofern es ausgeführt wird, alle entsprechenden Verfahren, Algorithmen und/oder Anwendungen, die hierin beschrieben werden, ausführt. Darüber hinaus oder alternativ dazu, kann zum Beispiel ein für einen bestimmten Zweck vorgesehener Computer/Prozessor verwendet werden, der eine andere Hardware umfassen kann, um jegliche der hierin beschriebenen Verfahren, Algorithmen oder Anweisungen auszuführen.
  • Die Übertragungsstation 102 und die Empfangsstation 106 können zum Beispiel auf Computer in einem Videokonferenzsystem implementiert werden. Alternativ dazu kann die Übertragungsstation 102 auf einem Server implementiert werden und die Empfangsstation 106 kann auf einem vom Server separaten Gerät, wie etwa einem handgehaltenen Kommunikationsgerät, implementiert werden. Im vorliegenden Fall kann die Übertragungsstation 102 Inhalte, die eine Kodiervorrichtung 400 verwenden, in ein kodiertes Videosignal kodieren und das kodierte Videosignal zum Kommunikationsgerät übermitteln. Im Gegenzug kann das Kommunikationsgerät dann das kodierte Videosignal unter Verwendung einer Dekodiervorrichtung 500 dekodieren. Alternativ dazu kann das Kommunikationsgerät Inhalte, die lokal auf dem Kommunikationsgerät gespeichert werden, wie zum Beispiel Inhalte, die nicht von der Übertragungsstation 102 übermittelt worden sind, dekodieren. Andere geeignete übertragende oder empfangende Implementierungsschemas stehen zur Verfügung. Zum Beispiel kann es sich bei der Empfangsstation 106 im Allgemeinen eher um einen stationären Personal Computer als um ein tragbares Kommunikationsgerät handeln und/oder ein Gerät, einschließlich einer Kodiervorrichtung 400 kann auch eine Dekodiervorrichtung 500 beinhalten.
  • Ferner können sämtliche oder ein Abschnitt der Implementierungen der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, auf das zum Beispiel von einem physisch greifbaren computerverwendbaren oder computerlesbaren Medium zugegriffen werden kann. Bei einem computerverwendbaren oder computerlesbaren Medium kann es sich um jedes Gerät handeln, welches das Programm zum Beispiel auf physisch greifbare Weise enthalten, speichern, kommunizieren oder transportieren kann, damit es von jedem beliebigen Prozessor oder in Verbindung mit jedem beliebigen Prozessor verwendet werden kann. Bei dem Medium kann es sich zum Beispiel um ein elektronisches, magnetisches, optisches, elektromagnetisches oder ein Halbleitergerät handeln. Andere geeignete Medien stehen ebenfalls zur Verfügung.
  • Die vorstehend beschriebenen Ausführungsformen, Implementierungen und Aspekte wurden beschrieben, um ein einfaches Verständnis der vorliegenden Erfindung zu ermöglichen und schränken die vorliegende Erfindung nicht ein. Die Erfindung soll im Gegenteil verschiedene Modifizierungen und äquivalente Anordnungen innerhalb des Umfangs der angehängten Ansprüche abdecken, deren Schutzbereich die breiteste Interpretation erfahren soll, um so alle solche Modifikationen und äquivalenten Aufbauten zu umfassen, wie es unter dem Gesetz vorgesehen ist.

Claims (8)

  1. Vorrichtung zum Kodieren oder Dekodieren eines Videosignals, wobei das Videosignal Frames beinhaltet, die eine Videosequenz definieren, wobei jeder Frame in mindestens einen Bereich aufgeteilt ist und jeder Bereich über Pixel verfügt, wobei die Vorrichtung die im Folgenden aufgeführten Sachverhalte umfasst: einen Prozessor; und einen nicht-transitorischen Speicher, der Anweisungen speichert, die den Prozessor dazu veranlassen, ein Verfahren auszuführen, welches die im Folgenden aufgeführten Sachverhalte umfasst: das Ermitteln einer ersten Aufteilung mindestens eines Abschnitts eines Frames, das sich vor einem gegenwärtigen Frame in der Videosequenz befindet; das Modifizieren der ersten Aufteilung zu einer zweiten Aufteilung unter Verwendung eines Bewegungsvektors, der mindestens einen Prädiktions-Unterbereich eines ersten Bereichs aus der ersten Aufteilung vorhersagt; und das Verwenden der zweiten Aufteilung zur Kodierung und zur Dekodierung eines gegenwärtigen Bereichs des gegenwärtigen Frames.
  2. Vorrichtung nach Anspruch 1, wobei die erste Aufteilung zwei Prädiktions-Unterbereiche des ersten Bereichs unter Verwendung einer Maske definiert, wobei die zwei Prädiktions-Unterbereiche sich an gegenüberliegenden Seiten einer Grenze innerhalb der Maske befinden, und wobei: das Modifizieren der ersten Aufteilung das Bewegen der Grenze innerhalb der Maske mittels des Bewegungsvektors umfasst, um eine aktualisierte Grenze zu generieren, so dass die zweite Aufteilung zwei aktualisierte Prädiktions-Unterbereiche auf gegenüberliegenden Seiten der aktualisierten Grenze beinhaltet.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei die Anweisungen ferner Anweisungen umfassen, um die erste Aufteilung zur zweiten Aufteilung durch die im Folgenden aufgeführten Sachverhalte zu modifizieren: das Bewegen eines Standorts, das Grenzen des ersten Bereichs innerhalb des Frames identifiziert, mittels des Bewegungsvektors, der mindestens einen Prädiktions-Unterbereich des ersten Bereichs vorhersagt, um einen neuen Bereich zu identifizieren; und das Modifizieren der ersten Aufteilung, die sich innerhalb der Grenzen des neuen Bereichs am Standort befindet, von mindestens einem Bewegungsvektor eines Prädiktions-Unterbereichs, der sich zumindest abschnittsweise mit dem neuen Bereich überschneidet.
  4. Vorrichtung nach Anspruch 3, wobei mindestens ein Bewegungsvektor des Prädiktions-Unterbereichs, der sich zumindest teilweise mit dem neuen Bereich überschneidet, derjenige Bewegungsvektor ist, der zumindest einen Prädiktions-Unterbereich des ersten Bereichs vorhersagt.
  5. Vorrichtung nach Anspruch 3, wobei mindestens ein Bewegungsvektor des Prädiktions-Unterbereichs, der sich zumindest teilweise mit dem neuen Bereich überschneidet, eine Kombination der entsprechenden Bewegungsvektoren von mindestens zwei Prädiktions-Unterbereichen ist, die sich zumindest teilweise mit dem neuen Bereich überschneiden.
  6. Vorrichtung nach irgendeinem der Ansprüche 1–5, wobei die Anweisungen ferner Anweisungen umfassen, um die zweite Aufteilung zu verwenden, wobei jeder Prädiktion-Unterbereich des gegenwärtigen Bereichs gemäß der zweiten Aufteilung die im Folgenden aufgeführten Sachverhalte umfasst: das Dekodieren eines Rest-Unterbereichs, der mit dem Prädiktions-Unterbereich des gegenwärtigen Bereichs in Verbindung gebracht wird; das Generieren eines Prädiktor-Bereichs für den Prädiktions-Unterbereich; und das Kombinieren des Rest-Unterbereichs mit dem Prädiktor-Bereich.
  7. Vorrichtung nach irgendeinem der Ansprüche 1–6, wobei es sich bei dem Bewegungsvektor um eine Kombination des entsprechenden Bewegungsvektors von mindestens zwei Prädiktions-Unterbereichen des ersten Bereichs handelt.
  8. Vorrichtung zur Kodierung eines Videosignals, wobei das Videosignal Frames beinhaltet, die eine Videosequenz definieren, wobei jeder Frame in Blöcke unterteilt ist und jeder Block über Pixel verfügt, wobei die Vorrichtung die im Folgenden aufgeführten Sachverhalte umfasst: einen Prozessor; und einen nicht-transitorischen Speicher, der Anweisungen speichert, die den Prozessor dazu veranlassen, ein Verfahren auszuführen, welches die im Folgenden aufgeführten Sachverhalte umfasst: das Ermitteln einer ersten Aufteilung mindestens eines ersten Blocks eines Frames, das sich vor einem gegenwärtigen Frame in der Videosequenz befindet; das Modifizieren der ersten Aufteilung zu einer zweiten Aufteilung durch das Bewegen eines Standorts, der die Grenzen des ersten Blocks innerhalb des Frames identifiziert, mittels eines Bewegungsvektors, gemäß dem ein Prädiktions-Unterblock des ersten Blocks vorhergesagt wird, um einen neuen Block zu identifizieren und das Modifizieren der ersten Aufteilung, die sich innerhalb der Grenzen des neuen Blocks am Standort befindet, mittels eines Bewegungsvektors eines Prädiktions-Unterblocks des Frames, der sich zumindest teilweise mit dem neuen Block überschneidet; und das Verwenden der zweiten Aufteilung, um einen gegenwärtigen Block des gegenwärtigen Frames zu kodieren, wobei der gegenwärtige Block mit dem ersten Block ortsgleich ist.
DE202016008177.3U 2016-01-29 2016-12-22 Bewegungsvektoraufteilung des letzten Frames Active DE202016008177U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/011,415 2016-01-29
US15/011,415 US10306258B2 (en) 2016-01-29 2016-01-29 Last frame motion vector partitioning

Publications (1)

Publication Number Publication Date
DE202016008177U1 true DE202016008177U1 (de) 2017-06-06

Family

ID=57799843

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102016125379.0A Active DE102016125379B4 (de) 2016-01-29 2016-12-22 Bewegungsvektoraufteilung des letzten Frames
DE202016008177.3U Active DE202016008177U1 (de) 2016-01-29 2016-12-22 Bewegungsvektoraufteilung des letzten Frames

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102016125379.0A Active DE102016125379B4 (de) 2016-01-29 2016-12-22 Bewegungsvektoraufteilung des letzten Frames

Country Status (9)

Country Link
US (2) US10306258B2 (de)
JP (1) JP6605726B2 (de)
KR (1) KR102120135B1 (de)
CN (1) CN107027032B (de)
AU (1) AU2016389093B2 (de)
CA (1) CA3001888C (de)
DE (2) DE102016125379B4 (de)
GB (1) GB2547091B (de)
WO (1) WO2017131904A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117176948A (zh) * 2016-10-04 2023-12-05 有限公司B1影像技术研究所 图像编码/解码方法、记录介质和传输比特流的方法
JP6895247B2 (ja) * 2016-10-06 2021-06-30 日本放送協会 符号化装置、復号装置及びプログラム
KR102302643B1 (ko) 2017-04-21 2021-09-14 제니맥스 미디어 인크. 모션 벡터들 예측에 의한 플레이어 입력 모션 보상을 위한 시스템들 및 방법들
CN110546956B (zh) * 2017-06-30 2021-12-28 华为技术有限公司 一种帧间预测的方法及装置
US10805629B2 (en) * 2018-02-17 2020-10-13 Google Llc Video compression through motion warping using learning-based motion segmentation
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
CN118075486A (zh) * 2018-06-04 2024-05-24 华为技术有限公司 获取运动矢量的方法和装置
US10516885B1 (en) 2018-07-11 2019-12-24 Tencent America LLC Method and apparatus for video coding
EP3664451B1 (de) 2018-12-06 2020-10-21 Axis AB Verfahren und vorrichtung zur codierung mehrerer bilder
WO2020140951A1 (en) * 2019-01-02 2020-07-09 Beijing Bytedance Network Technology Co., Ltd. Motion vector derivation between color components
MX2021009028A (es) * 2019-01-28 2021-10-13 Op Solutions Llc Inter prediccion en particion exponencial.
SG11202108103WA (en) * 2019-01-28 2021-08-30 Op Solutions Llc Inter prediction in geometric partitioning with an adaptive number of regions
US12041241B2 (en) 2019-03-15 2024-07-16 Interdigital Madison Patent Holdings, Sas Method and device for image encoding and decoding with a shifted position
US11758133B2 (en) * 2019-10-31 2023-09-12 Apple Inc Flexible block partitioning structures for image/video compression and processing

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62104283A (ja) 1985-10-31 1987-05-14 Kokusai Denshin Denwa Co Ltd <Kdd> 動画像伝送における差分復号信号の雑音低減装置
IT1232109B (it) 1989-06-21 1992-01-23 Cselt Centro Studi Lab Telecom Procedimento e dispositivo di riconoscimento del contorno di immagini in movimento
JP3037383B2 (ja) 1990-09-03 2000-04-24 キヤノン株式会社 画像処理システム及びその方法
EP0476603B1 (de) 1990-09-20 1997-06-18 Nec Corporation Verfahren und Gerät zur Kodierung von bewegten Bildsignalen
GB2266023B (en) 1992-03-31 1995-09-06 Sony Broadcast & Communication Motion dependent video signal processing
US6614847B1 (en) * 1996-10-25 2003-09-02 Texas Instruments Incorporated Content-based video compression
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
US5969772A (en) 1997-10-30 1999-10-19 Nec Corporation Detection of moving objects in video data by block matching to derive a region motion vector
US7277486B2 (en) 2002-05-03 2007-10-02 Microsoft Corporation Parameterization for fading compensation
US7756348B2 (en) 2006-10-30 2010-07-13 Hewlett-Packard Development Company, L.P. Method for decomposing a video sequence frame
KR20080107965A (ko) * 2007-06-08 2008-12-11 삼성전자주식회사 객체 경계 기반 파티션을 이용한 영상의 부호화, 복호화방법 및 장치
US8520845B2 (en) * 2007-06-08 2013-08-27 Intel Corporation Method and apparatus for expansion key generation for block ciphers
US8681855B2 (en) 2007-10-12 2014-03-25 Thomson Licensing Method and apparatus for video encoding and decoding geometrically partitioned bi-predictive mode partitions
EP2081386A1 (de) 2008-01-18 2009-07-22 Panasonic Corporation Hochpräzise Randvorhersage zur Intrakodierung
JP5286805B2 (ja) 2008-01-31 2013-09-11 沖電気工業株式会社 動きベクトル検出装置及び方法、動画像符号化装置及び方法、並びに、動画像復号化装置及び方法
KR100939917B1 (ko) 2008-03-07 2010-02-03 에스케이 텔레콤주식회사 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법
US20090320081A1 (en) 2008-06-24 2009-12-24 Chui Charles K Providing and Displaying Video at Multiple Resolution and Quality Levels
US8675736B2 (en) 2009-05-14 2014-03-18 Qualcomm Incorporated Motion vector processing
EP2280550A1 (de) 2009-06-25 2011-02-02 Thomson Licensing Maskenerzeugung zur Bewegungskompensation
US8520975B2 (en) * 2009-10-30 2013-08-27 Adobe Systems Incorporated Methods and apparatus for chatter reduction in video object segmentation using optical flow assisted gaussholding
US9473792B2 (en) 2009-11-06 2016-10-18 Texas Instruments Incorporated Method and system to improve the performance of a video encoder
KR20110061468A (ko) 2009-12-01 2011-06-09 (주)휴맥스 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
KR101484280B1 (ko) 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
WO2011096770A2 (ko) 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
US8879632B2 (en) 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
JP2013524730A (ja) * 2010-04-12 2013-06-17 クゥアルコム・インコーポレイテッド 幾何学的動き区分のための固定小数点実装形態
EP3703369B1 (de) * 2010-04-13 2024-07-24 GE Video Compression, LLC Fusion von probenbereichen
US20130128979A1 (en) 2010-05-11 2013-05-23 Telefonaktiebolaget Lm Ericsson (Publ) Video signal compression coding
WO2012042654A1 (ja) 2010-09-30 2012-04-05 富士通株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、画像復号プログラム、及び画像符号化プログラム
KR20140139615A (ko) * 2010-10-08 2014-12-05 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 블록 분할 및 블록 병합을 지원하는 픽처 코딩
US20120147961A1 (en) 2010-12-09 2012-06-14 Qualcomm Incorporated Use of motion vectors in evaluating geometric partitioning modes
US9451253B2 (en) 2012-04-24 2016-09-20 Lyrical Labs Video Compression Technology, LLC Macroblock partitioning and motion estimation using object analysis for video compression
US10027982B2 (en) 2011-10-19 2018-07-17 Microsoft Technology Licensing, Llc Segmented-block coding
EP2942961A1 (de) 2011-11-23 2015-11-11 HUMAX Holdings Co., Ltd. Verfahren zur codierung/decodierung von videos unter verwendung gemeinsamer verschmelzungskandidatensätze von asymmetrischen partitionen
US20130287109A1 (en) * 2012-04-29 2013-10-31 Qualcomm Incorporated Inter-layer prediction through texture segmentation for video coding
US20130329800A1 (en) 2012-06-07 2013-12-12 Samsung Electronics Co., Ltd. Method of performing prediction for multiview video processing
US9549182B2 (en) 2012-07-11 2017-01-17 Qualcomm Incorporated Repositioning of prediction residual blocks in video coding
WO2014078068A1 (en) * 2012-11-13 2014-05-22 Intel Corporation Content adaptive transform coding for next generation video
BR112015026899B1 (pt) 2013-04-23 2023-03-28 Qualcomm Incorporated Reposicionamento dos blocos residuais de previsão na codificação de vídeo
GB2520002B (en) 2013-11-04 2018-04-25 British Broadcasting Corp An improved compression algorithm for video compression codecs
US9986236B1 (en) 2013-11-19 2018-05-29 Google Llc Method and apparatus for encoding a block using a partitioned block and weighted prediction values
TWI536811B (zh) 2013-12-27 2016-06-01 財團法人工業技術研究院 影像處理方法與系統、解碼方法、編碼器與解碼器
KR102457810B1 (ko) 2014-03-19 2022-10-21 삼성전자주식회사 3d 영상에 관련된 블록의 파티션 경계에서 필터링 수행 방법
US10554965B2 (en) 2014-08-18 2020-02-04 Google Llc Motion-compensated partitioning
KR101978194B1 (ko) 2014-11-14 2019-05-14 후아웨이 테크놀러지 컴퍼니 리미티드 디지털 이미지를 처리하는 방법 및 시스템
US9838710B2 (en) 2014-12-23 2017-12-05 Intel Corporation Motion estimation for arbitrary shapes
US10469841B2 (en) 2016-01-29 2019-11-05 Google Llc Motion vector prediction using prior frame residual

Also Published As

Publication number Publication date
CN107027032B (zh) 2020-01-03
US20190268618A1 (en) 2019-08-29
GB2547091B (en) 2019-09-25
JP6605726B2 (ja) 2019-11-13
CA3001888C (en) 2021-01-12
JP2019500766A (ja) 2019-01-10
US10798408B2 (en) 2020-10-06
KR20180053372A (ko) 2018-05-21
GB2547091A (en) 2017-08-09
DE102016125379B4 (de) 2022-10-13
US10306258B2 (en) 2019-05-28
US20170223377A1 (en) 2017-08-03
GB201621923D0 (en) 2017-02-08
DE102016125379A1 (de) 2017-08-03
KR102120135B1 (ko) 2020-06-08
AU2016389093B2 (en) 2019-05-09
WO2017131904A1 (en) 2017-08-03
CN107027032A (zh) 2017-08-08
CA3001888A1 (en) 2017-08-03
AU2016389093A1 (en) 2018-04-19

Similar Documents

Publication Publication Date Title
DE102016125379B4 (de) Bewegungsvektoraufteilung des letzten Frames
DE102016125117B4 (de) Bewegungsvektorkodierung mit dynamischen Referenzbewegungsvektoren
DE102016125353A1 (de) Kodierratensteuerung von echtzeitvideos unter verwendung einer dynamischen auflösungsumschaltung
DE202016008192U1 (de) Auswahl des Referenz-Bewegungsvektors über Referenzeinzelbild Puffer-Nachverfolgung
DE202016008155U1 (de) Hybrid-Prädiktionsmodi zur Kodierung von Videos
DE202016008175U1 (de) Adaptive gerichtete Intra-Prädiktion mit Blockgröße
DE102016125125B4 (de) Tile-Copying für Videokompression
DE202016008178U1 (de) Bewegungsvektorvorhersage mittels eines vorhergehenden Einzelbildresiduums
DE112017003212T5 (de) Verfahren und System zur Videocodierung mit Kontextdecodierung und Rekonstruktionsumgehung
DE202016008164U1 (de) Intelligente Sortierung der rekursiven Blockaufteilung für die erweiterte Intra-Prädiktion bei der Videocodierung
DE102019103346A1 (de) Ssim-basierte rate-distortion-optimierung für eine verbesserte wahrnehmbare qualität bei videos
DE102016125086A1 (de) Adaptiver direktionaler Schleifenfilter
DE202016008194U1 (de) Bewegungsvektorvorhersage durch Skalierung
DE102016015996B3 (de) Anpassungsfähige Kachel-Daten-Grössenkodierung für Video- und Bildkompression
DE202016008207U1 (de) Kodierinterpolationsfilter
DE102011006036B4 (de) Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
DE112015005159B4 (de) Kodierung im alternierenden blockbeschränkten entscheidungsmodus
DE102016125593B4 (de) Dynamischer Kodiermodus für Referenz-Bewegungsvektoren
DE10219640B4 (de) Verfahren zum Codieren und Decodieren von Videosequenzen und Computerprogrammprodukt
DE202016008206U1 (de) Abschätzung einer Bewegung in einem superweiten Bereich zur Kodierung eines Videos
WO2021259935A1 (de) Verfahren und vorrichtungen zur codierung von bilddaten
DE102004063902B4 (de) Computerprogramm mit einem Verfahren zum Verarbeiten einer Gruppe von Bildern und mit einem Verfahren zum Verarbeiten eines Basisbildes und eines oder mehrerer Erweiterungsbilder
WO2003026271A2 (de) Verfahren zum kodieren und dekodieren von videosequenzen und computerprogrammprodukt
DE10340407A1 (de) Vorrichtung und Verfahren zum Codieren einer Gruppe von aufeinanderfolgenden Bildern und Vorrichtung und Verfahren zum Decodieren eines codierten Bildsignals
DE102004011421A1 (de) Vorrichtung und Verfahren zum Erzeugen eines skalierten Datenstroms

Legal Events

Date Code Title Description
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years