DE112016005457T5 - Effiziente, kompatible und skalierbare Intra-Video/Bild-Codierung unter Verwendung von Wavelets und HEVC-Codierung - Google Patents

Effiziente, kompatible und skalierbare Intra-Video/Bild-Codierung unter Verwendung von Wavelets und HEVC-Codierung Download PDF

Info

Publication number
DE112016005457T5
DE112016005457T5 DE112016005457.2T DE112016005457T DE112016005457T5 DE 112016005457 T5 DE112016005457 T5 DE 112016005457T5 DE 112016005457 T DE112016005457 T DE 112016005457T DE 112016005457 T5 DE112016005457 T5 DE 112016005457T5
Authority
DE
Germany
Prior art keywords
subbands
frame
image
hevc
wavelet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016005457.2T
Other languages
English (en)
Inventor
Neelesh N. Gokhale
Atul Puri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tahoe Research Ltd
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112016005457T5 publication Critical patent/DE112016005457T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Es werden Techniken erörtert, die eine Intra-Videoeinzelbild- oder Bildcodierung betreffen, die Wavelets und eine Hocheffiziente Videocodierung (High Efficiency Video Coding, HEVC) verwendet. Solche Techniken können eine Wavelet-Zerlegung eines Frames oder Bildes, um Teilbänder zu erzeugen, und eine Codierung der Teilbänder mittels konformer und/oder modifizierter HEVC-Codierungstechniken umfassen.

Description

  • PRIORITÄTSANSPRUCH
  • Die vorliegende Erfindung beansprucht Priorität gegenüber der US-Patentanmeldung S.Nr. 14/954 837 , eingereicht am 30. November 2015 mit dem Titel „EFFICIENT, COMPATIBLE, AND SCALABLE INTRA VIDEO/IMAGE CODING USING WAVELETS AND HEVC CODING“, die durch Bezugnahme vollumfänglich einbezogen ist.
  • QUERVERWEIS ZU VERWANDTEN ANMELDUNGEN
  • Die vorliegende Erfindung umfasst den Gegenstand im Zusammenhang mit der US-Patentanmeldung Nr. 14/954 710 (Aktenzeichen Nr. 01.P87500) mit dem Titel „EFFICIENT INTRA VIDEO/IMAGE CODING USING WAVELETS AND VARIABLE SIZE TRANSFORM CODING“, eingereicht am 30. November 2015, und der US-Patentanmeldung Nr. 14/954 715 (Aktenzeichen Nr. 01.P91176) mit dem Titel „EFFICIENT AND SCALABLE INTRA VIDEO/IMAGE CODING USING WAVELETS AND AVC, MODIFIED AVC, VPx, MODIFIED VPx, OR MODIFIED HEVC CODING“, eingereicht am 30. November 2015.
  • HINTERGRUND
  • Ein Bild- oder Videocodierer komprimiert Bild- oder Videoinformationen, so dass über eine vorgegebene Bandbreite mehr Informationen gesendet werden können. Das komprimierte Signal kann anschließend zu einem Empfänger übertragen werden, der einen Decoder aufweist, der das Signal vor einer Bildwiedergabe decodiert oder dekomprimiert.
  • Diese Beschreibung, die im Zusammenhang mit Fortschritten bei Bild/Videoverarbeitung entwickelt wurde, spricht Probleme an, die die Durchführung einer verbesserten Codierung von Bildern und Intra-Frames eins Video betreffen. Eine solche verbesserte Codierung kann eine Kombination einer effizienten Codierung sowie einer Codierung beinhalten, die eine elementare Skalierbarkeit unterstützt. Beispielsweise bezeichnet der Begriff effiziente Codierung eine Codierung, die eine höhere Kompressionseffizienz vorsieht, so dass es möglich ist, entweder mehr Videobilder oder Intra-Frames einer gewissen Qualität auf einer Computerfestplatte zu speichern oder über ein spezifiziertes Netzwerk zu übertragen, oder dieselbe Anzahl (z.B. von Videobildern oder Intra-Frames) jedoch mit höherer Qualität zu speichern oder zu übertragen. Weiter bezeichnet der Begriff skalierbare Codierung hier einer Codierung von Bildes oder Intra-Frames eines Videos, so dass von einem einzigen codierten Datenstrom anschließend Teilsätze davon decodiert werden können, die Bilder oder Intra-Frames unterschiedlicher Auflösungen ergeben. Beispielsweise bezieht sich der Begriff elementare Skalierbarkeit im Zusammenhang mit dieser Beschreibung auf die Fähigkeit einer Decodierung eines Teilsatzes des Datenstroms mit dem Ergebnis eines Bildes oder Intra-Frames mit niedrigerer Auflösungsstufe zusätzlich zu der Fähigkeit einer Decodierung einer Version voller Auflösung anhand desselben Datenstroms.
  • Mit der ständig steigenden Nachfrage nach Aufnahme, Speicherung und Übertragung von mehr Bildern und Videos mit höherer Qualität, kann es mittels der erweiterten Flexibilität der Skalierbarkeit vorteilhaft sein, verbesserte Kompressionstechniken für Bilder und Intra-Frames von Videos zu ermöglichen. Hinsichtlich dieser und weiterer Aspekte besteht ein Bedarf nach den behandelten Verbesserungen.
  • Figurenliste
  • Der hier beschriebene Stoff ist in den beigefügten Figuren exemplarisch und nicht beschränkend veranschaulicht. Für Zwecke der Vereinfachung und Klarheit der Darstellung sind in den Figuren veranschaulichte Elemente nicht notwendig maßstäblich gezeichnet. Beispielsweise können die Abmessungen einiger Elemente im Verhältnis zu anderen Elementen zur Verdeutlichung übertrieben dargestellt sein. Ferner sind Bezugszeichen in den Figuren zur Bezeichnung analoger oder entsprechender Elemente, wo es angemessen erscheint, wiederholt. In den Figuren zeigt:
    • 1A ein Beispiel einer Anwendung eines Analysefilters;
    • 1B ein Beispiel einer Anwendung eines Synthesefilters;
    • 1C ein Beispiel einer Analysefilterung eines 2D-Signals;
    • 1D ein Beispiel einer Synthesefilterung;
    • 2A ein Beispiel eines Ergebnis einer Anwendung einer Wavelet-Filterung auf einen Bild- oder Videoframe;
    • 2B ein Beispiel einer zweistufigen Zerlegung eines Bildes oder Videoframes;
    • 3A ein Blockdiagramm eines wafelet-basierten Encoder/Decodersystems;
    • 3B eine 3stufige Oktavzerlegung eines Wavelets in 10 Teilbänder;
    • 3C einen räumlichen Orientierungsbaum;
    • 3D ein Beispiel eines SPECK-Codierverfahrens;
    • 3E ein Beispiel einer Division eines Bildes oder Intra-Frames;
    • 4 in einem Blockdiagramm ein Beispiel eines JPEG 2000 Encoders;
    • 5A in einem Blockdiagramm ein Beispiel eines HEVC Main 10 Intra-Encoders;
    • 5B in einem Blockdiagramm ein Beispiel eines HEVC Main 10 Intra-Decoders;
    • 6A in einem Blockdiagramm ein Beispiel eines zweistufigen räumlichen/SNR-skalierbaren Codierungssystems;
    • 6B in einem Blockdiagramm ein Beispiel eines zweistufigen räumlichen/S NR-skalierbaren Decodiersystems;
    • 7A in einem Blockdiagramm ein Beispiel eines einstufigen (1-Level) Adaptive Wavelet- HEVC(AWHVC)-Encoders;
    • 7B in einem Blockdiagramm ein weiteres Beispiel eines einstufigen skalierbaren Adaptive Wavelet HEVC(AW1HVC)-Encoders;
    • 8A ein Beispiel eines Verfahrens zur AW1HVC-Intra-Codierung;
    • 8B ein Beispiel eines Verfahrens zur AW1HVC-Intra-Decodierung, das das Verfahren, das durch eine AW1HVC-Intra-Codierung durchgeführt ist, invertiert;
    • 9A in einem Blockdiagramm ein Beispiel eines AWHVC-Intra-Encoders;
    • 9B in einem Blockdiagramm ein Beispiel eines funktionsgemäßen eigenständigen AWHVC-Intra-Decoders, der dem Encoder von 9A entspricht;
    • 10A ein Beispiel eines zweistufigen dyadischen Zerlegungsverfahrens eines Bildes;
    • 10B in einem Blockdiagramm ein Beispiel eines AWHVC (AW2HVC)-Intra-Encoders/Decoders;
    • 11A ein Beispiel eines Verfahrens zur AW2HVC-Codierung;
    • 11B ein Beispiel eines Verfahrens zur AW2HVC-Decodierung;
    • 12 in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(AWS1HVC)-Intra-Encoders/Decoders;
    • 13A ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(AWS1HVC)-Intra-Codierung;
    • 13B ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(AWS1HVC)-Intra-Decodierung;
    • 14 in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(Adaptive Wavelet Scalable HEVC, AWS2HVC)-Encoders/Decoders;
    • 15A ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(Adaptive Wavelet Scalable HEVC, AWS2HVC)-Codierung;
    • 15B ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(Adaptive Wavelet Scalable HEVC, AWS2HVC)-Decodierung;
    • 16 in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(AWS3HVC)-Codierungssystems;
    • 17A ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(Adaptive Wavelet Scalable HEVC, AWS3HVC)-Intra-Codierung;
    • 17B ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(AWS3HVC)-Intra-Decodierung;
    • 18 in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(AWS4HVC)-Codierungssystems;
    • 19A ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(AWS4HVC)-Intra-Codierung;
    • 19B ein Beispiel eines Verfahrens zur adaptiven wavelet-skalierbaren HEVC(AWS4HVC)-Intra-Decodierung;
    • 20A ein Beispiel eines Verfahrens zum Erzielen einer Skalierbarkeit um einen Faktor 2/3 in jeder Dimension bei einer auf Wavelets basierten Codierung;
    • 20B in einem Blockdiagramm ein Beispiel eines Scalable Adaptive Wavelet HEVC(S lAWHVC)-Codierungs-/Decodierungssystems, das ein Verfahren verwendet, um eine Skalierbarkeit um einen Faktor 2/3 zu ermöglichen;
    • 21A ein Beispiel eines Verfahrens zur Scalable Adaptive Wavelet HEVC(S1AWHVC)-Intra-Codierung;
    • 21B ein Beispiel eines Verfahrens zur Scalable Adaptive Wavelet-HEVC(S1AWHVC)-Intra-Decodierung;
    • 22B in einem Blockdiagramm ein Beispiel eines Scalable Adaptive Wavelet HEVC(S2AWHVC)-Codierungs-/Decodierungssystems, das ein Verfahren verwendet, um eine Skalierbarkeit um einen Faktor 2/3 zu ermöglichen;
    • 23A ein Beispiel eines Verfahrens zur Scalable Adaptive Wavelet HEVC(S2AWHVC)-Intra-Codierung;
    • 23B ein Beispiel eines Verfahrens zur Scalable Adaptive Wavelet HEVC(S2AWHVC)-Intra-Decodierung;
    • 24A ein Beispiel eines Verfahrens zum Erzielen einer Skalierbarkeit um einen Faktor r/s in jeder Dimension bei einer auf Wavelets basierten Codierung;
    • 24B in einem Blockdiagramm ein Beispiel eines Scalable Adaptive Wavelet HEVC (S3AHUC)-Codierungs-/Decodierungssystems, das ein Verfahren 2401 verwendet, um eine Skalierbarkeit um einen Faktor r/s zu ermöglichen;
    • 25A ein Beispiel eines Verfahrens zur Scalable Adaptive Wavelet HEVC(S3AHUC)-Intra-Codierung;
    • 25B ein Beispiel eines Verfahrens zur Scalable Adaptive Wavelet HEVC(S3AHUC)-Intra-Decodierung;
    • 26 ein der Veranschaulichung dienendes Diagramm eines beispielhaften Systems zur Codierung und/oder Decodierung;
    • 27 ein der Veranschaulichung dienendes Diagramm eines beispielhaften Systems; und
    • 28 ein Beispiel einer Vorrichtung mit kleinem Formfaktor, das insgesamt in Übereinstimmung mit wenigstens einigen Durchführungen der vorliegenden Beschreibung ausgelegt ist.
  • DETAILLIERTE BESCHREIBUNG
  • Eine oder mehrere Ausführungsformen oder Ausprägungen werden nun mit Bezug auf die beigefügten Figuren beschrieben. Während spezielle Konfigurationen und Anordnungen erörtert sind, sollte klar sein, dass dies lediglich für Zwecke der Veranschaulichung geschieht. Ein Fachmann auf dem betreffenden Gebiet wird erkennen, dass auch andere Konstruktionen und Anordnungen verwendet werden können, ohne von dem Schutzbereich der Beschreibung abzuweichen. Dem Fachmann auf dem Gebiet der betreffenden Technik wird einleuchten, dass hier beschriebene Techniken und/oder Anordnungen auch in unterschiedlichen anderen Systemen und Anwendungen verwendet werden können, die sich von dem vorliegenden Beschriebenen unterscheiden.
  • Während die folgende Beschreibung unterschiedliche Durchführungen erläutert, die in Architekturen, wie beispielsweise Ein-Chip-System(System-on-a-Chip, SoC)-Architekturen verwirklicht sein können, sind Durchführungen der hier beschriebenen Techniken und/oder Anordnungen nicht auf spezielle Architekturen und/oder Rechnersysteme beschränkt und können durch eine beliebiges Architektur und/oder ein beliebiges Rechnersystem für ähnliche Zwecke durchgeführt werden. Beispielsweise können unterschiedliche Architekturen, die beispielsweise mehrere integrierte Schaltkreis(IC)-Chips und/oder Programmpakete und/oder unterschiedliche Computervorrichtungen und/oder Verbraucherelektronik(CE)-Geräte, wie beispielsweise Multifunktionsgeräte, Tablets, Smartphones und dergleichen verwenden, die hier beschriebenen Techniken und/oder Anordnungen einsetzen. Während die folgende Beschreibung zahlreiche spezielle Einzelheiten, wie beispielsweise Logikdurchführungen, Typen und gegenseitige Beziehungen von Systemkomponenten, Wahlmöglichkeiten für eine logische Partitionierung/Integration und dergleichen unterbreitet, kann der beanspruchte Gegenstand ferner ohne derartige spezielle Einzelheiten in die Praxis umsetzt werden. In anderen Ausprägungen ist ein Teil des Stoffes, wie beispielsweise Steuerungsstrukturen und vollständige Softwarebefehlssequenzen, möglicherweise nicht im Einzelnen gezeigt, um den hier offenbarten Stoff nicht zu überladen.
  • Der hier beschriebene Stoff kann in Hardware, Firmware, Software oder einer beliebigen Kombination von diesen umgesetzt werden. Der hier beschriebene Stoff kann auch in Form von Befehlen umgesetzt werden, die auf einem maschinenlesbaren Medium gespeichert sind, die durch einen oder mehrere Prozessoren ausgelesen und ausgeführt werden können. Ein maschinenlesbares Medium kann beliebige Medien und/oder Vorrichtungen beinhalten, die dazu dient, Informationen in einer durch eine Maschine (z.B. durch eine Computervorrichtung) auslesbaren Form zu speichern oder zu übertragen. Beispielsweise kann ein maschinenlesbares Medium: einen Festwertspeicher (ROM); einen RAM-Speicher (RAM); Magnetplattenspeichermedien; optische Speichermedien; Flash-Speichervorrichtungen; elektrische, optische, akustische oder andere Formen von verbreiteten Signalen (z.B. Trägerwellen, Infrarotsignale, digitale Signale und so fort) und dergleichen beinhalten.
  • Bezugnahmen in der Spezifikation auf Begriffe wie „eine Durchführung“, „eine exemplarische Durchführung“, (oder „Ausführungsformen“, „Beispiele“ oder dergleichen) zeigen an, dass die beschriebene Durchführung ein spezielles Merkmal, eine Struktur oder Charakteristik aufweisen kann, allerdings muss nicht notwendig jede Ausführungsform das spezielle Merkmal, die Struktur oder Charakteristik aufweisen. Außerdem beziehen sich derartige Ausdrücke nicht notwendig auf dieselbe Durchführung. Wenn ein spezielles Merkmal, eine Struktur oder Charakteristik im Zusammenhang mit einer Ausführungsform beschrieben wird, wird ferner angenommen, das einem Fachmann klar ist, dass ein Merkmal, eine Struktur oder Charakteristik dieser Art mit anderen Durchführungen in Verbindung gebracht werden kann, unabhängig davon ob dies hier ausdrücklich beschrieben ist, oder nicht.
  • Verfahren, Geräte, Vorrichtungen, Rechnerplattformen und Produkte sind hier mit Bezug auf eine effiziente Intra-Video/Bildcodierung beschrieben, die Wavelets und High Efficiency Video Coding(HEVC)- Codierung verwendet.
  • Beispielsweise können hier erörterte Techniken eine wavelet-basierte Intra-Codierung vorsehen, die effizient und skalierbar ist. Außerdem kann zumindest ein Teil der hier erörterten Techniken mit dem Standard der HEVC-Codierung vorwärtskompatibel sein.
  • Bevor auf die Einzelheiten vielfältiger Ausführungsformen eingegangen wird, sieht die Beschreibung eine Erörterung über eine wavelet-basierte Bildcodierung vor. Beispielsweise kann das Verfahren einer Wavelet-Filterung digitaler Signale als zwei komplementäre Prozesse aufweisend angesehen werden, nämlich einen, der das Signal in Tiefpass- und Hochpassteilsatzsignale zerlegt, und den umgekehrten Prozess, der die Tiefpass- und Hochpassteilsatzsignale wieder in das ursprüngliche (oder nahezu originale) Signal zusammenführt (bzw. wieder zusammensetzt). Zuerst können die für die Zerlegung verwendeten, auch als Analysefilter bezeichneten Filter verwendet werden, und die Filter, die für das Wiederzusammensetzen verwendet werden, können als Synthesefilter bezeichnet werden und können auf das zerlegte Signal angewendet werden (zwischen den Analyse- und Synthesefiltern können weitere Schritte eingefügt sein). In einigen Ausführungsformen können die Analyse- und Synthesefilter ein komplementäres Paar sein und müssen möglicherweise gewisse mathematische Eigenschaften genügen, um zu ermöglichen, dass eine letzte Rekonstruktion des Signals dem ursprünglichen Signal ähnelt und von guter Qualität ist. Als ein Beispiel unterschiedlicher Klassen/Arten von Filtern und ihrer Eigenschaften, sind die Eigenschaften von Klassen orthogonaler Filter und bi-orthogonaler Filter sowie Beispiele spezieller Filter oder Arten von Filtern vorgesehen, die in zuvor erwähnte Klassen fallen.
  • In einigen Ausführungsformen können orthogonale Filter verwendet werden. Beispielsweise können orthogonale Filter Synthesefilter, die zeitlich umgekehrte Versionen ihrer zugeordneten Analysefilter sind, Hochpassfilter, die von Tiefpassfiltern abgeleitet werden können, und Analysefilter beinhalten, die der orthogonalen Beschränkung genügen. In anderen Beispielen können biorthogonale Filter verwendet werden. Beispielsweise können bi-orthogonaler Filter eine endliche Impulsantwort (Finite Impulse Response, FIR), eine lineare Phase und eine vollkommene Rekonstruktion einschließen. Allerdings können biorthogonale Filter nicht orhtogonal sein.
  • Ein Beispiel einer bi-orthogonalen Klasse von Wavelet-Filtern sind Haar-Wavelet-Filter, jedoch schließen Filter höherer Qualität derselben Klasse Cohen-Daubechies-Feauveau CDF-5/3, LeGall-5/3-Filter und CDF-9/7-Filter ein. Beispielsweise können CDF-5/3- oder CDF-9/7-Filter bi-orthogonal (z.B. FIR, eine lineare Phase und vollkommene Rekonstruktion ermöglichen, jedoch ohne orthogonal zu sein), symmetrisch sein und können eine ungeradzahlige Länge aufweisen.
  • Ein Beispiel orthogonaler Wavelet-Filter schließt Quadrature Mirror Filter (QMF) unterschiedlicher Größen. Beispielsweise können QMF-Filter eine FIR, eine lineare Phase, eine aliasfreie jedoch nicht vollkommene Rekonstruktion vorsehen, und können orthogonal sein.
  • In der folgenden Erörterung stehen die Abkürzungen oder Begriffe lpaf, hpaf, lpsf bzw. hpsf in den Tabellen 1A-3, die Beispiele von Filtern veranschaulichen, und andernorts im Vorliegenden für Tiefpass-Analysefilter, Hochpass-Analysefilter, Tiefpass-Synthesefilter bzw. Hochpass-Synthesefilter.
  • Tabelle 1A zeigt Beispiele von Koeffizienten eines 5-Tap-Tiefpass-Analysefilters, so dass das Filter um den zentralen Koeffizienten 0,75 symmetrisch ist, und Koeffizienten eines 3-Tap-Hochpass-Analysefilters, so dass das Filter um den zentralen Koeffizienten 1,0 symmetrisch ist. Tabelle 1A Beispiele von CDF- oder LeGall-5/3-Analysefilterung
    lpaf 0.75 0.25 -0.125
    hpaf 1.00 -0.50
  • Tabelle 1B zeigt Beispiele von Koeffizienten eines 3-Tap-Tiefpass-Synthesefilter, so dass das Filter um den zentralen Koeffizienten 1,0 symmetrisch ist, und Koeffizienten eines 5-Tap-Hochpass-Synthesefilters, so dass das Filter um den zentralen Koeffizienten 0,75 symmetrisch ist. Tabelle 1B Beispiele von CDF- oder LeGall-5/3-Synthesefilterung
    lpsf 1.00 0.50
    hpsf 0.75 -0.25 -0.125
  • Die Beispiele der Filtersätze von Tabelle 1A und Tabelle 1B können als Daubechies-5/3, CDF-5/3, oder LeGall-5/3-Filter bezeichnet werden.
  • 1A veranschaulicht ein Beispiel einer Anwendung 101 eines Analysefilters gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 1A gezeigt, kann ein ursprüngliches 1D-Signal eine Tiefpass-Analysefilterung (lpaf) erfahren, mit dem Ergebnis eines Tiefpass-1D-Signals, das ein um 2 abwärts abgetastetes Teilband des Eingabesignals ist (z.B. approx. Koeffizienten). Dazu parallel kann das ursprüngliche 1D-Signal beispielsweise ebenfalls eine Hochpass-Analysefilterung (hpaf) erfahren, mit dem Ergebnis eines Hochpass-1D-Signals, das ein um 2 abwärts abgetastetes Teilband des Eingabesignals ist (z.B. Detailkoeffizienten). In einigen Ausführungsformen kann das in 1A angewendet Analysefilter das Analysefilter von Tabelle 1A sein.
  • 1B veranschaulicht ein Beispiel einer Anwendung 102 eines Synthesefilters gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 1B gezeigt, kann ein Synthesefilter angewendet werden, das in Bezug auf das in 1A angewendete Analysefilter komplementär ist. Beispielsweise können die beiden abwärts abgetasteten Signale (Tiefpass- und Hochpass-Teilbänder; z.B. approx. Koeffizienten und Detailkoeffizienten) aus der Analysefilterung durch ein Paar Synthesefilter gefiltert werden, die als Tiefpass-Synthesefilter und Hochpass-Synthesefilter bezeichnet sind. Die beiden Ausgänge können mit dem Ergebnis eines Rekonstruktionssignals zusammengeführt werden, das mit dem ursprünglichen 1D-Signal an dem Eingang (z.B. orig./nahe Signal) identisch (oder nahezu identisch) ist. In einigen Ausführungsformen kann das in 1B angewendete Synthesefilter das Synthesefilter von Tabelle 1B sein. In dem Beispiel der Anwendung der 5/3-Filter der Tabellen 1A und 1B kann der Ausgang genau identisch sein, da die Koeffizienten Potenzen von 2 sind. Aufgrund von leichten Rundungsdifferenzen kann der Ausgang in der Anwendung anderer exemplarischer Filter allerdings sehr nahe herankommen, wenn nicht sogar genau übereinstimmen. In einigen Ausführungsformen können die sich ergebenden (auch als gefilterte Koeffizienten bezeichneten) Tiefpass- und Hochpass-Teilband-Pixel nach einer Analysefilterung während der Codierung durch die Quantisierung hinsichtlich ihrer Genauigkeit selektiv reduziert und anschließend entropiecodiert werden, mit dem Ergebnis einer Kompression. Ein Decoder kann anschließend das Codierverfahren umkehren, indem eine Entropiedecodierung und eine inverse Quantisierung, gefolgt von einer Synthesefilterung durchgeführt wird.
  • Das erörterte Analyse-/Synthesefilterverfahren ist nicht auf die Verwendung der 5/3-Filterung, wie beispielsweise auf die Filter der Tabellen 1A und 1B, beschränkt. Beispielsweise kann das erörterte Analyse-/Synthesefilterverfahren auf beliebige Analyse- und Synthesefilter, wie beispielsweise auf die hier erörterten, angewendet werden. Beispielsweise zeigen Tabellen 2A und 2B exemplarische CDF-9/7-Filter. Das Tiefpass-Analysefilter der CDF-9/7-Filter kann eine 9-Tap-Filter sein, das um den zentralen Koeffizienten 0,602949 symmetrisch ist, und das Hochpass-Analysefilter kann ein 7-Tap-Filter sein, das um den zentralen Koeffizienten 1,115087 symmetrisch ist. Beispiel sind in Tabelle 2B komplementäre Tiefpass-Synthese- und Hochpass-Synthesefilter mit einem Tiefpass-Synthesefilter einer Länge von 7 Taps und einem Hochpass-Synthesefilter einer Länge von 9 Taps gezeigt. Tabelle 2A Beispiel eines CDF-9/7-Analysefilters
    lpaf 0.602949018 0.266864118 -0.078223266 -0.01686411 0.026748757
    hpaf 1.115087052 -0.591271763 -0.057543526 0.091271763
    Tabelle 2B Beispiel von CDF 9/7 Synthesefiltern
    lpsf 1.115087052 0.591271763 -0.057543526 -0.091271763
    hpsf 0.602949018 -0.266864118 0.078223266 0.01686411 0.026748757
  • Die zuvor erörterten Filtersätze (z.B. die CDF-(oder LeGall)-5/3-Filter und die CDF-9/7-Filter) sind Beispiele bi-orthogonaler Filter. Allerdings sind die hier erörterten Techniken auch auf orthogonale Filter, wie beispielsweise QMF-Filter, anwendbar. Beispielsweise zeigt Tabelle 3 Beispiele von Koeffizienten von 13-Tap-QMF-Tiefpass- und Hochpass-Analysefiltern. Die komplementären Synthesefilter können als zeitlich umgekehrte Versionen von Analysefiltern erzeugt werden. Tabelle 3 Beispiel von QMF-13-Analysefiltern (Synthesefilter sind zeitlich umgekehrte Versionen der Analysefilter)
    lpaf hpaf
    0.7737113 0.7737113
    0.42995453 -0.42995453
    -0.057827797 -0.057827797
    -0.0980052 0.0980052
    0.039045125 0.039045125
    0.021651438 -0.021651438
    -0.014556438 -0.014556438
  • Die beschriebenen Techniken können eine 1D-Filterung von Signalen ermöglichen. Die Erörterung geht nun auf 2D-Filterung ein, da Bilder 2D-Signale sind, und ein Video sich als aus 2D-Frames plus einer Zeitdimension aufgebaut vorstellen lässt. Beispielsweise können die bis hierher erörterten 1D-Filtertechniken erweitert werden, um, wie weiter unten erörtert, 2D-Filtertechniken abzuleiten.
  • Beispielsweise kann eine Wavelet-Filterung ein 2D-Signal, beispielsweise ein Bild (oder einen Video-Frame) durch unterschiedliche Zerlegungstechniken, z.B. gleichmäßige Bandzerlegung, Oktavenbandzerlegung und Wavelet-Paketzerlegung in Teilbänder zerlegen. Beispielsweise kann eine Oktavenbandzerlegung eine ungleichmäßige Splitting-Technik vorsehen, die ein niedriges Frequenzband in schmalere Bänder zerlegt, so dass die Hochfrequenzbänder keine weitere Zerlegung erfahren.
  • 1C veranschaulicht ein Beispiel einer Analysefilterung 103 eines 2D-Signals, die in Übereinstimmung mit wenigstens einigen Durchführungen der vorliegenden Beschreibung ausgelegt ist. Wie in 1C gezeigt, kann die Analysefilterung von 2D-Signalen zwei Stufen aufweisen, nämlich die erste Stufe, um eine Filterung in einer (z.B. vertikalen) Dimension durchzuführen, und die zweite Stufe, um an dem Ausgang der ersten Stufe eine Filterung in der zweiten (z.B. horizontalen) Dimension durchzuführen. Beispielsweise kann die Analysefilterung 103 eine Analysefilterung eines 2D-Signals (z.B. eines Bildes oder Intra-Frames) vorsehen. Die Analysefilter, die in der ersten Stufe (z.B. ein Analyse-Tiefpassfilter und ein Analyse-Hochpassfilter) und in der zweiten Stufe genutzt werden, können übereinstimmen. Beispielsweise können sie in der ersten Stufe auf Zeilen angewendet werden, während sie in der zweiten Stufe auf Spalten angewendet werden können. Das in 1C veranschaulichte gesamte 2-stufige Zerlegungs/Analysefilterungsverfahren für 2D-Signale kann eine Filterung und Unterabtastung durch 2 Schritte vorsehen, und kann 4 Teilbänder ergeben, die als Tief-Tief (Low-Low, LL), Tief-Hoch (Low-High, LH), Hoch-Tief (High-Low, HL) und Hoch-Hoch (High-High, HH) bezeichnet sind. Beispielsweise veranschaulicht 1C ein Zerlegen eines 2D-Signals, x(m,n), in 4 Teilbänder, die Abtastwerte aufweisen, die durch yLL(p,q), yLH(p,q), yLL(p,q) und yLL(p,q) repräsentiert sind. In dem Beispiel einer Zerlegung in Fig. 1C beinhaltet jedes Teilband ein Viertel der Anzahl von Abtastwerten (Koeffizienten) des ursprünglichen Signals x(m,n).
  • 1D veranschaulicht ein Beispiel einer Synthesefilterung 104, die in Übereinstimmung mit wenigstens einigen Durchführungen der vorliegenden Beschreibung ausgelegt ist. Wie in 1D gezeigt, kann die Synthesefilterung 104 Schritte einer Interpolation durch 2 und eine Filterung beinhalten, die auf Abtastwerte (z.B. Koeffizienten) y'LL(p,q), y'LH(p,q), y'HL(p,q) und y'HH(p,q) angewendet wird, die jedes der vier Teilbänder darstellen, um eine wieder zusammengesetzte Version des ursprünglichen Signals (z.B. x'(m,n)) vorzusehen. In Beispielen, in denen vollkommene Filter, die keine Quantisierung von Teilbandkoeffizienten aufweisen, verwendet werden, kann das endgültige (z.B. wieder zusammengesetzte) Signal (z.B. x'(m,n)) mit dem Eingabesignal genau übereinstimmen, das an die Analysefilterung 103 ausgegeben wurde (z.B. x(m,n); siehe 1C).
  • 2A veranschaulicht ein Beispiel von Ergebnissen 202, 203 einer Anwendung einer Wavelet-Filterung auf einen Bild- oder Videoframe 201 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 2A gezeigt, kann die Wavelet-Filterung auf die Zeilen des Bildes bzw. Videoframes 201 angewendet werden, woraus sich eine Zerlegung des Bildes bzw. Videoframes 201 in die Ergebnisse 202 ergibt, die möglicherweise 2 Teilbänder enthalten: ein Niederfrequenz-Teilband L und ein Hochfrequenz-Teilband H, die in Bezug auf das Bild bzw. den Videoframe 201 jeweils horizontal die halbe Größe, jedoch vertikal die volle Größe aufweisen können. Die Wavelet-Filterung kann auf Spalten der Ergebnisse 202 (beispielsweise auf jedes der zwei Teilbänder L und H) angewendet werden, um jedes Teilband in weitere zwei Teilbänder zu zerlegen, jedes für eine Gesamtanzahl von 4 Teilbänder (z.B. LL-, HL-, LH- und HH-Teilbänder) wie mit Bezug auf die Ergebnisse 203 gezeigt. Das Verfahren, das mit Bezug auf 2A veranschaulicht ist, kann als eine einstufige Zerlegung des Bildes bzw. Videoframes 201 bezeichnet werden. Beispielsweise kann 2A eine einstufige diskrete Wavelet-Transformations(Discrete Wavelet Transform, DWT)-Zerlegung vorsehen.
  • 2B veranschaulicht ein Beispiel einer zweistufigen Zerlegung 204 eines Bild- oder Videoframes gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 2B gezeigt, kann das Verfahren zur einstufigen Zerlegung auf zwei Stufen erweitert werden (was beispielsweise als eine zweistufige Zerlegung bezeichnet werden kann). Das Verfahren zum Vorsehen der zweistufigen Zerlegung 204 kann ein Durchführen einer einstufigen Zerlegung in die 4 Teilbänder umfassen, die mit Bezug auf 2A erörtert sind und in 2B als LL1- (aufgrund der nachfolgenden Zerlegung in 2B nicht gezeigt), HL1-, LH1- und HH1-Teilbänder bezeichnet. Außerdem kann das Tief-Tief-Teilband (LL1) in einigen Ausführungsformen ferner durch ein identisches Verfahren zerlegt werden, das für die einstufige Zerlegung genutzt wird. In weiteren Ausführungsformen können die erste und zweite Zerlegung unterschiedliche Zerlegungen (z.B. Filterarten oder dergleichen) beinhalten. Ein derartiges Vorgehen kann die Zerlegung des LL1-Teilbands ferner in 4 Teilbänder ermöglichen, die mit LL2, HL2, LH2 und HH2 bezeichnet werden, wobei LL2 hier das Tief-Tief-Teilband ist.
  • In einigen Ausführungsformen kann ein solches Zerlegungsvorgehen weiter fortgesetzt werden, wobei jede Iteration ausgehend von der vorhergehenden Iteration eine Quadrantenteilung des Tief-Tief-Bands durchführt, was höhere Zerlegungsstufen vorsehen kann.
  • Die Erörterung wendet sich nun einem wavelet-basierten Encoder zum Codieren von Videobildern oder Intra-Frames zu. 3A zeigt ein Blockdiagramm eines wafelet-basierten Encoder/Decodersystems 301 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 3A gezeigt, kann ein Bild, das durch einen Wavelet-Encoder des Systems 301 zu codieren ist, in einen Farbraumkonverter eingegeben werden, der beispielsweise ein RGB-Bild/Einzelbild in ein YUV-Bild/Einzelbild umwandeln kann, der in ein Waveletanalyse-Transform-Modul eingegeben werden kann, das das YUV-Bild/Einzelbild in Wavelet(z.B. Teilband)-Koeffizienten zerlegen kann, die durch einen Quantisierer quantisiert werden können, worauf eine Entropiecodierung einer Karte eines Orts signifikanter quantisierter Koeffizienten und der quantisierten Koeffizienten selbst durch einen Significance Maps and Coefficients Entropy Encoder (Signifikanzabbildungs- und Koeffizientenentropiecodierer) folgen kann, um einen codierten Datenstrom für eine Speicherung oder Übertragung über einen Kanal zu erzeugen.
  • Der von dem Speicher oder von der Übertragung stammende codierte Datenstrom kann in einem Wavelet- Decoder des Systems 301 eine Entropiedecodierung der Signifikanzabbildungen erfahren, sowie die Koeffizient selbst in einem Signifikanzabbildungs- und Koeffizientenentropiedecodierer, gefolgt von einer inversen Quantisierung quantisierter Koeffizienten in einem Inversen Quantisierer, die in ein Waveletsynthese-Transform-Modul eingegeben werden können, das anhand von Wavelet(z.B. Teilband)-Koeffizienten das YUV-Bild/Einzelbild rekonstruieren kann, das durch einen Farbrauminvertierer in das gewünschte (z.B. häufig RGB)-Format umgewandelt werden kann, um ein decodiertes Bild zu erzeugen.
  • Ohne Einschränkung der Allgemeingültigkeit kann festgestellt werden, dass, falls das zu codierende Bild bereits das durch den Encoder verwendete Farbformat aufweist, die Farbraumkonvertierung nicht erforderlich ist. Außerdem erfordert das decodierte Bild, falls es in dem decodierten Format verwendet werden kann, möglicherweise keine Farbraumumkehrung. Der mit Bezug auf das System 301 erörterte Codier-/Decodierungsverfahren kann auf Bilder oder Frame(s) (Einzelbild(er)) eines Videos angewendet werden, die hier als Intra-Frame(s) bezeichnet werden.
  • Wavelet-Encoder können unterschiedliche Qualitäts/Komplexitätsreduzierungen und Funktionalität/Flexibilität vorsehen. Beispielsweise die Wavelet-Zerlegung, bei der lediglich das LL-Band in eine Vierergruppe geteilt wird, so dass jeder Koeffizient in einem tieferen/gröberen Band 4 Koeffizienten aufweist, die dessen räumlichen Ort in dem nächsthöheren Band entsprechen. Folglich besteht eine eindeutige räumliche Beziehung zwischen Koeffizienten eines Bandes mit demjenigen von Koeffizienten in einem vorhergehenden Band. Außerdem können Wavelet-Encoder die eindeutige Struktur von Wavelet-Koeffizienten nutzen, um zusätzliche Funktionalität, wie beispielsweise eine Skalierbarkeit der Bilddecodierung oder einen Direktzugriff in den Datenstrom hinein vorzusehen.
  • Beispiele von Wavelet-Encodern beinhalten einen Eingebetteten Null-Baum-Wavelet(Embedded Zero-tree Wavelet)-Encoder, einen eine festgelegte Unterteilung in hierarchische Bäume verwendenden (Set Partitioning in Hierarchical Trees, SPIHT)-Encoder, einen festgelegten, partitionierten, eingebetteten BloCK(Set Partitioned Embedded BloCK, SPECK)-Encoder und einen eine Eingebettete Blockcodierung mit einer optimierten Rundung verwendenden (Embedded Block Coding with Optimized Truncation, EBCOT)-Encoder. Tabelle 3 zeigt Beispiele von Signifikanzabbildungscodierungs- und Entropiecodierungstechniken, die durch derartige Wavelet-Bildcodierer verwendet werden. Tabelle 3 Wavelet-basierter Bildcodierer und ihre Koeffizientencodierungsstrategien
    Waveletbild-Codierer Signifikanz-ab bildungscodierung Koeffizientenstrukturen, und Entropiecodierung
    EZW, SPIHT Null-Bäume Cross-Scale-Bäume von Koeffizienten und arithmetische Codierung
    SPECK Satzunterteilung Splitten eines Satzes in
    Teilsätze und arithmetische Codierung
    EBCOT, JPEG 2000 Bedingte Codierung Multi-Kontext-Arithmetische Codierung kleiner Koeffizientenblöcke. Arithmetische Codierung. Optimaler Blockabbruch
  • Beispielsweise kann EZW auf den Prinzipien der eingebetteten Null-Baum-Codierung von Wavelet-Koeffizienten begründet werden. Einer der günstigen Eigenschaften von Wavelet-Transform besteht darin, dass es die Energie eines Eingabesignals in ein geringe Anzahl von Wavelet-Koeffizienten verdichtet, z.B. wird im Falle natürlicher Bilder die meiste Energie in einem LLk-Band konzentriert ist (wobei k eine Zerlegungsstufe ist), sowie die übrige Energie in den Hochfrequenzbändern (HLi, LHi, HHi) ebenfalls in einer geringen Anzahl von Koeffizienten konzentriert ist. Beispielsweise sind nach einer Wavelet-Transformation möglicherweise wenige, einen höheren Betrag aufweisende Koeffizienten vorhanden, die spärlich sind, jedoch sind die meisten Koeffizienten verhältnismäßig klein (und tragen eine verhältnismäßig geringe Energiemenge), und derartige Koeffizienten quantisieren sich daher nach einer Quantisierung zu Null. Außerdem werden angegliederte Koeffizienten über unterschiedliche Bänder in Beziehung gesetzt. EZW nutzt diese Eigenschaften, indem es zwei Hauptkonzepte verwendet, nämlich ein Codieren von Signifikanzabbildungen unter Verwendung von Null-Bäumen und eine sukzessive Approximation verwendende Quantisierung. Beispielsweise kann EZW die innewohnende Mehrfachauflösung der Wavelet-Zerlegung nutzen.
  • 3B veranschaulicht eine 3stufige Oktavzerlegung eines Wavelets 302 in 10 Teilbänder gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise ist die 3stufige Oktavzerlegung eines Wavelets 302 um eine Stufe der Zerlegung höher als weiter oben erörtert. Wie in 3B gezeigt, kann auf jeder Teilbandstufe eine räumliche strukturelle Beziehung zwischen Koeffizienten vorgesehen sein. Beispielsweise kann jeder Teilbandkoeffizient, der durch ein Quadrat in HL3-, LH3- und HH3- Bändern gezeigt ist, einem angegliederten Quadrat von 2×2 Koeffizienten in HL2-, LH2- und HH2- Bändern und/oder ein angegliedertes Quadrat von 4×4 Teilbandkoeffizienten in HL1-, LH1- und HH1-Bändern entsprechen. Ein Weg, um Vorteile aus einer derartigen Struktur zu ziehen, basiert beispielsweise darauf, dass falls ein Wavelet-Teilbandkoeffizient in einem gröberen Maßstab (beispielsweise Stufe 3) in Bezug auf einen Schwellwert insignifikant oder Null ist, Wavelet-Koeffizienten mit einer übereinstimmenden Orientierung in feineren Maßstäben (beispielsweise Stufen 2 und 1) bezüglich des gleichen Schwellwerts möglicherweise wahrscheinlich insignifikant oder Null sind. Dies ermöglicht es, Null-Bäume (z.B. Bäume von Null-Symbolen, die durch Blockende angebende Null-Koeffizienten über Teilbandskalen repräsentiert sind) zu bilden, die sehr effizient dargestellt werden können. Solche Beziehungen sind in 3B als Mutter-Kind-Abhängigkeiten zwischen durchgezogen dargestellten Pfeilen gezeigt. 3B zeigt ferner (durch gestrichelt und fett dargestellte Pfeile) eine exemplarische Reihenfolge einer Zickzackabtastung von Teilbandkoeffizienten über unterschiedliche Maßstäbe. Beispielsweise kann eine Null-Baum-Struktur ermöglichen, viele kleine Koeffizienten über Teilbänder feinerer Auflösung (kleinerer Stufenzahl) zu verwerfen, die wesentliche Einsparungen ermöglichen können, da der Baum mit Potenzen von 4 wächst. Außerdem kann die EZW-Codierung die gewonnene Baumstruktur codieren, die Bit in der Rangfolge ihrer Bedeutung erzeugt, was eine eingebettete Codierung ergibt, bei der ein Encoder die Codierung an irgendeinem beliebigen Punkt beenden kann, um einer Codierungszielbitrate zu genügen, oder der Decoder kann die Decodierung an irgendeinem beliebigen Punkt beenden, was eine annehmbares, jedoch qualitativ schlechteres decodiertes Bildes bei einer geringeren als der vollen Bitrate ergibt.
  • Weiter kann SPIHT auf den Prinzipien einer festgelegten Partitionierung in hierarchischen Bäumen begründet werden. Beispielsweise kann SPIHT vorteilhaft Codierungsprinzipien nutzen, wie beispielsweise ein partielles Ordnen nach Betrag mittels eines eingestellten partitionierenden Sortieralgorithmus, einer geordneten Bitebenen-Übertragung und einer Nutzung von Selbstähnlichkeit über unterschiedliche Bildmaßstäbe hinweg. In einigen Ausführungsformen kann die SPIHT-Codierung effizienter als die EZW-Codierung sein. Bei der SPIHT-Codierung kann ein Bild durch Wavelet-Transform zerlegt werden, was Wavelet-Transformationskoeffizienten ergibt, die in Sätze, wie beispielsweise räumliche Orientierungsbäume, gruppiert werden können. In jedem räumlichen Orientierungsbaum können fortschreitend Koeffizienten beginnend mit Koeffizienten des höchsten Betrages von höchstwertigen Bitebenen zu niedrigstwertigen Bitebenen codiert werden. Wie im Falle von EZW, kann SPIHT zwei Durchgänge einbeziehen: einen Sortierdurchgang und einen Verfeinerungsdurchgang. Nach einem Sortierdurchgang und einem Verfeinerungsdurchgang, die einen Abtastdurchgang bilden, kann der Schwellwert halbiert und das Verfahren wiederholt werden, bis eine gewünscht Bitrate erreicht wird.
  • Aufgrund der räumlichen Ähnlichkeit zwischen Teilbändern, ist es besser, die Koeffizienten bei der Abwärtsbewegung in der Pyramide nach Betrag zu ordnen. Beispielsweise ist möglicherweise auf der höchsten Stufe der Pyramide eine detailarmer Bereich zu identifizieren, der auf unteren Stufen an demselben räumlichen Ort repliziert werden kann. 3C veranschaulicht einen räumlichen Orientierungsbaum 303 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann der räumliche Orientierungsbaum 303 eine Baumstruktur aufweisen, die auf dem hierarchischen Baum räumliche Beziehungen definiert. In einigen Ausführungsformen kann ein räumlicher Orientierungsbaum in Form einer Pyramide definiert sein, die mit einem rekursiven Vier-Band-Splitting erzeugt wird, so dass jeder Knoten eines Baumes ein Pixel definiert, und seine Abkömmlinge Pixeln derselben räumlichen Orientierung in der nächstfeineren Stufe der Pyramide entsprechen. Beispielsweise kann der Baum so definiert sein, dass jeder Knoten entweder kein Kind oder vier Kinder hat, die eine Gruppe von 2x2 benachbarte Pixel bilden.
  • Zusätzlich kann die SPECK-Codierung auf dem Prinzip einer Codierung von Sätzen von Pixeln in Form von Blöcken begründet werden, die Wavelet-Teilbänder überspannen. Beispielsweise kann sich SPECK von EZW oder SPIHT unterscheiden, die stattdessen Bäume verwenden. SPECK kann eine Wavelet-Transformation eines eingegebenen Bildes oder Intra-Frames durchführen und in 2 Phasen codieren, die einen Sortierdurchgang und einen Verfeinerungsdurchgang umfassen, die iterativ wiederholt werden können. Zusätzlich zu den 2 Phasen kann SPECK eine Initialisierungsphase durchführen. In einigen Ausführungsformen kann SPECK zwei verknüpfte Listen führen: eine Liste signifikanter Sätze (LISs) und eine Liste signifikanter Pixel (LISPs).
  • 3D veranschaulicht ein Beispiel eines SPECK-Codierverfahrens 304 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 3D gezeigt, kann ein eingegebenes Bild (z.B. F) in einer Initialisierungsphase in zwei Sätze unterteilt sein, einen Satz S, und einen Satz I. Der Satz S kann die Wurzel darstellen und kann der LIS hinzugefügt werden. Satz I kann den übrige Abschnitt (z.B. F-S) darstellen. In der Sortierphase kann ein Signifikanztest gegenüber einem aktuellen Schwellwert ausgeführt werden, um jeden Block vom Typ S in der LIS zu sortieren. Falls der S-Block signifikant ist, wird er durch Quadtree-Unterteilung in vier Teilsätze aufgeteilt, und jeder Teilsatz wird als ein Satz vom Typ S behandelt und rekursiv verarbeitet, bis die Pixelebene erreicht wird. Die signifikanten Sätze werden für eine weitere Verarbeitung in die LIS bewegt. Sobald die Verarbeitung des Satzes S erreicht ist, wird unter Verwendung desselben Schwellwerts ein Signifikanztest gegen I-Blöcke durchgeführt. Falls eine I-Block signifikant ist, wird er in vier Sätze aufgeteilt, wobei der eine Satz den gleichen Typ I aufweist, und der andere Satz den Typ S aufweist. Für LSP-Pixel wird eine Verfeinerungsdurchgang durchgeführt, so dass mit Ausnahme von Pixeln, die während des letzten Sortierdurchgangs hinzugefügt wurden, das n-te höchstwertige Bit ausgegeben wird. Weiter kann der Schwellwert halbiert werden, und das Codierungsverfahren kann wiederholt werden, bis eine erwartete Bitrate erreicht wird.
  • Weiter kann EBCOT eine eingebettete Block-Codierung von Wavelet-Teilbändern umfassen, die Ausstattungsmerkmale, wie beispielsweise räumliche Skalierbarkeit (z.B. die Fähigkeit, Bilder unterschiedlicher räumliche Auflösungen zu decodieren) und SNR-Skalierbarkeit (z.B. die Fähigkeit, Bilder mit unterschiedlichen Eigenschaften zu decodieren) von einem einzelnen codierten Datenstrom unterstützen können. Während auch die Forderung nach SNR-Skalierbarkeit auch durch EZW- und SPIHT-Codierung behandelt werden kann, die tatsächlich sukzessive Approximation oder Bitebenen-Codierung durchführen, müssten sowohl EZW als auch SPIHT, falls sie räumliche Skalierbarkeit ermöglichen sollen, die Codierung bzw. den Datenstrom modifizieren, allerdings würde der sich ergebende Datenstrom dann aufgrund von Abwärtsabhängigkeiten zwischen Teilbändern nicht SNR-skalierbar sein. In einigen Ausführungsformen behandelt diese Mängel EBCOT durch ein unabhängiges Codieren jedes Bandes. Weiter wird die Codierung durch Unterteilen von Teilbandabtastwerten in kleine Blöcke, die als Codeblöcke bezeichnet werden, flexibler gestaltet, wobei die Größe von Codeblöcken die erreichbare Effizienz einer Codierung bestimmt. Beispielsweise kann ein unabhängiges Verarbeiten von Codeblöcken eine Lokalisierung ermöglichen und kann von Vorteil für eine Hardware-Durchführung sein.
  • 3E veranschaulicht ein Beispiel einer Division 305 eines Bildes oder Intra-Frames gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 3E gezeigt, kann ein zu codierendes Bild bzw. Intra-Frame in Kacheln unterteilt werden, wobei jedes Kachel-Wavelet in als Paketpartitionsorte bezeichnete Bezirke transformiert und so unterteilt wird, dass jeder Bezirk drei räumlich konsistente Rechtecke enthält, eines von jedem Teilband auf jeder Auflösungsebene. Jeder Bezirk kann weiter in Codeblöcke unterteilt werden, die eine Eingabe für einen Entropie-Encoder bilden. Innerhalb eines Streifens (z.B. kann ein Streifen auf 4 aufeinander folgenden Zeilen von Pixelbits in der Codeblockbitebene basieren) können Spalte für Spalte Abtastwerte abgetastet werden. 3E zeigt ebenfalls ein Beispiel eines Codeblock-Abtastverfahrens für Codeblöcke mit einer Breite 16 und Höhe n. Oben links beginnend können erste vier Bit einer ersten Spalte abgetastet werden, bis die Breite des Codeblocks abgedeckt ist. Anschließend können die zweiten vier Bit der ersten Spalte eines nächsten Streifens abgetastet werden, und so fort.
  • 4 zeigt in einem Blockdiagramm ein Beispiel eines JPEG 2000 Encoder 401 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. In einigen Ausführungsformen kann der JPEG 2000 Encoder 401 auf hier erörterten EBCOT-Techniken begründet sein. Wie in 4 gezeigt, kann ein zu codierendes Bild bzw. Intra-Frame (image) eine Vorverarbeitung in einem „Color Matrix, Level Shifter, Tile Converter“ (Farbmatrix, Stufenschieber, Kachelkonverter)-Modul erfahren, das Pixelwerte um 128 verschieben, eine Farbformatkonvertierung durchführen und das Bild in Kacheln feststehender Größe unterteilen kann. Außerdem kann ein „Wavelet (Analysis) Transform“-Modul eine 2D-Wavelet-Zerlegung in Bänder durchführen, und Koeffizienten jedes Teilbands können durch einen „Quantisierer“ quantisiert und entropiecodiert werden, und unter Verwendung eines 2-Tier-Encoders überlagert werden. Beispielsweise kann ein „Tier-1-Encoder“ einen „Kontextmodellierer“ (der beispielsweise einen „Koeffizienten-Bitebenen-Encoder“ und ein „Kontextinformations“-Modul aufweist), gefolgt von einem „Arithmetischen Encoder“ (der beispielsweise einen „MQ-Encoder“ und einen „Zustandsvariablen“-Modul aufweisen) enthalten, und ein „Tier-2-Encoder“ kann einen „geschichteten (RDO-gerundete Codeblöcke) Datenstrom-Formatierer/Paketierer“ enthalten, der einen eingebetteten/skalierbaren Datenstrom erzeugen kann, der anschließend in Datenpakete zusammengefasst wird.
  • Ein Beispiel eines (nicht gezeigten) JPEG 2000 Decoders kann die Reihenfolge von Schritten des Encoders umkehren, beginnend mit einem zu decodierenden Datenstrom, der in den „Tier 2 Decoder“ eingegeben wird, der einen „Entpacker und Datenstrom-Entformatierer“ enthält, gefolgt von einer Entropiedecodierung in einem „Tier 1 (Arithmetic)-Decoder“, dessen Ausgangssignal für einen „Inverse-Quantisierer“ und anschließend für ein „Wavelet (Synthese) Transform“-Modul und anschließend für einen „Kachel-Unformatter, Level-Unshifter und Farbumkehrmatrix“-Post-Prozessor vorgesehen werden kann, der das decodierte Bild ausgeben kann.
  • JPEG 2000 wurde 2000 durch das ISO/WG1-Komitee fertiggestellt. Der ursprüngliche JPEG-Bildcodierungsstandard wurde 1992 als ITU-T Rec. T.81 entwickelt und später 1994 durch dasselbe ISO- Komitee eingeführt. Während der JPEG 2000 Standard gegenüber dem ursprünglichen JPEG-Standard deutliche Verbesserungen brachte, weist er möglicherweise Mängel auf, wie beispielsweise hohe Komplexität, beschränkte Kompressionsleistungsfähigkeit, Probleme der Hardware-Durchführung und der Skalierbarkeit zu Lasten der Kompressionseffizienz. Weiter ist der ursprüngliche JPEG-Standard, der Transform-Codierung feststehender Blockgrößen verwendet, bis heute noch der im Einsatz vorherrschende Bildcodierungsstandard. Allerdings weist der ursprüngliche JPEG-Standard Schwächen auf, wie beispielsweise eine beschränkte Kompressionsleistungsfähigkeit.
  • Die hier erörterten Techniken ermöglichen einen neuen Intra-Codierungsansatz, der bitraten-effizient und skalierbar ist, so dass von einem einzelnen codierten Strom ein Teilsatz davon unabhängig decodiert werden kann. Außerdem kann ein Teilsatz des codierten Stroms (beispielsweise das LL-Teilband) mit dem High Efficiency Video Coding(HEVC)-Video-Intra-Codierungsstandard kompatibel sein. Solche Techniken können Vorteile bieten, beispielsweise ein Interoperabilität mit einem bestehenden Standard aufweisen und Vorteile aus einer Reihe von leicht verfügbaren Hardware-Durchführungen ziehen. Solche Techniken können Vorteile einer Wavelet- und Transform-Codierung kombinieren, so dass die globalen Redundanzen durch eine Wavelet-Verarbeitung genutzt werden, und die lokalen Redundanzen durch eine adaptive Transform-Codierung genutzt werden. Hinsichtlich der Kompressionseffizienz können die hier erörterten Techniken etwa um 35% höher sein als gegenwärtige Techniken, wie beispielsweise der JPEG 2000 Standard. Außerdem können die im vorliegenden erörterten Techniken, wie erörtert, mehrere weitere Vorteile gegenüber gegenwärtigen Techniken, wie beispielsweise dem JPEG 2000 Standard, bieten.
  • 5A zeigt in einem Blockdiagramm ein Beispiel eines HEVC Main 10 Intra-Encoders 501 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 5A einen HEVC Main Intra-Encoder zeigen, der für eine Transform-Codierung von Blöcken von Pixeln oder für eine Transform-Codierung von Blöcken von Wavelet-LL-Banddaten genutzt werden kann. Wie gezeigt, kann ein eingegebener Frame (frame) zunächst in große Blöcke unterteilt werden, die als größte Codierungseinheit (Largest Coding Unit, LCUs) oder Codierungsbaumeinheiten (Coding Tree Units, CTUs) bezeichnet sind, die gewöhnlich eine GröOe von 64×64 aufweisen (obwohl auch Größen von 32×32 und 16×16 vorgesehen sein können). Für Intra-Codierung können derartige große Blöcke (LCUs) durch einen „Adaptiven Unterteiler von CTUs zu quadratischen CUs/PUs (Adaptive Partitioner of CTUs to Square CUs/PUs)“ adaptiv in Codierungseinheiten (Coding Units, CUs) unterschiedlicher Größe, wie beispielsweise 32×32, 16×16 und 8×8, unterteilt werden. Ein solches Unterteilen kann auf der Grundlage einer Inhalts- und Bitratenanalyse oder von Einzelheiten einer Raten-Verzerrung-Optimierung (Rate Distortion Optimization, RDO) oder dergleichen durchgeführt werden (nicht gezeigt). Außerdem können die CUs für eine Intra-Codierung durch den „Adaptiven Unterteiler von CTUs in quadratische CUs/PUs“ herunter auf 4×4-Blöcke in quadratische Vorhersageeinheiten (Prediction Units, PUs) geteilt werden. Für eine PU eines eingegebenen Video/Bild-Frames kann durch einen „Intra DC/Planar/33 Directional Predictor“ ein Intra-Vorhersageblock gleicher Größe erzeugt werden. Beispielsweise kann ein Block durch 35 unterschiedliche in Frage kommende Vorhersagen (z.B. DC, ebene und 33 Richtungen) vorausgesagt werden, die anhand benachbarter decodierter Blöcke durch einen „Intra DC/Planar/33 Prediction Directions Estimator“ erzeugt werden können. Wie gezeigt, kann am Ausgang eines Differenzierers 511 auf der Grundlage einer Differenz zwischen dem Block des eingegebenen Video/Bild-Frames und des Intra-Vorhersageblocks ein Vorhersagefehlerblock erzeugt werden. Die Differenz (z.B. ein Restblock oder Fehlerblöcke oder dergleichen) kann transformationscodiert werden. Beispielsweise können für Intra-Codierung Transform-Blöcke von 32×32, 16×16, 8×8 und 4×4 unterstützt sein, wobei die PU-Größe für die Transform-Codierung ererbt ist. Was die Transformationen selbst betrifft, können sämtliche DCT-Approximationstransformationen für sämtliche TU-Blockgrößen verfügbar sein, und für die Blockgröße 4×4 kann ebenfalls eine DST-Approximationstransformation verfügbar sein. Wie gezeigt, kann ein „Adaptive Square TUs (4×4, 8×8, 16×16, 32×32) DCT/4×4 DST“-Modul eine Transformation des Differenzblocks durchführen. Der sich ergebende Transformationskoeffizientenblock, der durch die Vorwärtstransformation erzeugt ist, kann durch einen „Quantisierer“ quantisiert werden, und die quantisierten Koeffizienten können mittels eines CABAC-Entropie-Encoders in einem „Adaptive scan of each TU size, CABAC Encoder & Datenstrom-Formatierer“ abgetastet und entropiecodiert werden. Unterschiedliche Arten von Overhead-Daten und Steuersignalen, wie beispielsweise partn, mode, xmb und qp, können ebenfalls entropiecodiert werden, um einen Datenstrom (bitstr) vorzusehen. Da der beschriebene Encoder eine Vorhersage einschließt, sieht er eine Regelschleife (z.B. eine lokale Decodierungsschleife) vor, die quantisierte Transformationskoeffizienten in einem „Inverse Quantisierer“ dequantisieren kann. Die dequantisierten Transformationskoeffizienten können mit derselben Größe und demselben Transformationsart invers transformiert werden, die für Vorwärtstransformation in einem „Adaptive Square TUs (4×4, 8×8, 16×16, 32×32) Inverse DCT/4×4 Inverse DST“-Modul genutzt werden. In einem Addierschaltkreis 512 können Vorhersageblöcken decodierte Fehlerblöcke hinzugefügt werden, woraus sich rekonstruierte Blöcke ergeben. Wie gezeigt, können benachbarte rekonstruierte Blöcke zur Vorhersage eines aktuellen Blocks verwendet werden, der gerade codiert wird, und derartige benachbarte rekonstruierte Blöcke können in einem „Lokalen Puffer“ gespeichert werden und verwendet werden, um durch den „Intra DC/Planar/33 Prediction Directions Estimator“ die zuvor erwähnten 35 in Frage kommenden Vorhersagen zu bilden. Die rekonstruierten Blöcke werden ferner durch einen „Adaptive Assembler of Square CUs to CTUs“ zu CUs und CTUs zusammengesetzt, um den lokal decodierten Frame zusammenzusetzen, der in einem „DeBlock Filtering“-Modul mittels eines Filters entblockt und in einem „Sample Adaptive Offset“-Modul durch Sample Adaptive Offset (SAO) gefiltert und für eine Ausgabe (dec. frame) vorgesehen werden kann.
  • 5B zeigt in einem Blockdiagramm ein Beispiel eines HEVC Main 10 Intra-Decoders 502 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 5B einen HEVC Main Intra-Decoder zeigen, der genutzt werden kann, um entsprechende Datenströme zu decodieren, die mittels HEVC Main Intra codiert wurden. Außerdem kann der Decoder von 5B identisch zu der lokalen Regelschleife arbeiten, die mit Bezug auf den HEVC Main 10 Encoder beschrieben ist. Wie gezeigt, kann ein mittels HEVC Main 10 codierter Datenstrom (bitstr) in einen „Datenstrom-Unformatter, CABAC Decoder & Inverse Scan of each TU size“-Modul eingegeben werden, der Overhead-Daten und Steuersignale (die beispielsweise anschließend, wie gezeigt, unterschiedlichen Verarbeitungsblöcken zur Verfügung gestellt werden) extrahieren und decodieren und quantisierte Transformationskoeffizienten decodieren und invers abtasten kann. Solche quantisierten Transformationskoeffizienten können durch einen „Inverse-Quantisierer“ invers quantisiert werden, und die resultierenden Transformationskoeffizienten können unter Verwendung der Transformations- und Blockgröße, die in dem Encoder durch ein „Adaptive Square TUs (4×4, 8×8, 16×16, 32×32) Inverse DCT/4×4 Inverse DST“-Modul genutzt wurde, invers transformiert werden, woraus sich decodierte Vorhersagefehlerblöcke ergeben, die, wie gezeigt, eine Eingabe für einen Addierschaltkreis 521 bilden können. An dem anderen Eingang des Addierschaltkreises 521 ist ein Vorhersagesignal oder -Block vorhanden, der beispielsweise auf bis zu 35 unterschiedlichen Wegen, wie beispielsweise DC, eben, und in jeder von 33 Richtungen, erzeugt werden kann. Beispielsweise für jeden Block, der vorherberechnet wird, können modeb-Informationen in dem Datenstrom kennzeichnen, welche der 35 möglichen Vorhersagen zu erzeugen ist, und der Vorhersageblock kann durch einen „Intra DC/Planar/33 Prediction Directions Predictor“ erzeugt werden, der auf rekonstruierten benachbarten Blöcken begründet ist, die in einem „Lokalen Puffer“ gespeichert sind. Beispielsweise werden die rekonstruierten Frame-Blöcke/CUs in dem „Lokalen Puffer“ an dem Ausgang des Addierschaltkreises 521 erzeugt, und solche rekonstruierten (beispielsweise zu einem gerade decodiert werdenden Block) benachbarten Blöcke können in dem „Lokalen Puffer“ gespeichert werden, der genutzt werden kann, um eine Vorhersage zu erzeugen. Die rekonstruierten Frame-Blöcke/CUs können ferner in einen „Adaptive Assembler of Square CUs to CTUs“ eingegeben werden, der die rekonstruierten Blöcke/CUs zusammensetzen kann, um CTUs und somit den vollständigen rekonstruierten Frame zu erzeugen. Der rekonstruierte Frame kann in einem „Deblock Filtering“-Modul mittels eines Filters entblockt und bei einem „Sample Adaptive Offset“-Modul an abtastadaptiv-gefiltert werden, um ein Ausgabe-Bild bzw. Frame (dec. frame) zu erzeugen.
  • Die Erörterung geht nun auf ein skalierbares HEVC-Codierungssystem ein, das in der Lage ist, eine zweischichtige räumliche/SNR-skalierbare Videocodierung durchzuführen. Ein derartiges System kann auf mehr als 2 Schichten erweitert werden, beispielsweise ein 3-schichtiges System, das eine einzige Basisschicht und zwei Verfeinerungsschichten verwenden kann, wobei eine Verfeinerungsschicht 1 zur Vorhersage die decodierte Basisschicht verwendet, und eine Verfeinerungsschicht 2 zur Vorhersage die Verfeinerungsschicht 1 verwendet.
  • 6A zeigt in einem Blockdiagramm ein Beispiel eines zweischichtigen räumlichen/SNR-skalierbaren Codierungssystems 601 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann das zweischichtige räumliche/SNR-skalierbare Codierungssystem 601 einen Basisschicht-Encoder und einen HEVC-Verfeinerungsschicht-Encoder enthalten. Der Basisschicht-Encoder kann ein HEVC- oder AVC- oder ein MPEG-2-Encoder oder dergleichen sein, und der Verfeinerungsschicht-Encoder kann ein im Zusammenhang mit 5A erörterter Encoder sein, der in der Lage ist, Referenzbilder (oder aufwärts abgetastete decodierte Basisschicht-Bilder) von einem Basisschicht-Encoder als zusätzliche Referenzbilder zu verwenden. Zur Veranschaulichung zeigt 6A einen Basisschicht-Encoder, der in zwei Teile, Komponenten oder Module getrennt gezeigt ist: einen „HEVC-“/AVC-Encoder“ (z.B. einen HEVC- oder AVC-Encoder ohne dessen decodierten Bildpuffer) und einen „Decodierten Bildpuffer“. Desgleichen ist der Verfeinerungsschicht-Encoder als ein „HEVC-Encoder“ mit einem getrennten „Decodierten Bildpuffer“ gezeigt. Der „Decodierte Bildpuffer“ der Verfeinerungsschicht kann die Möglichkeit einer Nutzung vergangener decodierter Bilder der Verfeinerungsschicht als Referenz sowie die Nutzung eines aufwärts abgetasteten Basisschichtbilds als Referenz vorsehen. Wie gezeigt, kann eine derartige zweischichtige Architektur ein Abwärtsabtasten eines eingegebenen Videos (video) durch einen „Räumlichen Abwärtsabtaster“, ein Codieren des einen oder (der mehreren) abwärts abgetasteten Frame(s) niedrigerer Auflösung (base layer video) (z.B. mit einer niedrigeren Bitrate) durch den Basisschicht-Encoder, der einen oder mehrere lokal decodierte Frames erzeugen kann, die durch einen „Räumlichen Aufwärtabtaster“, der durch einen „Zwischenschichtprozessor (Inter Layer Processor)“ implementiert ist, aufwärts abgetastet werden können, und ein Verwenden des einen oder der mehreren aufwärts abgetasteten Frames als eine weitere Bezugsgröße für eine Vorhersage umfassen. Die Basis- und Verfeinerungsschicht-Datenströme (base layer bitstr. and enh. layer bitstr.) können durch den „System-Multiplexer“ gemultiplext und als ein einzelner skalierbarer Strom (bitstr) einem skalierbaren HEVC-Decoder zugeführt werden.
  • Während ein großer Teil des oben beschriebenen Verfahrens eine skalierbare Videocodierung betrifft, kann dasselbe Verfahren auch für ein skalierbare Codierung von Intra-Frames genutzt werden. Beispielsweise kann eine HEVC-Intra-Frame-Codierung eine Vorhersage anhand eines vorhergehenden decodierten benachbarten Gebiets desselben Frames anstelle vergangener decodierter Frames verwenden. Wenn der Scalable HEVC-Encoder eine Intra-Frame-Codierung durchführt, kann er auf der Grundlage einer PU eine Vorhersage von einem (oder mehreren) benachbarten decodierten Blockbereich(en) in einem aktuellen Frame und in einer (oder mehreren) aufwärts abgetasteten angegliederten PU(s) von einer Basisschicht (z.B. auf deren Grundlage derjenigen Vorhersage, die am besten zutrifft) adaptiv verwenden.
  • 6B zeigt in einem Blockdiagramm ein Beispiel eines zweischichtigen räumlichen/SNR-skalierbaren Decodiersystems 602 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann das zweischichtige räumliche/SNR-skalierbare Decodiersystem 602 einen Basisschicht-Decoder und einen HEVC-Verfeinerungsschicht-Decoder enthalten, der in der Lage ist, skalierbar codierte Datenströme von dem zweischichtigen skalierbaren Codierungssystem von 6A zu decodieren. Wie gezeigt, kann eine Decoder mit geringeren Fähigkeiten von einem einzelnen skalierbar codierten Datenstrom (bitstr) lediglich die Basisschicht mit einer geringeren Auflösung/Qualität einen oder mehrere Frames decodieren, während ein Decoder mit größeren Fähigkeiten einen oder mehrere Frames voller Auflösung/Qualität der höheren Schicht decodieren kann. Es ist zu beachten, dass es bei einer derartigen skalierbaren Decodierung eines oder mehrerer Frames höherer Schicht ebenfalls naturgegeben erforderlich ist, einen oder mehrere Frames der Basisschicht zu decodieren. Was den Betrieb des Decoders von 6B betrifft, falls (beispielsweise auf der Grundlage einer Anwendereingabe oder von verfügbaren Ressourcen oder dergleichen) lediglich eine Decodierung des Basisschicht-Stroms erforderlich ist, kann der „System-Demultiplexer“ den Basisschicht-Strom (base layer bitstr.) extrahieren und ihn für den Basisschicht-Decoder vorsehen (der abhängig davon, welcher Videostandard zum Codieren in dem Encoder und in einem „decodierte Bildpuffer“ verwendet wurde, den voll kompatiblen HEVC- oder AVC-Decoder „HEVC/AVC Decoder“ enthalten kann). Die mit niedrigerer Auflösung/Qualität decodierten Frames (Base layer dec. video) können am Ausgang des Basisschicht-Decoders weiter verarbeitet (beispielsweise zu der vollständigen Größe aufwärts abgetastet und gegebenenfalls sortiert) und zu dem Bildschirm gesendet werden. Falls es erforderlich oder angefordert ist, eine volle Auflösung/höhere Schicht zu decodieren, kann eine Decodierung sowohl der Basis als auch der Verfeinerungsschichten vorgesehen sein. Beispielsweise kann die Decodierung der Basisschicht genau in der beschriebenen Weise, vorgesehen sein. Um eine decodierte höhere Schicht mit einer vollen Auflösung/Qualität zu erzeugen, kann der „System-Demultiplexer“ einen demultiplexten Verfeinerungsschicht-Datenstrom (enh. layer bitstr.) für den Verfeinerungsschicht-Decoder vorsehen. Der Verfeinerungsschicht-Decoder kann zur Vorhersage auch eine aufwärts abgetastet Version der decodierten Basisschicht-Frames von einem „Räumlichen Aufwärtabtaster“ empfangen, wie er durch einen „Zwischenschichtprozessor“ implementiert ist. Das Decodierungsverfahren in dem Verfeinerungsschicht-Decoder kann identisch zu dem lokalen Decodierungsverfahren in dem Encoder sein, wie er hier erörtert ist. Beispielsweise können die Frames der decodierten Verfeinerungsschicht die endgültige Schicht höherer Auflösung/Qualität (enh. layer dec. video) bilden, die (beispielsweise nach Frames sortiert) weiter verarbeitet werden kann, um auf einem Bildschirm wiedergegeben zu werden.
  • Das beschriebene Decodierungsverfahren ist auf die Inter-Frame-Video-Decodierung und auf die Intra-Video-Decodierung anwendbar. Im Falle der Intra-Video-Decodierung kann der HEVC-Intra-Decoder bei dem Verfeinerungsschicht-Decoder eine Vorhersage anhand decodierter benachbarter Blöcke eines aktuellen Frames und/oder angegliederter aufwärts abgetasteter decodierter Blöcke desselben Frames von einer Basisschicht nutzen.
  • 7A zeigt in einem Blockdiagramm ein Beispiel eines einstufigen Adaptive Wavelet- HEVC(AWHVC)-Encoders gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 7A ein Beispiel eines einstufigen Adaptive Wavelet HEVC(AWHVC)-Intra vorsehen, der die einstufige Adaptive-Wavelet-Analyse/Synthese und einen HEVC-Intra-Encoder, beispielsweise einen Main 10 I Bild-Encoder, einen Main 4:2:2 10 Intra oder einen Main 12 Intra-Encoder/Decoder kombiniert. Beispielsweise kann das veranschaulichte System, aufgrund der Zerlegung eines Bildes/Video-Frames in 4 Bänder vor einer HEVC-Codierung, eine elementare räumliche Skalierbarkeit (von beispielsweise 2:1), wie gezeigt, auf der Codierungsseite vorsehen, ein eingegebener Video- (oder Bild-) YUV-Frame (frame) kann eine adaptive Wavelet-Zerlegung bei einer „Adaptiven Wavelet-Analysefilterung“ erfahren. Beispielsweise kann die adaptive Wavelet-Zerlegung einen Filtersatz aus einem Codebuch von Filtersätzen mittels einer Auswahl des Filters auf der Grundlage einer Anwendung (z.B. Auflösung, Inhalt und Bitrate) verwenden. Bei Verwendung des ausgewählten Filtersatzes kann das Verfahren zur Analysefilterung für eine einstufige Zerlegung ausgeführt werden, die den Frame in LL-, HL-, LH- und HH-Teilbänder umwandeln kann, von denen jedes ein Viertel der Größe und (unter der Annahme einer 8-Bit-Eingabe eines Videos oder Bildes) eine Bit-Tiefe von 9 Bit aufweist. Wie gezeigt, kann das LL-Teilband durch einen HEVC Main 10 I/Intra-Encoder oder dergleichen (z.B. einen „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“) codiert werden. Die HL-, LH- und HH-Teilbänder können mit dem HEVC Main 10 I/Intra-Encoder oder dergleichen (z.B. dem entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“) codiert werden. Das Ergebnis eines solchen Codierverfahrens kann vier einzelne Datenströme beinhalten, wie beispielsweise einen LL-Datenstrom, einen HL-Datenstrom, einen LH-Datenstrom und einen HH-Datenstrom, die durch einen „Muxer to Layered Bitstream (Multiplexer für geschichteten Datenstrom)“ gemeinsam mit Anfangskennsätzen, die eine Kennzahl des ausgewählten Wavelet-Filtersatzes (wfi) enthalten, in einen einzelnen Datenstrom (bistr) gemultiplext werden können. Wie gezeigt, kann der Datenstrom über einen Kanal, beispielsweise einen Kommunikationskanal oder dergleichen, übertragen werden. In anderen Beispielen kann der Datenstrom in dem Arbeitsspeicher gespeichert werden. Jede Erörterung einer solchen Datenstromübermittlung über einen Kanal, wie hier erörtert oder veranschaulicht, kann eine derartige Übertragung oder Speicherung eines Datenstroms einschließen.
  • Wie auch in 7A gezeigt, kann auf einer Decodierungsseite ein Datenstrom (bistr) empfangen werden. Basierend auf dem Datenstrom kann ein „DeMuxer to Bitstream Layers (Demultiplexer für Datenstromschichten)“ Anfangskennsätze decodieren, die eine Kennzahl eines ausgewählten Wavelet-Filtersatzes aufweisen, und der Datenstrom kann in einzelne LL-, HL-, LH- und HH-Datenströme demultiplext werden. Der LL-Datenstrom kann an einen HEVC Main 10 I/Intra-Decoder oder dergleichen (z.B. einen „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“) ausgegeben werden und decodiert werden, um ein Teilband zu erzeugen. Desgleichen können die 3 übrigen (HL-, LH- und HH-) Bänder ebenfalls an den HEVC Main 10 I/Intra-Decoder (z.B. den „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“) ausgegeben werden. Außerdem können sämtliche vier Viertel der decodierten Teilbänder unter Verwendung eines passenden Filtersatzes (wie z.B. durch die aus dem Datenstrom decodierte Kennzahl angezeigt) bei einer „Adaptive-Wavelet-Synthesefilterung“ zusammengeführt werden. Das Verfahren eines Zusammenführens solcher Teilbänder kann als eine Synthesefilterung bezeichnet werden und kann einen endgültigen rekonstruierten Video(oder Bild)-Frame (dec. frame) voller Auflösung/Größe zur Wiedergabe auf einem Bildschirm vorsehen.
  • 7B zeigt in einem Blockdiagramm ein weiteres Beispiel eines einstufigen skalierbaren Adaptive Wavelet HEVC(AW1HVC)-Encoders 702 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 7B zeigen, dass ein 1-stufiger skalierbarer Adaptive Wavelet HEVC(AW1HVC)-Intra-Codec eine einstufige adaptive Wavelet-Analyse/Synthese mit einem HEVC-Intra-Encoders, wie beispielsweise dem Main 10 I Bild-Encoder oder dem Main 4:2:2 10 Intra oder dem Main 12 Intra-Encoder/Decoder, kombiniert, wobei kontrolliert wird, ob lediglich das LL-Band oder sämtliche 4 Bänder zu decodieren sind. Wie gezeigt, kann auf der Codierungsseite ein eingegebener Video(oder Bild)-YUV-Frame (frame) eine adaptive Wavelet-Zerlegung durch eine „Adaptive-Wavelet-Analysefilterung“ erfahren. Eine solche adaptive Wavelet-Zerlegung kann einen Filtersatz aus einem Codebuch von Filtersätzen mittels einer Auswahl eines Filters auf der Basis einer Anwendung (z.B. Auflösung, Inhalt und Bitrate) verwenden. Mittels des ausgewählten Filtersatzes kann das Verfahren zur Analysefilterung für eine einstufige Zerlegung ausgeführt werden, die den Frame in LL-, HL-, LH- und HH-Teilbänder umwandeln kann, von denen jedes ein Viertel der Größe und (unter der Annahme einer 8-Bit-Eingabe eines Videos oder Bildes) eine Bit-Tiefe von 9 Bit aufweist. Das LL-Teilband kann durch einen HEVC Main 10 I/Intra-Encoder oder dergleichen (z.B. den „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“) codiert werden. Außerdem können die HL-, LH- und HH-Teilbänder mit dem HEVC Main 10 I/Intra-Encoder (z.B. dem entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“) codiert werden. Das Ergebnis eines solchen Codierverfahrens kann vier einzelne Datenströme beinhalten, wie beispielsweise einen LL-Datenstrom, einen HL-Datenstrom, einen LH-Datenstrom und einen HH-Datenstrom, die durch einen „Muxer to Layered Bitstream“ in einen einzelnen skalierbaren Datenstrom (bistr) mit Anfangskennsätzen, die eine Kennzahl des ausgewählten Wavelet-Filtersatzes (wfi) enthalten, gemultiplext werden können.
  • Wie ebenfalls in 7B gezeigt, kann auf der Decodierungsseite ein Datenstrom (bistr) empfangen werden. Basierend auf dem Datenstrom kann ein „DeMuxer to Bitstream Layers“ Anfangskennsätze decodieren, die eine Kennzahl eines ausgewählten Wavelet-Filtersatzes enthalten, der decodiert werden kann, und der Datenstrom kann in einzelne LL-, HL-, LH- und HH-Datenströme demultiplext werden. Der demultiplexte LL-Datenstrom kann an einen HEVC Main 10 I/Intra-Decoder (z.B. an den „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“) ausgegeben werden. Abhängig von einer Ausgabeauswahl auf der Grundlage einer Anwendereingabe, einer Systemauswahl oder dergleichen, wie sie durch einen Schalter 721 durchgeführt ist, kann ein mit niedriger Auflösung decodierter Video(oder Bild)-Frame (dec. frame) nach einer optionalen Bit-Tiefen-Begrenzung und/oder einer Aufwärtsabtastung um 2 in jeder Dimension durch einen „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“ zur Wiedergabe auf einem Bildschirm vorgesehen sein. Falls die Ausgabeauswahl (z.B. des Benutzers oder des System oder dergleichen) einen Video(oder Bild)-Frame mit voller Auflösung wählt, können die übrigen 3 (HL-, LH- und HH-) Bänder an entsprechende maßgeschneiderte HEVC Main 10 I/Intra-Decoder (z.B. an den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“) ausgegeben werden, und sämtliche vier Viertel der decodierten Teilbänder können mittels eines passenden Filtersatzes (wie z.B. durch die aus dem Datenstrom decodierte Kennzahl angezeigt) durch eine „Adaptive-Wavelet-Synthesefilterung“ zusammengeführt werden. Ein derartiges Verfahren des Zusammenführens von Bändern kann als Synthesefilterung bezeichnet werden und kann einen endgültigen rekonstruierten Video(oder Bild)-Frame (dec. frame) voller Auflösung/Größe zur Wiedergabe auf einem Bildschirm vorsehen.
  • 8A veranschaulicht ein Beispiel eines Verfahrens 801 zur AW1HVC-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) eingegebener Video(oder Bild)-Frame (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) eine einstufige Adaptive-Wavelet-Analysefilterung erfahren, die eine Wahl eines am besten geeigneten Wavelet-Filtersatzes in Abhängigkeit von den Parametern (z.B. der Auflösung, dem Inhalt und der Bitrate) der Anwendung ermöglichen kann. Das Analysefilterverfahren kann vier Teilbänder ergeben, wobei jedes Teilband 1/4 der Größe des eingegebenen Frames aufweist und (z.B. auch als Teilbandpixel oder Abtastwerte bezeichnete) Teilbandkoeffizienten enthält, die eine Genauigkeit von 9 Bit aufweisen, wenn Pixel des eingegebenen Frames eine Genauigkeit von 8-Bit haben. Jedes der erzeugten Teilbänder kann in entsprechenden ein Viertel der Größe aufweisenden Teilframe-Speicher (in den mit „Größe 1/4 9b-LL/HL/LH/HH-Teilband in Teilframe-Speicher“ beschriftete Schritten) gespeichert und in LCUs und CUs partitioniert werden. Blöcke des LL-Teilbands können (in dem mit „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra Encode LL-CTUs/CUs“ beschrifteten Schritt) durch den HEVC Main 10 I/Intra-Encoder oder dergleichen codiert werden. Die Blöcke der HL-, LH- und HH-Teilbänder können (in den mit „Intra-Codieren der HL/LH/HH-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) durch einen oder mehrere HEVC Main 10 I/Intra-Encoder codiert werden. Die einzelnen erzeugten Datenströme von derartigen HEVC Main 10 I/Intra- oder HEVC Main 10* I/Intra-Encodern können mit Anfangskennsätzen zusammengeführt werden, die einen Anfangskennsatz beinhalten, der dem Wavelet-Filtersatz, der zur Analyse genutzt wird und (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) gemultiplext ist, signalisiert, einen (mit „Datenstrom“ beschrifteten) einzelnen AW1HVC-codierten Datenstrom für eine Speicherung oder Übertragung zu erzeugen. Solche Codierungstechniken können einen skalierbaren Datenstrom erzeugen, bei dem der LL-Teilband-Datenstrom unabhängig decodiert werden kann, oder sämtliche vier Teilbänder zusammen decodiert werden können.
  • 8B veranschaulicht ein Beispiel eines Verfahrens 802 zur AW1HVC-Intra-Decodierung, das das Verfahren, das durch eine AW1HVC-Intra-Codierung durchgeführt ist, invertiert, gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) AW1HVC-Intra-Datenstrom empfangen werden, und es können Anfangskennsätze decodiert werden, die Decodierungsinformationen über einen Wavelet-Filtersatz beinhalten, der für eine Wavelet-Analyse bei dem Encoder genutzt wird, und der übrige Datenstrom kann (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) in jeden von einzelnen LL-, HL-, LH- und HH-Datenströme demultiplext werden. Falls eine Ausgabeauswahl durch einen Anwender oder ein System (wie durch den mit "" beschrifteten Entscheidungsschritt vorgesehen) eine Ausgabe mit einer geringen Auflösung wählt, kann das LL-Teilband (in dem mit „Intra-Decodieren der LL-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritt) mittels des HEVC Main 10 I/Intra decodiert, bittiefen-begrenzt und optional (in dem mit „Aufwärtsabtasten um 2 in jeder Dimension“ beschrifteten Schritt) aufwärts abgetastet werden, um ein aufwärts abgetastetes Video/Bild-Frame niedriger Auflösung zu erzeugen, das (mit „Geringe, keine Aufl.“ beschriftet) zur Wiedergabe auf einem Bildschirm ausgegeben werden kann. Falls die Ausgabeauswahl eine Ausgabe mit voller Auflösung wählt oder erfordert, kann jedes der übrigen Teilbänder durch HEVC Main 10 I/Intra-Decoder oder dergleichen (in den mit „Intra-Decodieren der HL/LH/HH-CTUs/CUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert werden, und sämtliche vier Teilbänder, einschließlich des decodierten LL-Bands, können (in den mit " Speichern des 1/4 so großen rekons. Teilframe 9b-LL/HL/LH/HH-Teilband" beschrifteten Schritten) in Teilbildspeichern gespeichert werden. Basierend auf dem decodierten Anfangskennsatz, der den Wavelet-Filtersatz angibt, der für die Wavelet-Analysefilterung genutzt wird, kann eine passender Wavelet-Synthesefiltersatz bestimmt werden. Die decodierten LL-, HL-, LH- und HH-Teilbänder von Teilbildspeichern können eine Framesynthese mittels dieses Filters (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) erfahren, um die decodierten Teilbänder zusammenzuführen, mit dem Ergebnis eines vollständigen rekonstruierten Video/Bild-Frames, der zur Wiedergabe auf einem Bildschirm (mit „Ja, volle Auflös.“ beschriftet) ausgegeben werden kann. Wie erläutert, eine derartige bedingte Decodierung kann in Fällen, in denen anhand desselben Datenstroms abhängig von der Ausgabeauswahl (beispielsweise aufgrund von Decodierungsressourcenbeschränkungen und dergleichen) entweder eine Ausgabe mit niedriger Auflösung oder eine Ausgabe mit voller Auflösung decodiert wird, als skalierbare Decodierung bezeichnet werden und kann aufgrund einer skalierbaren (beispielsweise eingebetteten) Codierung möglich sein, die aufgrund einer Wavelet-Codierung ausgeführt werden kann. Die mit Bezug auf 8B erörterte Skalierbarkeit kann 2 Schichten vorsehen: eine Ein-Viertel-Auflösungsschicht und eine Vollauflösungsschicht.
  • 9A zeigt in einem Blockdiagramm ein Beispiel eines AWHVC-Intra-Encoders 901 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein eingegebenes Bild (image) durch einen „Farbraumkonverter“ von einem RGB- in einen YUV-Frame (frame) farbraumkonvertiert werden (falls die Eingabe anstelle eines RGB-Bildes ein YUV-Video-Frame ist, ist dieser Schritt nicht erforderlich). Ohne Einschränkung der Allgemeingültigkeit wird angenommen, dass ein YUV-Frame ein 4:2:0 Format aufweist (z.B. sind U- und V-Auflösungen halb so hoch wie diejenige von Y sowohl in horizontaler als auch vertikaler Richtung). Basierend auf einer Analyse von Anwendungsparametern (z.B. Bild/Einzelbild-Auflösung, Bitrate) und einem Inhalt (z.B. Komplexität) kann durch einen „Application, Content, Rate & Complexity Analyzer (Anwendungs-, Inhalts-, Bitratens- & Komplexitätsanalysator)“ ein Wavelet-Zerlegung/Analysefilter ausgewählt werden, können Qualitäts- und Bitratenziele gesetzt werden, kann eine Unterteilung von Bändern geregelt werden, und kann eine Bitratensteuerung ausgeführt werden.
  • Wie gezeigt, kann der YUV-Frame (mittels eines Wavelet-Filterpaars, das auf der Basis einer Anwendung/Auflösung ausgewählt ist) durch die „Adaptive-Wavelet-Analysefilterungs“-Einheit in LL-, HL-, LH- und HH-Teilbänder eine einstufige Wavelet-Zerlegung erfahren, und anschließend kann der Inhalt jeder LCU (z.B. CTU) jedes Bandes gesteuert durch eine „Ratenverzerrungsoptimierung & Bitratesteuereinrichtung“ in CUs und weiter durch einen „Adaptive Partitioner of Wavelet Bands CTUs to Square CUs/PUs (Adaptiven Unterteiler von Wavelet-Bänder-CTUs in quadratische CUs/PUs“ in PU-Blöcke unterteilt werden. Beispielsweise kann die „Ratenverzerrungsoptimierung & Bitratesteuereinrichtung“ eine beste Auswahl einer Teilbereichsgröße, eines Vorhersagemodus und eines Transformationstyp erreichen. Ein derartiges Verarbeiten kann viele in Frage kommende Teilbereiche (partn) jeder LCU ergeben.
  • Außerdem können durch einen „DC/Ebenen/33-Direktional-Vorhersage-Analysator & Generator (einschließlich eines Lokalen Puffers)“ mittels decodierter benachbarter CUs für jeden LL-Band-LCU-Teilbereich mehrere in Frage kommende Intra(z.B. DC, ebene und 33 direktionale)-Vorhersagemodi (mode) erzeugt werden. Für andere (HL-, LH-, HH-) Band-LCU-Teilbereiche wird keine Intra-Vorhersage durchgeführt.
  • Wie gezeigt, können LL-Band-LCU-unterteilte PUs/Blöcke mit in Frage kommenden Vorhersageteilbereichen bei einem Differenzierer 911 differenziert werden, um in Frage kommende Differenz-Teilbereichsblöcke zu berechnen, die durch ein „Adaptive Square TUs (4×4, 8×8, 16×16, 32×32) DCT/4×4 DST“-Modul transformiert werden können, mit dem Ergebnis in Frage kommender Transformationskoeffizientenblöcke. Für andere Bänder sind keine Vorhersagen erforderlich, und auf diese Weise die Vorhersage-Teilbereichs/Blöcke-Abtastwerte können unmittelbar transformiert werden, mit dem Ergebnis von Transformationskoeffizientenblöcken. Sämtliche Transform-Block-Koeffizienten können durch einen „Quantisierer“ quantisiert werden und durch einen CABAC-Entropie-Encoder eines " Scan of each TU size of TUs depending on Wavelet Bands, CABAC Encoder & Datenstrom-Formatierer (Abtastung jeder TU-Größe von TUs abhängig von Wavelet-Bändern, CABAC-Encoder & Datenstrom-Formatierer)“-Moduls entropiecodiert und in einen Datenstrom (bistr) einbracht werden. Sämtliche Bitkosten, wie beispielsweise Transformationskoeffizienten-Entropiecodierungs-Bitkosten, LCU-Unterteilens-Bitkosten und VorhersageModus-Bitkosten können durch de „Scan of each TU size of TUs depending on Wavelet Bands, CABAC Encoder & Datenstrom-Formatierer“ ermittelt werden. in jedem Teilband kann eine Abtastung von TU-Koeffizienten ausgeführt werden, wie sie in dem HEVC-Standard spezifiziert ist (beispielsweise selbst, wenn sich Eigenschaften anderer Teilbänder von denjenigen des LL-Teilbands unterscheiden), um konforme Datenströme zu erzeugen. Insgesamt für eine Kombination (z.B. von Teilbereichgröße, Vorhersagemodus, Transformationstyp und Transformationskoeffizientenblock) können Kosten berechnet werden, und ein rekonstruierter Teilbereich kann bestimmt werden, und die Verzerrung kann somit bestimmt werden. Solche Kosten und Verzerrungen können, wie im Folgenden erläutert, bei der Optimierung der Ratenverzerrung verwendet werden.
  • Mit einem gegebenen Satz von in Frage kommenden Teilbereichen (partn) jeder LCU, in Frage kommenden Intra-Vorhersage-Modi (mode), Transform- (xm) und möglichen Quantisiererwerten (q) kann die „Ratenverzerrungsoptimierung & Bitratesteuereinrichtung“ unter Verwendung der Bitrate (ausgehend von Bitkosten, die durch den Entropie-Encoder vorgesehen sind) und dem (aus der Differenz der ursprünglichen und der rekonstruierten Teilband-Teilbereiche berechneten) Verzerrungsmaß hinsichtlich der besten Codierungsstrategie eine Entscheidung treffen, indem sie die beste Unterteilung (partnb) und den besten Intra-Vorhersagemodus (modeb), der für die Codierung jedes Teilbereichs zu verwenden ist, die ausgewählte Transformation (xmb) und den Quantisierer (qp) ermittelt, der ein Erzielen der besten (RD-Kompromiss)-Qualitätsergebnisse unter der Beschränkung einer verfügbaren Bitrate ermöglichen wird. Die Auswahlen von partnb, modeb, xmb und qp können über den Datenstrom zu dem Decoder übertragen werden.
  • Weiter erfordert das Verfahren zum Bilden von Vorhersagen anhand von Nachbarn eine Rekonstruktion benachbarter Blöcke, was bei dem Encoder eine Decodierungsschleife erfordert. Beispielsweise kann, wie erörtert, ein „rekonstruierter Teilbereich“ für die Verwendung durch die RDO erzeugt werden. Wie gezeigt, können quantisierte Koeffizientenblöcke jedes Bandes bei dem Encoder eine Dequantisierung in einem „Inversen Quantisierer“, gefolgt von einer inversen Transformation bei einem „Adaptive Square TUs (4×4, 8×8, 16×16, 32×32) Inverse DCT/4×4 Inverse DST“-Modul durchlaufen, mit dem Ergebnis von CUs/Blöcken rekonstruierter Abtastwerte von HL-, LH- und HH-Bänder und vorläufigen TUs/Blöcken rekonstruierter Abtastwerte des LL-Bandes. Für das LL-Band kann ein Vorhersagemodus genutzt werden, um PUs/Blöcke zu akquirieren, die durch einen Addierschaltkreis 912 zu den mittels de LL-Bands vorläufig rekonstruierten TUs/Blöcken zu addieren sind, um endgültige rekonstruiert CUs zu erzeugen. Die rekonstruierten LL-Band-CUs werden ebenfalls in einem lokale Puffer abgespeichert und durch den " DC/Planar/33 Directional Prediction Analyzer & Generator (unter Einschluss des Lokalen Puffers)“ für eine aktuelle CU-Vorhersage genutzt, wobei die/der PU/Block, die/der eine Eingabe für den Differenzierer 911 bildet, und die andere Eingabe der aktuelle Teilbereich/Block ist, der gerade codiert wird. Außerdem, Da möglicherweise eine vollständige Rekonstruktion sämtlicher Bänder erforderlich ist, um eine Verzerrung zu berechnen, können das rekonstruiert LL-Band- und die anderen (HL-, LH-, HH-)Band-CUs zusammenfügt werden, um LCUs bei einem „Adaptive Assembler of Wavelet Bands Square CUs to CTUs (Adaptiven Assembler von Wavelet-Bändern Quadratische CUs zu CTUs)“ zu bilden, die möglicherweise eine Entblockung bei einem „Deblock Filtering (Entblockungsfilterungs)“-Modul erfahren und eine Flankenfestigung bei einem „Sample Adaptive Offset Filter (Abtastwert-adaptiven Offset-Filter)“-Modul, mit dem Ergebnis rekonstruierter LL-, HL-, LH- und HH-Bänder, die weniger Artefakte aufweisen und der RDO zur Verwendung bei der Berechnung der Verzerrung eingegeben werden können.
  • 9B zeigt in einem Blockdiagramm ein Beispiel eine funktionsgemäßen eigenständigen AWHVC-Intra-Decoder 902, der dem Encoder von 9A entspricht, gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise wurde diese Decoder mit Ausnahme des Betriebs eines „Adaptive-Wavelet-Synthesefilterungs“-Moduls und eines „Farbrauminvertierers“ eingehend im Zusammenhang mit der Decodierungsschleife in dem AWHVC-Intra-Encoder von 9A erörtert. Wie gezeigt, kann ein codierter AWHVC-Datenstrom (bistr) durch einen „Datenstrom-Unformatter, CABAC Decoder & Inverse Scan of each TU size of TUs of Wavelet Bands (Datenstrom-Unformatter, CABAC-Decoder & Inverse Abtastung jeder TU-Größe von TUs von Wavelet-Bändern)“ decodiert werden, woraus sich ausgewählte Unterteilungs-Info- (partnb), ausgewählte Intra-Vorhersage-Modus-Info- (modeb), erfasste Transformations-Info- (xmb), und ausgewählte Quantisierer- (qp) sowie quantisierte TU-Koeffizientenblöcke ergeben. Aus Gründen der Einhaltung des HEVC-Standards, kann für jedes Teilband die gleiche Abtastung wie in HEVC verwendet werden. Die Transformationskoeffizientenblöcke können mittels eines Quantisierers qp durch einen „Inversen Quantisierer“ dequantisiert und durch ein „Adaptive Square TUs (4×4, 8×8, 16×16, 32×32) Inverse DCT/4×4 Inverse DST“-Modul invers transformiert werden, woraus sich TUs von rekonstruierten Abtastwerten von HL-, LH- und HH-Bändern und Blöcke vorläufiger Abtastwerte für das LL-Band ergeben. Wie erläutert, können durch eine Addition von Vorhersageblöcken, wie sie mittels einer Vorhersage-modeb-info durch einen " DC/Planar/33 Directional Prediction Generator (DC/ebenen/33-Richtungen-Vorhersagegenerator (mit Lokalem Puffer))“ bei dem Addierschaltkreis 912 für decodierte vorläufige TUs erzeugt werden, endgültige CUs des LL-Bands erzeugt werden. Sämtliche CUs jedes Wavelet-Bands können zu LCUs und auf diese Weise bei einem „Adaptive Assembler of Wavelet Bands Square CUs to CTUs“ zu vollständigen Bändern zusammengefügt werden, die, um Codierungsartefakte zu reduzieren, eine Entblockung und Flankenfestigung in dem „Entblocken & Sample Adaptive Offset Filter“-Modul erfahren können und anschließend in ein „Adaptive-Wavelet-Synthesefilterungs“-Modul eingegeben werden können, der Filter verwenden kann, die zu Wavelet-Analysefiltern komplementär sind (wobei Informationen über das Filter, die bei dem Encoder genutzt werden, über den Datenstrom gesendet werden), um eine Synthesefilterung durchzuführen, die sämtliche 4 Bänder zusammenführt, um einen decodierten YUV-Frame (dec. frame) zu erzeugen. In Abhängigkeit von der Anwendung kann entweder dieser Frame selbst genutzt werden, oder er muss möglicherweise durch eine optionale Verarbeitung, die durch einen „Farbrauminvertierer“ durchgeführt wird, in ein RGB-Format-Bild umgewandelt werden.
  • 10A veranschaulicht ein Beispiel eines zweistufigen dyadischen Zerlegungsverfahrens 1001 eines Bildes gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise veranschaulicht 10A 7 Wavelet-Bänder, die sich aus einer zweistufigen Zerlegung eines Video-Frames/Bildes. Wie gezeigt, kann das Verfahren ein Durchführen einer einstufigen Zerlegung eines Bildes durch Anwenden einer Tiefpass- und Hochpassfilterung auf Zeilen und anschließend auf Spalten umfassen, woraus sich LL1-, HL1-, LH1- und HH1-Teilbänder ergeben. Darüber hinaus kann das Tief-Tief(LL1)-Teilband durch ein identisches Zerlegungsverfahren weiter zerlegt werden. Daraus ergibt sich eine weitere Zerlegung des LL1-Teilbands in 4 Teilbänder, die als LL2, HL2, LH2 und HH2 bezeichnet werden können, wobei LL2 nun das Tief-Tief-Teilband ist. Insgesamt erzeugt das zweistufige dyadische Zerlegungsverfahren 7 Teilbänder: LL2, HL2, LH2, HH2, HL1, LH1 und HH1.
  • 10B zeigt in einem Blockdiagramm ein Beispiel eines AWHVC(AW2HVC)-Intra-Encoders/Decoders 1002 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann der Encoder/Decoder von 10B eine Codierung/Decodierung von 7 Teilbändern eines Video/Bild-Frames vorsehen, die sich aus einer zweistufigen Zerlegung ergeben. Beispielsweise kann 10B einen Adaptiven Wavelet HEVC(Adaptive Wavelet HEVC, AW2HVC)-Intra-Encoder/Decoder vorsehen, der eine zweistufige Adaptive-Wavelet-Analyse/Synthese mit einem HEVC Encoder/Decoder kombiniert.
  • Wie gezeigt, kann ein eingegebener Video(oder Bild)-YUV-Frame (frame) auf der Codierungsseite eine adaptive Wavelet-Zerlegung durch eine „Adaptive-Wavelet-Analysefilterung“ unter Verwendung eines Filtersatzes aus einem Codebuch von Filtersätzen mittels einer Auswahl eines Filters auf der Basis einer Anwendung (z.B. Auflösung, Inhalt und Bitrate) erfahren. Beispielsweise kann das Verfahren zur Analysefilterung unter Verwendung des ausgewählten Filtersatzes für eine zweistufige Zerlegung ausgeführt werden, die den Frame in LL2-, HL2-, LH2-, HH2-, HL1-, LH1- und HH1-Teilbänder umwandeln kann. Die Teilbänder LL2, HL2, LH2 und HH2 weisen ein Sechzehntel der Größe auf, die Teilbänder HL1, LH1 und HH1 weisen ein Viertel der Größe auf, und alle Teilbänder haben (unter der Annahme einer 8-Bit-Eingabe eines Videos oder Bildes) eine Bit-Tiefe von 9 Bit. Beispielsweise kann eine einstufige Zerlegung die Amplitude um die Quadratwurzel von 2 (z.B. um einen Faktor 1,414) erweitern, so dass ein 8-Bit-Eingabevideo mit einem Bereich von 0-255 nach der einstufigen Zerlegung einen Bereich von 0-361 aufweisen kann, der 9 Bit erfordert. Dasselbe trifft auch auf die Durchführung einer weiteren Stufe einer Zerlegung des LL1-Bands zu, die den 0-361 Bereich mit der Quadratwurzel von 2 multipliziert, woraus sich ein Bereich von 0-511 ergibt, der noch in einen 9-Bitwert passt. Folglich ist nach der zweistufigen Zerlegung ein Genauigkeit von 10-Bit nicht erforderlich. Beispielsweise ergeben die Teilbänder LL2, HL2, LH2 und HH2 aus einer zweistufigen Zerlegung Teilbänder von 1/16 der Größe des eingegebenen Video/Bild-Frames, und die Teilbänder HL1, LH1 und HH1 weisen ein Viertel der Größe des eingegebenen Video/Bild-Frames auf.
  • Wie gezeigt, können sämtliche 7 Teilbänder (z.B. LL2-, HL2-, LH2-, HH2-, HL1-, LH1- und HH1-Teilbänder) durch einen (oder mehrere) HEVC Main 10 I/Intra-Encoder oder dergleichen (z.B. den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“) codiert werden. Während ein Verwenden desselben Encoders für jedes Band möglicherweise nicht die höchste Kompressionseffizienz erzielt (da sämtliche Teilbänder eine Intra-Vorhersage verwenden werden, und die Abtastungen nicht mit Blick auf jedes Teilband optimiert werden, und dergleichen), kann die Architektur des Encoders von 10B (da es z.B. nicht erforderlich ist, einen HEVC Main 10* I/Intra-Encoder auf jedes Teilband feinabzustimmen) einen einfachen Aufbau bieten und kann eine Kompatibilität vorsehen, die es HEVC Main 10 Encodern ermöglicht, ein eine vorhandene Hardware (oder Software) zu nutzen. Die sich ergebenden 7 Datenströme können durch einen „Muxer to Layered Bitstream“ mit Anfangskennsätzen gemultiplext werden, um einen einzelnen codierten Datenstrom (bitstr) zu bilden, so dass einer der Anfangskennsätze in dem Datenstrom eine Kennzahl des Wavelet-Filtersatzes sein kann, der für die Zerlegung (wfi) genutzt wird.
  • Wie gezeigt, kann die Decodierungsseite von 10B das Codierverfahren umkehren. Beispielsweise kann ein skalierbarer Datenstrom (bitstr) empfangen werden, und es können durch einen „DeMuxer to Bitstream Layers“ demultiplexte Anfangskennsätze decodiert werden. Einer der decodierten Anfangskennsätze kann Wavelet-Filtersatz-Auswahlinformationen (wfi) enthalten. In Abhängigkeit von einer Ausgabeauswahl auf der Grundlage einer Benutzeranforderung, Systemanforderung oder dergleichen, wie sie durch den Schalter 1021 durchgeführt wird, wird, falls das decodierte LL2-Teilband ausgewählt ist, das 1/16 der Größe mit niedrigster Qualität (eine Auswahl einer mäßigen Qualität) aufweist (z.B. einen Frame, der zur Wiedergabe auf einem Bildschirm aufwärts abgetastet sein kann), möglicherweise lediglich das LL2-Band durch einen HEVC Main 10 I/Intra-Decoder oder dergleichen (z.B. den „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“) decodiert. Beispielsweise kann das decodierte LL2-Band durch den „Bit Depth Limiter & 1:4 Up Sampler (Bit-Tiefen-Begrenzer & 1:4 Aufwärtabtaster)“ bittiefen-begrenzt und aufwärts abgetastet werden, und zur Wiedergabe auf einem Bildschirm (dec. frame) ausgegeben werden. Falls die Ausgabeauswahl eine Mittlere ist (z.B. der Benutzer oder das System fordert die nächste verfügbare Auflösung, die ein Viertel der Größe eines eingegebenen Frames aufweist), kann ein solcher Frame durch eine zusätzliche Decodierung des LL2, HL2, LH2 und HH2 mittels des HEVC Main 10 I/Intra-Decoders oder dergleichen (z.B. des entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoders“) und durch ein Synthetisieren von LL2, HL2, LH2 und HH2 durch Anwenden der einstufigen Adaptive Synthesefilterung mittels einer „Adaptive-Wavelet-Synthesefilterung“, um einen ein Viertel der Größe und eine mittlere Qualität aufweisenden Frame zu rekonstruieren, der durch einen „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“ bittiefen-begrenzt und aufwärts abgetastet werden kann, gebildet werden, um auf einem Bildschirm (dec. frame) angezeigt zu werden. Falls die Benutzer- oder Systemanforderung (z.B. Ausgabeauswahl) einen Frame vollständiger Größe und vollständiger Qualität wählt, kann ein solcher Frame durch eine Decodierung sämtlicher 7 Bänder mittels eines (oder mehrerer) HEVC Main 10 I/Intra-Decoder oder dergleichen (z.B. des entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoders“) und durch Zusammenführen der decodierten Teilbänder durch eine zweistufige Adaptive Synthesefilterung mittels der „Adaptive-Wavelet-Synthesefilterung“ erzeugt werden, um auf einem Bildschirm wiedergeben zu werden (dec. frame). Bei einem Ausgeben eines Bildes von 9 Bit pro Luma-Komponente auf einem Bildschirm, der für 8 Bit pro Luma-Komponente ausgelegt ist, kann eine Begrenzung der Bit-Tiefe (beispielsweise durch Abbruch oder Rundung oder durch technisch höher entwickelte Mittel) erforderlich sein.
  • 11A veranschaulicht ein Beispiel eines Verfahrens 1101 zur AW2HVC-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) Eingabe-Video/Bild-Frame (in dem mit „Durchführen einer zweistufigen adaptiven Wavelet-Analyse, um 7 Teilbänder zu erzeugen“ beschrifteten Schritt) eine zweistufige Adaptive-Wavelet-Analysefilterung erfahren, um ihn in 7 Bänder zu zerlegen, die (in den mit „1/16 9b-LL2-/HL2-/LH2-/HH2-Teilband in Teilframe-Speicher“ und „1/4 9b-HL1-/LH1-/HH1-Teilband in den Teilframe-Speicher“ beschrifteten Schritten) in ihren eigenen Teilframe-Puffern gespeichert werden können - 4 der sieben Bänder weisen 1/16 ihrer ursprüngliche Größe auf und erfordern daher Framepuffer dieser Größe, und die übrigen 3 Bänder weisen ein Viertel der Eingabe-Framegröße auf und erfordern daher Framepuffer mit 1/4 der Größe. Jeder Abtastwert (z.B. Teilbandkoeffizient) in jedem Teilband kann eine Bit-Tiefe von 9 Bit aufweisen, wenn die Eingabe eine Bit-Tiefe von 8 Bit aufweist. Jedes der sieben Teilbänder kann (in den mit „Intra-Codieren der LL2-/HL2/LH2-/HH2-/HL1-/LH1-/HH1-CTUs/CUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) in LCUs und CUs unterteilt und mit einem (oder mehreren) HEVC High 10 I/Intra-Encoder(n) oder dergleichen codiert werden. Die sich ergebenden 7 Teilband-Datenströme können (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizienten und Multiplexen, um einen Intra-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) mit codierten Anfangskennsätzen (die einen Anfangskennsatz aufweisen, der den ausgewählten Wavelet-Filtersatz identifiziert) gemultiplext und als ein (mit „Datenstrom“ beschrifteter) einzelner skalierbarer Datenstrom ausgegeben werden.
  • 11B veranschaulicht ein Beispiel eines Verfahrens 1102 zur AW2HVC-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) AW2HVC-codierter Datenstrom in einen Demultiplexer und Anfangskennsatz-Decoder eingegeben werden, der (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) Anfangskennsätze abtrennen und decodieren und voneinander unabhängige einzelne Teilband-Datenströme trennen kann. Wie gezeigt, kann das Decodierungsverfahren abhängig von einer Ausgabewahl, die auf der Basis von Benutzer- oder Systemanforderungen oder dergleichen getroffen wurde (wie sie durch den mit „Ausgabe volle Aufl.?“ beschrifteten Entscheidungsschritt umgesetzt ist) auf eine der drei unterschiedlichen Weisen arbeiten. Falls beispielsweise ein Bild mit einer Auflösung/Qualität von 1/16 (eine niedrige Auflösung) gewählt ist, kann das LL2-Band durch einen HEVC Main 10 I/Intra-Decoder oder dergleichen (in dem mit „Intra-Decodieren von LL2-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritt) decodiert werden, und (in dem mit „Up Sample by 4 in each dimension (Abtasten um 4 in jeder Dimension“ beschrifteten Schritt) aufwärts abgetastet werden, um (mit „basierend auf 1/16“ beschriftet) auf einem Bildschirm wiedergegeben zu werden. Falls die Ausgabeauswahl ein Bild mittlerer Auflösung/Qualität ist, können die LL2-, HL2-, LH2- und HH2-Bänder (in den mit „Intra-Decodieren der LL2-/HL2-/LH2-/HH2-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) durch einen (oder mehrerer) HEVC Main 10 I/Intra-Decoder decodiert und (in den mit „Speichern von 1/16 9b-LL2-/HL2-/LH2-/HH2-Teilband rekonst. in Teilframe“ beschrifteten Schritten) gemeinsam mit dem LL2-Band in Teilframes gespeichert und (in dem mit „Durchführen einer einstufigen adaptiven Wavelet-Synthese“ beschrifteten Schritt) durch eine Adaptive-Wavelet-Synthesefilterung genutzt werden, um einen decodierten Video/Bild-Frame mit einem Viertel der Auflösung zu erzeugen, der (in dem mit „Aufwärtsabtasten um 2 in jeder Dimension“ beschrifteten Schritt) aufwärts abgetastet werden kann, um (mit „basierend 1/4“ beschriftet) auf einem Bildschirm wiedergegeben zu werden. Falls die Ausgabeauswahl einen Frame mit voller Auflösung/Qualität wählt, können sämtliche sieben Bänder durch einen (oder mehrere) HEVC Main 10 I/Intra-Decoder (in den mit „Intra-Decodieren der LL2/HL2/LH2/HH2/HL1/LH1/HH1-CTUs/CUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert und (in den mit „Speichern von 1/16 9b-LL2-/HL2-/LH2-/HH2-Teilband rekonst. in Teilframe“ und „Speichern von 1/4 9b-HL1-/LH1-/HH1-Teilband rekonst. in Teilframe“ beschrifteten Schritten) in Teilframes gespeichert werden und durch eine Adaptive-Wavelet-Synthesefilterung auf der Grundlage des Wavelet-Filtersatzes, der durch wfi (in dem mit „Durchführen einer zweistufigen adaptiven Wavelet-Synthese“ beschrifteten Schritt) identifiziert ist, genutzt werden, um einen mit voller Auflösung/Qualität decodierten Video/Bild-Frame für eine (mit „voll“ beschriftete) Wiedergabe auf einem Bildschirm zu erzeugen.
  • Wie beispielsweise im Zusammenhang mit Fig. 7A, 7B, 8A, 8B, 9A, 9B, 10A, 10B, 11A und 11B und andernorts hier erörtert, kann eine Codierung eines ursprünglichen Bildes oder Frames ein Durchführen einer Wavelet-Zerlegung an dem ursprünglichen Bild oder Frame, um mehrere Teilbänder zu erzeugen, ein Codieren jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, so dass jeder einem Teilband der mehreren Teilbänder zugeordnet ist, und ein Multiplexen der mehreren Teilbänder umfassen, um einen einzelnen skalierbaren Datenstrom zu erzeugen, so dass wenigstens Abschnitte des einzelnen skalierbaren Datenstroms HEVC-konform sind. Die Wavelet-Zerlegung kann feststehend oder adaptiv (was ein Auswählen eines Wavelet-Analysefiltersatzes zum Durchführen der Wavelet-Zerlegung beinhalten kann) sein. In einer Ausführungsform hat das ursprüngliche Bild bzw. der Frame eine Bit-Tiefe von 8 Bit, und jedes der Teilbänder hat eine Bit-Tiefe von 9 Bit. In einer weiteren Ausführungsform hat das ursprüngliche Bild bzw. der Frame eine Bit-Tiefe von 9 Bit, und jedes der Teilbänder hat eine Bit-Tiefe von 10 Bit. In einer Ausführungsform haben die Teilbänder eine Bit-Tiefe von 9 Bit, und der HEVC-konforme Encoder weist ein 10-Bit-Intra-Encoderprofil oder ein 12-Bit-Intra-Encoderprofil auf. In einer weiteren Ausführungsform haben die Teilbänder eine Bit-Tiefe von 11 Bit, und der HEVC-konforme Encoder weist ein 12-Bit-Intra-Encoderprofil auf. In einer Ausführungsform ist die Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern, und die mehreren Teilbänder beinhalten vier Teilbänder (z.B. ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband). In einer weiteren Ausführungsform ist die Wavelet-Zerlegung eine Mehrstufige Wavelet-Analysefilterung (z.B. zweistufig, so dass sieben Teilbänder erzeugt werden).
  • Wie darüber hinaus im Zusammenhang mit Fig. 7A, 7B, 8A, 8B, 9A, 9B, 10A, 10B, 11A und 11B und andernorts hier erörtert, kann eine Decodierung ein Demultiplexen eines skalierbaren Datenstroms, so dass wenigstens Abschnitte des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, wobei jeder einem Teilband von mehreren Wavelet-Teilbändern zugeordnet ist, ein Decodieren mindestens eines der mehreren Datenströme mittels eines HEVC-konformen Decoders und ein Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung umfassen. In einer Ausführungsform kann eine Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, bestimmt werden, so dass die Ausgabeauswahl eine niedrige oder volle Auflösung beinhaltet und das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht. Falls die Ausgabeauswahl beispielsweise eine niedrige Auflösung beinhaltet, kann das Rekonstruieren des Bildes oder Frames ein Decodieren lediglich eines LL-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders beinhalten. Falls die Ausgabeauswahl eine volle Auflösung beinhaltet, kann das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme, die jeweils wenigstens mittels des HEVC-konformen Decoders einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, um mehrere decodierte Teilbänder zu erzeugen, und ein Durchführen einer Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern beinhalten, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen. In einer weiteren Ausführungsform kann eine Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, bestimmt werden, so dass die Ausgabeauswahl eine niedrige, mittlere oder volle Auflösung beinhaltet, und ein Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht. Falls die Ausgabeauswahl beispielsweise eine niedrige Auflösung beinhaltet, kann das Rekonstruieren des Bildes oder Frames ein Decodieren lediglich eines LL2-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders beinhalten. Falls die Ausgabeauswahl eine mittlere Auflösung beinhaltet, kann das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme beinhalten, wobei jeder wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders einem Teilband der mehreren Wavelet-Teilbänder zugeordnet ist, um mehrere decodierte Teilbänder zu erzeugen, so dass die mehreren Datenströme ein Teilsatz der mehreren Datenströme sind. Falls die Ausgabeauswahl eine volle Auflösung beinhaltet, kann das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme, wobei jeder wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders einem Teilband der mehreren Wavelet-Teilbänder zugeordnet ist, um mehrere decodierte Teilbänder zu erzeugen, so dass die mehreren Datenströme sämtliche der mehreren Datenströme enthalten, und ein Durchführen einer mehrstufigen Wavelet-Analysefilterung an den mehreren dekodierten Teilbändern umfassen, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • 12 zeigt in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(AWS1HVC)-Intra-Encoder/Decoders 1201 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 12 einen Adaptive Wavelet Scalable HEVC(AWS1HVC)-Intra-Encoder/Decoder vorsehen, der, wie gezeigt, eine SNRskalierbare Codierung durch Kombinieren einer adaptiven Wavelet-Analyse/Synthese, einer Abwärts-/Aufwärtsbtastung und einer kompatiblen HEVC Main 10 oder Main 4:2:2 10 Intra- oder Main 12 Intra-Codierung enthält, ein Eingabe-Video-Frame (frame) kann gefiltert und um einen Faktor 2 in jeder Dimension durch einen „2:1 Abwärtsabtaster“ abwärts abgetastet werden. Da es ein normales Pixeldomäne-Signal mit einer Bit-Tiefe von 8 Bit ist, kann das abwärts abgetastete Bild durch einen HEVC-Encoder (beispielsweise einen HEVC Main I oder HEVC Main Still Picture oder HEVC Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra) oder einen AVC-Encoder (beispielsweise einen H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra) oder dergleichen durch ein „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Encoder; oder ein sonstiges Encoder“-Modul codiert werden. Des Weiteren kann der Eingabe-Video/Bild-Frame eine Adaptive-Wavelet-Analysefilterung (z.B. mittels eines Filtersatzes, der von Anwendungs-, Auflösungs- oder Benutzeranforderungen abhängt) bei einer „Adaptive-Wavelet-Analysefilterung“ erfahren, die den Frame in LL-, HL-, LH- und HH-Teilbänder zerlegen kann.
  • Wie gezeigt, kann der lokal decodierte Video/Bild-Frame von dem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Encoder; oder einem sonstigen Encoder“-Encodermodul für eine (mit „Zwischenschicht-Vorhersage“ beschriftete) „Zwischenband“-Vorhersage und eine Codierung des LL-Bands verwendet werden. Beispielsweise kann zum Codieren des LL-Teilbands ein Scalable HEVC Main 10 I/Intra-Encoder verwendet werden, der in der Lage, eine skalierbare Codierung des LL-Bands, das ein Signal mit einer Tiefe von 9 Bit ist, bei einem „HEVC Scalable Main I/Scalable Main 10 I Encoder“ zu handhaben. Diese Art einer räumlichen/SNR-Skalierbarkeitsstruktur kann es der LL-Band-Intra-Codierung ermöglichen, eine lokale adaptive Vorhersage anhand des LL-Bands und anhand einer Basisschicht zu verwenden, die wavelet-codiert ist (beispielsweise kann dies eine Bitverschiebung erfordern, um die Basisschicht auf ein 9-Bit-Signal zu erweitern, bevor es für die Vorhersage eingesetzt wird). In dem Beispiel von 12 verwendet die Basisschicht dieselbe Auflösung wie in dem Wavelet-LL-Band-Teilband, so dass der basisschicht-decodierte Video/Bild-Frame nicht unbedingt vor der Vorhersage des LL-Bands aufwärts abgetastet werden muss. Eine solche Skalierbarkeit kann als eine SNR-Skalierbarkeit bezeichnet werden, da die zwei Schichten (die Basisschicht und LL-Bandschicht) dieselbe Auflösung aufweisen.
  • Wie gezeigt, kann die Codierung der übrigen 3 (HL, LH und HH)-Teilbänder wie weiter oben erörtert ausgeführt werden (z.B. kann eine derartige Codierung einen (oder mehrere) HEVC Main 10 I/Intra-Encoder oder dergleichen, oder den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“ verwenden). Der sich ergebende Basisschicht-Datenstrom und die 4 Teilband-Datenströme können durch einen „Muxer to Layered Bitstream“ gemeinsam mit Anfangskennsätzen in einen einzelnen Datenstrom (bitstr) gemultiplext werden. Die enthaltenen Anfangskennsätze können angeben, welcher Filtersatz für die Adaptive-Wavelet-Analysefilterung verwendet wurde, und dass das LL-Band in Bezug auf eine externe (nicht in Teilbänder zerlegte) Basisschicht SNR-skalierbar codiert ist.
  • Wie gezeigt, kann die Decodierungsseite das umgekehrte Verfahren durch ein Aufnehmen eines Datenstroms (bitstr) und ein Demultiplexen des gemultiplexten Basisschicht-Datenstroms und der Teilband-Datenströme und ein Decodieren der erforderlichen Anfangskennsätze durchführen, um die verwendete Skalierbarkeit zu ermitteln, und Decodierungsstrukturen zu erzeugen, die für eine erfolgreiche Decodierung der skalierbaren Datenströme durch einen „DeMuxer to Bitstream Layers“ erforderlich sind. Für die Decodierung sind drei Ausgabeauswahlen verfügbar, wie sie durch einen Schalter 1211 implementiert sind: einer Decodierung eines eigenständigen codierten Basisschicht-Stroms bei einer mit einer Auflösung von 1/4 (Auswahl einer niedrigen Auflösung), die einen decodierten Video/Bild-Frame mit einer geringeren Qualität ergibt als das LL-Band, der Bandstrom-Decodierung mit einer Auflösung von 1/4, die einen Video/Bild-Frame mit einer Auflösung von 1/4 jedoch mit einer höheren Qualität (Auswahl einer mittleren Qualität) erzeugen kann, und der Ausgabe einer adaptiven Wavelet-Synthesefilterung, die 4 Teilbänder zusammenführt, mit dem Ergebnis eines mit einer vollen Auflösung/Qualität decodierten Video/Bild-Frames (Auswahl einer vollen Auflösung). Beispielsweise kann das gewählte tatsächlich Decodierungsverfahren von den Benutzer- oder Systemanforderungen abhängen.
  • Falls die eigenständige Basisschicht-Auflösung/Qualität (niedrige Auflösung) ausgewählt ist, kann der Datenstrom unter Verwendung eines (in Abhängigkeit von dem Encoder, der auf der Codierungsseite genutzt wird) passenden HEVC-Decoders (beispielsweise des HEVC Main I oder HEVC Main Still Picture oder HEVC Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Decoders oder eines AVC-Decoders (beispielsweise H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Decoders bei einem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra-; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder- oder einem sonstigen Decoder“-Modul decodiert werden. Der decodierte Video/Bild-Frame kann bei einem „1:2 Aufwärtabtaster“ in jeder Dimension um 2 aufwärts abgetastet werden (dec. frame), um auf einem Bildschirm wiedergegeben zu werden. Falls eine Qualität mittlerer Auflösung ausgewählt ist, muss die Basisschicht (wie soeben beschrieben) decodiert werden, und das LL-Band muss durch einen HEVC Scalable Main 10 I/Intra-Decoder decodiert werden, der den decodierten Basisschicht-Video/Bild-Frame für eine SNR-skalierbare Vorhersage bei einem „HEVC Scalable Main I/Scalable Main 10 I Decoder“-Modul (wie gezeigt, mit einer Zwischenschicht-Vorhersage) verwendet. Das sich ergebende Bild kann bittiefen-begrenzt und durch einen „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“ aufwärts abgetastet werden, um ein Ausgabebild oder -Frame (dec. frame) vorzusehen. Falls die Ausgabeauswahl einen mit einer vollen Auflösung/Qualität decodierten Video/Bild-Frame beinhaltet, müssen zusätzlich zu dem soeben beschriebenen Verfahren für das Decodieren des LL-Teilbands die 3 übrigen Wavelet-Teilbänder (z.B. die HL-, LH- und HH-Teilbänder) unter Verwendung eines (oder mehrerer) HEVC Main 10 I/Intra-Decoder oder dergleichen bei dem entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“ decodiert werden. Sämtliche vier decodierten Teilbänder können in ein „Adaptive-Wavelet-Synthesefilterungs“-Modul eingegeben werden, das eine Synthesefilterung durchführt, die die Filtersatzinformationen, die von dem Anfangskennsatz in dem Datenstrom decodiert wurden, verwendet, um einen decodierten Video/Bild-Frame mit voller Auflösung/Qualität (dec. frame) zur Wiedergabe auf einem Bildschirm zu erzeugen.
  • Während in dem System von 12 die Basisschicht und das LL-Band dieselbe Auflösung (1/4) haben, kann die Basisschicht mit einer geringeren räumlichen Auflösung, wie beispielsweise unter Verwendung eines 4:1 anstelle eines 2:1 Abwärtsabtast-Filters mit der Auflösung 1/16, codiert werden. In einem solchen Fall kann das LL-Teilband eine räumliche (anstelle einer SNR-) Skalierbarkeit verwenden.
  • 13A veranschaulicht ein Beispiel eines Verfahrens 1301 für eine adaptive wavelet-skalierbare HEVC(Adaptive Wavelet Scalable HEVC, AWS1HVC)-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann das Verfahren 1301 durch das System von 12 ausgeführt werden. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) Eingabe-Video/Bild-Frame gefiltert und (in dem mit „Abwärtsabtasten um 2 in jede Dim. & Speichern in Teilframe“ beschrifteten Schritt) in jeder Dimension um einen Faktor 2 abwärts abgetastet werden, mit dem Ergebnis eines 1/4 so großen Bildes, das (in dem mit „Abwärtsabtasten um 2 in jede Dim. & Speichern in Teilframe“ beschrifteten Schritt) gespeichert und durch einen Encoder, wie beispielsweise den HEVC Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra oder H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra-Encoder (in dem mit „Intra-Codieren von CTUs/MBs mit HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) codiert werden kann. Der erzeugte codierte Strom kann als ein Basisschicht-Datenstrom (Basisschicht-Datenstrom) bezeichnet werden. Außerdem kann der Eingabe-Video/Bild-Frame (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) unter Verwendung eines Filtersatzes (der beispielsweise von einer Anwendungs-, Inhalts- oder Benutzeranforderung abhängt) durch die Adaptive-Wavelet-Analyse in LL-, HL-, LH- und HH-Wavelet-Teilbänder gefiltert werden. Die 4 Teilbänder können (in den mit „Größe 1/4 9b-LL/HL/LH/HH-Teilband in Teilframe-Speicher“ beschrifteten Schritten) in entsprechenden Bildspeichern gespeichert werden, die 1/4-Teilframes einer Bit-Tiefe von 9 Bit speichern können. Die Teilframes können anschließend codiert werden. Beispielsweise kann das LL-Band (in dem mit „Codieren der LL-CTUs mit HEVC Scalable Main/Scalable Main 10“ beschrifteten Schritt) eine Scalable HEVC Main 10 I/Intra-Codierung erfahren, die eine SNR-Skalierbarkeitcodierung in Bezug auf den lokalen decodierten Basisschicht-Video/Bild-Frame verwendet, und die HL-, LH- und HH-Teilbänder können (in den mit „Intra-Codieren der HL/LH/HH-CTUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) eine HEVC-Codierung erfahren, wie hier erörtert. Sämtliche fünf codierten Ströme können (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) mit mehreren codierten Anfangskennsätzen gemultiplext werden, die Informationen darüber tragen, wie z.B., welcher Wavelet-Filtersatz zur Analyse verwendet wurde, und welcher Typ von Skalierbarkeit zum Codieren des LL-Bands in Bezug auf eine nicht wavelet-codierte Basisschicht verwendet wird, um einen Datenstrom zu erzeugen.
  • 13B veranschaulicht ein Beispiel eines Verfahrens 1302 für eine Adaptive Wavelet Scalable HEVC(AWS1HVC)-Intra-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 13B das Decodierungsflussdiagramm des Systems von 12 veranschaulichen. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) zu decodierender Datenstrom in jeden der fünf unterschiedlichen Datenströme demultiplext werden, und Anfangskennsätze können (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) decodiert werden. Wie erläutert, können die Anfangskennsätze Informationen darüber tragen, welcher Wavelet-Filtersatz bei dem Encoder gewählt wurde, sowie welcher Typ von Skalierbarkeit verwendet wird, so dass de erforderliche Decodierungsstruktur genutzt werden kann. Von den fünf demultiplexten Datenströmen, ist der erste ein Basisschicht-Datenstrom, während die übrigen LL-, HL-, LH- und HH-Teilband-Datenströme sind. Drei Arten von Decodierungswahlen sind möglich (wie sie bei dem mit „Ausgabe volle Aufl.?“ beschrifteten Entscheidungsschritt umgesetzt sind): Decodieren eines eigenständigen codierten Basisschicht-Datenstroms mit einer Auflösung von 1/4, die einen decodierten Video/Bild-Frame mit einer geringeren Qualität (niedriger Auflösung) ergibt, Decodieren eines LL-Band-Datenstroms mit einer Auflösung von 1/4, der in der Lage ist, einen Video/Bild-Frame mit einer Auflösung von 1/4 jedoch mit höherer Qualität (mittlerer Auflösung) zu erzeugen, oder Decodieren sämtlicher 4 Bänder und anschließendes Durchführen einer adaptiven Wavelet-Synthesefilterung, mit dem Ergebnis eines mit voller Auflösung/Qualität decodierten Video/Bild-Frames. Die ausgewählte Decodierungsoption kann von Benutzer- oder Systemanforderungen oder dergleichen abhängen.
  • Falls eine Option einer eigenständigen Basisschicht-Auflösung/Qualität (niedrige Auflösung) ausgewählt ist, wird der Basisschicht-Datenstrom unter Verwendung einer passenden Decodierung (in dem mit „Intra-Decodieren der CTUs/MBs mit dem HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) z.B. durch einen HEVC-Decoder (beispielsweise einen Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Decoder oder einen AVC (H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Decoder decodiert. Der decodierte Video/Bild-Frame wird (in dem mit „Aufwärtsabtastung um 2 in jeder Dim.“ beschrifteten Schritt) in jeder Dimension um 2 aufwärts abgetastet, um auf einem Bildschirm (mit „Transform, niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls eine LL-Bandausgabe mittlerer Qualität gewünscht ist, muss die Basisschicht (wie soeben beschrieben) decodiert werden, und das LL-Band muss durch eine HEVC Scalable Main 10 I/Intra-Decodierung decodiert werden, die (in dem mit „Decodieren der LL-CTUs mit HEVC Scalable Main/Scalable Main 1“ beschrifteten Schritt) den decodierten Basisschicht-Video/Bild-Frame für eine SNR-skalierbare Vorhersage verwendet. Das decodierte LL-Band kann (in dem mit „Bit-Tiefen Begrenzen und Aufwärtsabtasten um 2 in jeder Dim.“ beschrifteten Schritt) bittiefen-begrenzt und aufwärts abgetastet und zur Wiedergabe auf einem Bildschirm (beschriftet mit „Wavelet, niedrige Aufl.“) ausgegeben werden. Falls die Auswahl einen mit voller Auflösung /Qualität decodierten Video/Bild-Frame beinhaltet, müssen zusätzlich zu dem soeben beschriebenen Verfahren für das Decodieren eines LL-Teilbands die 3 übrigen Wavelet-Teilbänder, wie beispielsweise die HL-, LH- und HH-Teilbänder, unter Verwendung der HEVC Main 10 I/Intra-Decodierung (in den mit „Intra-Decodieren von HL/LHHH-CTUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert werden. Sämtliche vier decodierten Teilbänder können (in dem mit „Speichern von 1/4 9b-LL/HL/LH/HH-Teilband rekons. in Teilframe“ beschrifteten Schritt) gespeichert und in die Adaptive-Wavelet-Synthesefilterung eingegeben werden, die unter Verwendung der aus dem Anfangskennsatz in dem Datenstrom decodierten Filtersatzinformationen (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) eine Synthesefilterung durchführt. Die Ausgabe einer derartigen Verarbeitung ist ein decodierter Video/Bild-Frame mit voller Auflösung/Qualität, der zur Wiedergabe auf einem Bildschirm (mit „Wavelet, volle Aufl.“ beschriftet) vorgesehen sein kann.
  • 14 zeigt in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(Adaptive Wavelet Scalable HEVC, AWS2HVC)-Encoder/Decoder 1401 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 14 eine zweite Ausführungsform eines adaptiven wavelet-skalierbaren HEVC(Adaptive Wavelet Scalable HEVC, AWS2HVC)-Intra-Encoder/Decoders darstellen, der eine SNR-skalierbare Codierung durch Kombinieren einer adaptiven Wavelet-Analyse/Synthese, einer Bit-Tiefen-Begrenzung und einer kompatiblen HEVC Main 10- oder Main 4:2:2 10 Intra- oder Main 12 Intra-Codierung vorsieht. Wie gezeigt, kann ein Eingabe-Video/Bild-Frame (frame) auf einer Encoderseite bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul eine einstufige Wavelet-Zerlegung erfahren, die 4 Teilbänder (z.B. die LL-, HL-, LH- und HH-Teilbänder) ergibt, von denen jedes 1/4 der Größe des Eingabe-Frames und eine Bit-Tiefe von 9 Bit aufweist. Wie erläutert, kann sich die Adaptive-Wavelet-Analysefilterung auf die Fähigkeit beziehen, in Abhängigkeit von der Anwendung, der Auflösung oder dergleichen einen Wavelet-Filtersatz für die Analysefilterung zu wählen. Eine Kennzahl für den gewählten Filtersatz (wfi) kennzeichnet den gewählten Filtersatz. Wie gezeigt, kann das LL-Band (der Bit-Tiefe 9 Bit) auf 8 Bit bittiefen-begrenzt und durch einen Basisschicht-Encoder, wie beispielsweise einen HEVC-Encoder (beispielsweise den HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra) oder einen AVC-Encoder (beispielsweise den H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra) oder dergleichen bei einem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Encoder; anderen Encodern“ codiert werden, mit dem Ergebnis eines entsprechenden codierten Datenstroms und einer lokal decodierten Ausgabe. Weiter kann das LL-Teilband in einen skalierbaren HEVC-Encoder, wie beispielsweise den HEVC Scalable Main 10 I/Intra-Encoder oder dergleichen bei einem „HEVC Scalable Main I/Scalable Main 10 I Encoder“ eingegeben werden, der den lokalen decodierten Basisschicht-Frame für eine Vorhersage in der (mit „Zwischenschicht-Vorhersage“ beschrifteten) SNR-skalierbaren Codierung verwenden kann. Jedes der anderen (z.B. HL-, LH- und HH-) Teilbänder kann durch einzelne HEVC Main 10 I/Intra-Encoder bei dem entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“ codiert werden. Sämtliche 5 Datenströme (z.B. 1 Basisschicht-Datenstrom und 4 Teilband-Datenströme) können gemeinsam mit den Anfangskennsätzen (mit einem Anfangskennsatz, der eine wfi-Kennzahl trägt) durch einen „Muxer to Layered Bitstream“ gemultiplext werden, mit dem Ergebnis eines einzelnen skalierbaren AWS2HVC-Datenstroms (bitstr).
  • 14 zeigt ferner die Decodierungsseite, die ein Empfangen des AWS2HVC-Datenstroms (bitstr) und ein Demultiplexen des Datenstroms durch einen „DeMuxer to Bitstream Layers“ in Anfangskennsätze und 5 einzelne Datenströme (z.B. 1 Basisschicht-Datenstrom und 4 Teilband-Datenströme) aufweist. Basierend auf einer Ausgabeauswahl, die durch einen Schalter 1411 implementiert ist, kann eine Benutzer- oder Systemanforderung oder dergleichen eine Wiedergabe eines Bildes oder Frames mit einer niedrigen, mittleren oder vollen Auflösung vorsehen. Beispielsweise kann eine decodierte Basisschicht niedriger Auflösung und Qualität ausgewählt werden (niedrige Auflösung), kann ein decodiertes LL-Band derselben Auflösung jedoch höherer Qualität als diejenige der Basisschicht ausgewählt werden (mittlerer Auflösung), oder es kann eine Ausgabe mit voller Auflösung ausgewählt werden. Falls eine niedrige Auflösung ausgewählt ist (z.B. falls eine decodierte Basisschicht ausreicht), wird der Basisschicht-Datenstrom durch einen geeigneten HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder bei einem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder; anderen Decodern“-Modul abhängig von dem Encoder, der zum Codieren verwendet wurde, decodiert. Die decodierte Basisschicht-Ausgabe kann mit oder ohne eine Aufwärtsabtastung ausgegeben werden, die bei einem „1:2 Aufwärtabtaster“ durchgeführt wird und zu dem Bildschirm gesendet werden kann (dec. frame). Falls eine Wahl einer Ausgabe mittlerer Auflösung getroffen wird, kann ein decodiertes LL-Band derselben Auflösung jedoch einer (beispielsweise als SNR-Skalierbarkeit bezeichneten) höheren Qualität vorgesehen werden, indem zusätzlich zu der Decodierung der Basisschicht das LL-Band mittels der Basisschicht als Vorhersage decodiert wird. Für die Decodierung des LL-Bandes kann ein geeigneter Decoder, wie beispielsweise ein HEVC Scalable Main 10 I/Intra-Decoder bei einem „HEVC Scalable Main I/Scalable Main 10 I Decoder“-Modul genutzt werden. Das decodierte ausgegebene LL-Band kann bittiefen-begrenzt und optional durch einen „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“ 1:2 aufwärts abgetastet und auf einem Bildschirm wiedergegeben werden (dec. frame). Falls eine decodierte Ausgabe mit einer vollen Auflösung ausgewählt ist, müssen zusätzlich zu der Decodierung des LL-Teilbands die übrigen 3 Teilbänder decodiert werden. Solche Teilbänder können durch den HEVC Main 10 I/Intra-Decoder bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen decodiert werden. Die vier decodierten Teilbänder können bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul zusammengeführt werden, das die komplementäre Version des (mit wfi indizierten) Filtersatzes verwendet, der bei dem Encoder verwendet wird, um eine Ausgabe (dec. frame) mit voller Auflösung zu erzeugen.
  • 15A veranschaulicht ein Beispiel eines Verfahrens 1501 für eine Adaptive Wavelet Scalable HEVC, die hier als AWS2HVC-Codierung bezeichnet ist, z.B für den adaptiven wavelet-skalierbaren HEVC AWS2HVC)-Encoder/Decoder 1401 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein zu codierender (mit „Frame“ beschrifteter) Video/Bild-Frame durch eine einstufige Adaptive-Wavelet-Analysefilterung (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) eine Zerlegung in 4 Wavelet-Teilbänder (LL, HL, LH und HH) erfahren. Jedes dieser Teilbänder weist eine Größe von einem Viertel auf, und jeder Abtastwert jedes Teilbands weist eine Bit-Tiefe von 9 Bit auf, falls die Bit-Tiefe der Eingabe 8 Bit ist. Die Teilbänder können (in dem mit „Speichern von 1/4 9b-LL/HL/LH/HH-Teilband in Teilframe ") beschrifteten Schritt in entsprechenden Teilframe-Speichern gespeichert werden. Das LL-Band-Signal kann (in dem mit „Bit-Tiefengrenze“ beschrifteten Schritt) bittiefen-begrenzt werden und als eine Basisschicht entweder durch einen HEVC-Encoder (beispielsweise den HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 I), indem es zuerst in CTUs unterteilt wird, oder durch einen AVC-Encoder (beispielsweise den H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra), indem es zuerst in MBs unterteilt wird, codiert werden, was einen Basisschicht-Datenstrom und ein lokal decodiertes (LL-) Basisschicht-Signal (in dem mit „Intra-Codieren von CTUs/MBs mit HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) ergibt. Außerdem kann das ursprüngliche LL-Band-Signal ohne Bit-Tiefen-Begrenzung als eine SNR-Qualitätsverfeinerungsschicht in Bezug auf das lokal decodierte LL-Band-Basisschichtsignal codiert werden, das (zusammen mit der Vorhersage von den vorhergehenden decodierten benachbarten Blöcken des LL-Verfeinerungsschicht-Frames, der gerade codiert wird) als Vorhersage verwendet wird. Beispielsweise kann die skalierbare Codierung (in dem mit „Codieren der LL-CTUs mit dem HEVC Scalable I/Scalable Main 10 I“ beschrifteten Schritt) mittels des HEVC Scalable Main 10 I/Intra-Encoders ausgeführt werden. Als Nächstes werden die 3 übrigen Teilbänder von 9 Bit Bit-Tiefe mit einem oder mehreren HEVC Main 10 I/Intra-Encodern (in den mit „Intra-Codieren der HL/LH/HH-CTUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) codiert, mit dem Ergebnis entsprechender einzelner Datenströme. Sämtliche Datenströme und Anfangskennsätze (einschließlich des Anfangskennsatzes, der die Kennzahl des Wavelet-Filtersatzes angibt, der durch den Encoder zur Analyse genutzt wird) können (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) gemultiplext werden und als ein (mit „Datenstrom“ beschrifteter) einzelner skalierbarer Datenstrom ausgegeben werden.
  • 15B veranschaulicht ein Beispiel eines Verfahrens 1502 zur adaptiven wavelet-skalierbaren HEVC-(Adaptive Wavelet Scalable HEVC, AWS2HVC)-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) AWS2HVC-skalierbarer Datenstrom, der in einen AWS2HVC-Decoder eingegeben wird, (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) ein Demultiplexen in Anfangskennsätze, einen basisschicht-codierten Datenstrom und vier teilbandcodierte Datenströme erfahren. Basierend auf einer Ausgabeauswahl, die auf der Grundlage einer Anwendereingabe, System- oder Anwendungdsanforderungen oder dergleichen bestimmt ist, kann ein Ausgabeframe oder -Bild erzeugt werden (wie er in dem mit " Volle Aufl. Ausgeben? " beschrifteten Entscheidungsschritt umgesetzt ist). Falls ein Basisschicht-Signal für niedrige Auflösung/Qualität ausgewählt ist, kann ein Basisschicht-Datenstrom durch einen geeigneten HEVC(beispielsweise den HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10) oder einen AVC-(H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra)-Decoder (in dem mit „Intra-Decodieren der CTUs/MBs mit dem HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) decodiert und (in dem mit „Aufwärtsabtastung um 2 in jeder Dim.“ beschrifteten Schritt) mit einer optionalen Aufwärtsabtastung versehen werden, um auf einem Bildschirm (mit „Transformation, niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls eine mittlerer Auflösung ausgewählt ist, wird zusätzlich zu der Basisschicht (in dem mit „Decodieren der LL-CTUs mit dem HEVC Scalable Main I/Scalable Main 10 I“ beschrifteten Schritt) auch das Verfeinerungsschicht-LL-Band-Signal decodiert und (in dem mit „Speichern des 1/4 9b-LL-Teilbands rekonst. in Teilframe“ beschrifteten Schritt) in dem Teilframe-Speicher gespeichert. Für die Decodierung der Verfeinerungsschicht kann ein skalierbarer HEVC-Decoder, wie beispielsweise ein HEVC Scalable Main 10 I/Intra-Decoder verwendet werden, der das decodierte Basisschicht-Signal als eine zusätzliche Eingabe aufnimmt, um Vorhersagen zu erzeugen, die für die Decodierung der Verfeinerungsschicht erforderlich ist. Die decodierte LL-Band-Verfeinerungsschicht kann (in dem mit „Bit-Tiefen Begrenzen und Aufwärtsabtasten um 2 in jeder Dim.“ beschrifteten Schritt) bittiefen-begrenzt und optional aufwärts abgetastet werden, um auf einem Bildschirm (mit „Wavelet, niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls die Ausgabeauswahl eine volle Auflösung beinhaltet, kann die Decodierung sämtlicher 5 demultiplexten Datenströme ausgeführt werden, so dass der LL-Bandstrom, wie erörtert, decodiert wird, und die übrigen 3 Teilbänder (in den mit „Intra-Decodieren der HL/LH/HH-CTUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert und (in den mit „Speichern von rekonst. 1/4 9b-HL/LH/HH-Teilband in Teilframe“ beschrifteten Schritten) in den entsprechenden Teilframe-Speichern gespeichert werden. Beispielsweise kann die Decodierung dieser Teilbänder durch einen oder mehrere HEVC Main 10 I/Intra-Decoder oder dergleichen ausgeführt werden. Sämtliche 4 decodierten Teilband-Signale von den Teilframe-Speichern können über eine adaptive Wavelet-Synthesefilterung (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst Frame zu erzeugen“ beschrifteten Schritt) mittels des Filtersatzes, der durch die wfi-Kennzahl angezeigt ist, zusammengeführt werden, um ein Signal höherer Auflösung/Qualität zu bilden, das (mit „Wavelet, volle Aufl.“ beschriftet) zu dem Bildschirm gesendet werden kann.
  • 16 zeigt in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC(AWS3HVC)-Codierungssystems 1601 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 16 eine dritte Ausführungsform eines adaptiven wavelet-skalierbaren HEVC(AWS3HVC)-Intra-Encoder/Decoders vorsehen, der eine räumlich skalierbare Codierung durch Kombinieren einer adaptiven Wavelet-Analyse/Synthese, einer Abwärts/Aufwärtsabtastung und einer kompatiblen HEVC Main 10 oder Main 4:2:2 10 Intra oder Main 12 Intra-Codierung aufweist. Wie gezeigt, kann ein Eingabe-Video-Frame oder -Bild (frame) auf der Codierungsseite gefiltert und durch einen „4:1 Abwärtsabtaster“ um einen Faktor 4 in jeder Dimension abwärts abgetastet werden. Da es ein normales Pixeldomänesignal mit einer Bit-Tiefe von 8 Bit ist, kann das abwärts abgetastete Bild bzw. der Frame durch einen HEVC-Encoder (beispielsweise den HEVC Main I oder HEVC Main Still Picture oder HEVC Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra) oder einen AVC-Encoder (beispielsweise H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra) oder dergleichen bei einem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Encoder; anderen Encodern“-Modul codiert werden. Das Ergebnis der Codierung kann ein codierter Datenstrom sein, der als Basisschicht-Datenstrom und decodiertes Basisschicht-Signal bezeichnet ist. Außerdem kann derselbe Eingabe-Video/Bild-Frame (ohne Abwärtsabtastung) eine Adaptive-Wavelet-Analysefilterung (wobei der Filtersatz von Anwendungs-, Auflösungs- oder Benutzeranforderungen abhängt) bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul erfahren, das den Frame in LL-, HL-, LH- und HH-Teilbänder zerlegt. Der lokal decodierte Video/Bild-Teilframe von dem Basisschicht-Encoder kann durch einen „1:2 Aufwärtabtaster“ in jeder Richtung um 2 aufwärts abgetastet werden und für eine (mit „Zwischenschicht-Vorhersage“ beschriftete) „Zwischenband“ Vorhersage und für die Codierung des LL-Bands verwendet werden. Für die Codierung des LL-Teilbands kann ein Scalable HEVC Main 10 I/Intra-Encoder, der in der Lage ist, eine räumlich skalierbare Codierung des LL-Bands zu handhaben, das ein Signal mit einer Tiefe von 9 Bit ist, bei einem „HEVC Scalable Main I/Scalable Main 10 I Encoder“-Modul genutzt werden. Eine derartige räumliche Skalierbarkeitsstruktur kann der LL-Band-Intra-Codierung ermöglichen, eine lokale adaptive Vorhersage von dem LL-Band und von der Basisschicht, die nicht wavelet-codiert ist, zu verwenden (z.B. kann dies eine Bit-Verschiebung erfordern, um die Basisschicht auf ein 9-Bit-Signal zu erweitern, bevor sie für eine Vorhersage verwendet wird). In dem Beispiel von 16 kann die Basisschicht eine Auflösung von 1/4 des Wavelet-LL-Teilbands verwenden, so dass der basisschicht-decodierte Video/Bild-Frame, wie gezeigt, vor der Vorhersage des LL-Bands in jeder Dimension um 2 aufwärts abgetastet werden muss. Eine solche Skalierbarkeit kann als eine zweischichtige (z.B. eine Basisschicht und eine LL-Bandschicht betreffende) räumliche Skalierbarkeit bezeichnet werden.
  • Eine Codierung der übrigen 3 (HL, LH und HH)-Teilbänder kann, wie hier erörtert, ausgeführt werden. Beispielsweise kann eine derartige Codierung einen oder mehrere HEVC Main 10 I/Intra-Encoder oder dergleichen bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“-Modulen verwenden. Der sich ergebende Basisschicht-Datenstrom und 4 Teilband-Datenströme können durch einen „Muxer to Layered Bitstream“ gemeinsam mit Anfangskennsätzen in einen einzelnen Datenstrom (bitstr) gemultiplext werden. Die enthaltenen Anfangskennsätze geben an, welcher Filtersatz für die Adaptive-Wavelet-Analysefilterung verwendet wurde, und dass das LL-Band in Bezug auf eine externe (nicht Teilband-) Basisschicht räumlich skalierbar codiert ist.
  • Das Decodierungsende des AWS3HVC-Systems kann das umgekehrte Verfahren durchführen, indem es einen gemultiplexten Basisschicht-Datenstrom (bitstr) empfängt und den gemultiplexten Basisschicht-Datenstrom und die Teilband-Datenströme demultiplext und die erforderlichen Anfangskennsätze decodiert, um die verwendete Skalierbarkeit zu ermitteln und Decodierungsstrukturen zu erzeugen, die für eine erfolgreiche Decodierung der skalierbaren Ströme erforderlich sind. Drei Ausgabeauswahlen können für das Decodieren verfügbar sein, wie sie durch einen Schalter 1611 durchgeführt ist: eine Decodierung eines eigenständigen codierten Basisschicht-Stroms mit einer Auflösung von 1/16 (1/4 in jeder Dimension), die einen decodierten Video/Bild-Frame mit einer geringeren Qualität als das LL-Band ergibt (Auswahl einer niedrigen Auflösung), eine Bandstrom-Decodierung mit einer Auflösung von 1/4, die einen Video/Bild-Frame einer Auflösung von 1/4 mit einer mäßigen Auflösung/Qualität (Auswahl einer mittleren Auflösung) vorsehen kann, und eine Ausgabe einer adaptiven Wavelet-Synthesefilterung, die 4 Teilbänder zusammenführt, mit dem Ergebnis eines decodierten Video/Bild-Frames mit einer vollen Auflösung/Qualität (Auswahl einer vollen Auflösung). Die tatsächlichen gewählten Deodierungstechniken können von Benutzer-, Anwendung- oder Systemanforderungen abhängen, wie sie durch den Schalter 1611 umgesetzt werden.
  • Falls die Wahl einer niedrigen Auflösung getroffen wird (z.B. eine eigenständige Basisschicht-Auflösung/Qualität ausreicht), kann der eigenständige Basisschicht-Strom unter Verwendung eines (in Abhängigkeit von dem Encoder, der auf der Codierungsseite genutzt wird) passenden HEVC-(beispielsweise des HEVC Main I oder HEVC Main Still Picture oder HEVC Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Decoders oder eines AVC-(beispielsweise H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Decoder, wie er durch einen „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder; sonstigen Decoder“-Modul umgesetzt ist, decodiert werden. Wie gezeigt, kann der decodierte Video/Bild-Frame durch einen „1:4 Aufwärtabtaster“ aufwärts abgetastet werden und auf einem Bildschirm wiedergegeben werden (dec. frame). Falls die Wahl einer mittleren Qualität getroffen wird (z.B. die LL-Bandausgabe gewünscht ist), muss die Basisschicht (wie soeben beschrieben) decodiert werden, und das LL-Band muss beispielsweise durch einen HEVC Scalable Main 10 I/Intra-Decoder bei dem „HEVC Scalable Main I/Scalable Main 10 I Decoder“ decodiert werden, der decodierte aufwärts abgetastet Basisschicht-Video/Bild-Frame(s) verwendet, wie sie durch den „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder; sonstigen Decoder“ und den (mit „Zwischenschicht-Vorhersage“ beschrifteten) „1:2 Aufwärtabtaster“ für die räumlich skalierbare Vorhersage erzeugt sind. Das sich ergebende Bild kann optional durch einen „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“ bittiefen-begrenzt und aufwärts abgetastet werden und auf einem Bildschirm wiedergegeben werden (dec. frame). Falls die Ausgabeauswahl eine volle Auflösung beinhaltet (z.B. der Benutzer oder das System einen oder mehrere decodierte Video/Bild-Frame(s) mit voller Auflösung/Qualität fordert, müssen zusätzlich zu dem soeben beschriebenen Verfahren für das Decodieren des LL-Teilbands die 3 übrigen Wavelet-Teilbänder, wie beispielsweise die HL-, LH- und HH-Teilbänder, unter Verwendung eines (oder mehrerer) HEVC Main 10 I/Intra-Decoder bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen decodiert werden. Sämtliche vier decodierten Teilbänder können einem „Adaptive-Wavelet-Synthesefilterungs“-Modul eingegeben werden, der eine Synthesefilterung durchführt, die die aus dem Anfangskennsatz in dem Datenstrom decodierten Filtersatzinformationen verwendet, und die Ausgabe dieses Verfahrens ist ein decodierter Video/Bild-Frame mit voller Auflösung/Qualität für die Wiedergabe (dec. frame).
  • 17A veranschaulicht ein Beispiel eines Verfahrens 1701 zur Adaptiven wavelet-skalierbaren HEVC (Adaptive Wavelet Scalable HEVC, AWS3HVC)-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 17A eine dritte Ausführungsform der Adaptiven wavelet-skalierbaren HEVC (Adaptive Wavelet Scalable HEVC, AWS3HVC)-Intra-Codierung vorsehen. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) eingegebener Video/Bild-Frame gefiltert und (in dem mit „Abwärtsabtasten um 4 in jeder Dim. & Speichern in Teilframe“ beschrifteten Schritt) in jeder Dimension um einen Faktor 4 abwärts abgetastet werden, mit dem Ergebnis eines Frames der Größe 1/16, der (in dem mit „Abwärtsabtasten um 4 in jeder Dim. & Speichern in Teilframe“ beschrifteten Schritt) gespeichert und durch einen Encoder, wie beispielsweise einen HEVC(HEVC Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Encoder oder einem AVC(H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Encoder (in dem mit „Intra-Codieren von CTUs/MBs mit HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) codiert werden kann. Der erzeugte codierte Datenstrom kann als ein Basisschicht-Datenstrom bezeichnet werden. Außerdem kann der eingegebene Video/Bild-Frame (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) unter Verwendung eines Filtersatzes (der von der Anwendungs-, Inhalts- oder Benutzeranforderung abhängt) durch die Adaptive-Wavelet-Analyse zu LL-, HL-, LH- und HH-Wavelet-Teilbändern gefiltert werden. Die 4 Teilbänder können in entsprechenden Bildspeichern gespeichert werden, die 1/4-Teilframes einer Bit-Tiefe von 9 Bit speichern können, die anschließend (in den mit " 1/4 9b-LL/HL/LH/HH-Teilband in Teilframe-Speicher“ beschrifteten Schritten) codiert werden. Das LL-Band kann eine Skalierbare HEVC Main 10 I/Intra-Codierung erfahren, die (in dem mit „Codieren von LL-CTUs mit HEVC Scalable Main I/Scalable Main 10“ beschrifteten Schritt) eine räumliche Skalierbarkeitscodierung in Bezug auf den lokal decodierten aufwärts abgetasteten Basisschicht-Video/Bild-Frame verwendet (wie er durch die mit „Intra-Codieren von CTUs/MBs mit HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ und „Aufwärtsabtastung um 2 in jeder Dim.“ beschrifteten Schritten vorgesehen ist). Wie gezeigt, können sämtliche fünf codierten Ströme mit mehreren Anfangskennsätzen gemultiplext werden, die Informationen darüber, wie beispielsweise, welcher Wavelet-Filtersatz zur Analyse verwendet wurde, und welcher Typ von Skalierbarkeit zum Codieren des LL-Bands in Bezug auf eine nicht wavelet-codierte Basisschicht verwendet wird, tragen, (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt), um einen (mit „Datenstrom“ beschrifteten) einzelnen Datenstrom zu erzeugen.
  • 17B veranschaulicht ein Beispiel eines Verfahrens 1701 zur adaptiven wavelet-skalierbaren HEVC(AWS3HVC)-Intra-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 17B eine Adaptive Wavelet Scalable HEVC(AWS3HVC)-Intra-Decodierung vorsehen, wie sie durch das AWS3HVC-System von 16 durchgeführt wird. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) zu decodierender Datenstrom in jeden der fünf unterschiedlichen Datenströme demultiplext werden, und die Anfangskennsätze können (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) decodiert werden. Wie erörtert, können die Anfangskennsätze Informationen darüber tragen, welcher Wavelet-Filtersatz bei dem Encoder gewählt wurde, sowie welcher Typ von Skalierbarkeit verwendet wird, so dass die erforderliche Decodierungsstruktur genutzt werden kann. Von den fünf demultiplexten Datenströmen, ist der erste ein Basisschicht-Datenstrom, während die übrigen LL-, HL-, LH- und HH-Teilband-Datenströme sind. Drei Ausgabeauswahlen können verfügbar sein, die beinhalten: Decodierung des eigenständigen codierten Basisschicht-Datenstroms mit einer Auflösung von 1/16, die einen decodierten Video/Bild-Frame mit einer geringeren Qualität ergibt (Auswahl einer niedrigen Auflösung), Decodierung des LL-Band-Datenstroms mit einer Auflösung von 1/4, was einen Video/Bild-Frame mit einer Auflösung von 1/4 bei einer mittleren Auflösung/Qualität (Auswahl mittlere Auflösung) vorsehen kann, und Decodierung sämtlicher 4 Bänder und Vorsehen einer adaptiven Wavelet-Synthesefilterung, mit dem Ergebnis eines decodierten Video/Bild-Frames mit voller Auflösung/Qualität (Auswahl volle Auflösung). Die tatsächliche ausgewählte Decodierungstechnik kann von Anwendungs- oder Benutzeranforderungen oder dergleichen abhängen (wie sie durch den mit „Ausgabe volle Aufl.?“ beschrifteten Entscheidungsschritt umgesetzt werden).
  • Falls eine niedrige Auflösung ausgewählt wird (z.B. eine eigenständige Basisschicht-Auflösung/Qualität als ausreichend erachtet wird), kann der Basisschicht-Datenstrom unter Verwendung eines (zu der Codierung) passenden Decoders, wie beispielsweise eines HEVC(beispielsweise des HEVC Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Decoders oder eines AVC (beispielsweise H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Decoders (in dem mit „Intra-Decodieren der CTUs/MBs mit dem HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) decodiert werden. Der decodierte Video/Bild-Frame kann optional (in dem mit „Aufwärtsabtasten um 4 in jede Dim.“ beschrifteten Schritt) aufwärts abgetastet werden, um auf einem Bildschirm (beschriftet mit „Transformation, niedrige Aufl.“) wiedergegeben zu werden. Falls eine mittlerer Auflösung ausgewählt ist (z.B. LL-Bandausgabe mittlerer Qualität gewünscht ist), muss die Basisschicht (wie erörtert) decodiert werden, und das LL-Band muss durch eine HEVC Scalable Main 10 I/Intra-Decodierung (in dem mit „Decodieren der LL-CTUs mit dem HEVC Scalable Main I/Scalable Main 10“ beschrifteten Schritt) decodiert werden, die den decodierten Basisschicht-Video/Bild-Frame für eine räumlich skalierbare Vorhersage verwendet (wie sie durch die mit „Intra-Decodieren der CTUs/MBs mit dem HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ und „Aufwärtsabtastung um 2 in jeder Dim.“ beschrifteten Schritten vorgesehen ist). Die erzeugte LL-Bandausgabe kann (in dem mit „Speichern des rekonst. in Teilframes Größe 1/4 9b-LL-Teilband“ beschrifteten Schritt) optional (in dem mit „Bit-Tiefen Begrenzen und Aufwärtsabtasten um 2 in jeder Dim.“ beschrifteten Schritt) bittiefen-begrenzt und/oder aufwärts abgetastet gespeichert werden, um auf einem Bildschirm (mit „Wavelet, niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls die hohe Auflösung ausgewählt ist (z.B. der Benutzer oder die Anwendung einen decodierten Video/Bild-Frame mit voller Auflösung/Qualität fordert), müssen zusätzlich zu dem soeben beschriebenen Verfahren für das Decodieren des LL-Teilbands die 3 übrigen Wavelet-Teilbänder, wie beispielsweise die HL-, LH- und HH-Teilbänder unter Verwendung der HEVC Main 10 I/Intra-Decodierung (in den mit „Intra-Decodieren der HL/LH/HH-CTUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert werden. Sämtliche vier decodierten Teilbänder können (in den mit „Speichern des rekonstruierten 1/4 so großen 9b-HL/LH/HH-Teilband Teilframes“ beschrifteten Schritten) gespeichert werden und in die adaptive Wavelet-Synthesefilterung eingegeben werden, die die 4 Teilbänder (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) mittels des Filtersatzes, dessen Kennzahl aus dem Anfangskennsatz decodiert ist, in dem Datenstrom zusammenführt. Die Ausgabe einer derartigen Verarbeitung ist ein decodierter Video/Bild-Frame mit voller Auflösung/Qualität, der ausgegeben werden kann, um auf einem Bildschirm (mit „Wavelet, volle Aufl.“ beschriftet) wiedergegeben zu werden.
  • 18 zeigt in einem Blockdiagramm ein Beispiel eines adaptiven wavelet-skalierbaren HEVC (AWS4HVC)-Codierungssystems 1801 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 18 eine vierte Ausführungsform eines adaptiven wavelet-skalierbaren HEVC(AWS4HVC)-Intra-Encoder/Decoders vorsehen, der eine räumliche und/oder SNR-skalierbare Codierung durch ein Kombinieren von Adaptive-Wavelet-Analyse/Synthese, Abwärts/Aufwärtsabtasten, Bit-Tiefen-Begrenzung und kompatibler HEVC Main 10 oder Main 4:2:2 10 Intra oder Main 12 Intra-Codierung aufweist. Beispielsweise verkörpert 18 eine kombinierte Codierungsfunktionalität von 12 (die eine SNR-Skalierbarkeit vorsieht, wobei das LL-Band die externe Basisschicht verwendet), von 14 (die eine SNR-Skalierbarkeit vorsieht, die das LL-Band als Schichten von zwei Qualitäten codiert) und 16 (die räumliche Skalierbarkeit vorsieht, wobei das LL-Band die externe Basisschicht verwendet). Das AWS4HVC-System von 18 stellt sowohl die Codierungs- als auch die Decodierungsseite wie im Falle des AWS1HVC-Systems von 12, AWS2HVC-Systems von 14 und AWS3HVC-Systems von 16 dar. Weiter repräsentiert die Decodierungsseite des AWS4HVC-Systems ferner 3 unterschiedliche mögliche Wahlen für das Decodieren und Wiedergeben auf dem Bildschirm in sämtlichen Fällen, die als Ausgabe einer geringeren Qualität, Ausgabe einer mittleren Qualität und Ausgabe einer hohen Qualität bezeichnet werden können.
  • Das Codierungs-Subsystem von 18 kann 3 Arten von Encodern verwenden, beispielsweise einen Basisschicht-Encoder (z.B. entweder einen HEVC-Encoder, einen HEVC Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra oder einen AVC-Encoder, einen H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra-Encoder, wie umgesetzt bei einem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Encoder; sonstigen Encodern“-Modul), einen räumlichen/SNR-Verfeinerungsschicht-Encoder (beispielsweise einen skalierbaren Encoder, z.B. einen HEVC Scalable Main 10 I/Intra, der umgesetzt ist bei einem „HEVC Scalable Main I/Scalable Main 10 I Encoder“-Modul) und einen normalen Encoder (beispielsweise einen nicht skalierbaren Encoder, wie beispielsweise n HEVC Main 10 I/Intra-Encoder bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“-Modulen) für die übrigen 3 Teilbänder. Für die Codierung der Basisschicht kann ein „Bit-Tiefen-Begrenzer“ vorgesehen sein, der erforderlich sein kann, um die Bit-Tiefe des LL-Bands von 9 Bit auf 8 Bit zu begrenzen. Das Codierungs-Subsystem unterstützt Abwärtsskalierungsfaktoren von 2:1 oder 4:1 in jede Dimension bei einem „2:1/4:1 Abwärtsabtaster“ und Aufwärtsskalierungsfaktoren von 1:1 (keine Aufwärtsskalierung) oder 1:2 in jede Dimension bei einem „1:1/1:2 Aufwärtabtaster“. Wie gezeigt, kann über den (mit „SW“ beschrifteten) Schalter eine Auswahl für die Basisschicht-Codierung zwischen der Verwendung einer abwärts abgetasteten Version des eingegebenen Frames oder Bildes oder der Verwendung eines bittiefen-begrenzten LL-Bandes erzeugt werden.
  • Das Codierungssystem von 18 kann ähnlich wie die Codierungssysteme von 12, 14 und 16 arbeiten. Wie gezeigt, kann ein eingegebener Video/Bild-Frame (frame) für eine SNR-skalierbare Codierung um 2:1 oder für eine räumlich skalierbare Codierung um 4:1 abwärts abgetastet werden, wenn durch den „2:1/4:1 Abwärtsabtaster“ eine externe Basisschicht verwendet wird, oder überhaupt nicht abwärts abgetastet werden, falls eine derartige externe Basisschicht-Codierung durch den Schalter „SW“ nicht ausgewählt ist. Der eingegebene Frame oder das Bild können ebenfalls durch ein „Adaptive-Wavelet-Analysefilterungs“-Modul in 4 Teilbänder zerlegt werden. Falls das LL-Band (z.B. in einem dritten skalierbaren Codierungsfall) selbst als eine Basisschicht zu verwenden ist, kann das LL-Band bittiefen-begrenzt werden. Abhängig von der durchzuführenden skalierbaren Codierung in Entsprechung zu einer Wahl durch den Schalter „SW“, wird die geeignete Eingabe (2:1 abwärts abgetastetes Original, 4:1 abwärts abgetastetes Original oder LL-Band nach der Bit-Tiefen-Begrenzung) über den Schalter „SW“ zu einem Basisschicht-Encoder verzweigt, der entweder ein HEVC-Encoder (beispielsweise der HEVC Main I oder HEVC Main Still Picture oder HEVC Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra) oder ein AVC-Encoder (beispielsweise der H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra) ist, wie sie durch das „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Encoder; andere Encoder „-Modul implementiert sind. Das Ergebnis der Codierung ist ein codierter Basisschicht-Datenstrom, der für einen „Muxer to Layered Bitstream“ vorgesehen sein kann, und ein lokal decodiertes Basisschicht-Signal. Das lokal decodierte Basisschicht-Signal kann optional um 2 in jede Richtung (oder unabhängig von der Skalierbarkeit) durch den „1:1/1:2 Aufwärtabtaster“ aufwärts abgetastet werden und für eine (mit „Zwischenschicht-Vorhersage“ beschriftete) „Zwischenband“-Vorhersage und Codierung des LL-Bands genutzt werden. Für die Codierung des LL-Teilbands, kann ein Scalable HEVC Main 10 I/Intra-Encoder, der in der Lage ist, eine räumliche skalierbare Codierung des LL-Bands (ein Signal mit einer Tiefe von 9-Bit) zu handhaben, bei dem „HEVC Scalable Main I/Scalable Main 10 I Encoder“-Modul genutzt werden. Diese Art einer SNR- oder räumlichen Skalierbarkeitsstruktur ermöglicht der LL-Band Intra-Codierung, eine lokale adaptive Vorhersage nicht nur von dem LL-Band, sondern auch von der (optional aufwärts abgetasteten) Basisschicht zu verwenden. Wie gezeigt, können die übrigen Teilbänder (z.B. HL, LH und HH), wie hier erörtert bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“-Modulen codiert werden. Der sich ergebende Basisschicht-Datenstrom und die 4 Teilband-Datenströme können durch den „Muxer to Layered Bitstream“ gemeinsam mit den Anfangskennsätzen in einen einzelnen Datenstrom (bitstr) gemultiplext werden. Die enthaltenen Anfangskennsätze geben an, welcher Filtersatz für die Adaptive-Wavelet-Analysefilterung verwendet wurde, ob das LL-Band skalierbar codiert wurde, und in Bezug auf welche Basisschicht das LL-Band skalierbar codiert wurde.
  • Wie gezeigt, kann das Decodierungssubsystem von 18 3 Arten von Decodern verwenden, beispielsweise einen Basisschicht-Decoder (z.B. entweder einen HEVC Main I- oder HEVC Main Still Picture- oder Main 10 I- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra-Decoder oder einen H.264 Baseline I- oder H.264 Main I- oder H.264 High I- oder H.264 High 10 Intra- oder H.264 High 4:2:2 Intra-Decoder, wie sie umgesetzt sind bei einem HEVC Main I-/Main Still Picture/Main 10 I-/Main 4:2:2 10 Intra-; H.264 Baseline I-/Main I-/High I/High 10 Intra-/High 4:2:2 Intra-Decoder; sonstigen Decoder-Modulen), einen räumlichen/SNR-Verfeinerungsschicht-Decoder (z.B. einen skalierbaren Encoder, wie beispielsweise einen HEVC Scalable Main 10 I/Intra-Decoder, der bei einem „HEVC Scalable Main I/Scalable Main 10 I Decoder“-Modul umgesetzt ist) und für die übrigen 3 Teilbänder einen normalen Decoder (beispielsweise einen nicht skalierbaren Decoder HEVC Main 10 I/Intra, der bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen umgesetzt ist). Das Decodierungssubsystem unterstützt bei einem „1:1/1:2 Aufwärtabtaster“ Aufwärtsskalierungsfaktoren von entweder 1:1 oder 1:2 in jeder Dimension, um Vorhersagen zum Codieren zu erzeugen, und Aufwärtsskalierungsfaktoren von 1:2 oder 1:4 für die Wiedergabe auf einem Bildschirm (bei einem „1:2 oder 1:4 Aufwärtabtaster“ und einem „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“). Für Wiedergabezwecke kann eine Bit-Tiefen-Begrenzung erforderlich sein, um die Bit-Tiefe des LL-Bands auf 8 Bit zu begrenzen.
  • 18 zeigt auch das Ende der Decodierung, die ein Empfangen eines AWS4HVC-Datenstroms (bitstr) und ein Demultiplexen desselben in Anfangskennsätze und 5 einzelne Datenströme (1 Basisschicht-Datenstrom und 4 Teilband-Datenströme) bei einem „DeMuxer to Bitstream Layers“ beinhaltet. Außerdem kann durch einen Schalter 1811 eine Ausgabeauswahl durchgeführt werden. Beispielsweise kann, abhängig von einer Benutzer- oder Systemanforderung oder dergleichen, entweder eine decodierte Basisschicht niedrigerer Auflösung (Auswahl einer niedrigen Auflösung) und geringerer Qualität ausreichen, kann ein decodiertes LL-Band derselben Auflösung, jedoch höherer Qualität als diejenige der Basisschicht (Auswahl mittlere Auflösung) genutzt werden, oder kann eine Auswahl einer decodierten Ausgabe mit voller Auflösung (volle Auflösung) ausgegeben werden. Falls die Wahl einer niedrigen Auflösung getroffen wird (z.B. eine decodierte Basisschicht ausreichen kann), wird der Basisschicht-Datenstrom durch einen geeigneten HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder abhängig davon, welcher Encoder verwendet wurde für die Codierung bei dem „HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2 Intra-Decoder; sonstigen Decoder“-Modul decodiert. Die decodierte Basisschicht kann optional bei dem „1:2 oder 1:4 Aufwärtabtaster“ aufwärts abgetastet und zu dem Bildschirm (dec. frame) gesendet werden. Falls eine Wahl mittlerer Auflösung getroffen wird (z.B. das decodierte LL-Band derselben Auflösung, jedoch mit einer mittleren/besseren Qualität erforderlich ist), muss zusätzlich zu der Decodierung der Basisschicht auch das LL-Band decodiert werden und verwendet die (optional aufwärts abgetastete) Basisschicht als Vorhersage. Beispielsweise kann von der decodierten Basisschicht eine Zwischenschicht-Vorhersage als optional bei dem „1:1/1:2 Aufwärtabtaster“ aufwärts abgetastet vorgesehen sein. Für die Decodierung des LL-Bands kann ein geeigneter Decoder, wie beispielsweise ein HEVC Scalable Main 10 I/Intra-Decoder, genutzt werden, wie er bei dem „HEVC Scalable Main I/Scalable Main 10 I Decoder“-Modul implementiert ist. Die decodierte Ausgabe des LL-Bands kann optional durch den „Bit-Tiefen-Begrenzer & 1:2 Aufwärtabtaster“ bittiefen-begrenzt und/oder 1:2 aufwärts abgetastet werden und ausgeben werden, um auf einem Bildschirm wiedergegeben zu werden (dec. frame). Falls eine Wahl für eine volle Auflösung getroffen wird (z.B. eine mit einer vollen Auflösung decodierte Ausgabe erforderlich ist), müssen zusätzlich zu der Decodierung des LL-Teilbands die übrigen 3 Teilbänder (z.B. LH, HL, HH) ebenfalls decodiert werden. Für die Decodierung derartiger Teilbänder kann ein HEVC Main 10 I/Intra-Decoder bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen genutzt werden. Die vier decodierten Teilbänder können bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul zusammengeführt werden, das die komplementäre Version des (mit wfi indizierten) Filtersatzes verwenden kann, der bei dem Encoder genutzt wird, um eine Ausgabe mit voller Auflösung zur Wiedergabe auf einem Bildschirm (dec. frame) zu erzeugen.
  • 19A veranschaulicht ein Beispiel eines Verfahrens 1901 zur adaptiven wavelet-skalierbaren HEVC(AWS4HVC)-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 19A eine vierte Ausführungsform einer Adaptive Wavelet Scalable HEVC(AWS4HVC)-Intra-Codierung darstellen, die durch das AWS4HVC-System von 18 ausgeführt werden kann. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) eingegebener Video/Bild-Frame in jeder Dimension um einen Faktor 2 oder 4 oder überhaupt nicht abwärts abgetastet werden und (in dem mit „Abwärtsabtasten um 4 in jeder Dim. & Speichern in Teilframe“ beschrifteten Schritt) gespeichert werden, mit dem Ergebnis entweder eines Frames mit einem 1/16 der Größe oder mit einem 1/4 der Größe oder der gleichen Größe für eine mögliche Nutzung als eine Basisschicht (in dem ausgewählten, mit „Auswahl“ beschrifteten Schritt). Außerdem kann der eingegebene Video/Bild-Frame durch die Adaptive-Wavelet-Analyse unter Verwendung eines Filtersatzes (der von einer Anwendungs-, Inhalts- oder Benutzeranforderung) (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) in LL-, HL-, LH- und HH-Wavelet-Teilbänder gefiltert werden. In einem Fall der Skalierbarkeit kann das LL-Band-Signal (in dem mit „Bit-Tiefengrenze“ beschrifteten Schritt) bittiefen-begrenzt werden und kommt ebenfalls für die Basisschicht (wie sie für den mit „Auswahl“ beschrifteten Schritt vorgesehen ist) in Frage. Ein Wählschalter oder dergleichen kann bestimmen, welches der drei Signale für die Basisschicht-Codierung (in dem mit „Auswahl“ beschrifteten Schritt) zu verwenden ist. Die ausgewählte Basisschicht kann durch einen Encoder, wie beispielsweise einen HEVC (HEVC Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Encoder oder einen AVC (H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Encoder (in dem mit „Intra-Codieren von CTUs/MBs mit HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) codiert werden. Das Ergebnis der Codierung ist ein Basisschicht-Datenstrom und ein lokal decodiertes Basisschicht-Signal. Die 4 Teilbänder können (in den mit „Größe 1/4 9b-LL-Teilband in Teilframe-Speicher“ beschrifteten Schritten) in entsprechenden Bildspeichern gespeichert werden, die 1/4-Teilframes einer Bit-Tiefe von 9 Bit speichern können, die anschließend codiert werden können. Das LL-Band kann (in dem mit „HEVC Skalierbare Main I/Skalierbare Main 10 Encode LL-CTUs“ beschrifteten Schritt) eine Scalable HEVC Main 10 I/Intra-Codierung erfahren, die eine räumliche oder SNR-skalierbare Codierung in Bezug auf einen lokal decodierten optional aufwärts abgetasteten Basisschicht-Video/Bild-Frame verwendet (wie er durch die mit „Intra-Codieren von CTUs/MBs mit HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ und „Aufwärtsabtasten um 2 oder kein Abtasten in jede Dim.“ beschrifteten Schritte vorgesehen ist). Die übrigen Teilbänder können, wie hier erörtert, (in mit „Intra-Codieren der HL/LH/HH-CTUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) codiert werden. Wie gezeigt, können sämtliche fünf codierten Ströme mit mehreren Anfangskennsätzen, die Informationen darüber tragen, wie beispielsweise, welcher Wavelet-Filtersatz zur Analyse verwendet wurde, und welche Art von Skalierbarkeit zum Codieren des LL-Bandes verwendet wird, (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) gemultiplext werden.
  • 19B veranschaulicht ein Beispiel eines Verfahrens 1902 zur adaptiven wavelet-skalierbaren HEVC(AWS4HVC)-Intra-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 19B eine vierte Ausführungsform einer Adaptive Wavelet Scalable HEVC (AWS4HVC)-Intra-Decodierung vorsehen, wie sie durch das AWS4HVC-System von 18 durchgeführt wird. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) zu decodierender Datenstrom in jeden der fünf unterschiedlichen Datenströme demultiplext werden, und Anfangskennsätze können (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) decodiert werden. Wie erläutert, tragen die Anfangskennsätze Informationen darüber, welcher Wavelet-Filtersatz bei dem Encoder gewählt wurde, sowie welcher Typ von Skalierbarkeit verwendet wird, so dass die erforderliche Decodierungsstruktur genutzt werden kann. Von den fünf demultiplexten Datenströmen, ist der erste ein Basisschicht-Datenstrom, während die übrigen LL-, HL-, LH- und HH-Teilband-Datenströme sind. Drei Ausgabeauswahlen können auftreten, wie beispielsweise Decodieren eines eigenständigen codierten Basisschicht-Datenstroms mit einer Auflösung von 1/4 oder 1/16, was einen ausgegebenen Frame geringerer Qualität ergibt (Auswahl einer niedrigen Auflösung), eine Decodierung des LL-Band-Datenstrom mit der Auflösung von 1/4, die in der Lage ist, einen Video/Bild-Frame mit einer Auflösung von 1/4 mit mittlerer Auflösung/Qualität (Auswahl mittlerer Auflösung) zu erzeugen, und eine Decodierung sämtlicher 4 Bänder und eine Adaptive-Wavelet-Synthesefilterung, mit dem Ergebnis eines decodierten Video/Bild-Frames voller Auflösung/Qualität (Auswahl volle Auflösung). Die tatsächliche gewählte Decodierungstechnik kann von Anwendungs-, System-, oder Benutzeranforderungen oder dergleichen abhängen und kann in dem mit „Ausgabe volle Aufl.?“ beschrifteten Entscheidungsschritt. umgesetzt werden.
  • Falls eine Wahl einer niedrigen Auflösung getroffen wird (z.B. eine eigenständige Basisschicht-Auflösung/Qualität ausreicht), wird der Basisschicht-Strom unter Verwendung einer (zu der Codierung) passenden Decodierung, z.B. unter Verwendung eines HEVC (beispielsweise eines HEVC Main I oder HEVC Main Still Picture oder Main 10 I oder HEVC Main 10 I oder HEVC Main 4:2:2 10 Intra)-Decoders oder des AVC (beispielsweise H.264 Baseline I oder H.264 Main I oder H.264 High I oder H.264 High 10 Intra oder H.264 High 4:2:2 Intra)-Decoders (in dem mit „Intra-Decodieren der CTUs/MBs mit dem HEVC Main I/Main Still Picture/Main 10 I/Main 4:2:2 10 Intra; H.264 Baseline I/Main I/High I/High 10 Intra/High 4:2:2“ beschrifteten Schritt) decodiert. Der decodierte Video/Bild-Frame kann optional (in dem mit „Aufwärtsabtasten um 2 oder 4 in jede Dim.“ beschrifteten Schritt) aufwärts abgetastet werden, um auf einem Bildschirm (mit „Transformation, niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls die Wahl einer mittleren Auflösung getroffen wird (z.B. eine LL-Bandausgabe mittlerer Qualität gewünscht ist), muss die Basisschicht (wie erörtert) decodiert und optional (in dem mit „Aufwärtsabtasten um 2 oder kein Abtasten in jede Dim.“ beschrifteten Schritt) aufwärts abgetastet werden, und das LL-Band muss durch eine HEVC Scalable Main 10 I/Intra-Decodierung decodiert werden, die den decodierten Basisschicht-Video/Bild-Frame für eine räumlich skalierbare Vorhersage (in dem mit „Decodieren der LL-CTUs mit dem HEVC Scalable Main I/Scalable Main 10“ beschrifteten Schritt) verwendet. Die erzeugte LL-Bandausgabe kann (in dem mit „Speichern des rekonst. in Teilframes Größe 1/4 9b-LL-Teilband“ beschrifteten Schritt) gespeichert und optional (in dem mit „Bit-Tiefen Begrenzen und Aufwärtsabtasten um 2 in jeder Dim.“ beschrifteten Schritt) bittiefen-begrenzt und/oder aufwärts abgetastet werden, um auf einem Bildschirm (mit „Wavelet, niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls eine Wahl für eine volle Auflösung getroffen wird, (z.B. der Benutzer oder die Anwendung einen decodierten Video/Bild-Frame mit voller Auflösung/Qualität erfordert), müssen zusätzlich zu dem für das Decodieren, und die Speicherung des LL-Teilbands beschriebenen Verfahren die 3 übrigen Wavelet-Teilbänder, wie beispielsweise die HL-, LH- und HH-Teilbänder, unter Verwendung der HEVC Main 10 I/Intra-Decodierung oder dergleichen (in den mit „Intra-Decodieren der HL/LH/HH-CTUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert werden. Sämtliche vier decodierten Teilbänder können (in dem mit „Speichern des 1/4 so großen rekons. Teilframes 9b-LL/HL/LH/HH-Teilband“ beschrifteten Schritt) gespeichert und in die Adaptive-Wavelet-Synthesefilterung eingegeben werden, die die 4 Teilbänder mittels des Filtersatzes, dessen Kennzahl aus dem Anfangskennsatz in dem Datenstrom decodiert ist, (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) zusammenführt. Die Ausgabe einer derartigen Verarbeitung ist ein decodierter Video/Bild-Frame mit voller Auflösung/Qualität für eine (mit „Wavelet, volle Aufl.“ beschriftete) Ausgabe.
  • Wie beispielsweise im Zusammenhang mit Fig. 12, 13A, 13B, 14, 15A, 15B, 16, 17A, 17B, 18, 19A und 19B und andernorts hier erörtert, kann die Codierung eines Bildes oder Frames beinhalten: Durchführen einer Wavelet-Zerlegung an dem Bild oder Frame, um mehrere Teilbänder zu erzeugen, Erzeugen eines Referenzbilds für eine Zwischenschicht-Vorhersage eines ersten Teilbands der mehreren Teilbänder auf der Grundlage des Bildes oder Frames, Codieren des ersten Teilbands auf der Grundlage der Zwischenschicht-Vorhersage unter Verwendung eines mit der Skalierbaren Hocheffizienten Videocodierung (SHVC) konformen Encoders, um einen Datenstrom zu erzeugen, der dem ersten Teilband zugeordnet ist, Codieren der übrigen Teilbänder der mehreren Teilbänder, um einen oder mehrere zweite mit High Efficiency Video Coding (HEVC) konforme Datenströme zu erzeugen, und Multiplexen des Datenstroms, der dem ersten Teilband zugeordnet ist, und der zweiten Datenströme, um einen skalierbaren Datenstrom zu erzeugen. Die Wavelet-Zerlegung kann eine feststehende oder Adaptive-Wavelet-Analysefilterung sein. In einer Ausführungsform beinhaltet das Erzeugen des Referenzbilds ein Codieren des Referenzbilds auf der Grundlage von mindestens einem von einem HEVC-konformen Encoder oder einem mit der fortentwickelten Videocodierung (Advanced Video Coding, AVC) konformen Encoder. In einer Ausführungsform beinhaltet das Erzeugen des Referenzbilds ein Abwärtsabtasten des ursprünglichen Bildes oder der Frames, um ein abwärts abgetastetes Bild zu erzeugen, und ein Codieren des abwärts abgetasteten Bildes, um das Referenzbild zu erzeugen. In einer Ausführungsform beinhaltet das Erzeugen des Referenzbilds ein Begrenzen der Bit-Tiefe des ersten Teilbands, um ein abwärts abgetastetes Bild zu erzeugen, und ein Codieren des abwärts abgetasteten Bildes, um das Referenzbild zu erzeugen. In einer Ausführungsform beinhaltet das Erzeugen des Referenzbilds ein Abwärtsabtasten des ursprünglichen Bildes oder Frames, um ein abwärts abgetastetes Bild zu erzeugen, ein Codieren des abwärts abgetasteten Bildes, um das codierte Bild zu erzeugen, und ein Aufwärtsabtasten des codierten Bildes, um das Referenzbild zu erzeugen. In einer weiteren Ausführungsform kann ein Zwischenschicht-Vorhersagemodus, der dem Bild oder Frame zugeordnet ist, bestimmt werden, und das Referenzbild kann in Abhängigkeit von dem Zwischenschicht-Vorhersagemodus erzeugt werden.
  • Weiter kann das Decodieren, wie im Zusammenhang mit Fig. 12, 13A, 13B, 14, 15A, 15B, 16, 17A, 17B, 18, 19A und 19B und andernorts hier erörtert, beinhalten: Demultiplexen eines skalierbaren Datenstroms, um mehrere Datenströme, wobei jeder einem Teilband mehrerer Wavelet-Teilbänder zugeordnet ist, und einen zweiten Datenstrom vorzusehen, der einem Referenzbild für eine Zwischenschicht-Vorhersage zugeordnet ist, Decodieren des zweiten Datenstroms, um das Referenzbild zu erzeugen, Decodieren eines ersten Datenstroms der mehreren Datenströme unter Verwendung eines Skalierbaren Hocheffizienten Videocodierungs(Scalable High Efficiency Video Coding, SHVC)-Decoders, um ein erstes Teilband zu erzeugen, Decodieren der übrigen Datenströme der mehreren Datenströme, um die übrigen Teilbänder der mehreren Wavelet-Teilbänder zu erzeugen, und Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung. In einer Ausführungsform kann eine Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, bestimmt werden, so dass die Ausgabeauswahl eine niedrige, mittlere oder volle Auflösung beinhaltet, und so dass das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht. Falls die Ausgabeauswahl beispielsweise eine niedrige Auflösung beinhaltet, ist das rekonstruiert Bild bzw. der Frame das Referenzbild. Falls die Ausgabeauswahl eine mittlere Auflösung beinhaltet, ist das rekonstruierte Bild bzw. der Frame das erste Teilband. Falls die Ausgabeauswahl eine volle Auflösung, beinhaltet, umfasst das Rekonstruieren des Bildes oder Frames ein Durchführen einer Wavelet-Synthesefilterung an dem ersten Teilband und an den übrigen Teilbändern, um das rekonstruierte Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • Die skalierbare Codierung kann eine effiziente Nutzung von Ressourcen vorsehen, da sie es ermöglicht, mit einer einmaligen Codierung einen skalierbaren codierten Strom zu erzeugen, von dem ein Teilsatz (einschließlich der Version der voller Auflösung) des Datenstroms decodiert werden kann, mit dem Ergebnis einer Qualität, die dem decodierten Teilsatz entspricht.
  • Während eine einstufige Wavelet-Zerlegung eine Intra-Frame/Bild-Skalierbarkeit um einen Faktor 2 in jeder Dimension vorsehen kann, und eine zwei zweistufige Wavelet-Zerlegung einen Faktor 4 für eine Skalierbarkeit in jeder Dimension vorsehen kann, ist es schwierig eine allgemeine Skalierbarkeit (über Potenzen von 2 hinaus) unter Aufrechterhaltung einer hohen Codierungseffizienz zu ermöglichen. Die Erörterung wendet sich nun Techniken zum Ermöglichen einer verallgemeinerten Skalierbarkeit zu.
  • 20A veranschaulicht ein Beispiel eines Verfahrens 2001 zum Erzielen einer Skalierbarkeit um einen Faktor 2/3 in jeder Dimension bei einer auf Wavelets basierten Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 20A ein Aufwärtsabtasten und eine Wavelet-Zerlegung in einer erste Ausführungsform eines skalierbaren adaptiven Wavelet-HEVC(Scalable Adaptive Wavelet HEVC, S1AWHVC)-Intra-Encoders vorsehen, um räumliche Skalierbarkeit um (3/2=1,5) zu erreichen. Der Bedarf nach einer Skalierbarkeit um 2/3 kann beispielsweise im Zusammenhang mit einer 1080p HD zu '720p HD Abwärtskonvertierung auftauchen, die ein Abwärtsskalieren von 1920x1080 bis 1280x720 (z.B. um einen Faktor 1,5) erfordert. Wie in 20A gezeigt, kann ein Video/Bild-Frame (frame), um eine räumliche Skalierbarkeit von 1,5 zu erreichen, ein (mit „Aufwärtsabtastwert“ beschrifteter) um einen Faktor 4/3 in jeder Dimension räumlich aufwärts skalierter Video/Bild-Frame sein, um einen größeren Frame (aufwärts skalierten Frame) zu erzeugen. Eine (mit „W/D“ beschriftete) einstufigen Wavelet-Zerlegung kann an dem aufwärts skalierten Frame ausgeführt werden, um ihn in 4 Bänder (z.B. LL, HL, LH, HH) zu zerlegen, wobei das LL-Band den gewünschten skalierten Frame (skalierter Frame) erbringt, der 2/3 der Größe der Eingabe in jeder Dimension aufweist.
  • 20B zeigt in einem Blockdiagramm ein Beispiel eines Scalable Adaptive Wavelet HEVC (S1AWHVC)-Codierungs-/Decodierungssystem 2002, das ein Verfahren 2001 verwendet, um eine Skalierbarkeit um einen Faktor 2/3 zu ermöglichen, gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 20B eine erste Ausführungsform eines Scalable Adaptive Wavelet HEVC (S1AWHVC)-Intra-Codec vorsehen, der eine Adaptive-Wavelet-Analyse/Synthese, eine Aufwärts-/Abwärtsabtastung und einen HEVC-Intra-Encoder, wie beispielsweise einen Main 10 I Bild-Encoder oder einen Main 4:2:2 10 Intra- oder Main 12 Intra-Encoder/Decoder kombiniert. Aufgrund eines erneuten Abtastens eines Bildes/Video-Frames um 4/3 vor einer Wavelet-Zerlegung in 4 Bänder vor der HEVC-Codierung, bietet die Konfiguration eine räumliche Skalierbarkeit einer Wavelet-Domäne um 1,5. Wie gezeigt, kann ein eingegebener Video/Bild-Frame (frame) gefiltert und durch einen „4/3-Aufwärtabtaster“ um einen Faktor 4/3 in jeder Dimension aufwärts skaliert werden. Der aufwärts abgetastete Video/Bild-Frame kann bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul eine Adaptive Wavelet-Zerlegung um eine Stufe erfahren, was LL-, HL-, LH- und HH-Teilbänder, die (unter der Annahme, dass die Eingabe eine Bit-Tiefe von 8 Bit aufweist) jeweils eine Bit-Tiefe von 9 Bit aufweisen. In dem hier verwendeten Sinne kann der Begriff adaptive Filterung die Fähigkeit beinhalten, einen Wavelet-Zerlegungsfiltersatz anhand von verfügbaren Auswahlen auszuwählen, die von einer Anwendung, einer Auflösung oder einem Inhalt oder dergleichen abhängen. Um die Kompatibilität mit dem HEVC-Standard aufrechtzuerhalten, kann jedes Teilband, wie beispielsweise die LL-, HL-, LH- und HH-Teilbänder, mit einen oder mehreren HEVC Main 10 I/Intra-Encodern codiert werden, die in der Lage sind, eine Eingabe mit einer Tiefe von bis zu 10 Bit (beispielsweise sieht das Beispiel eine 9-Bit Eingabe vor) bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“-Modulen zu codieren. Jeder der codierten Teilband-Datenströme kann zusammen mit Anfangskennsätzen, die einen Identifizierungsfiltersatz (wfi) aufweisen, der durch einen „Muxer to Layered Bitstream“ ausgewählt ist, in einen einzelnen skalierbaren Datenstrom (bitstr) gemultiplext werden, der übertragen oder gespeichert werden kann, oder dergleichen.
  • 20B zeigt auch die S1AWHVC-Decodierungsseite, die ein Empfangen eines skalierbaren Datenstroms (bitstr) (der durch den S1AWHVC Encoder erzeugt ist), und ein Demultiplexen des Datenstroms in Anfangskennsätze, die den ausgewählten Filtersatz (wfi) und einzelne Teilband-Datenströme enthalten, durch einen „DeMuxer to Bitstream Layers“ beinhalten kann. Wie gezeigt, kann durch einen Schalter 2021 eine Ausgabeauswahl durchgeführt werden, so dass auf der Grundlage von Benutzer-, System-, oder Anwendungsanforderungen oder dergleichen eine Ausgabe mit niedriger oder mit voller Auflösung ausgewählt werden kann. Falls die Wahl einer Ausgabe mit niedriger Auflösung getroffen wird, (z.B. es ausreicht, lediglich den LL-Datenstrom zu decodieren), kann der LL-Datenstrom durch einen HEVC Main 10 I/Intra-Decoder bei einem „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modul decodiert werden, um einen Video-Frame oder ein Bild mit einer geringeren (z.B. 2/3) Auflösung zu erzeugen, deren Bit-Tiefe bei einem „Bit-Tiefen-Begrenzer“ begrenzt und zu dem Bildschirm (dec. frame) gesendet werden kann. Falls über den Schalter 2021 eine Wahl für eine volle Auflösung getroffen wird, können sämtliche 4 Teilband-Datenströme durch einen entsprechenden HEVC Main 10 I/Intra-Decoder bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen decodiert werden, und die Teilbänder können bei einem „Adaptive-Wavelet-Synthesefilterungs“-Modul zusammengeführt werden, um einen Frame mit einer hohen oder vollen Auflösung zu erzeugen. Der eine hohe Auflösung aufweisende Frame kann bei einem „Abwärtsabtaster um 3/4“ um 3/4 in jede Richtung verkleinert und zur Wiedergabe auf einem Bildschirm ausgegeben werden (dec. frame). Wie erläutert, kann die Adaptive-Wavelet-Synthesefilterung bei dem „Adaptive-Wavelet-Synthesefilterungs“-Modul auf der Basis decodierter Anfangskennsätze, die eine Kennzahl als den ausgewählten Filtersatz (wfi) tragen, einen komplementären Filtersatz verwenden.
  • 21A veranschaulicht ein Beispiel eines Verfahrens 2101 zur Scalable Adaptive Wavelet HEVC (S1AWHVC)-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 21A eine erste Ausführungsform der Scalable Adaptive Wavelet HEVC (S1AWHVC)-Intra-Codierung vorsehen, die durch das S1AWHVC Codierungssystem von 20 durchgeführt wird. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) eingegebener Frame (in dem mit „Aufwärtsabtasten um 4/3 in jede Dim.“ beschrifteten Schritt) um einen Faktor 4/3 in jeder Dimension skaliert werden. An dem skalierten Frame kann eine Wavelet-Analysefilterung ausgeführt werden, um den skalierten Frame (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) in LL-, HL-, LH- und HH-Teilbänder zu zerlegen, die, unter der Annahme, dass die Eingabe eine Bit-Tiefe von 8 Bit aufweist, jeweils eine Bit-Tiefe von 9 Bit aufweisen. Die zerlegten Teilbänder können in einem entsprechenden Teilframe-Speicher gespeichert werden, der in der Lage ist, 2/3 so große, 9-Bit-Tiefe Teilbänder (in den mit „4/9-9b-LL/HL/LH/HH-Teilband in Teilframe-Speicher“ beschrifteten Schritten) zu speichern. Jedes der Teilbänder kann durch entsprechende HEVC Main 10 I/Intra-Encoder (in den mit „Codieren der LL/HL/LH/HH-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) codiert werden, und die einzelnen codierten Datenströme können (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) gemeinsam mit Anfangskennsätzen gemultiplext werden, die einen Indikator des ausgewählten Filtersatzes (wfi) in einem (mit „Datenstrom“ beschrifteten) einzelnen skalierbaren S1AWHVC-codierten Datenstrom aufweisen.
  • 21B veranschaulicht ein Beispiel eines Verfahrens 2102 für Scalable Adaptive Wavelet-HEVC (S1AWHVC)-Intra-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 21B eine erste Ausführungsform einer Scalable Adaptive Wavelet-HEVC (S1AWHVC)-Intra-Decodierung vorsehen, die durch das S1AWHVC Decodiersystem von 20 durchgeführt wird. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) S1AWHVC-codierter Datenstrom in einen Demultiplexer eingegeben werden, der (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) einzelne Teilband-Datenströme für die LL-, HL-, LH- und HH-Bänder trennen und Anfangskennsätze decodieren kann. Basierend auf einer Ausgabeauswahl oder dergleichen, die eine Benutzer- oder Systemanforderung (wie sie in dem mit „Ausgabe mit wavelet-codierter voller Aufl.?“ beschrifteten Entscheidungsschritt umgesetzt ist) widerspiegeln kann, kann eine Auswahl einer niedrigen Auflösung oder einer vollen Auflösung vorgesehen sein. Falls die Wahl eine Ausgabe einer niedriger Auflösung getroffen wird (z.B. falls ein decodierter Frame mit niedrigerer Auflösung ausreicht) wird lediglich der LL-Band-Datenstrom durch einen HEVC Main 10 I/Intra-Decoder oder dergleichen (in dem mit „Intra-Decodieren der LL-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritt) decodiert, und das LL-Teilband kann (in dem mit „4/9-9b-LL-Teilband rekonst. in Teilframe-Speicher“ beschrifteten Schritt) gespeichert werden. Der mit niedrigerer Auflösung (z.B. 2/3 Auflösung) decodierte Frame kann (in dem mit „Bit-Tiefengrenze“ beschrifteten Schritt) bittiefen-begrenzt werden und ausgeben werden, um auf einem Bildschirm (mit „Nein, Wavelet niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls die Wahl einer Ausgabe mit voller Auflösung getroffen wird (z.B. ein decodierter Frame mit einer vollen Auflösung erforderlich ist), können sämtliche 4 Teilbänder durch einen (oder mehrere) entsprechende HEVC Main 10 I/Intra-Decoder (in den mit „Intra-Decodieren von LL/HL/LH/HH-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert werden, und die decodierten Teilbänder können (in den mit „4/9-9b-LL/HL/LH/HH-Teilband rekonst. in Teilframe-Speicher“ beschrifteten Schritten) gespeichert werden. Die vier decodierten Teilbänder können (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) durch eine Synthesefilterung in einen Frame voller Auflösung zusammengeführt werden, der (in dem mit „Abwärtsabtasten um 3/4 in jede Dim.“ beschrifteten Schritt) um einen Faktor 3/4 in jeder Dimension abwärts abgetastet werden und ausgeben werden kann, um auf einem Bildschirm (mit „Ja, Wavelet volle Aufl.“ beschriftet) wiedergegeben zu werden.
  • 22A veranschaulicht ein weiteres Beispiel eines Verfahrens 2201 zum Erzielen einer Skalierbarkeit um einen Faktor 2/3 in jeder Dimension bei einer auf Wavelets basierten Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 22A eine Aufwärtsabtastung und Wavelet-Zerlegung in einer zweiten Ausführungsform eines Scalable Adaptive Wavelet HEVC (S2AWHVC)-Intra-Encoders vorsehen, um eine räumliche Skalierbarkeit um (3/2=1,5) zu erreichen. Wie erläutert, kann der Bedarf für die Skalierbarkeit um 2/3 beispielsweise im Zusammenhang mit einer 1080p HD zu 720p HD Abwärtskonvertierung auftauchen, die ein Abwärtsskalieren von 1920×1080 bis 1280×720 (z.B. um einen Faktor 1,5) erfordert. Wie in 22A gezeigt, kann ein Video/Bild-Frame (frame), um die räumliche Skalierbarkeit von 1,5 zu erreichen, um einen Faktor 4/3 in jeder Dimension (mit „Aufwärtsabtasten“ beschriftet) räumlich aufwärts skaliert werden, um einen größeren Frame (aufwärts skalierten Frame) zu erzeugen. Eine (mit „W/D“ beschriftete) einstufigen Wavelet-Zerlegung kann an dem aufwärts skalierten Frame ausgeführt werden, um ihn in 4 Bänder (z.B. LL, HL, LH, HH) zu zerlegen. Auf eine solche einstufigen Wavelet-Zerlegung kann eine horizontale Zerlegung des HL-Bands in LHL- und HHL-Bänder, eine vertikale Zerlegung des LH-Bandes in LLH- und HLH-Bänder und sowohl eine vertikale als auch eine horizontale Zerlegung des HH-Bandes in LLHL-, HLHH-, LHHH- und HHHH-Bänder folgen, wie (ebenfalls mit „W/D“ beschriftet) gezeigt. Wie gezeigt, können die folgenden Bänder: LHL, LLH, LLHH, HLHH und LHHH verworfen werden, und die Bänder, die zur Codierung und Rekonstruktion genutzt werden, können die LL-, HHL-, HLH- und HHHH-Bänder sein. Wie in dem vorhergehenden Beispiel, das mit Bezug auf 20A, 20B, 21A und 21B erörtert wurde, wird das LL-Band den gewünschten skalierten Frame ergeben, dessen Größe in jeder Dimension 2/3 der Größe der Eingabe beträgt.
  • 22B zeigt in einem Blockdiagramm ein Beispiel eines Scalable Adaptive Wavelet HEVC (S2AWHVC)-Codierungs-/Decodierungssystems 2202, das ein Verfahren 2201 verwendet, um eine Skalierbarkeit um einen Faktor 2/3 zu ermöglichen, gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 22B eine zweite Ausführungsform eines Scalable Adaptive Wavelet HEVC (S2AWHVC)-Intra-Codec vorsehen, der die Adaptive-Wavelet-Analyse/Synthese, Aufwärts-/Abwärtsabtastung und einen HEVC-Intra-Encoder, wie beispielsweise den Main 10 I Picture coder oder Main 4:2:2 10 Intra oder Main 12 Intra-Encoder/Decoder kombiniert. Aufgrund des erneuten Abtastens eines Bildes/Video-Frames um 4/3 vor der Wavelet-Zerlegung in 9 Bänder vor der HEVC-Codierung, bietet die Konfiguration eine räumliche Skalierbarkeit einer Wavelet-Domäne um 1,5. Wie gezeigt, kann ein eingegebener Video/Bild-Frame (frame) gefiltert und durch einen „Aufwärtabtaster um 4/3“ um einen Faktor 4/3 in jeder Dimension aufwärts skaliert werden. Der aufwärts abgetastete Video/Bild-Frame kann, wie im Zusammenhang mit 22A erörtert, bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul eine Adaptive Wavelet-Zerlegung erfahren, die 9 Teilbänder ergibt, von denen die LL-, HHL-, HLH- und HHHH-Teilbänder (unter der Annahme, dass die Eingabe eine Bit-Tiefe von 8 Bit aufweist) jeweils eine Bit-Tiefe von 9 Bit, 10 Bit, 10 Bit bzw. 10b aufweisen. In dem hier verwendeten Sinne kann der Begriff adaptive Filterung die Fähigkeit beinhalten, einen Wavelet-Zerlegungsfiltersatz anhand von verfügbaren Auswahlen auszuwählen, die von einer Anwendung, Auflösung oder einem Inhalt oder dergleichen abhängen. Um eine Kompatibilität mit dem HEVC-Standard aufrechtzuerhalten, kann jedes der gehaltenen Teilbänder (z.B. die LL-, HHL-, HLH- und HHHH-Teilbänder) mit (einem oder mehreren) HEVC Main 10 I/Intra-Encodern codiert werden, die in der Lage sind, eine Eingabe mit einer Tiefe von bis zu 10 Bit bei dem entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“-Modulen zu codieren. Jeder der codierten Teilband-Datenströme kann zusammen mit Anfangskennsätzen, die einen Identifizierungsfiltersatz (wfi) aufweisen, der durch einen „Muxer to Layered Bitstream (Multiplexer für geschichteten Datenstrom)“ ausgewählt ist, in einen einzelnen skalierbare Datenstrom (bitstr) gemultiplext werden, der übertragen oder gespeichert werden kann, oder dergleichen.
  • 22B zeigt auch die S2AWHVC-Decodierungsseite, die ein Empfangen eines (durch den S2AWHVC-Encoder erzeugten) skalierbaren Datenstroms (bitstr) und ein Demultiplexen des Datenstroms in Anfangskennsätze durch einen „DeMuxer to Bitstream Layers“ aufweisen kann, die den ausgewählten Filtersatz (wfi) und einzelne Teilband-Datenströme enthalten. Wie gezeigt, kann eine Ausgabeauswahl durch einen Schalter 2211 durchgeführt werden, so dass auf der Grundlage von Benutzer-, System-, oder Anwendungsanforderungen oder dergleichen eine Ausgabe mit niedriger oder mit voller Auflösung ausgewählt werden kann. Falls die Wahl eine Ausgabe mit niedriger Auflösung getroffen wird (es z.B. ausreicht, lediglich einen LL-Datenstrom zu decodieren), kann der LL-Datenstrom durch einen HEVC Main 10 I/Intra-Decoder bei einem „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“ decodiert werden, um einen Frame oder ein Bild mit geringerer (z.B. 2/3 in jeder Dimension) Auflösung zu erzeugen, das bei einem „Bit-Tiefen-Begrenzer“ bittiefen-begrenzt und zu dem Bildschirm (dec. frame) gesendet werden kann. Falls über den Schalter 2221 eine Wahl für eine volle Auflösung getroffen wird, können sämtliche 4 Teilband-Datenströme (z.B. LL, HHL, HLH und HHHH) durch entsprechende HEVC Main 10 I/Intra-Decoder bei entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen decodiert und bei einem „Adaptive-Wavelet-Synthesefilterungs“-Modul zusammengeführt werden, um einen Frame mit hoher oder voller Auflösung zu erzeugen, der bei einem „Abwärtsabtaster um 3/4“ in jeder Richtung um 3/4 verkleinert und zur Wiedergabe auf einem Bildschirm ausgegeben (dec. frame) werden kann. Wie erläutert, kann die Adaptive-Wavelet-Synthesefilterung bei dem „Adaptive-Wavelet-Synthesefilterungs“-Modul auf der Basis decodierter Anfangskennsätze, die eine Kennzahl als den ausgewählten Filtersatz (wfi) tragen, einen komplementären Filtersatz verwenden.
  • 23A veranschaulicht ein Beispiel eines Verfahrens 2101 zur Scalable Adaptive Wavelet HEVC (S2AWHVC)-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 23A eine zweite Ausführungsform einer Scalable Adaptive Wavelet HEVC (S2AWHVC)-Intra-Codierung vorsehen, die durch das S2AWHVC-Codierungssystem von 22 durchgeführt wird. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) eingegebener Frame (in dem mit „Aufwärtsabtasten um 4/3 in jede Dim.“ beschrifteten Schritt) um einen Faktor 4/3 in jeder Dimension skaliert werden. An dem skalierten Frame kann eine Wavelet-Analyse ausgeführt werden, um (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 9 Teilbänder zu erzeugen. Abspeichern der 4 Teilbänder für eine Verarbeitung“ beschrifteten Schritt) den skalierten Frame in 9 Teilbänder (z.B. 4 Teilbänder, die verwendet werden: LL, HHL, HLH und HHHH und 5 weitere Teilbänder LHL, LLH, LLHH, HLHH und LHHH, die verworfen werden) zu zerlegen. Die 4 interessierenden Teilbänder (z.B. LL, HHL, HLH und HHHH) der entsprechenden Größen 4/9, 2/9, 2/9 und 1/9 der ursprünglichen Größe und mit Bit-Tiefen von 9 Bit, 10 Bit, 10 Bit bzw. 10 Bit können (in den mit „4/9-9b-LL-Teilband in Teilframe-Speicher“ und „2/9-9b-HHL/HLH-Teilband in Teilframe-Speicher“ und „1/9-9b-HHHH-Teilband in Teilframe-Speicher“ beschrifteten Schritten) in Teilframe-Speicher gespeichert und in einen (oder mehrere) HEVC Main 10 I/Intra-Encoder eingegeben werden, wo sie jeweils in CTUs (z.B. LCUs) und CUs unterteilt und (in den mit „Intra-Codieren der LL/HHL/HLH/HHHH-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) codiert werden können, mit dem Ergebnis entsprechender 4 einzelner Datenströme, die zusammen mit Anfangskennsätzen, die einen Indikator des ausgewählten Filtersatzes (wfi) aufweisen (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) in einen einzelnen skalierbaren S2AWHVC-codierten Datenstrom gemultiplext werden können.
  • 23B veranschaulicht ein Beispiel eines Verfahrens 2302 zur Scalable Adaptive Wavelet HEVC (S2AWHVC)-Intra-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 23B eine zweite Ausführungsform einer Scalable Adaptive Wavelet HEVC (S2AWHVC)-Intra-Decodierung vorsehen, die durch das S2AWHVC-Decodiersystem von 22 durchgeführt wird. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) S2AWHVC-codierter Datenstrom in den Demultiplexer eingegeben werden, der (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) einzelne Teilband-Datenströme für LL-, HHL-, HLH- und HHHH-Teilbänder trennen und Anfangskennsätze decodieren kann. Basierend auf einer Ausgabeauswahl oder dergleichen, die eine Benutzer- oder Systemanforderung (wie sie in dem mit „Ausgabe mit wavelet-codierter voller Aufl.?“ beschrifteten Entscheidungsschritt umgesetzt ist) widerspiegeln kann, kann eine Auswahl einer niedrigen Auflösung oder einer vollen Auflösung vorgesehen sein. Falls die Wahl einer Ausgabe mit niedriger Auflösung getroffen wird (z.B. falls ein decodierter Frame mit niedrigerer Auflösung ausreicht), wird lediglich der LL-Band-Datenstrom durch einen HEVC Main 10 I/Intra-Decoder (in dem mit „Intra-Decodieren der LL-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritt) decodiert, und das LL-Teilband kann (in dem mit „4/9-9b-LL-Teilband rekonst. in Teilframe-Speicher“ beschrifteten Schritt) gespeichert werden. Der Frame mit einer niedrigeren Auflösung (z.B. 2/3 in jeder Dimension) kann (in dem mit „Bit-Tiefengrenze“ beschrifteten Schritt) bittiefen-begrenzt werden und (mit „Nein, Wavelet niedrige Aufl.“ beschriftet) ausgegeben werden. Falls die Wahl einer Ausgabe mit voller Auflösung getroffen wird (z.B. ein decodierter Frame mit einer vollen Auflösung erforderlich ist), können sämtliche 4 Teilbänder durch einen (oder mehrere entsprechende HEVC Main 10 I/Intra-Decoder (in dem mit „Intra-Decodieren der LL/HHL/HLH/HHHH-CTUs/CUs mit dem HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritt) decodiert werden, und die decodierten Teilbänder können (in dem mit „4/9-9b-LL-Teilband rekonst. in Teilframe-Speicher“ und „2/9-9b-HHL/HLH-Teilband rekonst. in Teilframe-Speicher“ und „1/9-9b-HHHH-Teilband rekonst. in Teilframe-Speicher“ beschrifteten Schritt) gespeichert werden. Die vier decodierten Teilbänder können durch Synthesefilterung (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) in einen Frame mit voller Auflösung zusammengeführt werden, der (in dem mit „Abwärtsabtasten um 3/4 in jede Dim.“ beschrifteten Schritt) um einen Faktor 3/4 in jeder Dimension abwärts abgetastet werden kann, mit dem Ergebnis eines decodierten Frames vollständiger Größe, der ausgegeben werden kann, um (mit „Ja, Wavelet volle Aufl.“ beschriftet) auf einem Bildschirm wiedergegeben zu werden.
  • 24A veranschaulicht ein Beispiel eines Verfahrens 2401 zum Erzielen einer Skalierbarkeit um einen Faktor r/s in jeder Dimension bei einer auf Wavelets basierten Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 24A ein Aufwärtsabtasten und eine Wavelet-Zerlegung in einer dritten Ausführungsform eines Scalable Adaptive Wavelet HEVC (S3AWHVC)-Intra-Encoders vorsehen, um eine verallgemeinerte räumliche Skalierbarkeit um ein Verhältnis von r/s zu erreichen. Der Bedarf für die Skalierbarkeit um r/s kann beispielsweise im Zusammenhang mit 1080p HD zu jeder Abwärtskonvertierung einer niedrigeren allgemeinen Auflösung auftauchen. Wie in 24A gezeigt, kann ein Video/Bild-Frame (frame), um eine derartige räumliche Skalierbarkeit zu erreichen, um einen Faktor (2r)/s in jeder Dimension räumlich aufwärts skaliert (mit „Aufwärtsabtasten“ beschriftet) werden, um einen größeren Frame (aufwärts skalierten Frame) zu erzeugen. Eine (mit „W/D“ beschriftete) einstufige Wavelet-Zerlegung kann an dem aufwärts skalierten Frame ausgeführt werden, um ihn in 4 Bänder zu zerlegen, wobei das LL-Band den gewünschten skalierten Frame erbringt, der r/s der Größe einer Eingabe in jeder Dimension aufweist.
  • 24B zeigt in einem Blockdiagramm ein Beispiel eines Scalable Adaptive Wavelet HEVC (S3AWHVC)-Codierungs-/Decodierungssystems, das ein Verfahren 2401 verwendet, um eine Skalierbarkeit um einen Faktor r/s zu ermöglichen, gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 24B eine dritte Ausführungsform eines Scalable Adaptive Wavelet HEVC (S3AWHVC)-Intra-Codec vorsehen, der eine Adaptive-Wavelet-Analyse/Synthese, eine Aufwärts-/Abwärtsabtastung und einen HEVC-Intra-Encoder, wie beispielsweise den Main 10 I Picture coder oder Main 4:2:2 10 Intra, oder Main 12 Intra-Encoder/Decoder kombiniert. Diese Ausführungsform kann eine allgemeine räumliche Skalierbarkeit um einen nicht ganzzahligen Faktor ermöglichen, der als ein Verhältnis von r/s ausgedrückt wird. Wie gezeigt, kann ein eingegebener Video/Bild-Frame (frame) gefiltert und durch einen „Aufwärtabtaster um (2r)/s“ um einen Faktor (2r)/s in jeder Dimension aufwärts skaliert werden. Der aufwärts abgetastete Video/Bild-Frame kann bei einem „Adaptive-Wavelet-Analysefilterungs“-Modul eine Adaptive Wavelet-Zerlegung um eine Stufe erfahren, mit dem Ergebnis von LL-, HL-, LH- und HH-Teilbändern, die (unter der Annahme, dass die Eingabe eine Bit-Tiefe von 8 Bit aufweist) sämtliche eine Bit-Tiefe von 9 Bit aufweisen. In dem hier verwendeten Sinne kann der Begriff adaptive Filterung die Fähigkeit beinhalten, einen Wavelet-Zerlegungsfiltersatz anhand von verfügbaren Auswahlen auszuwählen, die von einer Anwendung, Auflösung oder einem Inhalt oder dergleichen abhängen. Um eine Kompatibilität mit dem HEVC-Standard aufrechtzuerhalten, wird jedes Teilband, wie beispielsweise die LL-, HL-, LH- und HH-Teilbänder, mit (einem oder mehreren) HEVC Main 10 I/Intra-Encodern codierte, die in der Lage sind, eine Eingabe mit einer Tiefe von bis zu 10 Bit (beispielsweise sieht das Beispiel eine 9-Bit-Eingabe vor) bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Encoder“-Modulen zu codieren. Jeder der codierten Teilband-Datenströme kann zusammen mit Anfangskennsätzen, die einen Identifizierungsfiltersatz (wfi) aufweisen, der durch eine „Muxer to Layered Bitstream“ ausgewählt ist, in einen einzelnen skalierbaren Datenstrom (bitstr) gemultiplext werden, der übertragen oder gespeichert werden kann, oder dergleichen.
  • 24B zeigt auch die S3AWHVC-Decodierungsseite, die ein Empfangen eines (durch den S3AWHVC Encoder erzeugten) skalierbaren Datenstroms und ein Demultiplexen des Datenstroms in Anfangskennsätze, die den ausgewählten Filtersatz (wfi) und einzelne Teilband-Datenströme enthalten, durch einen „DeMuxer to Bitstream Layers“ aufweisen kann. Wie gezeigt, kann durch einen Schalter 2421 eine Ausgabeauswahl durchgeführt werden, so dass auf der Grundlage von Benutzer-, System-, oder Anwendungsanforderungen oder dergleichen eine Ausgabe mit niedriger oder mit voller Auflösung ausgewählt werden kann. Falls die Wahl einer Ausgabe mit niedriger Auflösung getroffen wird, (es z.B. ausreicht, lediglich den LL-Datenstrom zu decodieren), kann der LL-Datenstrom durch einen HEVC Main 10 I/Intra-Decoder bei einem „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modul decodiert werden, um einen Video-Frame oder ein Bild mit geringerer (z.B. r/s) Auflösung zu erzeugen, dessen Bit-Tiefe bei einem „Bit-Tiefen-Begrenzer“ begrenzt und zu dem Bildschirm (dec. frame) gesendet werden kann. Falls über den Schalter 2421 eine Wahl für eine volle Auflösung getroffen wird, können sämtliche 4 Teilband-Datenströme durch entsprechende HEVC Main 10 I/Intra-Decoder bei den entsprechenden „HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12 Intra-Decoder“-Modulen decodiert werden, und die Teilbänder können bei einem „Adaptive-Wavelet-Synthesefilterungs“-Modul zusammengeführt werden, um einen Frame mit hoher oder voller Auflösung zu erzeugen. Der Frame mit hoher Auflösung kann bei einem „Abwärtsabtaster durch s/(2r)“ um s/(2r) in jede Richtung verkleinert und zur Wiedergabe auf einem Bildschirm ausgegeben (dec. frame) werden. Wie erläutert, kann die Adaptive-Wavelet-Synthesefilterung bei dem „Adaptive-Wavelet-Synthesefilterungs“-Modul auf der Basis decodierter Anfangskennsätze, die eine Kennzahl als den ausgewählten Filtersatz (wfi) tragen, einen komplementären Filtersatz verwenden.
  • 25A veranschaulicht ein Beispiel eines Verfahrens 2501 zur Scalable Adaptive Wavelet HEVC (S3AWHVC)-Intra-Codierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 25A eine dritte Ausführungsform einer Scalable Adaptive Wavelet HEVC (S3AWHVC)-Intra-Codierung vorsehen, die durch das S3AWHVC-Codierungssystem von 24 durchgeführt wird. Wie gezeigt, kann ein (mit „Frame“ beschrifteter) eingegebener Frame (in dem mit „Aufwärtsabtasten um (2r)/s in jede Dim.“ beschrifteten Schritt) um einen Faktor (2r)/s in jeder Dimension skaliert werden. An dem skalierten Frame kann eine Wavelet-Analyse ausgeführt werden, um den skalierten Frame (in dem mit „Durchführen einer Adaptive-Wavelet-Analyse, um 4 Teilbänder zu erzeugen“ beschrifteten Schritt) in LL-, HL-, LH- und HH-Teilbänder zu zerlegen, die unter der Annahme, dass die Eingabe eine Bit-Tiefe von 8 Bit aufweist, jeweils eine Bit-Tiefe von 9 Bit aufweisen. Die zerlegten Teilbänder können in entsprechenden Teilframe-Speichern gespeichert werden, die Teilbänder der Größe r2/s2, mit einer Bit-Tiefe von 9 oder 10 (in den mit " LL/HL/LH/HH-Teilband der Größe r2/s2 9(10)Bit in Teilframe-Speicher“ beschrifteten Schritten) speichern können. Jedes der Teilbänder kann durch einen entsprechenden HEVC Main 10 I/Intra-Encoder (in den mit „Codieren der LL/HL/LH/HH-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) codiert werden, und die einzelnen codierten Datenströme können zusammen mit Anfangskennsätzen, die einen Indikator des ausgewählten Filtersatzes (wfi) aufweisen (in dem mit „Codieren der Anfangskennsätze, Entropiecodieren der Wavelet-Koeffizientendaten und Multiplexen, um einen Intra-skalierbaren wavelet-codierten Datenstrom zu erzeugen“ beschrifteten Schritt) in einen (mit „Datenstrom“ beschrifteten) einzelnen skalierbaren S3AWHVC-codierten Datenstrom gemultiplext werden.
  • 25B veranschaulicht ein Beispiel eines Verfahrens 2502 zur Scalable Adaptive Wavelet HEVC (S3AWHVC)-Intra-Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Beispielsweise kann 25B eine dritte Ausführungsform einer Scalable Adaptive Wavelet HEVC (S3AHUC)-Intra-Decodierung vorsehen, die durch das S3AWHVC-Decodiersystem von 20 durchgeführt wird. Wie gezeigt, kann ein (mit „Datenstrom“ beschrifteter) S3AWHVC-codierter Datenstrom in einen Demultiplexer eingegeben werden, der (in dem mit „Demultiplexen, Decodieren der Anfangskennsätze und Entropiedecodieren der Wavelet-Koeffizientendaten von dem Intra-skalierbaren wavelet-codierten Datenstrom“ beschrifteten Schritt) einzelne Teilband-Datenströme für LL-, HL-, LH- und HH-Bänder trennen und Anfangskennsätze decodieren kann. Basierend auf einer Ausgabeauswahl oder dergleichen, die eine Benutzer- oder Systemanforderung (wie sie in dem mit „Ausgabe mit wavelet-codierter voller Aufl.?“ beschrifteten Entscheidungsschritt umgesetzt ist) widerspiegeln kann, kann eine Auswahl einer niedrigen Auflösung oder einer vollen Auflösung vorgesehen sein. Falls die Wahl einer Ausgabe mit niedriger Auflösung getroffen wird (z.B. falls ein decodierter Frame mit niedrigerer Auflösung ausreicht) wird lediglich der LL-Band-Datenstrom durch einen HEVC Main 10 I/Intra-Decoder oder dergleichen (in dem mit „Intra-Decodieren der LL-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritt) decodiert, und das LL-Teilband kann (in dem mit „r2/s2 Größe 9(10)b LL-Teilband rekonst. in Teilframe-Speicher“ beschrifteten Schritt) gespeichert werden. Der mit niedrigerer Auflösung (z.B. r/s Auflösung) decodierte Frame kann (in dem mit „Bit-Tiefengrenze“ beschrifteten Schritt) bittiefen-begrenzt werden und ausgeben werden, um auf einem Bildschirm (mit „Nein, Wavelet niedrige Aufl.“ beschriftet) wiedergegeben zu werden. Falls die Wahl einer Ausgabe mit voller Auflösung getroffen wird (z.B. ein decodierter Frame mit einer vollen Auflösung erforderlich ist), können sämtliche 4 Teilbänder durch einen (oder mehrere) entsprechende HEVC Main 10 I/Intra-Decoder (in den mit „Intra-Decodieren von LL/HHL/HLH/HHHH-CTUs/CUs mit HEVC Main 10 I/Main 4:2:2 10 Intra/Main 12“ beschrifteten Schritten) decodiert werden, und die decodierten Teilbänder können (in den mit " r2/s2 Größe 9(10)b LL/HHL/HLH/HHHH-Teilband rekonst. in Teilframe-Speicher“ beschrifteten Schritten) gespeichert werden. Die vier decodierten Teilbänder können (in dem mit „Durchführen einer adaptiven Wavelet-Synthese, um einen rekonst. Frame zu erzeugen“ beschrifteten Schritt) durch eine Synthesefilterung in einen Frame voller Auflösung zusammengeführt werden, der (in dem mit „Abwärtsabtasten um s/(2r) in jede Dim.“ beschrifteten Schritt) um einen Faktor s/(2r) in jeder Dimension abwärts abgetastet werden und ausgeben werden kann, um auf einem Bildschirm (mit „Ja, Wavelet volle Aufl.“ beschriftet) wiedergegeben zu werden.
  • Wie beispielsweise im Zusammenhang mit 20A, 20B, 21A, 21B, 22A, 22B, 23A, 23B, 24A, 24B, 25A und 25B andernorts hier erörtert, kann die Codierung eines Bildes oder Frames umfassen: ein Aufwärtsabtasten des ursprünglichen Bildes oder Frames, um ein aufwärts abgetastetes Bild bzw. Frame mit einem Skalierbarkeitsfaktor zwischen dem ursprünglichen Bild und dem aufwärts abgetasteten Bild zu erzeugen, ein Durchführen einer Wavelet-Zerlegung an dem aufwärts abgetasteten Bild oder Frame, um mehrere Teilbänder zu erzeugen, ein Codieren jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind, und ein Multiplexen der mehreren Teilbänder, um einen skalierbaren Datenstrom zu erzeugen. In einer Ausführungsform ist der Skalierbarkeitsfaktor ein nicht ganzzahliger Wert. In einer Ausführungsform beträgt der Skalierbarkeitsfaktor 1,5. In weiteren Ausführungsformen ist der Skalierbarkeitsfaktor wenigstens eines von 5/4, 4/3, oder 5/3. In einer Ausführungsform beinhaltet die Wavelet-Analysefilterung ein einstufiges Wavelet-Analysefiltern und die mehreren Teilbänder sind LL-, HL-, LH- und HH-Teilbänder. In einer weiteren Ausführungsform beinhaltet die Wavelet-Analysefilterung ein zweistufiges Analysefiltern. Beispielsweise können die mehreren Teilbänder LL-, HHL-, HLH- und HHHH-Teilbänder sein.
  • Weiter kann das Decodieren, wie im Zusammenhang mit 20A, 20B, 21A, 21B, 22A, 22B, 23A, 23B, 24A, 24B, 25A und 25B andernorts hier erörtert, umfassen: Demultiplexen eines skalierbaren Datenstroms, so dass wenigstens Abschnitte des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme vorzusehen, wobei jeder einem Teilband von mehreren Wavelet-Teilbändern zugeordnet ist, Decodierung jedes der mehreren Datenströme mittels eines HEVC-konformen Decoders, um die mehreren Wavelet-Teilbänder zu erzeugen, Durchführen einer Wavelet-Synthesefilterung an den mehreren decodierten Wavelet-Teilbändern, um ein rekonstruiertes Bild bzw. Frame zu erzeugen, und Abwärtsabtasten des rekonstruierten Bildes oder Frames um ein Abwärtsabtastverhältnis, um ein Bild bzw. einen Frame zu erzeugen. In einer Ausführungsform weist das Abwärtsabtastverhältnis einen nicht ganzzahligen Wert auf. In einer Ausführungsform ist das Abwärtsabtastverhältnis 3/4, um einen Skalierbarkeitsfaktor von 1,5 zwischen dem Bild oder Frame und einem Bild mit einer niedrigen Auflösung vorzusehen, das auf einem ersten Teilband der mehreren Wavelet-Teilbänder basiert. Weiter kann eine Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, bestimmt werden, so dass die Ausgabeauswahl eine niedrige oder eine volle Auflösung beinhaltet. Falls die Ausgabeauswahl beispielsweise eine niedrige Auflösung beinhaltet, ist das Bildschirmbild ein erstes Teilband der mehreren Wavelet-Teilbänder. Falls die Auswahl der Skalierbarkeit eine volle Auflösung beinhaltet, ist das Bildschirmbild das Bild bzw. der Frame. In einer Ausführungsform ist die Wavelet-Synthesefilterung eine einstufige Wavelet-Synthesefilterung, und die mehreren Teilbänder sind LL-, HL-, LH- und HH-Teilbänder. In einer weiteren Ausführungsform ist die Wavelet-Synthesefilterung eine zweistufige Wavelet-Synthesefilterung. Beispielsweise können die mehreren Teilbänder LL-, HHL-, HLH- und HHHH-Teilbänder sein.
  • Wie erläutert, können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die skalierbar und mit einer HEVC-Video-Intra(oder I)-Codierung vorwärtskompatibel ist. Wenn eine einstufige (feststehende oder adaptive) Wavelet-Analysefilterung durchgeführt wird, die 4 Wavelet-Bänder ergibt, und die HEVC Main 10 I- oder Main 10 4:2:2 Intra-Codierung zum Codieren jedes Bandes verwendet wird, erzeugen die Techniken einen einzelnen, effizienten, skalierbaren und kompatiblen Datenstrom. Bei dem Decoder können von diesem einzelnen Datenstrom mittels des HEVC Main 10 I- oder Main 10 4:2:2 Intra-Decoders entweder das LL-Band decodiert werden, mit dem Ergebnis eines Bild/Video-Frames mit einer Auflösung von 1/4, das/der mit oder ohne ein Aufwärtsabtasten mit vollständiger Größe wiedergegeben werden kann, und/oder die sämtlichen 3 übrigen Bänder (HL, LH und HH) können ebenfalls mit dem HEVC Main 10 I- oder Main 10 4:2:2 Intra-Decoder decodiert und über eine (feststehende oder adaptive) Synthesefilterung mit dem LL-Band in einen Bild/Video-Frame mit voller Auflösung zusammengeführt werden, das/der anschließend wiedergeben werden kann. Solche Techniken sind mit Bezug auf 7, 8 und 9 und andernorts hier erörtert.
  • Außerdem können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die in hohem Maße skalierbar und mit der HEVC Video Intra(oder I)-Codierung vorwärtskompatibel ist. Wenn die zweistufige (feststehende oder adaptive) Wavelet-Analysefilterung, die 7 Wavelet-Bänder ergibt, und die HEVC Main 10 I- oder Main 10 4:2:2 Intra-Codierung zum Codieren jedes Bandes verwendet wird, erzeugt die Technik einen einzelnen, effizienten, in hohem Maße skalierbaren und kompatiblen Datenstrom. Bei dem Decoder kann anhand dieses einzelnen Datenstroms mittels des HEVC Main 10 I- oder Main 10 4:2:2 Intra-Decoders entweder das LL2-Band decodiert werden, mit dem Ergebnis eines Bildes/Video-Frames mit einer Auflösung von einem Sechzehntel, das bzw. der mit oder ohne Aufwärtsabtasten wiedergegeben werden kann, und/oder es können durch den HEVC Main 10 I- oder Main 10 4:2:2 Intra-Decoder 3 zusätzliche Bänder (HL2, LH2 und HH2) decodiert und mit dem decodierten LL2-Band über eine (feststehende oder adaptive) Synthesefilterung zu einem Bild/Video-Frame mit einer Auflösung von 1/4 zusammengeführt werden, das/der mit oder ohne Aufwärtsabtastung mit vollständiger Größe wiedergegeben werden kann, und/oder es können 3 zusätzliche Bänder (HL1, LH1 und HH1) ebenfalls mit dem HEVC Main 10 I- oder Main 10 4:2:2 Intra-Decoder decodiert und mit den decodierten LL2-, HL2-, LH2- und HH2-Bändern über eine (feststehende oder adaptive) Synthesefilterung zu einem Bild/Video-Frame mit voller Auflösung zusammengeführt werden, das/der anschließend wiedergeben werden kann. Solche Techniken sind mit Bezug auf 10 und 11 und andernorts hier erörtert.
  • Außerdem können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die skalierbar und mit der HEVC Video Intra- (oder I)-Codierung sowie der räumlich skalierbaren HEVC-Video-Intra (oder I)-Codierung vorwärtskompatibel ist. Ein eingegebener Bild/Video-Frame wird zunächst um 2 in jeder Dimension abwärts abgetastet und mit dem HEVC Main I- oder HEVC Main Still Picture- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra- oder H.264 Baseline I- oder H.264 Main I- oder H.264 High I-Encoder codiert, und das/der lokal decodierte Bild/Video-Frame wird als Vorhersage bei der SNR-skalierbaren Codierung (des LL-Bandes, das von der einstufigen feststehenden oder Adaptive-Wavelet-Analyse erhalten ist) verwendet, die durch den HEVC Scalable Main I- oder HEVC Scalable Main 10 I-Encoder des LL-Bandes durchgeführt wird, das von der einstufigen (feststehenden oder adaptiven) Wavelet-Analysefilterung der Eingabe erhalten ist. Bei dem Encoder werden die übrigen 3 Bänder (HL, LH und HH), die von der gleichen einstufigen Analysefilterung erhalten sind, ebenfalls mit dem HEVC Main 10 I- oder Main 4:2:2 10 Intra-Encoder codiert. Der sich ergebende skalierbare und kompatible Datenstrom wird entsprechend bei dem Decoder decodiert, der den HEVC Main I- oder HEVC Main Still Picture- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra- oder H.264 Baseline I- oder H.264 Main I- oder H.264 High I-Decoder verwendet. An dem Ausgang sind eine der drei oder sämtliche drei Wahlmöglichkeiten verfügbar, wie beispielsweise ein Bild/Video-Frame geringerer Qualität mit einer Auflösung von 1/4, das/der unverändert verwendet oder aufwärts abgetastet werden kann, um auf einem Bildschirm wiedergegeben zu werden, eine LL-Band-Version des Bild/Video-Frames voller Qualität mit einer Auflösung von 1/4, das/der ebenfalls unverändert verwendet oder aufwärts abgetastet werden kann, um auf einem Bildschirm wiedergegeben zu werden, und 3 übrige Bänder (HL, LH und HH), die mit dem HEVC Main 10 I- oder Main 4:2:2 10 Intra-Decoder decodiert und über eine (feststehende oder adaptive) Synthesefilterung mit dem LL-Band voller Qualität kombiniert werden, mit dem Ergebnis eines Bild/Video-Frame mit voller Auflösung, das/der dann auf einem Bildschirm wiedergeben werden kann. Solche Techniken sind mit Bezug auf 12 und 13 und andernorts hier erörtert.
  • Außerdem können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die skalierbar jedoch und mit der HEVC Video Intra- (oder I)-Codierung sowie der SNR-skalierbaren HEVC-Video-Intra (oder I)-Codierung vorwärtskompatibel ist. Ein eingegebener Bild/Video-Frame erfährt eine einstufige (feststehende oder adaptive) Analysefilterung, woraus sich eine Zerlegung in LL-, HL-, LH- und HH-Bänder mit einer Auflösung von ¼ Größe ergibt. Das LL-Band wird zunächst durch eine Bit-Tiefen-Begrenzung codiert, gefolgt von einer Codierung mit dem HEVC Main I- oder HEVC Main Still Picture- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra- oder H.264 Baseline I- oder H.264 Main I- oder H.264 High I-Encoder, und der lokal decodierte Bild/Video-Frame wird als Vorhersage in der SNR-skalierbaren Codierung verwendet, die durch den HEVC Scalable Main I- oder HEVC Scalable Main 10 I-Encoder durchgeführt wird. Bei dem Encoder werden die übrigen 3 Bänder (HL, LH und HH), die von der gleichen einstufigen Analysefilterung erhalten sind, ebenfalls mit dem HEVC Main 10 I- oder Main 4:2:2 10 Intra-Encoder codiert. Das LL-Band des skalierbaren und kompatiblen Datenstroms, der bei dem Encoder erzeugt ist, wird entsprechend bei dem Decoder decodiert, der den HEVC Main I- oder HEVC Main Still Picture- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra- oder H.264 Baseline I- oder H.264 Main I- oder H.264 High I-Decoder verwendet. An dem Ausgang sind eine der drei oder sämtliche drei Wahlmöglichkeiten verfügbar, wie beispielsweise ein Bild/Video-Frame geringerer Qualität mit einer Auflösung von 1/4, das/der unverändert verwendet oder aufwärts abgetastet werden kann, um auf einem Bildschirm wiedergegeben zu werden, ein Bild/Video-Frame voller Qualität mit einer Auflösung von 1/4, das/der ebenfalls unverändert verwendet oder aufwärts abgetastet werden kann, um auf einem Bildschirm wiedergegeben zu werden, und 3 übrige Bänder (HL, LH und HH), die mit dem HEVC Main 10 I- oder Main 4:2:2 10 Intra-Decoder decodiert und über eine (feststehende oder adaptive) Synthesefilterung mit dem LL-Band voller Qualität kombiniert werden, mit dem Ergebnis eines Bild/Video-Frame mit voller Auflösung, das/der dann auf einem Bildschirm wiedergeben werden kann. Solche Techniken sind mit Bezug auf 14 und 15 und andernorts hier erörtert.
  • Außerdem können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die skalierbar und mit der HEVC Video Intra- (oder I)-Codierung sowie der räumlich skalierbaren HEVC-Video-Intra (oder I)-Codierung vorwärtskompatibel ist. Das/der eingegebene Bild/Video-Frame wird zunächst in jeder Dimension um 4 abwärts abgetastet und mit HEVC Main I- oder HEVC Main Still Picture- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra- oder H.264 Baseline I- oder H.264 Main I- oder H.264 High I-Encoder codiert, und ein lokal decodiertes/decodierter Bild/Video-Frame wird in jeder Dimension um 2 aufwärts abgetastet und als Vorhersage in der räumlich skalierbaren Codierung (des LL-Bandes, das von der einstufigen feststehenden oder Adaptive-Wavelet-Analyse erhalten ist) verwendet, die durch den HEVC Scalable Main I- oder HEVC Scalable Main 10 I-Encoder des LL-Bandes durchgeführt wird, das von der einstufigen (feststehenden oder adaptiven) Wavelet-Analysefilterung der Eingabe erhalten ist. Bei dem Encoder werden die übrigen 3 Bänder (HL, LH und HH), die von der gleichen einstufigen Analysefilterung erhalten sind, ebenfalls mit dem HEVC Main 10 I- oder Main 4:2:2 10 Intra-Encoder codiert. Der sich ergebende skalierbare und kompatible Datenstrom wird entsprechend bei dem Decoder decodiert, der den HEVC Main I- oder HEVC Main Still Picture- oder HEVC Main 10 I- oder HEVC Main 4:2:2 10 Intra- oder H.264 Baseline I- oder H.264 Main I- oder H.264 High I-Decoder verwendet. An dem Ausgang sind eine der drei oder sämtliche drei Wahlmöglichkeiten verfügbar, wie beispielsweise ein Bild/Video-Frame geringerer Qualität mit einer Auflösung von 1/16, das/der unverändert verwendet oder aufwärts abgetastet werden kann, um auf einem Bildschirm wiedergegeben zu werden, eine LL-Band-Version des Bild/Video-Frames voller Qualität mit einer Auflösung von 1/4, das/der ebenfalls unverändert verwendet oder aufwärts abgetastet werden kann, um auf einem Bildschirm wiedergegeben zu werden, und 3 übrige Bänder (HL, LH und HH), die mit dem HEVC Main 10 I- oder Main 4:2:2 10 Intra-Decoder decodiert und über eine (feststehende oder adaptive) Synthesefilterung mit dem LL-Band voller Qualität kombiniert werden, mit dem Ergebnis eines Bild/Video-Frame mit voller Auflösung, das/der dann auf einem Bildschirm wiedergeben werden kann. Solche Techniken sind mit Bezug auf 16 und 17 und andernorts hier erörtert.
  • Weiter können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die skalierbar und mit einem HEVC-Video, das auf einem Encoder/Decodersystem basiert, das eine Kombination der Encoder-/Decodersysteme ist, die eine räumliche und SNR-Skalierbarkeit für die HEVC vorsehen. Solche Techniken sind mit Bezug auf 18 und 19 und andernorts hier erörtert.
  • Weiter können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die eine räumliche Skalierbarkeit um einen Faktor 1,5 (im Vergleich waren andere erörterte Systeme auf Faktoren ganzzahliger Potenzen von 2, wie beispielsweise 2 oder 4 beschränkt) vorsehen kann und mit der HEVC Video Intra- (oder I)-Codierung vorwärtskompatibel ist. Eine erste Ausführungsform eines auf Wavelet und HEVC begründeten skalierbaren Codierungssystems kann eine Bild/Video-Intra-Abwärtsabtastung vor der Codierung und eine Aufwärtsabtastung nach der Decodierung, eine feststehende/adaptive Oktaven-Band-Analyse/Synthesefilterung und einen HEVC Main 10 I- oder Main 4:2:2 10 Intra-Encoder/Decoder umfassen. Solche Techniken sind mit Bezug auf 20 und 21 und andernorts hier erörtert. Eine zweite Ausführungsform eines auf Wavelet und HEVC begründeten skalierbaren Codierungssystems kann eine Bild/Video-Intra-Abwärtsabtastung vor der Codierung und eine Aufwärtsabtastung nach der Decodierung, eine feststehende/adaptive Non-Oktaven-Band-Analyse/Synthesefilterung und einen HEVC Main 10 I- oder Main 4:2:2 10 Intra-Encoder/Decoder umfassen. Solche Techniken sind mit Bezug auf 22 und 23 und andernorts hier erörtert. Weiter können die hier beschriebenen Techniken eine effiziente wavelet-basierte Bild/Video-Intra-Codierung vorsehen, die eine räumliche Skalierbarkeit um einen verallgemeinerten Faktor, der eine ganze Zahl oder eine reelle Zahl (z.B. 1,25, 1,33, 1,5, 1,66 und dergleichen) ist, vorsehen kann und mit der HEVC Video Intra-(oder I)-Codierung vorwärtskompatibel ist. Beispielsweise wird ein Bild/Video-Intra vor der Codierung abwärts abgetastet und nach der Decodierung aufwärts abgetastet, mittels der feststehenden/adaptiven Oktaven-Band-Analyse/Synthese gefiltert und durch einen HEVC Main 10 I- oder Main 4:2:2 10 Intra-Encoder/Decoder codiert/decodiert. Solche Techniken sind mit Bezug auf 24 und 25 und andernorts hier erörtert.
  • 26 zeigt ein der Veranschaulichung dienendes Diagramm eines beispielhaften Systems 2600 zur Codierung und/oder Decodierung gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. Wie in 26 gezeigt, kann das System 2600 einen Zentralprozessor 2601, einen Grafikprozessor 2602, einen Speicher 2603, eine Kamera 2604, einen Bildschirm 2605 und einen Sender/Empfänger 2606 enthalten. In einigen Ausführungsformen weist das System 2600 möglicherweise keine Kamera 2604, keinen Bildschirm 2605 und/oder keinen Sender/Empfänger 2606 auf. Wie gezeigt, kann der Zentralprozessor 2601 und/oder der Grafikprozessor 2602 einen Encoder 2611 und/oder Decoder 2612 verwenden. Der Encoder 2611 und der Decoder 2612 können einen beliebigen Encoder oder Decoder, wie hier erörtert, oder Kombinationen davon beinhalten. In einigen Ausführungsformen verwendet das System 2600 möglicherweise keinen Encoder 2611 oder Decoder 2602. In dem Beispiel des Systems 2600 kann der Speicher 2603 Framedaten, Bilddaten, oder Datenstromdaten oder beliebige verwandte Daten, beispielsweise beliebige sonstige hier erörtert Daten, speichern.
  • Wie gezeigt, können der Encoder und/oder der Decoder 2612 in einigen Ausführungsformen über den Zentralprozessor 2601 durchgeführt werden. In weiteren Ausführungsformen können ein oder mehrerer oder Abschnitte des Encoders und/oder des Decoders 2612 über den Grafikprozessor 2602 durchgeführt werden. In noch weiteren Ausführungsformen können der Encoder und/oder der Decoder 2612 durch eine Bildverarbeitungseinheit, eine Bildverarbeitungsleitung, eine Videoverarbeitungsleitung oder dergleichen durchgeführt werden. In einigen Ausführungsformen kann der Encoder und/oder der Decoder 2612 als ein Ein-Chip-System (SoC) in Hardware durchgeführt werden.
  • Der Grafikprozessor 2602 kann eine beliebige Anzahl und Bauart von Grafikprozessoreinheiten beinhalten, die die Schritte vorsehen können, wie sie hier erörtert sind. Solche Schritte können mittels Software oder Hardware oder einer Kombination davon durchgeführt werden. Beispielsweise kann der Grafikprozessor 2602 ein Schaltung enthalten, die dazu dient, Bilder oder Frames, die von dem Speicher 2603 erhalten werden, zu verwalten und/oder zu analysieren. Der Zentralprozessor 2601 kann eine beliebige Anzahl und Art von Verarbeitungseinheiten oder Modulen enthalten, die eine Steuerung und sonstige hochrangige Funktionen für das System 2600 vorsehen können und/oder beliebige Schritte vorsehen, wie sie hier erörtert sind. Der Speicher 2603 kann eine beliebige Art von Speicher sein, wie beispielsweise ein flüchtiger Speicher (z.B. ein Statischer RAM-Speicher (SRAM), ein Dynamischer Direktzugriffsspeicher (DRAM) und dergleichen) oder ein Permanentspeicher (z.B. ein Flashmemory und dergleichen) und so fort. In einem nicht als beschränkend zu bewertenden Beispiel kann der Speicher 2603 durch einen Puffer-Speicher umgesetzt werden. In einer Ausführungsform können ein oder mehrerer oder Abschnitte des Encoders und/oder des Decoder 2612 über eine Ausführungseinheit (Execution Unit, EU) des Grafikprozessors 2602 oder eines weiteren Prozessors durchgeführt werden. Die EU kann beispielsweise eine programmierbare Logik oder Schaltung beinhalten, beispielsweise einen oder mehrere Logikkerne, die eine weite Matrix von programmierbaren logischen Funktionen vorsehen können. In einer Ausführungsform können ein oder mehrere oder Abschnitte des Encoders und/oder des Decoders 2612 über eine speziell konstruierte Hardware, wie beispielsweise eine Festfunktionsschaltung oder dergleichen, durchgeführt werden. Die Festfunktionsschaltung kann eine zugeordnete Logik oder Schaltung enthalten und kann einen Satz von Festfunktionseingabepunkten vorsehen, die der zugeordneten Logik für einen feststehenden Zweck bzw. Funktion entsprechen können. Die Kamera 2604 kann eine beliebige geeignete Kamera oder Vorrichtung sein, die Bild- oder Framedaten gewinnen kann, um sie zu verarbeiten, wie beispielsweise eine Verarbeitung, wie hier erörtert, zu codieren. Der Bildschirm 2605 kann eine beliebige Display- oder Anzeigevorrichtung sein, die Bild- oder Framedaten, wie beispielsweise decodierte Bilder oder Frames, wie hier erörtert, wiedergeben kann. Der Sender/Empfänger 2606 kann einen beliebigen geeigneten Sender und/oder Empfänger beinhalten, der Datenstromdaten, wie hier erörtert, senden oder empfangen kann.
  • Das System 2600 kann beliebige Vorrichtungen, Systeme, Encoder, Decoder, Module, Einheiten, oder dergleichen, wie hier erörtert, verwenden. Außerdem kann das System 2600 beliebige Verfahren, Arbeitsschritte oder dergleichen, wie hier erörtert, verwenden.
  • Unterschiedliche hier beschriebene Systemkomponenten können in Form von Software, Firmware und/oder Hardware und/oder einer beliebigen Kombination davon umgesetzt werden. Beispielsweise können unterschiedliche Komponenten der hier erörterten Vorrichtungen oder Systeme zumindest teilweise durch Hardware eines Computer-Ein-Chip-Systems (System-on-a-Chip, SoC) vorgesehen sein, wie es beispielsweise in einem Computersystem, beispielsweise einem Smartphone, zu finden ist. Der Fachmann kann erkennen, das hier beschriebene Systeme zusätzliche Komponenten enthalten können, die in den entsprechenden Figuren nicht dargestellt sind. Beispielsweise können die hier erörterten Systeme zusätzliche Komponenten enthalten, die mit Blick auf Klarheit nicht dargestellt sind.
  • Während eine Durchführung der hier erörterten beispielhaften Verfahren die Ausführung sämtlicher gezeigten Schritte in der veranschaulichten Reihenfolge beinhalten kann, ist die vorliegende Beschreibung in dieser Hinsicht nicht beschränkt, und in unterschiedlichen Beispielen beinhaltet eine Durchführung der beispielhaften Verfahren im Vorliegenden möglicherweise lediglich einen Teilsatz der gezeigten Schritte, eine andere Reihenfolge der Ausführung der Schritte, als veranschaulicht, oder zusätzliche Schritte.
  • Zusätzlich können ein oder mehrere beliebige hier erörterte Schritte in Antwort auf Befehle durchgeführt werden, die durch ein oder mehrerer Computerprogrammprodukte ausgegeben werden. Solche Programmprodukte können Signale tragende Medien beinhalten, die Befehle vorsehen, die bei Ausführung, beispielsweise durch einen Prozessor, die hier beschriebene Funktionalität vorsehen können. Die Computerprogrammprodukte können in beliebiger Form eines oder mehrerer maschinenlesbarer Medien vorgesehen sein. Folglich kann beispielsweise ein Prozessor, der einen (oder mehrere) Grafikprozessoreinheit(en) oder Prozessorkern(e) enthält, in Antwort auf einen Programmcode und/oder auf Befehle oder Befehlssätze, die durch ein oder mehrere maschinenlesbare Medien zu dem Prozessor übertragen werden, ein oder mehrere Blöcke der hierin als Beispiele dargelegten Verfahren übernehmen. Allgemein kann ein maschinenlesbares Medium Software in Form von Programmcode und/oder Befehlen oder Befehlssätzen übertragen, die beliebige der hier beschriebenen Vorrichtungen und/oder Systeme dazu veranlassen, wenigstens Teile der Vorrichtungen oder Systeme, oder beliebiger sonstiger Module oder Komponenten, wie hier erörtert, zu implementieren.
  • In dem hier für eine beliebige beschriebene Durchführung verwendeten Sinn bezeichnet der Begriff „Modul“ eine beliebige Kombination von Softwarelogik, Firmwarelogik, Hardwarelogik und/oder einer Schaltung, die dafür ausgelegt ist, um die hier beschriebene Funktionalität vorzusehen. Die Software kann in Form eines Software-Pakets, Codes und/oder Befehlssatzes oder von Befehlen und „Hardware“ in dem für eine beliebige hier beschriebene Durchführung verwendeten Sinn ausgeführt werden, kann beispielsweise, einzeln oder in einer beliebigen Kombination eine festverdrahtete Schaltung, eine programmierbare Schaltung, eine Zustandsmaschinenschaltung, eine Festfunktionsschaltung, eine Ausführungseinheitsschaltung und/oder ein Firmware beinhalten, die Befehle speichert, die durch eine programmierbare Schaltung ausgeführt werden. Die Module können, gemeinsam oder einzeln, als eine Schaltung ausgeführt sein, die einen Teil eines größeren Systems bildet, beispielsweise eines integrierten Schaltkreises (IC), eines chipintegrierten Systems (SoC) und dergleichen.
  • 27 zeigt ein der Veranschaulichung dienendes Diagramm eines beispielhaften Systems 2700 gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. In unterschiedlichen Durchführungen kann das System 2700 ein System einer mobilen Vorrichtung sein, obwohl das System 2700 nicht auf diesen Zusammenhang beschränkt ist. Beispielsweise kann das System 2700 in einem Personalcomputer (PC), Laptoprechner, Ultra-Laptoprechner, Tablet, Touchpad, tragbaren Computer, von Hand geführten Computer, Palmtop-Computer, Minicomputer (PDA), Mobiltelefon, einer Mobiltelefon/PDA-Kombination, Fernseher, Smart-Gerät (z.B. Smartphone, Smart-Tablet oder Smart-Fernseher), mobilen Internet-Gerät (Mobile Internet Device, MID), Benachrichtigungsvorrichtungen, einer Datenkommunikationsvorrichtung, Kameras (beispielsweise Kompaktkameras, Super-Zoom-Kameras, digitalen Spiegelreflexkameras) und dergleichen, verwendet werden.
  • In unterschiedlichen Durchführungen, enthält das System 2700 eine Plattform 2702, die mit einem Bildschirm/Display 2720 verbunden ist. Die Plattform 2702 kann einen Inhalt von einer Inhalt-Vorrichtung, wie beispielsweise einer oder mehreren Inhalt-Service-Vorrichtung(en) 2730 oder Inhalt-Lieferungsvorrichtung(en) 2740 oder sonstigen Inhaltsquellen, wie beispielsweise Bildsensoren 2719, empfangen. Beispielsweise kann die Plattform 2702 Bilddaten, wie sie hier erörtert sind, von Bildsensoren 2719 oder einer beliebigen sonstigen Inhaltsquelle empfangen. Eine Navigationsteuereinrichtung 2750, die ein oder mehrere Navigationsausstattungsmerkmale enthält, kann genutzt werden, um beispielsweise mit der Plattform 2702 und/oder dem Bildschirm 2720 zu interagieren. Jede dieser Komponenten ist weiter unten eingehender beschrieben.
  • In unterschiedliche Durchführungen kann die Plattform 2702 eine beliebige Kombination eines Chipsatzes 2705, Prozessors 2710, Arbeitspeichers 2711, einer Antenne 2713, eines Speicher 2714, eines Grafiksubsystems 2715, von Anwendungen 2716, eines Bildsignalprozessors 2717 und/oder einer Funkvorrichtung 2718 enthalten. Der Chipsatz 2705 kann eine Interkommunikation zwischen dem Prozessor 2710, dem Speicher 2711, dem Speicher 2714, dem Grafiksubsystem 2715, den Anwendungen 2716, dem Bildsignalprozessor 2717 und/oder der Funkvorrichtung 2718 vorsehen. Beispielsweise kann der Chipsatz 2705 einen (nicht dargestellten) Speicheradapter enthalten, der in der Lage ist, eine Interkommunikation mit dem Speicher 2714 zu ermöglichen.
  • Der Prozessor 2710 kann als ein Prozessor eines Rechners mit komplexem Befehlssatz (CISC) oder eines Rechners mit reduziertem Befehlssatz (RISC), mit dem x86-Befehlssatz kompatiblen Prozessoren, ein Multi-Core- oder ein beliebiger sonstiger Mikroprozessor oder eine Zentraleinheit (Central Processing Unit, CPU) durchgeführt werden. In unterschiedlichen Durchführungen kann der Prozessor 2710 ein oder mehrere Dual-Core-Prozessor(en), ein oder mehrere Duale-Core-Mobile-Prozessor(en) und dergleichen beinhalten.
  • Der Arbeitsspeicher 2711 kann als eine flüchtige Speichervorrichtung beispielsweise, jedoch ohne darauf beschränken zu wollen, ein Direktzugriffsspeicher (RAM), Dynamischer Direktzugriffsspeicher (DRAM), oder Statischer RAM (SRAM) durchgeführt werden.
  • Der Speicher 2714 kann als eine nicht flüchtige Speichervorrichtung durchgeführt werden beispielsweise, jedoch ohne darauf beschränken zu wollen, ein magnetisches Plattenlaufwerk, ein optisches Plattenlaufwerk, ein Bandlaufwerk, ein internes Speichergerät, ein externes Speichergerät, ein Flashmemory, ein batteriegepufferter SDRAM (synchroner DRAM) und/oder ein netzwerkfähiges Speichergerät. In unterschiedlichen Durchführungen kann der Speicher 2714 eine Technologie zur Steigerung eines verbesserten Schutzes der Speicherleistung für hochwertige digitale Medien enthalten, wenn beispielsweise mehrere Festplatten enthalten sind.
  • Der Bildsignalprozessor 2717 kann als ein spezialisierter digitaler Signalverarbeitungsprozessor oder dergleichen durchgeführt werden, der zur Bildverarbeitung genutzt wird. In einigen Ausführungsformen kann der Bildsignalprozessor 2717 auf der Basis einer Architektur, die einen einzige Befehl und mehrere Daten, oder mehrere Befehle und mehrere Daten verwendet, oder dergleichen durchgeführt werden. In einigen Ausführungsformen kann der Bildsignalprozessor 2717 als ein Medienprozessor bezeichnet werden. Wie hier erörtert, kann der Bildsignalprozessor 2717 auf der Grundlage einer Architektur eines Systems auf einem Chip und/oder einer Multi-Core-Architektur durchgeführt werden.
  • Das Grafiksubsystem 2715 kann eine Verarbeitung von Bildern, beispielsweise ein Standbild oder ein Video für eine Wiedergabe auf einem Bildschirm durchführen. Das Grafiksubsystem 2715 kann beispielsweise eine Grafikprozessoreinheit (Graphics Processing Unit, GPU) oder eine visuelle Verarbeitungseinheit (Visual Processing Unit, VPU) sein. Eine analoge oder digitale Schnittstelle kann genutzt werden, um das Grafiksubsystem 2715 und den Bildschirm 2720 in Datenaustausch zu verbinden. Beispielsweise kann die Schnittstelle auf einer beliebigen von einer High-Definition Multimedia Interface-, drahtlosen HDMI- und/oder drahtlosen HD-konformen Technik basieren. Das Grafiksubsystem 2715 kann in dem Prozessor 2710 oder in dem Chipsatz 2705 integriert sein. In einigen Durchführungen kann das Grafiksubsystem 2715 eine eigenständige Vorrichtung sein, die kommunikationsmäßig mit dem Chipsatz 2705 verbunden ist.
  • Die hier beschriebene Bild- und/oder Videoverarbeitungstechniken können in unterschiedlichen Hardwarearchitekturen durchgeführt werden. Beispielsweise kann eine Bild- und/oder Videofunktionalität in einem Chipsatz integriert sein. Alternativ kann eine diskreter Grafik- und/oder Videoprozessor genutzt werden. Als noch eine weitere Durchführung können die Bild- und/oder Videofunktionen durch einen Universalprozessor vorgesehen sein, der einen Multikernprozessor einschließt. In weiteren Ausführungsformen können die Funktionen in einem Verbraucherelektronikgerät durchgeführt werden.
  • Die Funkvorrichtung 2718 kann eine oder mehrere Funkvorrichtung beinhalten, die in der Lage sind, Signale mittels unterschiedlicher geeigneter drahtloser Kommunikationstechniken zu senden und zu empfangen. Solche Techniken können Datenkommunikationen über eine oder mehrere drahtlose Netzwerke umfassen. Beispiele von drahtlosen Netzwerken beinhalten (jedoch ohne darauf zu beschränken) drahtlose lokale Netze (WLANs), drahtlose persönliche Netze (WPANs), drahtlose Breitbandkommunikationsnetze (Wireless Metropolitan Area Network, WMANs), Mobilfunknetze und Satellitenfunknetze. Bei der Kommunikation über solche Netzwerke kann die Funkvorrichtung 2718 gemäß einem oder mehreren anwendbaren Standards in jeder Version arbeiten.
  • In unterschiedlichen Durchführungen kann der Bildschirm 2720 einen beliebigen Fernseher-Monitor oder ein Display beinhalten. Der Bildschirm 2720 kann beispielsweise einen Computermonitorschirm, Touchscreen, Videomonitor, ein einem Fernseher ähnelndes Gerät und/oder einen Fernseher beinhalten. Der Bildschirm 2720 kann digital und/oder analog sein. In unterschiedlichen Durchführungen kann der Bildschirm 2720 ein holographischer Bildschirm sein. Außerdem kann der Bildschirm 2720 eine transparente Fläche sein, die eine visuelle Projektion aufnehmen kann. Solche Projektionen können vielfältige Formen von Informationen, Bildern und/oder Objekten projizieren. Beispielsweise können solche Projektionen einer visuelle Überlagerung/Einblendung für eine Anwendung einer mobilen erweiterten Realität (Mobile Augmented Reality, MAR) sein. Unter der Steuerung einer oder mehrerer Softwareanwendungen 2716 kann die Plattform 2702 eine Benutzerschnittstelle 2722 auf dem Bildschirm 2720 darstellen.
  • In unterschiedlichen Durchführungen können eine (oder mehrere) Inhalt-Service-Vorrichtung(en) 2730 durch einen beliebigen nationalen, internationalen und/oder unabhängigen Dienst verwaltet werden und somit für die Plattform 2702, beispielsweise über das Internet, zugriffsfähig sein. Die Inhalt-Service-Vorrichtung(en) 2730 kann (können) mit der Plattform 2702 und/oder mit dem Bildschirm 2720 verbunden sein. Die Plattform 2702 und/oder Inhalt-Service-Vorrichtung(en) 2730 können mit einem Netzwerk 2760 verbunden sein, um Medieninformationen zu und von dem Netzwerk 2760 zu kommunizieren (z.B. zu senden und/oder zu empfangen). Inhalt-Service-Vorrichtung(en) 2740 können ebenfalls mit der Plattform 2702 und/oder dem Bildschirm 2720 verbunden sein.
  • Die Bildsensoren 2719 können beliebige geeignete Bildsensoren beinhalten, die Bilddaten auf der Grundlage einer Szene liefern können. Beispielsweise können die Bildsensoren 2719 einen auf einem Halbleiter-Ladungskoppelelement (Charge Coupled Device, CCD) basierenden Sensor, auf einem komplementären Metall-Oxid-Halbleiter (Metal-Oxide-Semiconductor, CMOS) basierenden Sensor, auf einem n-leitenden Metall-Oxid-Halbleiter (N-type Metal-Oxide-Semiconductor, NMOS) basierenden Sensor, oder dergleichen beinhalten. Beispielsweise können die Bildsensoren 2719 eine beliebige Vorrichtung beinhalten, die Informationen einer Szene erfassen kann, um Bilddaten zu erzeugen.
  • In unterschiedlichen Durchführungen können die Inhalt-Service-Vorrichtung(en) 2730 eine Kabelfernsehbox, einen Personalcomputer, ein Netzwerk, ein Telefon, internet-fähige Vorrichtungen oder Geräte, die in der Lage sind, digitale Informationen und/oder Inhalte zu liefern, und eine beliebige sonstige vergleichbare Vorrichtung beinhalten, die in der Lage ist, unidirektional oder bidirektional einen Inhalt zwischen Inhalteanbietern und der Plattform 2702 und/dem Bildschirm 2720 über das Netzwerk 2760 oder unmittelbar auszutauschen. Es ist einsichtig, dass der Inhalt unidirektional und/oder bidirektional zu und von jeder beliebigen der Komponenten in dem System 2700 und einem Inhalt-Dienstleister über das Netzwerk 2760 übermittelt werden kann. Beispiele für den Inhalt können beliebige Medieninformationen, beispielsweise Video-, Musik-, medizinische und Spiele-Informationen und dergleichen beinhalten.
  • Die Inhalt-Service-Vorrichtung(en) 2730 können einen Inhalt, wie beispielsweise eine Kabelfernseherprammierung, einschließlich von Medieninformationen, digitalen Informationen und/oder sonstigen Inhalten empfangen. Beispiele für Inhalteanbieter können beliebige Kabel- oder Satellitenfernseher- oder Funk- oder Internet-Inhalteanbieter beinhalten. Die erwähnten Beispiele sollen Durchführungen gemäß der vorliegenden Beschreibung in keiner Weise beschränken.
  • In unterschiedlichen Durchführungen kann die Plattform 2702 Steuersignale von der Navigationsteuereinrichtung 2750 empfangen, die eine oder mehrere Navigationsausstattungsmerkmale aufweist. Die Navigationsausstattungsmerkmale der Navigationsteuereinrichtung 2750 können genutzt werden, um beispielsweise mit der Benutzerschnittstelle 2722 zu interagieren. In vielfältigen Ausführungsformen kann die Navigationsteuereinrichtung 2750 ein Zeigegerät sein, das eine Computerhardwarekomponente (insbesondere eine menschliche Schnittstelleneinrichtung) sein kann, die es einem Benutzer ermöglicht, räumliche (z.B. fortlaufende und mehrdimensionale) Daten in einen Computer einzugeben. Viele Systeme, wie beispielsweise grafische Benutzerschnittstellen (GUI) und Fernsehgeräte und Monitore ermöglichen dem Benutzer, mittels körperlicher Gesten den Computer oder Fernseher zu steuern und ihm Daten zu liefern.
  • Bewegungen der Navigationsausstattungsmerkmale der Navigationsteuereinrichtung 2750 können auf einem Bildschirm (z.B. dem Bildschirm 2720) durch Bewegungen eines Pointers, Cursors, Fokussierrings oder sonstiger visueller Indikatoren, die auf dem Bildschirm angezeigt werden, nachgebildet werden. Die Navigationsausstattungsmerkmale, die auf der Navigationsteuereinrichtung 2750 angeordnet sind, können, beispielsweise durch Softwareanwendungen 2716 gesteuert, auf virtuelle Navigationsausstattungsmerkmale abgebildet werden, die beispielsweise auf der Benutzerschnittstelle 2722 angezeigt sind. In vielfältigen Ausführungsformen ist die Navigationsteuereinrichtung 2750 möglicherweise nicht eine gesonderte Komponente, sondern kann in die Plattform 2702 und/oder den Bildschirm 2720 eingebaut sein. Die vorliegende Beschreibung ist jedoch nicht auf die Elemente oder den Zusammenhang, wie hier gezeigt oder beschrieben, beschränkt.
  • In unterschiedlichen Durchführungen können (nicht gezeigte) Treiber eine Technologie verwenden, um Benutzern zu ermöglichen, die Plattform 2702, nach einem anfänglichen Hochfahren, wie einen Fernseher mit der Berührung eines Druckknopfs augenblicklich ein- und auszuschalten, wenn dies beispielsweise aktiviert ist. Eine Programmlogik kann der Plattform 2702 ermöglichen, einen Inhalt zu Medienadaptern oder anderen Inhalt-Service-Vorrichtung(en) 2730 oder Inhalte-Liefervorrichtung(en) 2740 auch dann zu streamen, wenn die Plattform „aus“-geschaltet ist. Zusätzlich kann der Chipsatz 2705 beispielsweise Hardware- und/oder Software-Support für 5.1 Surround Sound Audio und/oder High Definition 7.1 Surround Sound Audio enthalten. Die Treiber können einen Grafiktreiber für integrierte Grafikplattformen beinhalten. In vielfältigen Ausführungsformen kann der Grafiktreiber eine Peripheral Component Interconnect (PCI) Express-Grafikkarte beinhalten.
  • In unterschiedlichen Durchführungen können eine oder mehrere der in dem System 2700 gezeigten Komponenten integriert sein. Beispielsweise können die Plattform 2702 und die Inhalt-Service-Vorrichtung(en) 2730 integriert sein, oder die Plattform 2702 und die Inhalte-Liefervorrichtung(en) 2740 können integriert sein, oder die Plattform 2702, die Inhalt-Service-Vorrichtung(en) 2730 und die Inhalte-Liefervorrichtung(en) 2740 können integriert sein. In vielfältigen Ausführungsformen können die Plattform 2702 und der Bildschirm 2720 eine integrierte Einheit sein. Beispielsweise können der Bildschirm 2720 und die Inhalt-Service-Vorrichtung(en) 2730 integriert sein, oder der Bildschirm 2720 und die Inhalte-Liefervorrichtung(en) 2740 können integriert sein. Diese Beispiele sollen die vorliegende Beschreibung nicht beschränken.
  • In vielfältigen Ausführungsformen kann das System 2700 als ein drahtloses System, ein leitungsgebundenes System oder eine Kombination von beidem durchgeführt werden. Wenn das System 2700 als ein drahtloses System durchgeführt ist, kann es Komponenten und Schnittstellen enthalten, die dafür geeignet sind, über ein drahtloses, gemeinsam verwendetes Medium zu kommunizieren, beispielsweise über eine oder mehrere Antennen, Sender, Empfänger, Transceiver, Verstärker, Filter, Steuerlogik und dergleichen. Ein Beispiel eines drahtlosen, gemeinsam verwendeten Mediums kann Abschnitte eines drahtlosen Spektrums, z.B. des HF-Spektrums und dergleichen beinhalten. Wenn das System 2700 als ein leitungsgebundenes System durchgeführt ist, kann es Komponenten und Schnittstellen enthalten, die dafür geeignet sind, über leitungsgebundene Datenkommunikationsmedien zu kommunizieren, z.B. Eingabe/Ausgabe(I/O)-Adapter, physikalische Verbinder, um den I/O-Adapter mit einem entsprechenden leitungsgebundenen Datenkommunikationsmedium zu verbinden, eine Netzwerkschnittstellenkarte (Network Interface Card, NIC), Festplattencontroller, Videocontroller, Audiocontroller und dergleichen. Beispiele für leitungsgebundene Datenkommunikationsmedien können einen Draht, ein Kabel, Metallanschlussleitungen, eine gedruckte Leiterplatte (Printed Circuit Board PCB), eine Rückwandplatine, ein Switch-Fabric, ein Halbleitermaterial, ein verdrilltes Kabelpaar, ein Koaxialkabel, ein Glasfaserkabel und dergleichen beinhalten.
  • Die Plattform 2702 kann einen oder mehrere logische oder physikalische Kanäle errichten, um Informationen zu übermitteln. Die Daten können Medieninformationen und Steuerinformationen beinhalten. Die Medieninformationen können sich auf beliebige Daten beziehen, die einen Inhalt repräsentieren, der für einen Benutzer bestimmt ist. Beispiele eines Inhalts können z.B. Daten von einem mündlichen Gespräch, einer Videokonferenz, einem Streaming-Videos, einer Electronic Mail („E-Mail“)-Nachricht, einer Voicemail-Nachricht, alphanumerischen Symbolen, einer Grafik, einem Bild, einem Video, einem Text und dergleichen beinhalten. Daten eines mündlichen Gesprächs können beispielsweise Sprachinformationen, Lautlos-Zeitspannen, Hintergrundrauschen, Komfortlärm, Töne und dergleichen sein. Steuerinformationen können sich auf beliebige Daten beziehen, die Befehle, Anweisungen oder Steuerbegriffe repräsentieren, die für ein automatisches System bestimmt sind. Beispielsweise können Steuerinformationen genutzt werden, um Medieninformationen durch ein System zu verzweigen, oder einem Knoten anzuweisen, die Medieninformationen in einer vorbestimmten Weise zu verarbeiten. Die Ausführungsformen sind jedoch nicht auf die Elemente oder auf den Zusammenhang, wie in 27 gezeigt oder beschrieben, beschränkt.
  • Wie oben beschrieben, kann das System 2700 in unterschiedlichen physikalischen Stilen oder Formfaktoren ausgeführt werden. 28 veranschaulicht ein Beispiel einer Vorrichtung 2800 mit einem kleinen Formfaktor gemäß wenigstens einigen Durchführungen der vorliegenden Beschreibung. In einigen Ausführungsformen kann das System 2700 mittels der Vorrichtung 2800 durchgeführt werden. In vielfältigen Ausführungsformen kann die Vorrichtung 2800 beispielsweise als eine mobile Computervorrichtung durchgeführt werden, die drahtlose Fähigkeiten aufweist. Eine mobile Computervorrichtung kann sich auf eine beliebige Vorrichtung beziehen, die ein Verarbeitungssystem und eine mobile Stromquelle/Energiequelle oder Stromversorgung aufweist, beispielsweise eine oder mehrere Batterien.
  • Beispiele einer mobilen Computervorrichtung können einen Personalcomputer (PC), einen Laptoprechner, einen Ultra-Laptoprechner, ein Tablet, ein Touchpad, einen tragbaren Computer, einen von Hand geführten Computer, einen Palmtop-Computer, einen Minicomputer (PDA), ein Mobiltelefon, eine Mobiltelefon/PDA-Kombination, ein Smart-Gerät (z.B. ein Smartphone, ein Smart-Tablet oder einen mobilen Smart-Fernseher), ein mobiles Internet-Gerät (Mobile Internet Device, MID), Benachrichtigungsvorrichtungen, eine Datenkommunikationsvorrichtung, Kameras, und dergleichen beinhalten.
  • Beispiele einer mobilen Computervorrichtung können auch Computer beinhalten, die dafür ausgelegt sind, von einer Person getragen zu werden, z.B. ein Handgelenk-Computer, Finger-Computer, Ring-Computer, Brillenglas-Computer, Gürtelklipp-Computer, Armband-Computer, Schuh-Computer, Kleidungs-Computer und andere anlegbare Computer. In vielfältigen Ausführungsformen kann beispielsweise eine mobile Computervorrichtung als ein Smartphone durchgeführt werden, das in der Lage ist, Computeranwendungen sowie Sprachkommunikationen und/oder Datenkommunikationen auszuführen. Obwohl einige Ausführungsformen mit einer mobilen Computervorrichtung beschrieben sein können, die beispielsweise als ein Smartphone durchgeführt ist, ist klar, dass auch andere Ausführungsformen durchgeführt werden können, die andere drahtlose mobile Computervorrichtungen verwenden. Die Ausführungsformen sind in diesem Sinne nicht beschränkt.
  • Wie in 28 gezeigt, kann die Vorrichtung 2800 ein Gehäuse mit einer Vorderseite 2801 und einer Rückseite 2802 aufweisen. Die Vorrichtung 2800 enthält eine Bildschirm/Displayvorrichtung 2804, eine Eingabe/Ausgabe-(I/O)-Vorrichtung 2806 und eine integrierte Antenne 2808. Die Vorrichtung 2800 kann auch Navigationsausstattungsmerkmale 2811 aufweisen. Die I/O-Vorrichtung 2806 kann eine beliebige geeignete Eingabe-Ausgabe-Vorrichtung zum Eingeben von Informationen in eine mobile Computervorrichtung beinhalten. Beispiele für die I/O-Vorrichtung 2806 können eine alphanumerische Tastatur, ein numerisches Tastenfeld, ein Touch-Pad, Eingabetasten, Knöpfe, Schalter, Mikrofone, Lautsprecher, Spracherkennungsvorrichtungen und -Software, und dergleichen beinhalten. Informationen können auch mittels eines (nicht gezeigten) Mikrofons in die Vorrichtung 2800 eingegeben werden, oder können durch eine Spracherkennungsvorrichtung digitalisiert werden. Wie gezeigt, kann die Vorrichtung 2800 eine Kamera 2805 (die beispielsweise eine Linse, eine Blende und einen Bildgebungssensor hat) und einen Blitz 2810 aufweisen, der in der Rückseite 2802 (oder an einer anderen Stelle) des Geräts 2800 integriert ist. In anderen Beispielen können die Kamera 2805 und/oder der Blitz 2810 in die Vorderseite 2801 des Geräts 2800 integriert werden und/oder es können zusätzliche Kameras vorgesehen sein (z.B., damit die Vorrichtung 2800 Vorder- und Rückseitenkameras aufweist).
  • Unterschiedliche Ausführungsformen können mittels Hardwareelementen, Softwareelementen oder einer Kombination von beidem durchgeführt werden. Beispiele von Hardwareelementen können Prozessoren, Mikroprozessoren, Schaltkreise, Schaltkreiselemente (z.B. Transistoren, Widerstände, Kondensatoren, Induktoren, und dergleichen), integrierte Schaltkreise, anwendungsspezifische integrierte Schaltkreise (ASIC), programmierbare Logikbauelemente (PLD), digitale Signalverarbeitungsprozessoren (DSP), im Feld programmierbare Gatteranordnung (Field Programmable Gate Array, FPGA) (FPGA), Logikgatter, Register, Halbleiterbauelemente, Chips, Mikrochips, Chipsätze, und dergleichen beinhalten. Beispiele von Software können Softwarekomponenten, Programme, Anwendungen, Computerprogramme, Anwendungsprogramme, Systemprogramme, Maschinenprogramme, Betriebssystem-Software, Middleware, Firmware, Softwaremodule, Programmroutinen, Unterprogramme, Funktionen, Methoden, Prozeduren, Softwareschnittstellen, Anwendungsprogrammschnittstellen (API), Befehlssätze, Rechencode, Rechnerprogrammcode, Codesegmente, Rechnerprogrammcodesegmente, Worte, Werte, Symbole oder eine beliebige Kombination von diesen beinhalten. Ein Entscheidung, ob eine Ausführungsform unter Verwendung von Hardwareelementen und/oder Softwareelementen durchgeführt wird, kann von einer Reihe von Faktoren abhängen, beispielsweise von einer gewünschten Rechengeschwindigkeit, von Leistungsstufen, Wärmetoleranzen, einem Verarbeitungszyklusbudget, von Eingabedatenraten, Ausgabedatenraten, Speicherressourcen, Datenbusgeschwindigkeiten und sonstigen Konstruktions- oder Leistungsbeschränkungen.
  • Ein oder mehrere Aspekte zumindest einer Ausführungsform können durch repräsentative Befehle durchgeführt werden, die auf einem maschinenlesbaren Medium gespeichert sind, das unterschiedliche Logik in dem Prozessor repräsentiert, die bei einem Auslesen durch die Maschine veranlasst, dass die Maschine eine Logik herstellt, um die hier beschriebenen Techniken durchzuführen. Solche als IP-Kerne bekannte Darstellungen können auf einem materiellen, maschinenlesbaren Medium gespeichert werden und unterschiedlichen Kunden oder Herstellereinrichtungen geliefert werden, um in die Fabrikationsmaschinen geladen zu werden, die die Logikschaltung oder den Prozessor tatsächlich herstellen.
  • Während gewisse hier dargelegte Ausstattungsmerkmale im Vorliegenden mit Bezug auf unterschiedliche Ausführungsformen beschrieben wurden, ist diese Beschreibung nicht in einem beschränkenden Sinne zu verstehen. Daher werden unterschiedliche Modifikationen der hier beschriebene Durchführungen, sowie sonstige Durchführungen, die dem Fachmann auf dem Gebiet der vorliegenden Beschreibung offenkundig sind, als in den Schutzbereich der vorliegenden Beschreibung fallend erachtet.
  • Die folgenden Beispiele betreffen weitere Ausführungsformen.
  • In einer oder mehreren ersten Ausführungsformen umfasst ein computergestütztes Verfahren zur Bild- oder Videocodierung ein Durchführen einer Wavelet-Zerlegung an einem ursprünglichen Bild oder Frame, um mehrere Teilbänder zu erzeugen, ein Codieren jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind, und ein Multiplexen der mehreren Teilbänder, um einen einzelnen skalierbaren Datenstrom zu erzeugen, wobei wenigstens Teile des einzelnen skalierbaren Datenstroms HEVC-konform sind.
  • Weiter zu den ersten Ausführungsformen umfasst das Verfahren ferner ein Auswählen eines Wavelet-Analysefiltersatzes zur Durchführung der Wavelet-Zerlegung.
  • Weiter zu den ersten Ausführungsformen hat das ursprüngliche Bild bzw. der Frame eine Bit-Tiefe von 8 Bit, und jedes der Teilbänder hat eine Bit-Tiefe von 9 Bit, oder das ursprüngliche Bild bzw. der Frame hat eine Bit-Tiefe von 9 Bit, und jedes der Teilbänder hat eine Bit-Tiefe von 10 Bit.
  • Weiter zu den ersten Ausführungsformen weist der HEVC-konforme Encoder, wenn die Teilbänder eine Bit-Tiefe von 9 Bit haben, wenigstens eines von einem 10-Bit-Intra-Encoderprofil oder einem 12-Bit-Intra-Encoderprofil auf, und weist der HEVC-konforme Encoder, wenn die Teilbänder eine Bit-Tiefe von 11 Bit haben, ein 12-Bit-Intra-Encoderprofil auf.
  • Weiter zu den ersten Ausführungsformen umfasst das Durchführen der Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern, und die mehreren Teilbänder beinhalten vier Teilbänder.
  • Weiter zu den ersten Ausführungsformen umfasst das Durchführen der Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern, und die mehreren Teilbänder beinhalten vier Teilbänder, und die mehreren Teilbänder beinhalten ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband.
  • Weiter zu den ersten Ausführungsformen umfasst das Durchführen der Wavelet-Zerlegung eine Mehrstufige Wavelet-Analysefilterung.
  • Weiter zu den ersten Ausführungsformen umfasst das Durchführen der Wavelet-Zerlegung eine Mehrstufige Wavelet-Analysefilterung, und die mehreren Teilbänder beinhalten sieben Teilbänder.
  • In einem oder mehreren zweiten Ausführungsformen enthält ein System zur Bild- oder Videocodierung einen Speicher zum Speichern eines ursprünglichen Bildes oder Frames und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, an dem ursprünglichen Bild oder Frame eine Wavelet-Zerlegung durchzuführen, um mehrere Teilbänder zu erzeugen, jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders zu codieren, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind, und die mehreren Teilbänder zu multiplexen, um einen einzelnen skalierbaren Datenstrom zu erzeugen, wobei wenigstens Teile des einzelnen skalierbaren Datenstroms HEVC-konform sind.
  • Weiter zu den zweiten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Wavelet-Analysefiltersatz zum Durchführen der Wavelet-Zerlegung auszuwählen.
  • Weiter zu den zweiten Ausführungsformen weist der HEVC-konforme Encoder, wenn die Teilbänder eine Bit-Tiefe von 9 Bit haben, wenigstens eines von einem 10-Bit-Intra-Encoderprofil oder einem 12-Bit-Intra-Encoderprofil auf, und weist der HEVC-konforme Encoder, wenn die Teilbänder eine Bit-Tiefe von 11 Bit haben, ein 12-Bit-Intra-Encoderprofil auf.
  • Weiter zu den zweiten Ausführungsformen beinhaltet der Prozessor zur Durchführung der Wavelet-Zerlegung, dass der Prozessor dafür ausgelegt ist, ein einstufiges Wavelet-Analysefiltern durchzuführen, und die mehreren Teilbänder beinhalten vier Teilbänder.
  • Weiter zu den zweiten Ausführungsformen beinhaltet der Prozessor zur Durchführung der Wavelet-Zerlegung, dass der Prozessor dafür ausgelegt ist, ein einstufiges Wavelet-Analysefiltern durchzuführen, und beinhalten die mehreren Teilbänder vier Teilbänder, und beinhalten die mehreren Teilbänder ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband.
  • Weiter zu den zweiten Ausführungsformen beinhaltet der Prozessor zur Durchführung der Wavelet-Zerlegung, dass der Prozessor dafür ausgelegt ist, eine mehrstufige Wavelet-Analysefilterung durchzuführen.
  • In einem oder mehreren dritten Ausführungsformen umfasst ein computergestütztes Verfahren zur Bild- oder Videodecodierug eine Demultiplexen eines skalierbaren Datenstroms, wobei wenigstens Teile des skalierbaren Datenstroms mit einer Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, ein Decodieren wenigstens eines der mehreren Datenströme mittels eines HEVC-konformen Decoders, und ein Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung.
  • Weiter zu den dritten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  • Weiter zu den dritten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und ein Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert.
  • Weiter zu den dritten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und ein Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert, und das Rekonstruieren des Bildes oder Frames ferner wenigstens eines von einem Anwenden eines Bit-Tiefen-Begrenzers oder einem Durchführen eines Aufwärtsabtastens beinhaltet.
  • Weiter zu den dritten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme, die jeweils wenigstens mittels des HEVC-konformen Decoders einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, um mehrere decodierte Teilbänder zu erzeugen, und ein Durchführen einer Wavelet-Synthesefilterung an den mehreren dekodierten Teilbändern umfasst, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • Weiter zu den dritten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  • Weiter zu den dritten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL2-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert.
  • Weiter zu den dritten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL2-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert, und das Rekonstruieren des Bildes oder Frames ferner ein Anwenden eines Bit-Tiefen-Begrenzers und ein Durchführen einer 1:4 Aufwärtsabtastung umfasst.
  • Weiter zu den dritten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine mittlere Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme, die wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der mehreren Datenströme beinhalten, und ein Durchführen einer einstufigen Wavelet-Synthesefilterung an den mehreren dekodierten Teilbändern umfasst, um das Bild bzw. den Frame zu erzeugen.
  • Weiter zu den dritten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine mittlere Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme, die wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der mehreren Datenströme beinhalten, und ein Durchführen einer einstufigen Wavelet-Synthesefilterung an den mehreren dekodierten Teilbändern umfasst, um das Bild bzw. den Frame zu erzeugen, und das Rekonstruieren des Bildes oder Frames ferner ein Anwenden eines Bit-Tiefen-Begrenzers und ein Durchführen einer 1:2 Aufwärtsabtastung umfasst.
  • Weiter zu den dritten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames ein Decodieren mehrerer Datenströme, die wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme sämtliche der mehreren Datenströme beinhalten, und ein Durchführen einer mehrstufigen Wavelet-Analysefilterung an den mehreren dekodierten Teilbändern umfasst, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • In einer oder mehreren vierten Ausführungsformen enthält ein System zum Bild- oder Videodecodieren einen Speicher zum Speichern eines skalierbaren Datenstroms und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, den skalierbaren Datenstrom zu demultiplexen, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, wenigstens einen der mehreren Datenströme mittels eines HEVC-konformen Decoders zu decodieren und auf der Grundlage der Decodierung ein Bild bzw. einen Frame zu rekonstruieren.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, aus dem Prozessor besteht, um ein LL-Teilband mittels des mit der Hocheffizienten Videocodierung konformen Decoders zu decodieren.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine volle Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um wenigstens mittels des HEVC-konformen Decoders mehrere Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, zu decodieren, um mehrere decodierte Teilbänder zu erzeugen, und an den mehreren decodierten Teilbändern eine Wavelet-Synthesefilterung durchzuführen, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, aus dem Prozessor besteht, um ein LL2 Teilband mittels des mit der Hocheffizienten Videocodierung konformen Decoders zu decodieren.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine mittlere Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um mehrere Datenströme, die wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, zu decodieren, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der mehreren Datenströme beinhalten, und um eine einstufige Wavelet-Synthesefilterung an den mehreren dekodierten Teilbändern durchzuführen, um das Bild bzw. den Frame zu erzeugen.
  • Weiter zu den vierten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine volle Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um mehrere Datenströme, die wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, zu decodieren, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme sämtliche der mehreren Datenströme beinhalten, und um an den mehreren dekodierten Teilbändern eine Mehrstufige Wavelet-Analysefilterung durchzuführen, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • In einer oder mehreren fünften Ausführungsformen umfasst ein computergestütztes Verfahren zur Bild- oder Videocodierung ein Durchführen einer Wavelet-Zerlegung an dem Bild oder Frame, um mehrere Teilbänder zu erzeugen, Erzeugen eines Referenzbilds für eine Zwischenschicht-Vorhersage eines ersten Teilbands der mehreren Teilbänder auf der Grundlage des Bildes oder Frames, Codieren des ersten Teilbands auf der Grundlage der Zwischenschicht-Vorhersage unter Verwendung eines mit der Skalierbaren Hocheffizienten Videocodierung (SHVC) konformen Encoders, um einen Datenstrom zu erzeugen, der dem ersten Teilband zugeordnet ist, Codieren der übrigen Teilbänder der mehreren Teilbänder, um einen oder mehrere zweite mit High Efficiency Video Coding (HEVC) konforme Datenströme zu erzeugen, und Multiplexen des Datenstroms, der dem ersten Teilband zugeordnet ist, und der zweiten Datenströme, um einen skalierbaren Datenstrom zu erzeugen.
  • Weiter zu den fünften Ausführungsformen, umfasst das Erzeugen des Referenzbilds ein Codieren des Referenzbilds auf der Grundlage von mindestens einem von einem HEVC-konformen Encoder oder einem mit einer fortentwickelten Videocodierung (Advanced Video Coding, AVC) konformen Encoder.
  • Weiter zu den fünften Ausführungsformen, umfasst das Erzeugen des Referenzbilds ein Abwärtsabtasten des ursprünglichen Bildes oder Frames, um ein abwärts abgetastetes Bild zu erzeugen, und ein Codieren des abwärts abgetasteten Bildes, um das Referenzbild zu erzeugen.
  • Weiter zu den fünften Ausführungsformen umfasst das Erzeugen des Referenzbilds ein Abwärtsabtasten des ursprünglichen Bildes oder Frames, um ein abwärts abgetastetes Bild zu erzeugen, und ein Codieren des abwärts abgetasteten Bildes, um das Referenzbild zu erzeugen, und umfasst das Abwärtsabtasten ein Abwärtsabtasten um zwei in der horizontalen und vertikalen Dimension.
  • Weiter zu den fünften Ausführungsformen umfasst das Erzeugen des Referenzbilds ein Begrenzen der Bit-Tiefe des ersten Teilbands, um ein abwärts abgetastetes Bild zu erzeugen, und ein Codieren des abwärts abgetasteten Bildes, um das Referenzbild zu erzeugen.
  • Weiter zu den fünften Ausführungsformen umfasst das Erzeugen des Referenzbilds ein Begrenzen der Bit-Tiefe des ersten Teilbands, um ein abwärts abgetastetes Bild zu erzeugen, und ein Codieren des abwärts abgetasteten Bildes, um das Referenzbild zu erzeugen, und eine Bit-Tiefe des ersten Teilbands ist 9 Bit, und eine Bit-Tiefe des abwärts abgetasteten Bildes ist 8 Bit, oder eine Bit-Tiefe des ersten Teilbands ist 10 Bit, und eine Bit-Tiefe des abwärts abgetasteten Bildes ist 9 Bit.
  • Weiter zu den fünften Ausführungsformen umfasst das Erzeugen des Referenzbilds ein Abwärtsabtasten des ursprünglichen Bildes oder Frames, um ein abwärts abgetastetes Bild zu erzeugen, ein Codieren des abwärts abgetasteten Bildes, um das codierte Bild zu erzeugen, und ein Aufwärtsabtasten des codierten Bildes, um das Referenzbild zu erzeugen.
  • Weiter zu den fünften Ausführungsformen umfasst das Erzeugen des Referenzbilds ein Abwärtsabtasten des ursprünglichen Bildes oder Frames, um ein abwärts abgetastetes Bild zu erzeugen, ein Codieren des abwärts abgetasteten Bildes, um das codierte Bild zu erzeugen, und ein Aufwärtsabtasten des codierten Bildes, um das Referenzbild zu erzeugen, und umfasst das Abwärtsabtasten ein Abwärtsabtasten um vier in der horizontalen und vertikalen Dimension, und umfasst das Aufwärtsabtasten ein Aufwärtsabtasten um zwei in der horizontalen und vertikalen Dimension.
  • Weiter zu den fünften Ausführungsformen umfasst das Verfahren ferner ein Bestimmen eines Zwischenschicht-Vorhersagemodus, der dem Bild oder Frame zugeordnet ist, und ein Erzeugen des Referenzbilds in Abhängigkeit von dem Zwischenschicht-Vorhersagemodus.
  • Weiter zu den fünften Ausführungsformen umfasst die Wavelet-Zerlegung wenigstens eines von der feststehenden oder der Adaptive-Wavelet-Analysefilterung.
  • In einer oder mehreren sechsten Ausführungsformen enthält ein System zur Bild- oder Videocodierung einen Speicher zum Speichern eines Bildes oder Frames und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, eine Wavelet-Zerlegung an dem Bild oder Frame durchzuführen, um mehrere Teilbänder zu erzeugen, ein Referenzbild für die Zwischenschicht-Vorhersage eines ersten Teilbands der mehreren Teilbänder auf der Grundlage des Bildes oder Frames zu erzeugen, das erste Teilbands auf der Grundlage der Zwischenschicht-Vorhersage unter Verwendung eines mit der Skalierbaren Hocheffizienten Videocodierung (High Efficiency Video Coding, SHVC) konformen Encoders zu codieren, um einen Datenstrom, zu erzeugen der dem ersten Teilband zugeordnet ist, die übrigen Teilbänder der mehreren Teilbänder zu codieren, um einen oder mehrere zweite mit High Efficiency Video Coding (HEVC) konforme Datenströme zu erzeugen, und den Datenstrom, der dem ersten Teilband und den zweiten Datenströmen zugeordnet ist, zu multiplexen, um einen skalierbaren Datenstrom zu erzeugen.
  • Weiter zu den sechsten Ausführungsformen beinhaltet der Prozessor, um das Referenzbild zu erzeugen, dass der Prozessor dafür ausgelegt ist, das ursprüngliche Bild bzw. den Frame abwärts abzutasten, um ein abwärts abgetastetes Bild zu erzeugen, und das abwärts abgetastete Bild zu codieren, um das Referenzbild zu erzeugen.
  • Weiter zu den sechsten Ausführungsformen beinhaltet der Prozessor, um das Referenzbild zu erzeugen, dass der Prozessor dafür ausgelegt ist, eine Bit-Tiefe des ersten Teilbands zu begrenzen, um ein abwärts abgetastetes Bild zu erzeugen, und das abwärts abgetastete Bild zu codieren, um das Referenzbild zu erzeugen.
  • Weiter zu den sechsten Ausführungsformen beinhaltet der Prozessor, um das Referenzbild zu erzeugen, dass der Prozessor dafür ausgelegt ist, das ursprüngliche Bild bzw. den Frame abwärts zu tasten, um ein abwärts abgetastetes Bild zu erzeugen, das abwärts abgetastete Bild zu codieren, um das codierte Bild zu erzeugen, und das codierte Bild aufwärts abzutasten, um das Referenzbild zu erzeugen.
  • Weiter zu den sechsten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, einen Zwischenschicht-Vorhersagemodus zu ermitteln, der dem Bild oder Frame zugeordnet ist, und in Abhängigkeit von dem Zwischenschicht-Vorhersagemodus das Referenzbild zu erzeugen.
  • In einer oder mehreren siebten Ausführungsformen umfasst ein computergestütztes Verfahren zur Bild- oder Videodecodierug ein Demultiplexen eines skalierbaren Datenstroms, um mehrere Datenströme, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, und einen zweiten Datenstrom vorzusehen, der einem Referenzbild für eine Zwischenschicht-Vorhersage zugeordnet ist, ein Decodieren des zweiten Datenstroms, um das Referenzbild zu erzeugen, ein Decodieren eines ersten Datenstroms der mehreren Datenströme unter Verwendung eines Skalierbaren Hocheffizienten Videocodierungs(SHVC)-Decoder, um ein erstes Teilband zu erzeugen, ein Decodieren übriger Datenströme der mehreren Datenströme, um übrige Teilbänder der mehreren Wavelet-Teilbändern zu erzeugen, und ein Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung.
  • Weiter zu den siebten Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  • Weiter zu den siebten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das rekonstruierte Bild bzw. der Frame das Referenzbild beinhaltet.
  • Weiter zu den siebten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das rekonstruierte Bild bzw. der Frame das Referenzbild beinhaltet, und das Rekonstruieren des Bildes oder Frames mindestens eines von einem Begrenzen der Bit-Tiefe oder einem Aufwärtsabtasten des ersten Teilbands umfasst.
  • Weiter zu den siebten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das rekonstruierte Bild bzw. der Frame das Referenzbild beinhaltet, und das Rekonstruieren des Bildes oder Frames mindestens eines von einem Begrenzen der Bit-Tiefe oder einem Aufwärtsabtasten des ersten Teilbands umfasst, und das Rekonstruieren des Bildes oder Frames mindestens eines von einem Begrenzen der Bit-Tiefe oder einem Aufwärtsabtasten des ersten Teilbands umfasst.
  • Weiter zu den siebten Ausführungsformen, ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames ein Durchführen einer Wavelet-Synthesefilterung an dem ersten Teilband und an den übrigen Teilbänder umfasst, um das rekonstruierte Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • In einer oder mehreren achten Ausführungsformen enthält ein System zur Bild- oder Videodecodierung einen Speicher zum Speichern eines skalierbaren Datenstroms und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, den skalierbaren Datenstrom zu demultiplexen, um mehrere Datenströme, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, und einen zweiten Datenstrom vorzusehen, der einem Referenzbild für eine Zwischenschicht-Vorhersage zugeordnet ist, den zweiten Datenstrom zu decodieren, um das Referenzbild zu erzeugen, einen ersten Datenstrom der mehreren Datenströme unter Verwendung eines Skalierbaren Hocheffizienten Videocodierungs(SHVC)-Decoders zu decodieren, um ein erstes Teilband zu erzeugen, übrige Datenströme der mehreren Datenströme zu decodieren, um übrige Teilbänder der mehreren Wavelet-Teilbänder zu erzeugen, und auf der Grundlage der Decodierung ein Bild bzw. einen Frame zu rekonstruieren.
  • Weiter zu den achten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, auf die Ausgabeauswahl anspricht.
  • Weiter zu den achten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet und das rekonstruierte Bild bzw. der Frame das Referenzbild beinhaltet.
  • Weiter zu den achten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine mittlere Auflösung aufweist, und das rekonstruierte Bild bzw. der Frame das erste Teilband beinhalten.
  • Weiter zu den achten Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, auf die Ausgabeauswahl anspricht, und die Ausgabeauswahl eine volle Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um eine Wavelet-Synthesefilterung an dem ersten Teilband und an den übrigen Teilbänder durchzuführen, um das rekonstruierte Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  • In einem oder mehreren neunten Ausführungsformen umfasst ein computergestütztes Verfahren zur Bild- oder Videocodierung ein Aufwärtsabtasten eines ursprünglichen Bildes oder Frames, um ein aufwärts abgetastetes Bild bzw. Frame mit einem Skalierbarkeitsfaktor zwischen dem ursprünglichen Bild und dem aufwärts abgetasteten Bild zu erzeugen, ein Durchführen einer Wavelet-Zerlegung an dem aufwärts abgetasteten Bild oder Frame, um mehrere Teilbänder zu erzeugen, ein Codieren jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind, und ein Multiplexen der mehreren Teilbänder, um einen skalierbaren Datenstrom zu erzeugen.
  • Weiter zu den neunten Ausführungsformen beinhaltet der Skalierbarkeitsfaktor einen nicht ganzzahligen Wert.
  • Weiter zu den neunten Ausführungsformen beinhaltet der Skalierbarkeitsfaktor 1,5.
  • Weiter zu den neunten Ausführungsformen beinhaltet der Skalierbarkeitsfaktor wenigstens eines von 5/4, 4/3, oder 5/3.
  • Weiter zu den neunten Ausführungsformen beinhaltet die Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern.
  • Weiter zu den neunten Ausführungsformen beinhaltet die Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern, und die mehreren Teilbänder beinhalten LL-, HL-, LH- und HH-Teilbänder.
  • Weiter zu den neunten Ausführungsformen beinhaltet die Wavelet-Zerlegung ein zweistufiges Analysefiltern.
  • Weiter zu den neunten Ausführungsformen beinhaltet die Wavelet-Zerlegung ein zweistufiges Analysefiltern und die mehreren Teilbänder beinhalten LL-, HHL-, HLH- und HHHH-Teilbänder.
  • In einer oder mehreren zehnten Ausführungsformen enthält ein System zur Bild- oder Videocodierung einen Speicher zum Speichern eines ursprünglichen Bildes oder Frames und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, das ursprüngliche Bild bzw. den Frame aufwärts abzutasten, um ein aufwärts abgetastetes Bild bzw. Frame mit einem Skalierbarkeitsfaktor zwischen dem ursprünglichen Bild und dem aufwärts abgetasteten Bild zu erzeugen, eine Wavelet-Zerlegung an dem aufwärts abgetasteten Bild oder Frame durchzuführen, um mehrere Teilbänder zu erzeugen, jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders zu codieren, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind, und die mehreren Teilbänder zu multiplexen, um einen skalierbaren Datenstrom zu erzeugen.
  • Weiter zu den zehnten Ausführungsformen beinhaltet der Skalierbarkeitsfaktor 1,5.
  • Weiter zu den zehnten Ausführungsformen beinhaltet der Skalierbarkeitsfaktor wenigstens eines von 5/4, 4/3, oder 5/3.
  • Weiter zu den zehnten Ausführungsformen beinhaltet die Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern.
  • Weiter zu den zehnten Ausführungsformen beinhaltet die Wavelet-Zerlegung ein zweistufiges Analysefiltern.
  • In einer oder mehreren elften Ausführungsformen umfasst ein computergestütztes Verfahren zur Bild- oder Videodecodierug ein Demultiplexen eines skalierbaren Datenstroms, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme vorzusehen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, eine Decodierung jedes der mehreren Datenströme mittels eines HEVC-konformen Decoders, um die mehreren Wavelet-Teilbänder zu erzeugen, ein Durchführen einer Wavelet-Synthesefilterung an den mehreren decodierten Wavelet-Teilbändern, um ein rekonstruiertes Bild bzw. Frame zu erzeugen, und ein Abwärtsabtasten des rekonstruierten Bildes oder Frames durch ein Abwärtsabtastverhältnis, um ein Bild bzw. einen Frame zu erzeugen.
  • Weiter zu den elften Ausführungsformen beinhaltet das Abwärtsabtastverhältnis einen nicht ganzzahligen Wert.
  • Weiter zu den elften Ausführungsformen beträgt das Abwärtsabtastverhältnis 3/4, was einen Skalierbarkeitsfaktor von 1,5 zwischen dem Bild bzw. Frame und einem Bild niedriger Auflösung vorsieht, das auf einem ersten Teilband der mehreren Wavelet-Teilbänder basiert.
  • Weiter zu den elften Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und ein Wiedergeben eines Bildschirmbilds in Abhängigkeit von der Ausgabeauswahl.
  • Weiter zu den elften Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und Wiedergeben eines Bildschirmbilds in Abhängigkeit von der Ausgabeauswahl, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Bildschirmbild ein erstes Teilband der mehreren Wavelet-Teilbänder beinhaltet.
  • Weiter zu den elften Ausführungsformen umfasst das Verfahren ferner ein Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und Wiedergeben eines Bildschirmbilds in Abhängigkeit von der Ausgabeauswahl, und die Skalierbarkeit die Auswahl einer vollen Auflösung beinhaltet, und das Bildschirmbild das Bild bzw. den Frame beinhaltet.
  • Weiter zu den elften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine einstufige Wavelet-Synthesefilterung.
  • Weiter zu den elften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine einstufige Wavelet-Synthesefilterung, und die mehreren Teilbänder beinhalten LL-, HL-, LH- und HH-Teilbänder.
  • Weiter zu den elften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine zweistufige Wavelet-Synthesefilterung.
  • Weiter zu den elften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine zweistufige Wavelet-Synthesefilterung, und die mehreren Teilbänder beinhalten LL-, HHL-, HLH- und HHHH-Teilbänder.
  • In einer oder mehreren zwölften Ausführungsformen enthält ein System zur Bild- oder Videodecodierung einen Speicher zum Speichern eines skalierbaren Datenstroms und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, den skalierbaren Datenstrom zu demultiplexen, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme vorzusehen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, jeden der mehreren Datenströme mittels eines HEVC-konformen Decoders zu decodieren, um die mehreren Wavelet-Teilbänder zu erzeugen, eine Wavelet-Synthesefilterung an den mehreren decodierten Wavelet-Teilbändern durchführen, um ein rekonstruiertes Bild bzw. einen Frame zu erzeugen, und das rekonstruierte Bild bzw. den Frame durch ein Abwärtsabtastverhältnis abwärts abzutasten, um ein Bild bzw. einen Frame zu erzeugen.
  • Weiter zu den zwölften Ausführungsformen beträgt das Abwärtsabtastverhältnis 3/4, was einen Skalierbarkeitsfaktor von 1,5 zwischen dem Bild oder Frame und einem Bild niedriger Auflösung vorsieht, das auf einem ersten Teilband der mehreren Wavelet-Teilbänder basiert.
  • Weiter zu den zwölften Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und in Abhängigkeit von der Ausgabeauswahl ein Bildschirmbild vorzusehen.
  • Weiter zu den zwölften Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und in Abhängigkeit von der Ausgabeauswahl ein Bildschirmbild vorzusehen, und die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Bildschirmbild ein erstes Teilband der mehreren Wavelet-Teilbänder beinhaltet.
  • Weiter zu den zwölften Ausführungsformen ist der Prozessor ferner dafür ausgelegt, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und in Abhängigkeit von der Ausgabeauswahl ein Bildschirmbild vorzusehen, und die Skalierbarkeitsauswahl eine volle Auflösung beinhaltet, und das Bildschirmbild das Bild bzw. den Frame beinhaltet.
  • Weiter zu den zwölften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine einstufige Wavelet-Synthesefilterung.
  • Weiter zu den zwölften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine zweistufige Wavelet-Synthesefilterung.
  • Weiter zu den zwölften Ausführungsformen beinhaltet die Wavelet-Synthesefilterung eine zweistufige Wavelet-Synthesefilterung und die mehreren Teilbänder beinhalten LL-, HHL-, HLH- und HHHH-Teilbänder.
  • In einer oder mehreren dreizehnten Ausführungsformen kann wenigstens ein maschinenlesbares Medium mehrere Befehle enthalten, die in Antwort darauf, dass sie auf einer Computervorrichtung ausgeführt werden, die Computervorrichtung veranlassen, ein Verfahren gemäß einem beliebigen der oben erwähnten Ausführungsformen durchzuführen.
  • In einer oder mehreren vierzehnten Ausführungsformen kann eine Vorrichtung oder ein System Mittel zur Durchführung eines Verfahrens oder beliebiger Funktionen gemäß einer beliebigen der oben erwähnten Ausführungsformen enthalten.
  • Es wird einleuchten, dass die Ausführungsformen nicht auf die in dieser Weise beschriebenen Ausführungsformen beschränkt sind, sondern mit Modifikationen und Abänderungen in die Praxis umgesetzt werden können, ohne vom Umfang der beigefügten Patentansprüche abzuweichen. Beispielsweise können die oben erwähnten Ausführungsformen spezielle Kombination von Merkmalen aufweisen. Allerdings sind die oben erwähnten Ausführungsformen in dieser Hinsicht nicht beschränkt, und die oben erwähnten Ausführungsformen enthalten in unterschiedlichen Umsetzungen möglicherweise lediglich die Durchführung eines Teilsatzes solcher Ausstattungsmerkmale, die Durchführung einer unterschiedlichen Reihenfolge solcher Ausstattungsmerkmale, die Durchführung eine unterschiedlichen Kombination solcher Ausstattungsmerkmale und/oder die Durchführung zusätzlicher Merkmale, die sich von den ausdrücklich aufgelisteten Ausstattungsmerkmalen unterscheiden. Der Schutzumfang der Ausführungsformen sollte daher mit Bezug auf die beigefügten Patentansprüche, gemeinsam mit dem vollen Schutzumfang äquivalenter Formen ermittelt werden, zu denen derartige Ansprüche berechtigen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 14954837 [0001]
    • US 14954710 [0002]
    • US 14954715 [0002]

Claims (61)

  1. Computergestütztes Verfahren zur Bild- oder Videocodierung, aufweisend: Durchführen einer Wavelet-Zerlegung an einem ursprünglichen Bild oder Frame, um mehrere Teilbänder zu erzeugen; Codieren jedes der mehreren Teilbänder mittels eines mit einer Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind; und Multiplexen der mehreren Teilbänder, um einen einzelnen skalierbaren Datenstrom zu erzeugen, wobei wenigstens Teile des einzelnen skalierbaren Datenstroms HEVC-konform sind.
  2. Verfahren nach Anspruch 1, ferner aufweisend: Auswählen eines Wavelet-Analysefiltersatzes zum Durchführen der Wavelet-Zerlegung.
  3. Verfahren nach Anspruch 1, wobei das ursprüngliche Bild bzw. der Frame eine Bit-Tiefe von 8 Bit hat, und jedes der Teilbänder eine Bit-Tiefe von 9 Bit hat, oder wobei das ursprüngliche Bild bzw. der Frame eine Bit-Tiefe von 9 Bit hat, und jedes der Teilbänder eine Bit-Tiefe von 10 Bit hat.
  4. Verfahren nach Anspruch 1, wobei, wenn die Teilbänder eine Bit-Tiefe von 9 Bit haben, der HEVC-konforme Encoder wenigstens eines von einem 10-Bit-Intra-Encoderprofil oder einem 12-Bit-Intra-Encoderprofil aufweist, und, wenn die Teilbänder eine Bit-Tiefe von 11 Bit haben, der HEVC-konforme Encoder ein 12-Bit-Intra-Encoderprofil aufweist.
  5. Verfahren nach Anspruch 1, wobei der Schritt des Durchführens der Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern beinhaltet, und die mehreren Teilbänder vier Teilbänder beinhalten.
  6. Verfahren nach Anspruch 5, wobei die mehreren Teilbänder ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband beinhalten.
  7. Verfahren nach Anspruch 1, wobei der Schritt des Durchführens der Wavelet-Zerlegung eine mehrstufige Wavelet-Analysefilterung beinhaltet.
  8. Verfahren nach Anspruch 7, wobei die mehreren Teilbänder sieben Teilbänder beinhalten.
  9. Maschinenlesbares Medium oder mehrere maschinenlesbare Medien, die mehrere Befehle aufweisen, die in Antwort darauf, dass sie auf einer Vorrichtung ausgeführt werden, die Vorrichtung dazu veranlassen, eine Bild- oder Videocodierung durchzuführen durch: Durchführen einer Wavelet-Zerlegung an einem ursprünglichen Bild oder Frame, um mehrere Teilbänder zu erzeugen; Codieren jedes der mehreren Teilbänder mit einem mit einer Hocheffizienten Videocodierung (HEVC) konformen Encoder, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind; und Multiplexen der mehreren Teilbänder, um einen einzelnen skalierbaren Datenstrom zu erzeugen, wobei wenigstens Teile des einzelnen skalierbaren Datenstroms HEVC-konform sind.
  10. Maschinenlesbares Medium nach Anspruch 9, das ferner mehrere Befehle aufweist, die in Antwort darauf, dass sie auf der Vorrichtung ausgeführt werden, die Vorrichtung dazu veranlassen, eine Bild- oder Videocodierung durchzuführen durch: Auswählen eines Wavelet-Analysefiltersatzes zum Durchführen der Wavelet-Zerlegung.
  11. Maschinenlesbares Medium nach Anspruch 9, wobei, wenn die Teilbänder eine Bit-Tiefe von 9 Bit haben, der HEVC-konforme Encoder wenigstens eines von einem 10-Bit-Intra-Encoderprofil oder einem 12-Bit-Intra-Encoderprofil aufweist, und, wenn die Teilbänder eine Bit-Tiefe von 11 Bit haben, der HEVC-konforme Encoder ein 12-Bit-Intra-Encoderprofil aufweist.
  12. Maschinenlesbares Medium nach Anspruch 9, wobei der Schritt des Durchführens der Wavelet-Zerlegung ein einstufiges Wavelet-Analysefiltern beinhaltet, und die mehreren Teilbänder vier Teilbänder beinhalten.
  13. Maschinenlesbares Medium nach Anspruch 12, wobei die mehreren Teilbänder ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband beinhalten.
  14. Maschinenlesbares Medium nach Anspruch 9, wobei der Schritt des Durchführens der Wavelet-Zerlegung eine Mehrstufige Wavelet-Analysefilterung beinhaltet.
  15. System zur Bild- oder Videocodierung, aufweisend: einen Speicher zum Speichern eines ursprünglichen Bildes oder Frames; und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, an dem ursprünglichen Bild oder Frame eine Wavelet-Zerlegung durchzuführen, um mehrere Teilbänder zu erzeugen, jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders zu codieren, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind, und die mehreren Teilbänder zu multiplexen, um einen einzelnen skalierbaren Datenstrom zu erzeugen, wobei wenigstens Teile des einzelnen skalierbaren Datenstroms HEVC-konform sind.
  16. System nach Anspruch 15, wobei der Prozessor ferner dazu dient, einen Wavelet-Analysefiltersatz zum Durchführen der Wavelet-Zerlegung auszuwählen.
  17. System nach Anspruch 15, wobei, wenn die Teilbänder eine Bit-Tiefe von 9 Bit haben, der HEVC-konforme Encoder wenigstens eines von einem 10-Bit-Intra-Encoderprofil oder einem 12-Bit-Intra-Encoderprofil aufweist, und, wenn die Teilbänder eine Bit-Tiefe von 11 Bit haben, der HEVC-konforme Encoder ein 12-Bit-Intra-Encoderprofil aufweist.
  18. System nach Anspruch 15, wobei der Prozessor zur Durchführung der Wavelet-Zerlegung den Prozessor umfasst, um ein einstufiges Wavelet-Analysefiltern durchzuführen, und die mehreren Teilbänder vier Teilbänder beinhalten.
  19. System nach Anspruch 18, wobei die mehreren Teilbänder ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband beinhalten.
  20. System nach Anspruch 15, wobei der Prozessor zur Durchführung der Wavelet-Zerlegung den Prozessor umfasst, um eine mehrstufige Wavelet-Analysefilterung durchzuführen.
  21. System, aufweisend: Mittel zur Durchführung einer Wavelet-Zerlegung an einem ursprünglichen Bild oder Frame, um mehrere Teilbänder zu erzeugen; Mittel zur Codierung jedes der mehreren Teilbänder mittels eines mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konformen Encoders, um mehrere HEVC-konforme Datenströme zu erzeugen, die mit der HEVC-Codierung vorwärtskompatibel sind, die jeweils einem Teilband der mehreren Teilbänder zugeordnet sind; und Mittel zum Multiplexen der mehreren Teilbänder, um einen einzelnen skalierbaren Datenstrom zu erzeugen, wobei wenigstens Teile des einzelnen skalierbaren Datenstroms HEVC-konform sind.
  22. System 21, ferner aufweisend: Mittel zum Auswählen eines Wavelet-Analysefiltersatzes zum Durchführen der Wavelet-Zerlegung.
  23. System nach Anspruch 21, wobei, wenn die Teilbänder eine Bit-Tiefe von 9 Bit haben, der HEVC-konforme Encoder wenigstens eines von einem 10-Bit-Intra-Encoderprofil oder einem 12-Bit-Intra-Encoderprofil aufweist, und, wenn die Teilbänder eine Bit-Tiefe von 11 Bit haben, der HEVC-konforme Encoder ein 12-Bit-Intra-Encoderprofil aufweist.
  24. System nach Anspruch 21, wobei die Mittel zur Durchführung der Wavelet-Zerlegung Mittel zur Durchführung einer einstufigen Wavelet-Analysefilterung aufweisen, und die mehreren Teilbänder vier Teilbänder beinhalten.
  25. System nach Anspruch 24, wobei die mehreren Teilbänder ein LL-Teilband, ein LH-Teilband, ein HL-Teilband und ein HH-Teilband beinhalten.
  26. System nach Anspruch 21, wobei die Mittel zur Durchführung der Wavelet-Zerlegung Mittel zur Durchführung einer mehrstufigen Wavelet-Analysefilterung beinhalten.
  27. Computergestütztes Verfahren zur Bild- oder Videodecodierung, umfassend: Demultiplexen eines skalierbaren Datenstroms, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, Decodieren wenigstens eines der mehreren Datenströme mittels eines HEVC-konformen Decoders; und Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung.
  28. Verfahren nach Anspruch 27, ferner aufweisend: Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  29. Verfahren nach Anspruch 28, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL-Teilbands mittels des für die Hocheffiziente Videocodierung konformen Decoders basiert.
  30. Verfahren nach Anspruch 29, wobei das Rekonstruieren des Bildes oder Frames ferner wenigstens eines von einem Anwenden eines Bit-Tiefen-Begrenzers oder einem Durchführen eines Aufwärtsabtastens beinhaltet.
  31. Verfahren nach Anspruch 28, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames umfasst: Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, um wenigstens mittels des HEVC-konformen Decoders, mehrere decodierte Teilbänder zu erzeugen; und Durchführen einer Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  32. Verfahren nach Anspruch 27, ferner aufweisend: Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  33. Verfahren nach Anspruch 32, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL2-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert.
  34. Verfahren nach Anspruch 33, wobei das Rekonstruieren des Bildes oder Frames ferner ein Anwenden eines Bit-Tiefen-Begrenzers und ein Durchführen einer 1:4 Aufwärtsabtastung beinhaltet.
  35. Verfahren nach Anspruch 32, wobei die Ausgabeauswahl eine mittlere Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames umfasst: Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der mehreren Datenströme beinhalten; und Durchführen einer einstufigen Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern, um das Bild bzw. den Frame zu erzeugen.
  36. Verfahren nach Anspruch 35, wobei das Rekonstruieren des Bildes oder Frames ferner ein Anwenden eines Bit-Tiefen-Begrenzers und ein Durchführen einer 1:2 Aufwärtsabtastung beinhaltet.
  37. Verfahren nach Anspruch 32, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames umfasst: Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme sämtliche der mehreren Datenströme beinhalten; und Durchführen einer mehrstufigen Wavelet-Analysefilterung an den mehreren decodierten Teilbändern, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  38. Maschinenlesbares Medium oder mehrere maschinenlesbare Medien, die mehrere Befehle aufweisen, die in Antwort darauf, dass sie auf einer Vorrichtung ausgeführt werden, die Vorrichtung dazu veranlassen, eine Bild- oder Videodecodierung durchzuführen durch: Demultiplexen eines skalierbaren Datenstroms, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind; Decodierung wenigstens eines der mehreren Datenströme mittels eines HEVC-konformen Decoders; und Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung.
  39. Maschinenlesbares Medium nach Anspruch 38, das ferner mehrere Befehle aufweist, die in Antwort darauf, dass sie auf der Vorrichtung ausgeführt werden, die Vorrichtung dazu veranlassen, die Bild- oder Videodecodierung durchzuführen durch: Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  40. Maschinenlesbares Medium nach Anspruch 39, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL-Teilbands mittels des für die Hocheffiziente Videocodierung konformen Decoders basiert.
  41. Maschinenlesbares Medium nach Anspruch 39, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames umfasst: Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des HEVC-konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen; und Durchführen einer Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  42. Maschinenlesbares Medium nach Anspruch 38, das ferner mehrere Befehle aufweist, die in Antwort darauf, dass sie auf der Vorrichtung ausgeführt werden, die Vorrichtung dazu veranlassen, die Bild- oder Videodecodierung durchzuführen durch: Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  43. Maschinenlesbares Medium nach Anspruch 42, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL2-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert.
  44. Maschinenlesbares Medium nach Anspruch 42, wobei die Ausgabeauswahl eine mittlere Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames umfasst: Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit des Hocheffizienten Videocodierung konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der mehreren Datenströme beinhalten; und Durchführen einer einstufigen Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern, um das Bild bzw. den Frame zu erzeugen.
  45. Maschinenlesbares Medium nach Anspruch 42, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und das Rekonstruieren des Bildes oder Frames umfasst: Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme sämtliche der mehreren Datenströme beinhalten; und Durchführen einer mehrstufigen Wavelet-Analysefilterung an den mehreren decodierten Teilbändern, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  46. System zur Bild- oder Videodecodierung, umfassend: einen Speicher zum Speichern eines skalierbaren Datenstroms; und einen Prozessor, der mit dem Speicher verbunden ist, wobei der Prozessor dafür ausgelegt ist, den skalierbaren Datenstrom zu demultiplexen, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind, wenigstens einen der mehreren Datenströme mittels eines HEVC-konformen Decoders zu decodieren und auf der Grundlage der Decodierung ein Bild bzw. einen Frame zu rekonstruieren.
  47. System nach Anspruch 46, wobei der Prozessor ferner dazu dient, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  48. System nach Anspruch 47, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, aus dem Prozessor besteht, um ein LL-Teilband mittels des mit der Hocheffizienten Videocodierung konformen Decoders zu decodieren.
  49. System nach Anspruch 47, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um wenigstens mittels des HEVC-konformen Decoders mehrere Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, zu decodieren, um mehrere decodierte Teilbänder zu erzeugen, und an den mehreren decodierten Teilbändern eine Wavelet-Synthesefilterung durchzuführen, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  50. System nach Anspruch 46, wobei der Prozessor ferner dazu dient, eine Ausgabeauswahl zu ermitteln, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei das Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl anspricht.
  51. System nach Anspruch 50, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, aus dem Prozessor besteht, um ein LL2-Teilband mittels des mit der Hocheffizienten Videocodierung konformen Decoders zu decodieren.
  52. System nach Anspruch 50, wobei die Ausgabeauswahl eine mittlere Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um mehrere Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders, zu decodieren, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der mehreren Datenströme beinhalten, und um eine einstufige Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern durchzuführen, um das Bild bzw. den Frame zu erzeugen.
  53. System nach Anspruch 50, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und der Prozessor, um das Bild bzw. den Frame zu rekonstruieren, den Prozessor umfasst, um mehrere Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit des Hocheffizienten Videocodierung konformen Decoders, zu decodieren, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme sämtliche der mehreren Datenströme beinhalten, und um an den mehreren decodierten Teilbändern eine Mehrstufige Wavelet-Analysefilterung durchzuführen, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  54. System, aufweisend: Mittel zum Demultiplexen eines skalierbaren Datenstroms, wobei wenigstens Teile des skalierbaren Datenstroms mit der Hocheffizienten Videocodierung (High Efficiency Video Coding, HEVC) konform sind, um mehrere Datenströme zu erzeugen, die jeweils einem Teilband mehrerer Wavelet-Teilbänder zugeordnet sind; Mittel zum Decodieren wenigstens eines der mehreren Datenströme mittels eines HEVC-konformen Decoders; und Mittel zum Rekonstruieren eines Bildes oder Frames auf der Grundlage der Decodierung.
  55. System nach Anspruch 54, ferner aufweisend: Mittel zum Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung oder einer vollen Auflösung beinhaltet, und wobei die Mittel zum Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl ansprechen.
  56. System nach Anspruch 55, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und die Mittel zum Rekonstruieren des Bildes oder Frames auf Mitteln zum Decodieren eines LL-Teilbands mittels des für eine Hocheffiziente Videocodierung konformen Decoders basieren.
  57. System nach Anspruch 55, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und die Mittel zum Rekonstruieren des Bildes oder Frames beinhalten: Mittel zum Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des HEVC-konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen; und Mittel zur Durchführung einer Wavelet-Synthesefilterung an den mehreren decodierten Teilbändern, um das ursprüngliche Bild bzw. den Frame mit voller Auflösung zu erzeugen.
  58. System nach Anspruch 54, ferner aufweisend: Mittel zum Bestimmen einer Ausgabeauswahl, die dem Bild oder Frame zugeordnet ist, wobei die Ausgabeauswahl wenigstens eines von einer niedrigen Auflösung, einer mittleren Auflösung oder einer vollen Auflösung beinhaltet, und wobei die Mittel zum Rekonstruieren des Bildes oder Frames auf die Ausgabeauswahl ansprechen.
  59. System nach Anspruch 58, wobei die Ausgabeauswahl eine niedrige Auflösung beinhaltet, und das Rekonstruieren des Bildes oder Frames auf einem Decodieren eines LL2-Teilbands mittels des mit der Hocheffizienten Videocodierung konformen Decoders basiert.
  60. System nach Anspruch 58, wobei die Ausgabeauswahl eine mittlere Auflösung aufweist, und die Mittel zum Rekonstruieren des Bildes oder Frames aufweisen: Mittel zum Decodieren mehrerer Datenströme, die jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme einen Teilsatz der decodierten mehreren Datenströme beinhalten; und Mittel zur Durchführung einer einstufigen Wavelet-Synthesefilterung an den mehreren dekodierten Teilbändern, um das Bild bzw. den Frame zu erzeugen.
  61. System nach Anspruch 58, wobei die Ausgabeauswahl eine volle Auflösung aufweist, und die Mittel zum Rekonstruieren des Bildes oder Frames beinhalten: Mittel zum Decodieren mehrerer Datenströme, jeweils einem Teilband der mehreren Wavelet-Teilbänder zugeordnet sind, wenigstens mittels des mit der Hocheffizienten Videocodierung konformen Decoders, um mehrere decodierte Teilbänder zu erzeugen, wobei die mehreren Datenströme sämtliche der mehreren Datenströme beinhalten; und Mittel zur Durchführung einer mehrstufigen Wavelet-Analysefilterung an den mehreren decodierten Teilbändern, um das Bild bzw. den Frame mit voller Auflösung zu erzeugen.
DE112016005457.2T 2015-11-30 2016-09-20 Effiziente, kompatible und skalierbare Intra-Video/Bild-Codierung unter Verwendung von Wavelets und HEVC-Codierung Pending DE112016005457T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/954,837 2015-11-30
US14/954,837 US10602187B2 (en) 2015-11-30 2015-11-30 Efficient, compatible, and scalable intra video/image coding using wavelets and HEVC coding
PCT/US2016/052709 WO2017095506A1 (en) 2015-11-30 2016-09-20 Efficient, compatible, and scalable intra video/image coding using wavelets and hevc coding

Publications (1)

Publication Number Publication Date
DE112016005457T5 true DE112016005457T5 (de) 2018-08-23

Family

ID=58778336

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016005457.2T Pending DE112016005457T5 (de) 2015-11-30 2016-09-20 Effiziente, kompatible und skalierbare Intra-Video/Bild-Codierung unter Verwendung von Wavelets und HEVC-Codierung

Country Status (3)

Country Link
US (1) US10602187B2 (de)
DE (1) DE112016005457T5 (de)
WO (1) WO2017095506A1 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423880B1 (ko) * 2015-10-06 2022-07-21 삼성전자주식회사 인코더의 작동방법과 상기 인코더를 포함하는 시스템 온 칩의 작동 방법
JP6566865B2 (ja) * 2015-12-28 2019-08-28 Kddi株式会社 動画像復号装置、動画像復号方法、動画像符号化装置、動画像符号化方法及びコンピュータ可読記録媒体
US9992502B2 (en) * 2016-01-29 2018-06-05 Gopro, Inc. Apparatus and methods for video compression using multi-resolution scalable coding
EP3465085B1 (de) 2016-06-06 2021-12-29 SZ DJI Osmo Technology Co., Ltd. Trägergestützte verfolgung
WO2017210822A1 (en) * 2016-06-06 2017-12-14 Sz Dji Osmo Technology Co., Ltd. Image processing for tracking
US10616583B2 (en) * 2016-06-30 2020-04-07 Sony Interactive Entertainment Inc. Encoding/decoding digital frames by down-sampling/up-sampling with enhancement information
US10914957B1 (en) 2017-05-30 2021-02-09 Apple Inc. Video compression methods and apparatus
US11049219B2 (en) 2017-06-06 2021-06-29 Gopro, Inc. Methods and apparatus for multi-encoder processing of high resolution content
US10521881B1 (en) 2017-09-28 2019-12-31 Apple Inc. Error concealment for a head-mountable device
US10715812B2 (en) * 2018-07-13 2020-07-14 Tencent America LLC Method and apparatus for video coding
US11228781B2 (en) 2019-06-26 2022-01-18 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
US11917205B2 (en) * 2019-07-05 2024-02-27 Tencent America LLC Techniques and apparatus for scalable lifting for point-cloud attribute coding
CN110460844B (zh) * 2019-08-13 2021-07-09 杭州电子科技大学 基于dwt的3d-hevc快速cu分割预测方法
US11481863B2 (en) 2019-10-23 2022-10-25 Gopro, Inc. Methods and apparatus for hardware accelerated image processing for spherical projections
KR20210067788A (ko) * 2019-11-29 2021-06-08 삼성전자주식회사 전자 장치, 시스템 및 그 제어 방법
US11330296B2 (en) * 2020-09-14 2022-05-10 Apple Inc. Systems and methods for encoding image data

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3844844B2 (ja) * 1997-06-06 2006-11-15 富士通株式会社 動画像符号化装置及び動画像符号化方法
US6771695B1 (en) * 1999-07-30 2004-08-03 Agere Systems Inc. Low-complexity DMT transceiver
US7321625B2 (en) 2002-12-13 2008-01-22 Ntt Docomo, Inc. Wavelet based multiresolution video representation with spatially scalable motion vectors
FR2867328A1 (fr) 2004-03-02 2005-09-09 Thomson Licensing Sa Procede de decodage d'une sequence d'images codee avec echelonnabilite spatiale et temporelle
US8116374B2 (en) 2004-05-07 2012-02-14 Broadcom Corporation Method and system for generating a transform size syntax element for video decoding
KR100654436B1 (ko) 2004-07-07 2006-12-06 삼성전자주식회사 비디오 코딩 방법과 디코딩 방법, 및 비디오 인코더와디코더
KR100679011B1 (ko) 2004-07-15 2007-02-05 삼성전자주식회사 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치
US20080095235A1 (en) 2006-10-20 2008-04-24 Motorola, Inc. Method and apparatus for intra-frame spatial scalable video coding
US9031129B2 (en) 2007-06-15 2015-05-12 Microsoft Technology Licensing, Llc Joint spatio-temporal prediction for video coding
US8331444B2 (en) 2007-06-26 2012-12-11 Qualcomm Incorporated Sub-band scanning techniques for entropy coding of sub-bands
US8953673B2 (en) 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US20100208795A1 (en) * 2009-02-19 2010-08-19 Motorola, Inc. Reducing aliasing in spatial scalable video coding
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US20120224027A1 (en) 2009-08-20 2012-09-06 Yousuke Takada Stereo image encoding method, stereo image encoding device, and stereo image encoding program
US8879632B2 (en) 2010-02-18 2014-11-04 Qualcomm Incorporated Fixed point implementation for geometric motion partitioning
US9788019B2 (en) 2011-03-09 2017-10-10 Hfi Innovation Inc. Method and apparatus of transform unit partition with reduced complexity
US9247254B2 (en) 2011-10-27 2016-01-26 Qualcomm Incorporated Non-square transforms in intra-prediction video coding
GB2496194A (en) 2011-11-07 2013-05-08 Sony Corp Entropy encoding video data using reordering patterns
WO2013106190A1 (en) 2012-01-09 2013-07-18 Dolby Laboratories Licensing Corporation Hybrid reference picture reconstruction method for single and multiple layered video coding systems
US9749633B2 (en) * 2012-01-19 2017-08-29 Vid Scale, Inc. System and method of video coding quantization and dynamic range control
CN108055544B (zh) 2012-07-16 2020-09-08 三星电子株式会社 Sao编码方法和设备以及sao解码方法和设备
US20140092956A1 (en) 2012-09-29 2014-04-03 Motorola Mobility Llc Adaptive transform options for scalable extension
JP6055555B2 (ja) 2012-11-13 2016-12-27 インテル コーポレイション 次世代ビデオのためのビデオコーデックアーキテクチャ
EP2920962A4 (de) 2012-11-13 2016-07-20 Intel Corp Inhaltsadaptive transformationscodierung für videos der nächsten generation
US9497473B2 (en) * 2013-10-03 2016-11-15 Qualcomm Incorporated High precision explicit weighted prediction for video coding
EP2945387A1 (de) * 2014-05-13 2015-11-18 Alcatel Lucent Verfahren und Vorrichtung zur Kodierung und Dekodierung von Videos
EP3158734A4 (de) 2014-06-19 2017-04-26 Microsoft Technology Licensing, LLC Vereinheitlichte intrablockkopie und interprädiktionsmodi
EP3160142A1 (de) 2015-10-21 2017-04-26 Thomson Licensing Verfahren zur codierung und verfahren zur decodierung eines lichtfeldbasierten bildes und zugehörige vorrichtungen

Also Published As

Publication number Publication date
US10602187B2 (en) 2020-03-24
WO2017095506A1 (en) 2017-06-08
US20170155924A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
DE112016005457T5 (de) Effiziente, kompatible und skalierbare Intra-Video/Bild-Codierung unter Verwendung von Wavelets und HEVC-Codierung
CN108293138B (zh) 有效和可缩放帧内视频/图像编码
US20170155905A1 (en) Efficient intra video/image coding using wavelets and variable size transform coding
DE102019218837A1 (de) VERFAHREN UND SYSTE M ZUR NEURONALNETZ WERK-SCHLEIFENFILTERUNG ZUR VlDEOCODIERUNG
US8126054B2 (en) Method and apparatus for highly scalable intraframe video coding
DE102004059978B4 (de) Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium
DE102013105461A1 (de) Ratensteuerverfahren für mehrschichtige Videocodierung, sowie Videocodiervorrichtung und Videosignalverarbeitungsvorrichtung, welche das Ratensteuerverfahren verwenden
US20120082243A1 (en) Method and Apparatus for Feature Based Video Coding
DE112018000280T5 (de) Entblockungsfilterung für 360-video
US20080095235A1 (en) Method and apparatus for intra-frame spatial scalable video coding
MX2013003871A (es) Metodo y aparato para escalabilidad espacial para hevc.
DE112017003212T5 (de) Verfahren und System zur Videocodierung mit Kontextdecodierung und Rekonstruktionsumgehung
US20060159359A1 (en) Fine granularity scalable video encoding and decoding method and apparatus capable of controlling deblocking
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
US20100208795A1 (en) Reducing aliasing in spatial scalable video coding
WO2013173292A1 (en) Scalable video coding with enhanced base layer
DE102004011421B4 (de) Vorrichtung und Verfahren zum Erzeugen eines skalierten Datenstroms
DE102004011422B4 (de) Vorrichtung und Verfahren zum Verarbeiten einer Gruppe von Bildern und Vorrichtung und Verfahren zum Verarbeiten eines Basisbildes und eines oder mehrerer Erweiterungsbilder
DE102004063902B4 (de) Computerprogramm mit einem Verfahren zum Verarbeiten einer Gruppe von Bildern und mit einem Verfahren zum Verarbeiten eines Basisbildes und eines oder mehrerer Erweiterungsbilder
Thapa Video Compression Techniques: A Survey.
EP1839441A2 (de) Verfahren und vorrichtung zur nach feingranularität skalierbaren videokodierung und dekodierung und zur steuerung von entblockierungen
DE19715076A1 (de) Verfahren und Einrichtung zum Kodieren und Dekodieren von Videobildern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE

Representative=s name: HGF EUROPE LLP, DE

Representative=s name: HGF EUROPE LP, DE

R081 Change of applicant/patentee

Owner name: TAHOE RESEARCH, LTD., IE

Free format text: FORMER OWNER: INTEL CORPORATION, SANTA CLARA, CALIF., US

R082 Change of representative

Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE

R016 Response to examination communication