DE112017006610T5 - Bildverarbeitungsvorrichtung und Verfahren - Google Patents

Bildverarbeitungsvorrichtung und Verfahren Download PDF

Info

Publication number
DE112017006610T5
DE112017006610T5 DE112017006610.7T DE112017006610T DE112017006610T5 DE 112017006610 T5 DE112017006610 T5 DE 112017006610T5 DE 112017006610 T DE112017006610 T DE 112017006610T DE 112017006610 T5 DE112017006610 T5 DE 112017006610T5
Authority
DE
Germany
Prior art keywords
metadata
tile
slice
coded data
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112017006610.7T
Other languages
English (en)
Inventor
Ohji Nakagami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112017006610T5 publication Critical patent/DE112017006610T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks

Abstract

Die vorliegende Offenbarung betrifft eine Bildverarbeitungsvorrichtung und ein Verfahren, welche es möglich machen, die Erhöhung einer Decodierlast zu unterdrücken. Metadaten, die aus den codierten Daten eines Bewegtbildes extrahiert werden, werden entsprechend den codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aktualisiert. Zum Beispiel werden die slice-basierten Metadaten, die jedem Slice in dem Teilbereich entsprechen, aktualisiert. Die vorliegende Offenbarung kann beispielsweise auf Bildverarbeitungsvorrichtungen, Datenumwandlungsvorrichtungen, Bildcodierungsvorrichtungen, Bilddecodierungsvorrichtungen, Kommunikationsvorrichtungen und dergleichen angewendet werden.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren, und insbesondere eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren, die in der Lage sind, die Erhöhung einer Decodierlast zu verhindern.
  • STAND DER TECHNIK
  • Herkömmlicherweise wurde bei der hocheffizienten Videocodierung (HEVC) berücksichtigt, dass ein unabhängig decodierbarer Teilbereich unter Verwendung einer Kachel-Struktur zum Durchführen von MCTS-SEI (Management by Motion Constrained Tile Set Supplemental Enhancement Information, zu Deutsch: Verwaltung durch zusätzliche Erweiterungsinformationen bewegungsbeschränkter Kachelsätze) als Kachelsatz eingestellt wird (siehe z.B. Nicht-Patentdokumente 1 und 2).
  • Aufgrund der Tatsache, dass codierte Daten unabhängig decodierbar sind, ermöglicht die Extraktion codierter Daten eines Teils von Kachelsätzen aus codierten Daten eines Bewegtbildes, dass ein Bild des Teils von Kachelsätzen durch Decodierung der codierten Daten des Teils von Kachelsätzen erhalten wird. Das heißt, die Bereitstellung der codierten Daten des Teils der so extrahierten Kachelsätze auf einer Decodierseite ermöglicht die Reduzierung einer Codemenge der codierten Daten, die auf der Decodierseite bereitzustellen sind.
  • LISTE DER ENTGEGENHALTUNGEN
  • NICHT-PATENTDOKUMENTE
  • Nicht-Patentdokument 1: R. Skupin, „Motion-Constrained Tile Sets Extraction Information SEI Messages Draft 1“, JCTVC-Y1008, Joint Collaborative Team on Video Coding (JCT-VC) des ITU-T SG 16 WP 3 und ISO/IEC JTC 1/SC 29/WG 11 25. Meeting: Chengdu, CN, 14.-21. Oktober 2016 Nicht-Patentdokument 2: R. Skupin, Y. Sanchez, K. Gruneberg, C. Hellge, T. Schierl, „On MCTS extraction“, JCTVC-Y0031, Joint Collaborative Team on Video Coding (JCT-VC) des ITU-T SG 16 WP 3 und ISO/IEC JTC 1/SC 29/WG 11 25. Meeting: Chengdu, CN, 14.-21. Oktober 2016
  • KURZFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE AUFGABE
  • Bei der bloßen Extraktion von codierten Daten eines Teils von Kachelsätzen werden die Metadaten jedoch so beibehalten, wie sie vor der Extraktion waren, und es bestand die Möglichkeit, dass die Metadaten nach der Extraktion nicht richtig mit den codierten Daten des Teils von Kachelsätzen übereinstimmen. Folglich bestand die Möglichkeit, dass eine Last durch die Decodierung der codierten Daten des Teils von Kachelsätzen nach der Extraktion erhöht wird.
  • Die vorliegende Offenbarung wurde in Anbetracht einer solchen Situation vorgenommen und kann die Erhöhung einer Decodierlast verhindern.
  • LÖSUNG DER AUFGABE
  • Eine Bildverarbeitungsvorrichtung gemäß einem Aspekt der vorliegenden Technologie weist eine Metadaten-Aktualisierungseinheit auf, die Metadaten, welche aus codierten Daten eines Bewegtbildes extrahiert werden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aktualisiert.
  • Die Metadaten-Aktualisierungseinheit kann slice-basierten Metadaten, die jedem Slice in dem Teilbereich entsprechen, aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann Informationen über eine Adresse des Slice, die in den slice-basierten Metadaten enthalten sind, aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann Informationen über einen Versatz einer Kachel, die in den slice-basierten Metadaten enthalten sind, als Reaktion auf die Änderung einer Kachelausgestaltung in dem Slice aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann die slice-basierten Metadaten als Reaktion auf die Änderung einer Slice-Ausgestaltung in einem Bild hinzufügen oder löschen.
  • Die Metadaten-Aktualisierungseinheit kann bildbasierte Metadaten aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann Informationen über einen Kachelsatz, die in den bildbasierten Metadaten enthalten sind, als Reaktion auf eine Änderung einer Kachelausgestaltung in einem unabhängig decodierbaren Kachelsatz aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann Informationen über eine Kachelausgestaltung in einem Kachelsatz, die in den bildbasierten Metadaten enthalten sind, als Reaktion auf eine Änderung einer Kachelausgestaltung in einem unabhängig decodierbaren Kachelsatz aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann Informationen über einen Bildrahmen, die in den höheren Metadaten enthalten sind, entsprechend der Größe des Teilbereichs aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann Metadaten zu einem unabhängig decodierbaren Kachelsatz löschen.
  • Ferner ist eine Metadaten-Extraktionseinheit, die Metadaten aus codierten Daten des Bewegtbildes extrahiert, enthalten, und die Metadaten-Aktualisierungseinheit kann die von der Metadaten-Extraktionseinheit extrahierten Metadaten aktualisieren.
  • Die Metadaten-Extraktionseinheit kann höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, extrahieren.
  • Die Metadaten-Extraktionseinheit kann bildbasierte Metadaten extrahieren.
  • Ferner ist eine Datenextraktionseinheit, die codierte Daten des Teilbereichs aus codierten Daten des Bewegtbildes extrahiert, enthalten, und die Metadaten-Aktualisierungseinheit kann Metadaten, die in codierten Daten des Teilbereichs, die von der Datenextraktionseinheit extrahiert werden, enthalten sind, aktualisieren.
  • Die Metadaten-Aktualisierungseinheit kann slice-basierte Metadaten, die in codierten Daten des Teilbereichs enthalten sind, aktualisieren.
  • Die Datenextraktionseinheit kann codierte Daten eines unabhängig decodierbaren Teilbereichs extrahieren.
  • Die Datenextraktionseinheit kann codierte Daten des Teilbereichs nur dann extrahieren, wenn der Teilbereich rechteckig ist.
  • In einem Fall, in dem der Teilbereich nicht rechteckig ist, kann die Datenextraktionseinheit extrahierte codierte Daten aktualisieren, um den Teilbereich rechteckig zu machen.
  • Ein Bildverarbeitungsverfahren gemäß einem Aspekt der vorliegenden Technologie weist das Aktualisieren von Metadaten, welche aus codierten Daten eines Bewegtbildes extrahiert wurden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert wurden, auf.
  • In einer Bildverarbeitungsvorrichtung und einem Bildverarbeitungsverfahren gemäß einem Aspekt der vorliegenden Technologie werden Metadaten, die aus codierten Daten eines Bewegtbildes extrahiert wurden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert wurden, aktualisiert.
  • AUSWIRKUNGEN DER ERFINDUNG
  • Gemäß der vorliegenden Offenbarung kann ein Bild verarbeitet werden. Insbesondere kann die Erhöhung einer Decodierlast verhindert werden.
  • Figurenliste
    • 1 veranschaulicht ein Beispiel für die Kachelsatz-Extraktion.
    • 2 veranschaulicht ein Beispiel für die Kachelsatz-Extraktion.
    • 3 veranschaulicht ein Beispiel für die Datenaktualisierung, die die Kachelsatz-Extraktion begleitet.
    • 4 ist ein Blockdiagramm, das ein Hauptausgestaltungsbeispiel einer Datenumwandlungsvorrichtung veranschaulicht.
    • 5 ist ein Flussdiagramm, das ein Beispiel für einen Ablauf einer Umwandlungsverarbeitung darstellt.
    • 6 veranschaulicht ein Beispiel für eine durch einen Sequenz-Parametersatz aktualisierte Syntax.
    • 7 veranschaulicht ein Beispiel für eine durch einen Bild-Parametersatz aktualisierte Syntax.
    • 8 ist ein Flussdiagramm, das ein Beispiel für einen Ablauf einer Metadaten-Aktualisierungsverarbeitung darstellt.
    • 9 veranschaulicht ein Beispiel für eine durch einen Slice-Header aktualisierte Syntax.
    • 10 veranschaulicht ein Musterbeispiel für die Kachelsatz-Extraktion.
    • 11 veranschaulicht ein Musterbeispiel für die Kachelsatz-Extraktion.
    • 12 veranschaulicht ein Beispiel für eine Kachelausgestaltung eines Bildes.
    • 13 veranschaulicht ein Beispiel für die Kachelausgestaltung nach der Extraktion.
    • 14 veranschaulicht ein Beispiel für zu aktualisierende Parameter.
    • 15 veranschaulicht ein Beispiel für die Kachelausgestaltung nach der Extraktion.
    • 16 veranschaulicht ein Beispiel für zu aktualisierende Parameter.
    • 17 veranschaulicht ein Beispiel für die Kachelausgestaltung nach der Extraktion.
    • 18 veranschaulicht ein Beispiel für die Kachelausgestaltung nach der Extraktion.
    • 19 veranschaulicht ein Beispiel für zu aktualisierende Parameter.
    • 20 veranschaulicht ein Beispiel für die Kachelausgestaltung nach der Extraktion.
    • 21 veranschaulicht ein Beispiel für zu aktualisierende Parameter.
    • 22 veranschaulicht ein Beispiel für eine Einschränkung auf einen zu extrahierenden Kachelsatz.
    • 23 veranschaulicht ein Beispiel für eine MCTS-SEI-Syntax.
    • 24 ist ein Flussdiagramm, das ein Beispiel für einen Ablauf der Steuerungsverarbeitung darstellt.
    • 25 veranschaulicht ein Beispiel dafür, wie ein Kachelsatz rechteckig gemacht wird.
    • 26 ist ein Flussdiagramm, das ein Beispiel für einen Ablauf der Steuerungsverarbeitung darstellt.
    • 27 ist ein Blockdiagramm, das ein Hauptausgestaltungsbeispiel eines Computers veranschaulicht.
    • 28 ist ein Blockdiagramm, das ein Beispiel für eine schematische Ausgestaltung eines Netzwerksystems darstellt.
  • MODUS ZUR DURCHFÜHRUNG DER ERFINDUNG
  • Im Folgenden werden Ausführungsformen zur Durchführung der vorliegenden Offenbarung (im Folgenden Ausführungsformen genannt) beschrieben. Es wird darauf hingewiesen, dass die Beschreibung in der folgenden Reihenfolge erfolgt.
    1. 1. MCTS-SEI und Extraktion eines Teilbereichs
    2. 2. Erste Ausführungsform (Die Datenextraktion begleitende Metadatenkonvertierung)
    3. 3. Zweite Ausführungsform (Einschränkung des Kachelsatzes)
    4. 4. Sonstiges
  • <MCTS-SEI und Extraktion eines Teilbereichs>
  • Herkömmlicherweise, wie beispielsweise in den Nicht-Patentdokumenten 1 und 2 beschrieben, wurde bei der hocheffizienten Videocodierung (HEVC) berücksichtigt, dass ein unabhängig decodierbarer Teilbereich unter Verwendung einer Kachel(Tile)-Struktur zur Durchführung einer Verwaltung durch zusätzliche Erweiterungsinformationen bewegungsbeschränkter Kachelsätze (Management by Motion Constrained Tile Set Supplemental Enhancement Information, MCTS-SEI) als Kachelsatz eingestellt wird.
  • Aufgrund der unabhängigen Decodierbarkeit, wird davon ausgegangen, dass ein Bild eines Teilbereichs erhalten werden kann, indem nur codierte Daten des Teilbereichs, der einen Kachelsatz als Minimalbasis hat, decodiert werden. Zum Beispiel kann, wie in 1 veranschaulicht, in einem bewegten Bild mit einer Rahmengröße (Auflösung) von 8K × 4K, ein bewegtes Bild mit einer Rahmengröße von 2K × 1K, das einen Rahmen von Kachelsätzen TS1 bis TS7 aufweist, durch Decodieren codierter Daten des Kachelsatzes TS1 eines bestimmten Rahmens, Decodieren codierter Daten des Kachelsatzes TS2 des nächsten Rahmens, Decodieren codierter Daten des Kachelsatzes TS3 des nächsten Rahmens, Decodieren codierter Daten des Kachelsatzes TS4 des nächsten Rahmens, Decodieren codierter Daten des Kachelsatzes TS5 des nächsten Rahmens, Decodieren codierter Daten des Kachelsatzes TS6 des nächsten Rahmens und Decodieren codierter Daten des Kachelsatzes TS7 des nächsten Rahmens erhalten werden.
  • Beim Erhalten eines solchen 2K×1K-Bewegtbildes sind codierte Daten eines anderen Bereichs als der Kachelsätze TS1 bis TS7 nicht notwendig. Des Weiteren sind codierte Daten eines ursprünglichen Bewegtbildes in jedem Kachelsatz unabhängig decodierbar, und so können codierte Daten eines Teilbereichs wie vorstehend beschrieben aus den codierten Daten des ursprünglichen Bewegtbildes extrahiert werden. Das heißt, die codierten Daten des 2K×1K-Bewegtbildes können der Decodierseite zur Verfügung gestellt werden.
  • Wie in 2 veranschaulicht, wird beispielsweise ein Kachelsatz 0 (Kachelsatz 0) eines jeden Bildes aus einem Bitstrom A (Bitstrom A) extrahiert, um einen Bitstrom B (Bitstrom B) zu erzeugen. In dem Bitstrom A weist jedes Bild eine Vielzahl von Kachelsätzen auf (Kachelsätze 0 bis N). Der Bitstrom B hat die extrahierten Kachelsätze 0 als Bild.
  • Diese Ausgestaltung ermöglicht die Reduzierung einer Codemenge an codierten Daten, die der Decodierseite zur Verfügung gestellt werden, verglichen mit der Menge in einem Fall, in dem codierte Daten des ursprünglichen Bewegtbildes bereitgestellt werden. Diese Ausgestaltung ermöglicht, dass z.B. die Erhöhung einer Last (z.B. Verarbeitungsmenge, Puffermenge, Verarbeitungsdauer und dergleichen) bezüglich des Sendens auf einer Senderseite verhindert wird. Des Weiteren kann die Erhöhung einer Last (z.B. Bandbreitenbelegung und Belegungsdauer) auf einem Kommunikationsmedium, das codierte Daten überträgt, und einer Last (z.B. Speicherkapazität, Bandbreitenbelegung eines Eingabe-/Ausgabebusses des Speichermediums und Belegungsdauer) auf einem Speichermedium, in dem codierte Daten gespeichert werden, verhindert werden. Darüber hinaus kann die Erhöhung einer Last (z.B. Verarbeitungsmenge, Puffermenge, einer Verarbeitungsdauer und dergleichen) bezüglich des Empfangens auf einer Empfangsseite verhindert werden.
  • Bei der bloßen Extraktion von codierten Daten eines Teils von Kachelsätzen werden die Metadaten jedoch so beibehalten, wie sie vor der Extraktion waren, und es besteht die Möglichkeit, dass die Metadaten nach der Extraktion nicht richtig mit den codierten Daten des Teils von Kachelsätzen übereinstimmen. Wenn die Metadaten so beibehalten werden, wie sie vor der Extraktion waren, werden die extrahierten codierten Daten als codierte Daten eines Teilbereichs eines ursprünglichen Bewegtbildes verwaltet. Es bestand die Möglichkeit, dass die Decodierseite ein unnötig hohes Leistungsvermögen haben muss. So ist beispielsweise im Fall der 1 die Profilebene der codierten Daten des 8K×4K-Bewegtbildes 6.2 und die Profilebene der codierten Daten eines 2K×1K-Kachelsatzes ist 4.2. Das heißt, die ursprüngliche Profilebene der codierten Daten eines Kachelsatzes nach der Extraktion ist 4.2. Bei der Behandlung als Teilbereich von codierten Daten des ursprünglichen Bewegtbildes erhöht sich die Profilebene auf 6.2. Daher bestand die Möglichkeit, dass Decoder, die in der Lage sind, die codierten Daten zu decodieren, unnötig eingeschränkt werden.
  • Des Weiteren können z.B. Änderungen eines Slice oder einer Kachel in einem Bild aufgrund der Extraktion eines Teilbereichs und Änderungen einer Kachelausgestaltung in dem Slice nicht berücksichtigt werden. Dies führt dazu, dass die Ausgestaltung der Metadaten im Hinblick auf die Verwaltung nicht mit der tatsächlichen Ausgestaltung der codierten Daten übereinstimmt. Es bestand die Möglichkeit, dass es Schwierigkeiten bei der korrekten Decodierung gab. Mit anderen Worten, für eine korrekte Decodierung ist bei der Decodierung eine Verarbeitung zum Erkennen und Korrigieren einer solchen Nichtübereinstimmung zwischen Metadaten und codierten Daten erforderlich, und es bestand die Möglichkeit, dass eine Decodierlast erhöht wird.
  • Folglich werden die aus den codierten Daten des Bewegtbildes extrahierten Metadaten entsprechend den codierten Daten des Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aktualisiert. Zum Beispiel ist eine Bildverarbeitungsvorrichtung so ausgebildet, dass die Bildverarbeitungsvorrichtung eine Metadaten-Aktualisierungseinheit aufweist, die Metadaten, die aus den codierten Daten des Bewegtbildes extrahiert werden, gemäß den codierten Daten des Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aktualisiert. Diese Ausgestaltung ermöglicht, dass Metadaten nach der Extraktion richtig mit den codierten Daten des Teilbereichs übereinstimmen. Dadurch kann die Erhöhung einer Decodierlast verhindert werden.
  • Beispielsweise kann die Metadaten-Aktualisierungseinheit slice-basierte Metadaten, die jedem in dem Teilbereich enthaltenen Slice entsprechen, aktualisieren. Dieser Vorgang ermöglicht, dass Informationen der jeweiligen slice-basierten Metadaten den codierten Daten des Slice richtig entsprechen.
  • Es wird darauf hingewiesen, dass jegliche slice-basierten Metadaten verwendet werden. Beispielsweise kann ein Slice-Header verwendet werden. Im Allgemeinen weisen codierte Daten eines Bewegtbildes, das durch HEVC codiert wurde, wie ein Bitstrom A (Bitstrom A), der bei A in 3 veranschaulicht ist, höhere Metadaten auf, wie etwa einen Video-Parametersatz (VPS) und einen Sequenz-Parametersatz (SPS), Metadaten, wie etwa eine Supplemental Enhancement Information Network Abstraction Layer (SEI NAL), einschließlich MCTI-SEI und dergleichen, und Informationen eines jeden Bildes. Jedes Bild enthält einen Bild-Parametersatz (PPS), der Metadaten darstellt, und Informationen über jeden Slice (Slices 0 bis K). Jeder Slice weist einen Slice-Header (Slice-Header), der Metadaten darstellt, und Slice-Daten (Slice-Daten), die codierte Daten eines Bildes in dem Slice darstellen, auf.
  • Das Erzeugen des Bitstroms B (Bitstrom B) durch Extrahieren eines Teils von Slices aus dem Bitstrom A (Bitstrom A), der eine solche Ausgestaltung hat, bewirkt, dass der Bitstrom B eine Ausgestaltung wie beispielsweise unter B in 3 veranschaulicht hat. Das heißt, die Basisausgestaltung ähnelt der des Bitstroms A. Ein Slice-Header wird in Form von Metadaten für jeden Slice bereitgestellt. Die Aktualisierung eines solchen Slice-Headers (Slice-Header) eines jeden Slice (Slice-Header-Aktualisierung) ermöglicht, dass im Slice-Header enthaltene Informationen mit dem Slice-Header entsprechenden Slice-Daten übereinstimmen.
  • Zum Beispiel kann die Metadaten-Aktualisierungseinheit Informationen über die Adresse des Slice, die in den slice-basierten Metadaten enthalten sind, aktualisieren. Diese Aktualisierung ermöglicht, dass Informationen über die Adresse des Slice richtig mit den Slice-Daten übereinstimmen, z.B. um mit Änderungen einer Slice-Ausgestaltung in dem Bild und dergleichen übereinzustimmen. Es wird darauf hingewiesen, dass jegliche Informationen über die Adresse eines Slice verwendet werden. Beispielsweise können Informationen über die Adresse eines Kopfblocks einer Kopfkachel in einem Slice verwendet werden.
  • Zum Beispiel kann die Metadaten-Aktualisierungseinheit Informationen über einen Versatz einer Kachel, die in den slice-basierten Metadaten enthalten sind, als Reaktion auf eine Änderung einer Kachelausgestaltung in dem Slice aktualisieren. Diese Aktualisierung ermöglicht, dass Informationen über einen Versatz der Kachel richtig mit den codierten Daten des Slice übereinstimmen, z.B. um mit Änderungen einer Kachelausgestaltung in dem Slice und dergleichen übereinzustimmen. Es wird darauf hingewiesen, dass jegliche Informationen über einen Versatz einer Kachel verwendet werden. So können beispielsweise Informationen über den Versatz vom Kopf einer jeden Kachel, die in dem Slice enthalten ist, zur nächsten Kachel verwendet werden.
  • Zum Beispiel kann die Metadaten-Aktualisierungseinheit die slice-basierten Metadaten als Reaktion auf eine Änderung der Slice-Ausgestaltung in dem Bild hinzufügen oder löschen. Wie vorstehend mit Bezug auf 3 beschrieben, ist für jeden Slice in dem HEVC-Bitstrom ein Slice-Header vorgesehen. Folglich fügt die Metadaten-Aktualisierungseinheit beispielsweise einen Slice-Header für einen neuen Slice hinzu, wenn eine Slice-Ausgestaltung geändert und der neue Slice bereitgestellt wird, und löscht einen Slice-Header für einen Slice, wenn der Slice reduziert wird. Dieser Vorgang ermöglicht, dass die slice-basierten Metadaten mit der Slice-Ausgestaltung in dem Bild übereinstimmen.
  • Beispielsweise kann die Metadaten-Aktualisierungseinheit die bildbasierten Metadaten aktualisieren. Wie in B in 3 veranschaulicht, wird ein Bild-Parametersatz als Metadaten für jedes Bild des Bitstroms B bereitgestellt. Die Aktualisierung eines solchen Bild-Parametersatzes (PPS) eines jeden Bildes (PPS-Aktualisierung) ermöglicht, dass Informationen, die in dem Bild-Parametersatz enthalten sind, mit codierten Daten des Bildes (Slice-Daten eines jeden in dem Bild enthaltenen Slice) übereinstimmen.
  • Beispielsweise kann die Metadaten-Aktualisierungseinheit Informationen über einen Kachelsatz, die in den bildbasierten Metadaten enthalten sind, als Reaktion auf eine Änderung der Kachelausgestaltung in dem Kachelsatz, der unabhängig decodierbar ist, in dem Bild aktualisieren. Diese Aktualisierung ermöglicht, dass Informationen über den Kachelsatz mit den codierten Daten des Bildes übereinstimmen, z.B. mit Änderungen einer Kachelausgestaltung in dem Kachelsatz und dergleichen übereinstimmen. Es wird darauf hingewiesen, dass jegliche Informationen über den Kachelsatz verwendet werden. So können beispielsweise Identifikationsinformationen zum Identifizieren, ob eine Kachel den Kachelsatz bildet oder eine Vielzahl von Kacheln den Kachelsatz bildet, verwendet werden.
  • Beispielsweise kann die Metadaten-Aktualisierungseinheit Informationen über eine KachelAusgestaltung in einem Kachelsatz, die in den bildbasierten Metadaten enthalten sind, als Reaktion auf eine Änderung der Kachelausgestaltung in dem Kachelsatz, der unabhängig decodierbar ist, in dem Bild aktualisieren. Diese Aktualisierung ermöglicht, dass Informationen über die Kachelausgestaltung in dem Kachelsatz mit den codierten Daten des Bildes richtig übereinstimmen, z.B. mit Änderungen einer Kachelausgestaltung in dem Kachelsatz und dergleichen übereinstimmen. Es wird darauf hingewiesen, dass jegliche Informationen über eine Kachelausgestaltung in dem Kachelsatz verwendet werden. So können beispielsweise Informationen über die Anzahl der Unterteilungen (Anzahl der Kacheln) eines Kachelsatzes in Zeilen- und Spaltenrichtung verwendet werden.
  • Zum Beispiel kann die Metadaten-Aktualisierungseinheit höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, aktualisieren. Wie in B in 3 veranschaulicht, weist der Bitstrom B beispielsweise einen Sequenz-Parametersatz (SPS) und einen Video-Parametersatz (VPS) auf, die höhere Metadaten sind, die gleich oder höher als die Sequenzebene sind. Die Aktualisierung dieser höheren Metadaten (VPS- und SPS-Aktualisierungen) ermöglicht, dass die in den höheren Metadaten enthaltenen Informationen mit den in dem Bitstrom enthaltenen codierten Daten übereinstimmen.
  • Zum Beispiel kann die Metadaten-Aktualisierungseinheit Informationen über einen in den höheren Metadaten enthaltenen Bildrahmen entsprechend der Größe eines zu extrahierenden Teilbereichs aktualisieren. Diese Aktualisierung ermöglicht, dass die Informationen über den Bildrahmen mit der Größe eines jeden Bildes (Größe eines zu extrahierenden Teilbereichs) richtig übereinstimmen.
  • Zum Beispiel kann die Metadaten-Aktualisierungseinheit Metadaten über einen unabhängig decodierbaren Kachelsatz löschen. Zum Beispiel sind in einem Fall, in dem die Verwaltung eines Kachelsatzes nach der Extraktion im Bitstrom B nicht erforderlich ist, zum Beispiel in einem Fall, in dem ein Kachelsatz aus dem Bitstrom A bei A in 3 extrahiert wird, Metadaten bezüglich des Kachelsatzes nicht erforderlich. Folglich löscht die Metadaten-Aktualisierungseinheit die Metadaten über den Kachelsatz, was die Reduzierung einer Menge nicht erforderlicher Informationen des Bitstroms ermöglicht.
  • Es wird darauf hingewiesen, dass die Bildverarbeitungsvorrichtung ferner eine Metadaten-Extraktionseinheit aufweisen kann, die Metadaten aus codierten Daten eines Bewegtbildes extrahiert, und die Metadaten-Aktualisierungseinheit die von der Metadaten-Extraktionseinheit extrahierten Metadaten aktualisieren kann. In diesem Fall kann die Metadaten-Extraktionseinheit höhere Metadaten extrahieren, die gleich einer Sequenzebene oder höher als diese sind. Des Weiteren kann die Metadaten-Extraktionseinheit bildbasierte Metadaten extrahieren.
  • Des Weiteren kann die Bildverarbeitungsvorrichtung ferner eine Datenextraktionseinheit aufweisen, die codierte Daten eines Teilbereichs aus codierten Daten eines Bewegtbildes extrahiert, und die Metadaten-Aktualisierungseinheit kann die Metadaten, die in den codierten Daten des Teilbereichs enthalten sind, die von der Datenextraktionseinheit extrahiert werden, aktualisieren. In diesem Fall kann die Metadaten-Aktualisierungseinheit slice-basierte Metadaten, die in den codierten Daten des Teilbereichs enthalten sind, aktualisieren.
  • <Erste Ausführungsform>
  • <Datenumwandlungsvorrichtung>
  • 4 ist ein Blockdiagramm, das ein Beispiel für die Ausgestaltung einer Datenumwandlungsvorrichtung veranschaulicht, die ein Aspekt einer Bildverarbeitungsvorrichtung ist, auf welche die vorliegende Technologie angewendet wird. Eine in 4 veranschaulichte Datenumwandlungsvorrichtung 100 erzeugt einen Bitstrom B (Bitstrom B) durch Extrahieren von codierten Daten eines Teilbereichs eines Bewegtbildes aus einem Bitstrom A (Bitstrom A), welche codierte Daten des durch HEVC codierten Bewegtbildes sind.
  • Wie in 4 veranschaulicht, weist die Datenumwandlungsvorrichtung 100 eine Metadaten-Extraktionseinheit 111, eine Extraktionskachel-Vorgabeeinheit 112, eine Daten-Extraktionseinheit 113, eine Metadaten-Aktualisierungseinheit 114 und eine Bitstromerzeugungseinheit 115.
  • Die Metadaten-Extraktionseinheit 111 führt eine Verarbeitung zur Extraktion von Metadaten durch. Zum Beispiel erfasst die Metadaten-Extraktionseinheit 111 den Bitstrom A (Bitstrom A), welcher codierte Daten eines Bewegtbildeingangs an der Datenumwandlungsvorrichtung 100 darstellt. Die Metadaten-Extraktionseinheit 111 extrahiert beispielsweise höhere Metadaten, wie etwa einen Video-Parametersatz und einen Sequenz-Parametersatz, oder bildbasierte Metadaten, wie etwa einen Bild-Parametersatz, aus dem Bitstrom A. Die Metadaten-Extraktionseinheit 111 liefert die aus dem Bitstrom A extrahierten Metadaten an die Extraktionskachel-Vorgabeeinheit 112 und die Metadaten-Aktualisierungseinheit 114.
  • Die Extraktionskachel-Vorgabeeinheit 112 führt eine Verarbeitung bezüglich der Vorgabe der zu extrahierenden Kachel (Teilbereich) durch. Zum Beispiel erfasst die Extraktionskachel-Vorgabeeinheit 112 bildbasierte Metadaten, wie beispielsweise den von der Metadaten-Extraktionseinheit 111 gelieferten Bild-Parametersatz. Die Extraktionskachel-Vorgabeeinheit 112 erkennt eine Kachelausgestaltung in einem Bild auf Basis der bildbasierten Metadaten. Die Extraktionskachel-Vorgabeeinheit 112 gibt an, welcher Kachel im Bild eine Region des zu extrahierenden Teilbereichs entspricht. Die Region wurde z.B. von einem Benutzer oder einem Programm vorgegeben oder auf der Basis beliebiger Informationen eingestellt. Das heißt, die Extraktionskachel-Vorgabeeinheit 112 gibt eine zu extrahierende Kachel (d.h. einen zu extrahierenden Teilbereich) aus einer Kachelgruppe in dem Bild vor.
  • Es wird darauf hingewiesen, dass in einem Fall, in dem ein unabhängig decodierbarer Kachelsatz durch MCTS-SEI vor der Extraktion im Bitstrom A eingestellt wird, die Extraktionskachel-Vorgabeeinheit 112 den auf der Basis dieses Kachelsatzes zu extrahierenden Teilbereich vorgeben kann. Das heißt, in diesem Fall bilden ein oder mehrere Kachelsätze den vorgegebenen Teilbereich. Auf diese Weise ermöglicht die Definition des unabhängig decodierbaren Kachelsatzes als Datenbasis des Teilbereichs, dass der Teilbereich unabhängig decodierbar ist. Das heißt, die codierten Daten des Teilbereichs können leichter extrahiert werden. Die Extraktionskachel-Vorgabeeinheit 112 liefert Informationen, die die vorgegebene Kachel (zu extrahierende Kachel) angeben, an die Datenextraktionseinheit 113 und die Metadaten-Aktualisierungseinheit 114.
  • Die Datenextraktionseinheit 113 führt eine Verarbeitung bezüglich der Extraktion von codierten Daten durch. Zum Beispiel erfasst die Datenextraktionseinheit 113 den Bitstrom A (Bitstrom A), welcher codierte Daten eines Bewegtbildeingangs an der Datenumwandlungsvorrichtung 100 darstellt. Des Weiteren erfasst die Datenextraktionseinheit 113 Informationen, die eine zu extrahierende Kachel angeben und von der Extraktionskachel-Vorgabeeinheit 112 geliefert werden. Die Datenextraktionseinheit 113 extrahiert beispielsweise codierte Daten der Kachel, die von der Extraktionskachel-Vorgabeeinheit 112 vorgegeben wurde, aus dem Bitstrom A. Die Datenextraktionseinheit 113 liefert die codierten Daten des extrahierten Teilbereichs an die Metadaten-Aktualisierungseinheit 114.
  • Die Metadaten-Aktualisierungseinheit 114 führt eine Verarbeitung bezüglich der Aktualisierung von Metadaten durch. Zum Beispiel erfasst die Metadaten-Aktualisierungseinheit 114 die Metadaten, die aus dem Bitstrom A extrahiert und aus der Metadaten-Extraktionseinheit 111 geliefert werden. Des Weiteren erfasst die Metadaten-Aktualisierungseinheit 114 die Informationen, die eine zu extrahierende Kachel angeben und von der Extraktionskachel-Vorgabeeinheit 112 geliefert werden. Des Weiteren erfasst die Metadaten-Aktualisierungseinheit 114 die codierten Daten des extrahierten Teilbereichs, die von der Datenextraktionseinheit 113 geliefert werden. Die Metadaten-Aktualisierungseinheit 114 aktualisiert die extrahierten Metadaten und Metadaten, die in den codierten Daten des extrahierten Teilbereichs enthalten sind, gegebenenfalls auf der Basis der Informationen, die eine zu extrahierende Kachel angeben. Zum Beispiel kann die Metadaten-Aktualisierungseinheit 114 Metadaten auf allen Ebenen, wie etwa höhere Metadaten, bildbasierte Metadaten und slice-basierte Metadaten aktualisieren. Die Metadaten-Aktualisierungseinheit 114 liefert die Metadaten und die codierten Daten, die gegebenenfalls aktualisiert sind, an die Bitstromerzeugungseinheit 115.
  • Die Bitstromerzeugungseinheit 115 führt eine Verarbeitung hinsichtlich der Erzeugung des Bitstroms des Teilbereichs durch. Zum Beispiel erfasst die Bitstromerzeugungseinheit 115 die Metadaten und die codierten Daten, die von der Metadaten-Aktualisierungseinheit 114 geliefert werden. Die Bitstromerzeugungseinheit 115 erzeugt einen Bitstrom, der die Metadaten und die codierten Daten enthält, d.h. einen Bitstrom des extrahierten Teilbereichs. Die Bitstromerzeugungseinheit 115 gibt den erzeugten Bitstrom (Bitstrom B) an die Außenseite der Datenumwandlungsvorrichtung 100 aus.
  • Auf diese Weise aktualisiert die Metadaten-Aktualisierungseinheit 114 die aus den codierten Daten des Bewegtbildes extrahierten Metadaten gemäß den codierten Daten des Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, so dass die Datenumwandlungsvorrichtung 100 ermöglicht, dass die Metadaten mit den codierten Daten des Teilbereichs nach der Extraktion richtig übereinstimmen. Das heißt, eine Decodierung als Bitstrom, der ein Bild des als Rahmenbild dienenden Teilbereichs aufweist, ist möglich, und somit kann die für die Decodierung erforderliche Verarbeitungskapazität (Profilebene) reduziert werden. Darüber hinaus kann die Decodierung möglich gemacht werden, ohne dass eine Verarbeitung, wie z.B. das Erkennen oder Korrigieren einer Nichtübereinstimmung zwischen den Metadaten und den codierten Daten, erforderlich ist. Das heißt, die Erhöhung einer Decodierlast kann verhindert werden.
  • <Ablauf der Umwandlungsverarbeitung>
  • Die Datenumwandlungsvorrichtung 100 extrahiert den Teilbereich wie vorstehend beschrieben, indem sie die Datenumwandlungsverarbeitung durchführt. Ein Beispiel für den Ablauf der Datenumwandlungsverarbeitung wird mit Bezug auf das Flussdiagramm der 5 beschrieben.
  • Wenn die Datenumwandlungsverarbeitung gestartet wird, extrahiert die Metadaten-Extraktionseinheit 111 der Datenumwandlungsvorrichtung 100 in Schritt S101 die höheren Metadaten aus dem Eingangsbitstrom A. Die höheren Metadaten sind Metadaten auf einer Sequenzebene oder einer Ebene, die höher ist als die Sequenzebene, z.B. Video-Parametersatz, Sequenz-Parametersatz und dergleichen. In Schritt S102 initialisiert die Metadaten-Extraktionseinheit 111 eine Variable NPOC (z.B. legt NPOC = 0 fest), die eine Rahmenzahl eines zu verarbeitenden Bildes angibt.
  • In Schritt S103 extrahiert die Metadaten-Extraktionseinheit 111 aus dem Bitstrom A bildbasierte Metadaten (z.B. einen Bild-Parametersatz) des zu verarbeitenden Bildes, d.h. das Bild mit der Rahmenzahl NPOC . In Schritt S104 erkennt die Extraktionskachel-Vorgabeeinheit 112 eine Kachelausgestaltung in dem Bild auf der Basis der in Schritt S103 extrahierten bildbasierten Metadaten. Die Extraktionskachel-Vorgabeeinheit 112 gibt an, welcher Kachel (Kachelsatz) in dem Bild eine Region des zu extrahierenden Teilbereichs entspricht. Die Region wurde z.B. von einem Benutzer oder einem Programm vorgegeben oder auf der Basis beliebiger Informationen eingestellt. Das heißt, die Extraktionskachel-Vorgabeeinheit 112 gibt eine zu extrahierende Kachel aus einer Kachelgruppe in dem Bild vor. MCTS-SEI ist für den Bitstrom A eingestellt. Jeder Kachelsatz des Bitstroms A ist unabhängig decodierbar. Folglich gibt die Extraktionskachel-Vorgabeeinheit 112 einen zu extrahierenden Teilbereich vor, der den Kachelsatz als Mindestgrundlage definiert. In Schritt S105 extrahiert die Datenextraktionseinheit 113 aus dem Bitstrom A die codierten Daten des Kachelsatzes des zu verarbeitenden Bildes. Der Kachelsatz wurde in Schritt S104 vorgegeben.
  • In Schritt S106 aktualisiert die Metadaten-Aktualisierungseinheit 114 die slice-basierten Metadaten (z.B. Slice-Header und dergleichen), die in den codierten Daten des Kachelsatzes des zu verarbeitenden Bildes enthalten sind. Die codierten Daten wurden in Schritt S105 extrahiert. Einzelheiten zu dieser Verarbeitung werden weiter unten beschrieben. In Schritt S107 aktualisiert die Metadaten-Aktualisierungseinheit 114 die bildbasierten Metadaten des zu verarbeitenden Bildes.
  • In Schritt S108 bestimmt die Metadaten-Extraktionseinheit 111, ob alle Bilder verarbeitet wurden oder nicht. In einem Fall, in dem bestimmt wird, dass ein unverarbeitetes Bild vorhanden ist, fährt die Verarbeitung mit Schritt S109 fort. In Schritt S109 zählt die Metadaten-Extraktionseinheit 111 die Variable NPOC hoch(z.B. +1). Das heißt, das zu bearbeitende Objekt wird auf das nächste Bild verschoben. Wenn die Verarbeitung in Schritt S109 abgeschlossen ist, kehrt die Verarbeitung zu Schritt S103 zurück und die nachfolgenden Verarbeitungen werden ausgeführt. Die Verarbeitung in den Schritten S103 bis S109 wird wie oben beschrieben wiederholt. In einem Fall, in dem in Schritt S108 bestimmt wird, dass alle Bilder verarbeitet wurden, fährt die Verarbeitung mit Schritt S110 fort.
  • In Schritt S110 aktualisiert die Metadaten-Aktualisierungseinheit 114 die in Schritt S101 extrahierten höheren Metadaten (z.B. Video-Parametersatz, Sequenz-Parametersatz und dergleichen). In Schritt S111 erzeugt die Bitstromerzeugungseinheit 115 einen Bitstrom des extrahierten Teilbereichs. Der Bitstrom enthält die wie oben beschrieben verarbeiteten Metadaten und einen codierten Strom.
  • Wenn die Verarbeitung in Schritt S111 abgeschlossen ist, ist die Umwandlungsverarbeitung beendet. Die Ausführung der Umwandlungsverarbeitung wie oben beschrieben ermöglicht, dass Metadaten nach der Extraktion mit den codierten Daten des Teilbereichs richtig übereinstimmen, so dass die Erhöhung einer Decodierlast verhindert werden kann.
  • <Aktualisierung höherer Metadaten>
  • Es wird darauf hingewiesen, dass die Metadaten-Aktualisierungseinheit 114 die höheren Metadaten wie oben beschrieben in Schritt S110 aktualisiert. Diese Aktualisierung ermöglicht, dass die in den höheren Metadaten enthaltenen Informationen mit den codierten Daten des zu extrahierenden Teilbereichs richtig übereinstimmen. Zum Beispiel aktualisiert die Metadaten-Aktualisierungseinheit 114 Informationen über einen Bildrahmen, der in dem Sequenz-Parametersatz enthalten ist. 6 veranschaulicht ein Beispiel eines Teils einer Syntax des Sequenz-Parametersatzes. Der Parameter pic_width_in_luma_samples, wie in 6 veranschaulicht, ist ein Parameter, der die Größe eines Bildes in horizontaler Richtung angibt. Des Weiteren ist pic_height_in_luma_samples ein Parameter, der die Größe des Bildes in vertikaler Richtung angibt.
  • In dem Bitstrom (Bitstrom B) nach der Extraktion entspricht die Größe des zu extrahierenden Teilbereichs der Bildgröße (Bildrahmen). Die Metadaten-Aktualisierungseinheit 114 aktualisiert somit die Werte dieser Parameter, so dass die Werte mit der Größe des zu extrahierenden Teilbereichs übereinstimmen. Diese Aktualisierung ermöglicht, dass Informationen über den in dem Sequenz-Parametersatz enthaltenen Bildrahmen mit der Größe des zu extrahierenden Teilbereichs übereinstimmen. Dadurch kann die Profilebene entsprechend reduziert und die Erhöhung einer Decodierlast verhindert werden.
  • Des Weiteren löscht die Metadaten-Aktualisierungseinheit 114 in einem Fall, in dem die Verwaltung des unabhängig decodierbaren Teilbereichs (Kachelsatz) in den codierten Daten nach der Extraktion unnötig ist, z.B. in einem Fall, in dem ein Kachelsatz den extrahierten Teilbereich darstellt, die MCTS-SEI, welches Metadaten bezüglich des Kachelsatzes sind. Alternativ kann die Metadaten-Extraktionseinheit 111 so gebildet sein, dass die Metadaten-Extraktionseinheit 111 die MCTS-SEI nicht extrahiert. Diese Ausgestaltung ermöglicht die Reduzierung unnötiger Informationsmengen des Bitstroms nach der Extraktion.
  • <Aktualisierung bildbasierter Metadaten>
  • Des Weiteren aktualisiert die Metadaten-Aktualisierungseinheit 114 in Schritt S107 wie vorstehend beschrieben die bildbasierten Metadaten. Diese Aktualisierung ermöglicht, dass die in bildbasierten Metadaten enthaltenen Informationen mit den codierten Daten des zu extrahierenden Teilbereichs richtig übereinstimmen. Zum Beispiel aktualisiert die Metadaten-Aktualisierungseinheit 114 Informationen über den in dem Bild-Parametersatz enthaltenen Kachelsatz und Informationen über die Kachelausgestaltung in dem Kachelsatz.
  • 7 veranschaulicht ein Beispiel für einen Teil einer Syntax des Bild-Parametersatzes. Die in 7 veranschaulichte Information tiles_enabled_flag ist eine Identifikationsinformation zum Identifizieren, ob eine Kachel einen Kachelsatz bildet oder eine Vielzahl von Kacheln den Kachelsatz bildet. Das heißt, dieser Parameter ist eine Information über den Kachelsatz. Des Weiteren ist der in 7 veranschaulichte Parameter num_tile _columns_minus1 ein Parameter, der die Anzahl der Unterteilungen (Anzahl der Kacheln) in einer Spaltenrichtung des Kachelsatzes angibt. Der Parameter num_tile_rows_minus1 ist ein Parameter, der die Anzahl der Unterteilungen (Anzahl der Kacheln) in einer Zeilenrichtung des Kachelsatzes angibt. Das heißt, diese Parameter sind Informationen über die Kachelausgestaltung in dem Kachelsatz.
  • Da irgendein Kachelsatz in dem Bitstrom (Bitstrom B) nach der Extraktion eingestellt sein kann, kann die Kachelausgestaltung in dem Kachelsatz von dem Bitstrom (Bitstrom A) vor der Extraktion abweichen. Folglich aktualisiert die Metadaten-Aktualisierungseinheit 114 die Werte dieser Parameter, so dass die Werte mit der Kachelausgestaltung in dem Kachelsatz nach der Extraktion übereinstimmen.
  • Genauer gesagt wird in einem Fall, in dem der Kachelsatz nach der Extraktion eine Vielzahl von Kacheln in dem Bitstrom (Bitstrom B) aufweist, der Wert von tiles_enabled_flag auf 1 eingestellt, und die Werte von num_tile_columns_minus1 und num_tile_rows_minus1 werden entsprechend der Kachelausgestaltung (Anzahl der Unterteilungen) in dem Kachelsatz eingestellt. Außerdem wird in einem Fall, in dem der Kachelsatz eine einzige Kachel aufweist, der Wert von tiles_enabled_flag auf 0 eingestellt.
  • Diese Einstellung ermöglicht, dass die Informationen über den Kachelsatz oder die Informationen über die Kachelausgestaltung in dem Kachelsatz mit der Kachelausgestaltung in dem Kachelsatz des zu extrahierenden Teilbereichs übereinstimmen. Folglich wird die Decodierung möglich gemacht, ohne dass eine Verarbeitung, wie etwa Erfassen und Korrigieren von Nichtübereinstimmungen zwischen den Metadaten und den codierten Daten, erforderlich ist und die Erhöhung der Decodierlast kann verhindert werden.
  • Es wird darauf hingewiesen, dass, obwohl in der obigen Beschreibung tiles_enabled_flag als Beispiel für die Informationen über den Kachelsatz dient, beliebige Informationen über den Kachelsatz verwendet werden und andere Parameter enthalten sein können. Des Weiteren wird, obwohl in der obigen Beschreibung num_tile_columns_minus1 und num_tile_rows_minus1 als Beispiel für Informationen über die Kachelausgestaltung in dem Kachelsatz dienen, irgendein beliebiger Informationsinhalt über die Kachelausgestaltung in dem Kachelsatz verwendet und andere Parameter enthalten sein können.
  • <Ablauf der Metadaten-Aktualisierungsverarbeitung>
  • Als nächstes wird ein Beispiel für den Ablauf der Metadaten-Aktualisierungsverarbeitung, die in Schritt S106 in 5 ausgeführt wurde, mit Bezug auf das Flussdiagramm der 8 beschrieben.
  • Wenn die Metadaten-Aktualisierungsverarbeitung gestartet wird, erzeugt die Metadaten-Aktualisierungseinheit 114 in Schritt S131 slice-basierte Metadaten eines hinzugefügten Slice. Zum Beispiel in einem Fall, in dem nach der Extraktion ein neuer Slice in dem Bitstrom B eingestellt wird, wie etwa in einem Fall, in dem eine Vielzahl von Kacheln, die vor der Extraktion in einem Slice in dem Bitstrom A zusammengefügt wird, in eine Vielzahl von Slices aufgeteilt wird, erzeugt die Metadaten-Aktualisierungseinheit 114 slice-basierte Metadaten für den Slice.
  • In Schritt S132 löscht die Metadaten-Aktualisierungseinheit 114 die slice-basierten Metadaten des gelöschten Slice. Zum Beispiel in einem Fall, in dem ein Slice in dem Bitstrom B nach der Extraktion gelöscht wird, wie etwa in einem Fall, in dem eine Vielzahl von Kacheln, die vor die Extraktion zu verschiedenen Slices in dem Bitstrom A gehörten, in einen Slice eingebracht werden, löscht die Metadaten-Aktualisierungseinheit 114 die slice-basierten Metadaten für den zu löschenden Slice.
  • Das heißt, die Metadaten-Aktualisierungseinheit 114 bewirkt, dass in diesen Teilen der Verarbeitung die Anzahl der slice-basierten Metadaten mit der Anzahl der Slices in dem Bitstrom B nach der Extraktion übereinstimmt.
  • In Schritt S133 aktualisiert die Metadaten-Aktualisierungseinheit 114 die Adressinformationen, die in jedem Stück der slice-basierten Metadaten enthalten sind. Ein Bild vor der Extraktion und ein Bild, das nach der Extraktion einen Teilbereich aufweist, unterscheiden sich in der Slice-Ausgestaltung und der Kachelausgestaltung. Aus diesem Grund aktualisiert die Metadaten-Aktualisierungseinheit 114 die Adressinformationen, die in jedem Teil der slice-basierten Metadaten enthalten sind, um die Änderungen zu berücksichtigen.
  • In Schritt S134 aktualisiert die Metadaten-Aktualisierungseinheit 114 Versatz-Informationen der slice-basierten Metadaten eines Slice, bei dem die Kachelausgestaltung geändert ist. In einem Fall, in dem die slice-basierten Metadaten Versatz-Informationen enthalten, die die Kopfpositionen einer jeden Kachel angeben, aktualisiert die Metadaten-Aktualisierungseinheit 114 die Versatz-Informationen, um die Änderung der Kachelausgestaltung in dem Slice zu berücksichtigen.
  • Wenn die Verarbeitung in Schritt S134 abgeschlossen ist, ist die Metadaten-Aktualisierungsverarbeitung abgeschlossen. Die Ausführung der Metadaten-Aktualisierungsverarbeitung wie oben beschrieben ermöglicht, dass slice-basierte Metadaten nach der Extraktion mit den codierten Daten des Teilbereichs richtig übereinstimmen, so dass die Erhöhung einer Decodierlast verhindert werden kann.
  • <Aktualisierung von Adressinformationen>
  • 9 veranschaulicht ein Beispiel für eine Syntax eines Teils eines Slice-Headers. Der Bereich A in 9 veranschaulicht ein Beispiel für eine Syntax eines Teils eines Slice-Headers. Der Bereich B der 9 veranschaulicht 9 ein Beispiel für eine Syntax eines weiteren Teils des Slice-Headers. Der Parameter slice_segment_address, im Bereich A der 9 veranschaulicht, ist ein Parameter, der die Position eines Kopfblocks (Codierbaumeinheit, Coding Tree Unit (CTU)) eines Slice angibt. Slice_segment_address gibt die Position des Kopfblocks in einer Abtastreihenfolge (d.h. die Anzahl der Blöcke (CTU-Adressen) von dem ersten verarbeiteten Block in dem Bild bis zum Kopfblock des Slice) des Blocks in dem Bild an. Das heißt, dieser Parameter ist eine Information über die Adresse.
  • Wie vorstehend beschrieben, aktualisiert die Metadaten-Aktualisierungseinheit 114 die Adressinformationen gemäß der Slice-Ausgestaltung und der Kachelausgestaltung nach der Extraktion in den codierten Daten in Schritt S133. Zum Beispiel wird wie in A in 10 veranschaulicht davon ausgegangen, dass die Kacheldaten 202 und die Kacheldaten 203 aus einem Bild extrahiert werden, das vier Kacheldateneinheiten (Kacheldaten) der Kacheldaten 201 bis Kacheldaten 204 aufweist. Es wird darauf hingewiesen, dass in A der 10 jegliche Slice-Ausgestaltung in dem Zustand vor der Extraktion verwendet wird. Weiterhin wird davon ausgegangen, dass A einer CTU-Adresse (CTU-Adresse) eines Kopfblocks (CTU) der Kacheldaten 202 und B einer CTU-Adresse eines Kopfblocks (CTU) der Kacheldaten 203 entspricht.
  • In diesem Fall ist, wie in dem Beispiel unter B der 10, in einem Fall, in dem die Kacheldaten 202 und die Kacheldaten 203 in einen Slice gelegt sind, der Slice (Slice 0) der Kopf-Slice in dem Bild. Die Metadaten-Aktualisierungseinheit 114 stellt den Wert von slice_segment_address des Slice-Header auf „0“ ein.
  • Des Weiteren ist, wie in dem Beispiel unter C der 10, in einem Fall, in dem die Kacheldaten 202 und die Kacheldaten 203 verschiedene Slices sind, ein Slice (Slice 0) der Kacheldaten 202 der Kopf-Slice in dem Bild und ein Slice (Slice 1) der Kacheldaten 203 der nächste Slice. Folglich setzt die Metadaten-Aktualisierungseinheit 114 den Wert von slice_segment_address des Slice-Headers des Slice (Slice 0) der Kacheldaten 202 auf „0“ und setzt den Wert von slice_segment_address des Slice-Headers des Slice (Slice 1) der Kacheldaten 203 auf „B-A“.
  • Diese Einstellung ermöglicht, dass Informationen über eine Adresse, die in den slice-basierten Metadaten enthalten sind, mit der Slice-Ausgestaltung in einem Bitstrom nach der Extraktion oder der Kachelausgestaltung in dem Slice richtig übereinstimmen. Folglich wird die Decodierung möglich gemacht, ohne dass eine Verarbeitung, wie etwa Erfassen und Korrigieren von Nichtübereinstimmungen zwischen den Metadaten und den codierten Daten, erforderlich ist und die Erhöhung der Decodierlast kann verhindert werden.
  • Es wird darauf hingewiesen, dass, obwohl in der obigen Beschreibung slice_segment_address als die Information über eine Adresse exemplarisch dargestellt wird, jeglicher Informationsinhalt bezüglich einer Adresse verwendet wird und andere Parameter enthalten sein können.
  • <Aktualisierung der Versatz-Informationen>
  • Der in B der 9 veranschaulichte Parameter entry_point_offset_minus1 ist ein Parameter, der einen Versatz zur Position des nächsten Slice angibt. Der entry_point_offset_minus1 gibt die Länge des Slice durch Byte-Ausrichtung an. Das heißt, dieser Parameter ist eine Information über den Versatz.
  • Wie vorstehend beschrieben, aktualisiert die Metadaten-Aktualisierungseinheit 114 die Versatz-Informationen gemäß der Kachelausgestaltung in einem Slice in den codierten Daten nach der Extraktion in Schritt S134. Zum Beispiel wird, wie in A der 11 veranschaulicht, davon ausgegangen, dass die Kacheldaten 202 und die Kacheldaten 203 aus einem Bild extrahiert werden, das vier Kacheldateneinheiten (Kacheldaten), Kacheldaten 201 bis Kacheldaten 204, aufweist. Es wird darauf hingewiesen, dass in A der 11 jegliche Slice-Ausgestaltung in dem Zustand vor der Extraktion verwendet wird. Weiterhin wird davon ausgegangen, dass A einer Kopfdatenadresse (DATA-Adresse) der Kacheldaten 202 und B einer Kopfdatenadresse der Kacheldaten 203 entspricht.
  • In diesem Fall, wie in dem Beispiel unter B der 11, in einem Fall, in dem die Kacheldaten 202 und die Kacheldaten 203 in einen Slice gelegt sind, benötigt der Slice-Header des Slice (Slice 0) Versatzinformationen für die Kacheldaten 203. Dann stellt die Metadaten-Aktualisierungseinheit 114 den Wert von entry_point_offset_minus1, der den Kacheldaten 202 entspricht, des Slice-Headers auf „B-A“.
  • Des Weiteren enthält, wie in dem Beispiel C der 11, in einem Fall, in dem die Kacheldaten 202 und die Kacheldaten 203 verschiedene Slices sind, jeder Slice eine Kacheldateneinheit, und somit benötigt nicht jeder Slice-Header die Versatz-Informationen. Dann stellt die Metadaten-Aktualisierungseinheit 114 den entry_point_offset_minus1 nicht ein.
  • Dies ermöglicht, dass Informationen über einen Versatz, die in den slice-basierten Metadaten enthalten sind, mit der Slice-Ausgestaltung in einem Bitstrom nach der Extraktion oder der Kachelausgestaltung in dem Slice richtig übereinstimmen. Folglich wird die Decodierung möglich gemacht, ohne dass eine Verarbeitung, wie etwa Erfassen und Korrigieren von Nichtübereinstimmungen zwischen den Metadaten und den codierten Daten, erforderlich ist und die Erhöhung der Decodierlast kann verhindert werden.
  • Es wird darauf hingewiesen, dass, obwohl in der obigen Beschreibung entry_point_offset_minus1 als Beispiel für die Information über einen Versatz dient, jeglicher Informationsinhalt über einen Versatz verwendet wird und andere Parameter enthalten sein können.
  • <Hinzufügen und Löschen von slice-basierten Metadaten>
  • Wie in den 10 und 11 stellt die Metadaten-Aktualisierungseinheit 114 einen Slice-Header entsprechend der Slice-Ausgestaltung nach der Extraktion ein. Das heißt, in einem Fall, in dem ein vorhandener Slice gelöscht wird, wird auch der Slice-Header gelöscht. In einem Fall, in dem ein neuer Slice eingestellt wird, wird der Slice-Header erstellt. Dieser Vorgang ermöglicht, dass die slice-basierten Metadaten mit der Slice-Ausgestaltung in dem Bild übereinstimmen. Folglich wird die Decodierung möglich gemacht, ohne dass eine Verarbeitung, wie etwa Erfassen und Korrigieren von Nichtübereinstimmungen zwischen den Metadaten und den codierten Daten, erforderlich ist und die Erhöhung der Decodierlast kann verhindert werden.
  • <Anwendungsfall 1>
  • Nachfolgend wird ein konkretes Beispiel beschrieben. Zum Beispiel wird davon ausgegangen, dass eine Kachelausgestaltung in einem Bild aus codierten Daten eines Bewegtbildes eine Ausgestaltung hat wie in 12 veranschaulicht. In 12 gibt das gesamte Viereck ein Bild an, das nächstkleinere Viereck 4×3 gibt eine Kachel an und das kleinste Viereck gibt eine CTU an. „Kachel N“ in jeder Kachel gibt eine Kachelanzahl N der Kachel an. Des Weiteren geben eine Zahl, ein Buchstabe und ein Ausdruck in jeder CTU die CTU-Adresse der CTU an. So hat beispielsweise die Kopf-CTU (obere linke CTU) einer Kachel 0 (Kachel 0) eine CTU-Adresse „0“ und die letzte CTU (untere rechte CTU) hat eine CTU-Adresse „A-1“. Des Weiteren hat die Kopf-CTU einer Kachel 1 (Kachel 1) eine CTU-Adresse „A“ und die letzte CTU hat eine CTU-Adresse „B-1“. Die Kopf-CTU einer Kachel 2 (Kachel 2) hat eine CTU-Adresse „B“. Zusätzlich hat die Kopf-CTU einer Kachel 5 (Kachel 5) eine CTU-Adresse „E“. Die Kopf-CTU einer Kachel 6 (Kachel 6) hat eine CTU-Adresse „F“. Es wird davon ausgegangen, dass die Kacheln 5 und 6 aus einem solchen Bild extrahiert werden.
  • Zum Beispiel wird, wie in A der 13 veranschaulicht, davon ausgegangen, dass die Kacheln 5 und 6 im Zustand vor der Extraktion zu verschiedenen Slices (Slices X und (X + 1)) gehören. Die Kacheln 5 und 6 werden extrahiert. Nach der Extraktion wird die Kachel 5 als Kachel 0 (Kachel 0) und die Kachel 6 als Kachel 1 (Kachel 1) verwaltet.
  • Dann wird davon ausgegangen, dass diese Kacheln nach der Extraktion in einen Slice (Slice 0) gelegt werden, wie in B der 13 veranschaulicht. In diesem Fall wird, wie in B der 13 veranschaulicht, in dem Slice-Header des Slice 0 (Slice 0) die CTU-Adresse der Kopf-CTU der Kachel 0 auf „0“ eingestellt und der Versatz für die Kachel 1 wird auf die Bytegröße der Kachel 0 eingestellt.
  • Ein Beispiel für die Aktualisierung eines Parameters in diesem Fall ist in A der 14 veranschaulicht. Das Markierungszeichen first_slice_segment_in_pic_flag ist eine Markierungszeicheninformation, die angibt, ob der Slice der Kopf-Slice des Bildes ist oder nicht. Der Slice 0 ist der Kopf-Slice und somit wird dieser Wert auf „1“ eingestellt. Dann ist der Slice 0 der Kopf-Slice und somit ist die CTU-Adresse des Kopf-Slice „0“. Folglich wird slice_segment_address auf „0“ eingestellt. Der Parameter num_entry_point_offsets ist ein Parameter, der die Anzahl (entry_point_offset_minus1) der Versätze, die einzustellen sind, angibt. Wie in B der 13 veranschaulicht, bilden die zwei Kacheln den Slice 0 und der Wert wird auf „1“ eingestellt. Dann wird der Wert von offset_len_minus1 auf einen Wert eingestellt, der der Bytegröße der Kachel 0 entspricht, und der Wert von entry_point_offset_minus1[0] wird auf die Bytegröße der Kachel 0 eingestellt. Das heißt, auch Parameter wie num_entry_point_offsets und offset_len_minus1 können als in die Informationen über den Versatz einbezogen angesehen werden.
  • Es wird darauf hingewiesen, dass, obwohl in der obigen Beschreibung die Anzahl der Kacheln des Slice 0 mit 2 angegeben wird, in einem Fall, in dem der Slice 0 N Kacheln aufweist, der Parameter des Slice-Headers aktualisiert wird, wie in dem in B der 14 veranschaulichten Beispiel.
  • Auch in diesem Fall, wie in dem Fall von A der 14, wird first_slice_segment_in_pic_flag auf „1“ und slice_segment_address auf „0“ eingestellt. Der Parameter num_entry_entry_point_offsets wird jedoch auf „N-1“ eingestellt. Dann wird offset_len_minus1 auf einen Wert eingestellt, der der Bytegröße der Kacheln 0 bis (N-1) entspricht und jeder Parameter von entry_point_offset_minus1[0] bis entry_point_offset_minus1[N-2] wird auf die Bytegröße der Kacheln 0 bis (N-2) eingestellt.
  • <Anwendungsfall 2>
  • Des Weiteren wird beispielsweise, wie in A der 15 veranschaulicht, davon ausgegangen, dass die Kacheln 5 und 6 in 12 in dem Zustand vor der Extraktion zu verschiedenen Slices (Slices X und (X + 1)) gehören. Die Kacheln 5 und 6 werden extrahiert. Nach der Extraktion wird die Kachel 5 als Kachel 0 (Kachel 0) und die Kachel 6 als Kachel 1 (Kachel 1) verwaltet.
  • Dann wird, wie in B der 15 veranschaulicht, davon ausgegangen, dass die Slice-Ausgestaltung auch nach der Extraktion erhalten bleibt. Das heißt, es wird davon ausgegangen, dass die Kacheln 0 und 1 zu verschiedenen Slices gehören (Slices 0 und 1). In diesem Fall wird, wie in B von 15 veranschaulicht, die CTU-Adresse der Kopf-CTU der Kachel 0 im Slice-Header des Slice 0 (Slice 0) auf „0“ eingestellt und die CTU-Adresse der Kopf-CTU der Kachel 1 wird in dem Slice-Header des Slice 1 (Slice 1) auf „F-E“ eingestellt. Es wird darauf hingewiesen, dass in diesem Fall eine Kachel jeweils einen Slice bildet und diese Slice-Header daher keine Informationen über den Versatz benötigen.
  • In diesem Fall wird beispielsweise das Markierungszeichen first_slice_segment_in_pic_flag auf „1“ eingestellt und slice_segment_adress in dem Slice-Header des Slice 0 wird auf „0“ eingestellt, wie in A der 16 veranschaulicht. Des Weiteren wird first_slice_segment_in_pic_flag auf „0“ und slice_segment_address wird auf „die Anzahl der CTUs (z.B. F-E) der Kachel 0 des Slice 0“ in dem Slice-Header des Slice 1 eingestellt, wie in B der 16 veranschaulicht.
  • <Anwendungsfall 3>
  • Des Weiteren wird beispielsweise, wie in A von 17 veranschaulicht, davon ausgegangen, dass die Kacheln 5 und 6 in 12 in dem Zustand vor der Extraktion zu einem gemeinsamen Slice (Slice X) gehören. Die Kacheln 5 und 6 werden extrahiert. Nach der Extraktion wird die Kachel 5 als Kachel 0 (Kachel 0) und die Kachel 6 als Kachel 1 (Kachel 1) verwaltet.
  • Dann wird, wie in B der 17 veranschaulicht, davon ausgegangen, dass die Slice-Ausgestaltung auch nach der Extraktion erhalten bleibt. Das heißt, es wird davon ausgegangen, dass die Kacheln 0 und 1 zu einem gemeinsamen Slice (Slice 0) gehören. In diesem Fall wird, wie in B der 17 veranschaulicht, in dem Slice-Header des Slice 0 (Slice 0) die CTU-Adresse der Kopf-CTU der Kachel 0 auf „0“ eingestellt und der Versatz für die Kachel 1 wird auf die Bytegröße der Kachel 0 eingestellt. Da ein Beispiel für die Aktualisierung eines Parameters in diesem Fall dem Beispiel in A der 14 ähnlich ist, wird dessen Beschreibung weggelassen.
  • Im Gegensatz dazu, wie in C der 17 veranschaulicht, wird der Slice nach der Extraktion geteilt. Das heißt, es wird davon ausgegangen, dass die Kacheln 0 und 1 zu verschiedenen Slices gehören (Slices 0 und 1). In diesem Fall wird, wie in C der 17 veranschaulicht, die CTU-Adresse der Kopf-CTU der Kachel 0 im Slice-Header des Slice 0 (Slice 0) auf „0“ eingestellt und die CTU-Adresse der Kopf-CTU der Kachel 1 wird in dem Slice-Header des Slice 1 (Slice 1) auf „F-E“ eingestellt. Es wird darauf hingewiesen, dass in diesem Fall eine Kachel jeweils einen Slice bildet und diese Slice-Header daher keine Informationen über den Versatz benötigen. Da ein Beispiel für die Aktualisierung eines Parameters in diesem Fall dem Beispiel in 16 ähnlich ist, wird dessen Beschreibung weggelassen.
  • <Anwendungsfall 4>
  • Des Weiteren wird beispielsweise davon ausgegangen, dass im Zustand vor der Extraktion der Slice in der Mitte der Kachel 5 geteilt wird, die Kachel 5 zu den Slices X und (X + 1) gehört und die Kachel 6 zu einem weiteren Slice (X + 2) gehört, wie in A der 18 veranschaulicht. Die Kacheln 5 und 6 werden extrahiert. Nach der Extraktion wird die Kachel 5 als Kachel 0 (Kachel 0) und die Kachel 6 als Kachel 1 (Kachel 1) verwaltet.
  • Dann wird davon ausgegangen, dass nach der Extraktion die Kachel 0 in einen Slice (Slice 0) gelegt wird, wie in B der 18 veranschaulicht. In diesem Fall wird, wie in B der 18 veranschaulicht, in dem Slice-Header des Slice 0 (Slice 0) die CTU-Adresse der Kopf-CTU der Kachel 0 auf „0“ eingestellt und ferner wird die Bytegröße des Slice X als Versatz für den ursprünglichen Slice (X + 1) eingestellt.
  • Ein Beispiel für die Aktualisierung eines Parameters in diesem Fall ist in A der 19 veranschaulicht. Das Markierungszeichen first_slice_segment_in_pic_flag wird auf „1“, slice_segment_adress wird auf „0“ und num_entry_point_offsets wird auf „1“ eingestellt. Dann wird der Wert von offset_len_minus1 auf einen Wert eingestellt, der der Bytegröße der Slices X und (X + 1) entspricht, und der Wert von entry_point_offset_minus1[0] wird auf die Bytegröße des Slice X eingestellt.
  • Es wird darauf hingewiesen, dass der Slice 0, der die Kachel 0 aufweist, eine weitere Kachel beinhalten kann. Wie beispielsweise in C der 18 veranschaulicht, kann der Slice 0 die Kachel 1 beinhalten. In diesem Fall wird, wie in C der 18 veranschaulicht, die Bytegröße des Slice (X + 1) ferner als der Versatz für den ursprünglichen Slice (X + 2) eingestellt.
  • Ein Beispiel für die Aktualisierung eines Parameters in einem Fall, in dem der Slice 0 N Kacheln aufweist, ist in B der 19 veranschaulicht. Auch in diesem Fall wird first_slice_segment_in_pic_flag auf „1“ und slice_segment_address auf „0“ eingestellt. Der Parameter num_entry_entry_point_offsets wird jedoch auf „N-1 (Anzahl der ursprünglichen Schichten)“ eingestellt. Dann wird offset_len_minus1 auf einen Wert eingestellt, der der Bytegröße (Bytegröße des Slice X bis Slice (X + N - 1)) eines jeden ursprünglichen Slice entspricht, und entry_point_offset_minus1, dessen Anzahl der Anzahl der ursprünglichen Slices entspricht (z.B. entry_point_offset_minus1[0] bis entry_point_offset_minus1[N-2]), wird auf die jeweilige Bytegröße des Slice X bis Slice (X + N - 2) eingestellt.
  • <Anwendungsfall 5>
  • Des Weiteren wird beispielsweise davon ausgegangen, dass der Zustand vor der Extraktion dem Zustand in A der 18 ähnlich ist, wie in A der 20 veranschaulicht, und die Slice-Ausgestaltung wird auch nach der Extraktion beibehalten, wie in B der 20 veranschaulicht. Das heißt, es wird angenommen, dass der Slice in der Mitte der Kachel 0 geteilt wird, die Kachel 0 gehört zu den Slices 0 und 1 und die Kachel 1 gehört zu einem Slice 2.
  • In diesem Fall wird, wie in B der 20 veranschaulicht, die CTU-Adresse der Kopf-CTU der Kachel 0 im Slice-Header des Slice 0 (Slice 0) auf „0“ eingestellt und die CTU-Adresse der Kopf-CTU des Slice 1 wird in dem Slice-Header des Slice 1 (Slice 1) auf „F-E“ eingestellt. Des Weiteren wird die CTU-Adresse der Kopf-CTU der Kachel 1 im Slice-Header des Slice 2 (Slice 2) auf „F-E“ eingestellt. Es wird darauf hingewiesen, dass in diesem Fall diese Slice-Header keine Informationen über den Versatz benötigen.
  • In diesem Fall wird beispielsweise das Markierungszeichen first_slice_segment_in_pic_flag auf „1“ eingestellt und slice_segment_adress in dem Slice-Header des Slice 0 wird auf „0“ eingestellt, wie in A von 21 veranschaulicht. Des Weiteren wird first_slice_segment_in_pic_flag auf „0“ und slice_segment_address wird auf „Anzahl der CTUs (z.B. E'-E) des ursprünglichen Slice X“ in dem Slice-Header des Slice 1 eingestellt, wie in B der 21 veranschaulicht. Des Weiteren wird first_slice_segment_in_pic_flag auf „0“ und slice_segment_address wird auf „Anzahl der CTUs (z.B. F-E') der des ursprünglichen Slice (X + 1)“ in dem Slice-Header des Slice 2 eingestellt, wie in C der 21 veranschaulicht.
  • Wie vorstehend beschrieben, kann die Metadaten-Aktualisierungseinheit 114 die Metadateninformationen nach der Extraktion in jedem Fall gemäß den codierten Daten eines Teilbereichs aktualisieren. Dadurch kann die Erhöhung einer Decodierlast verhindert werden.
  • <Zweite Ausführungsform>
  • <Einschränkung des Kachelsatzes>
  • Wie vorstehend beschrieben, kann in einem Fall, in dem ein Kachelsatz vor der Extraktion in codierten Daten eines Bewegtbildes durch MCTS-SEI eingestellt wird, ein zu extrahierender Teilbereich durch Einstellen des Teilbereichs auf der Basis dieses Kachelsatzes leicht extrahiert werden.
  • Es wird jedoch darauf hingewiesen, dass der Kachelsatz auf der Basis einer Kachel eingestellt sein kann und der Kachelsatz eine nicht rechteckige Form aufweisen kann. Es ist jedoch erforderlich, dass das Bild eine rechteckige Form aufweist. Folglich kann in einem Fall, in dem ein Teilbereich auf der Basis eines solchen Kachelsatzes extrahiert wird und der Teilbereich eine rechteckige Form aufweist, wie beispielsweise die in 22 veranschaulichten Kachelsätze 311 und 312, als Bild, so wie es ist, verwendet werden. Ein extrahierter nichtrechteckiger Teilbereich wie der Kachelsatz 313 kann jedoch nicht als Bild verwendet werden, und es bestand die Möglichkeit, dass die Verarbeitung fehlschlägt.
  • Folglich kann die Form eines Kachelsatzes, der als Teilbereich extrahiert werden soll, auf rechteckig beschränkt werden. Das heißt, es können nur codierte Daten eines rechteckigen Teilbereichs extrahiert werden.
  • 23 veranschaulicht ein Beispiel einer Syntax eines Teils von MCTS-SEI. Nur in einem Fall, in dem der Wert des in einem solchen MCTS-SEI enthaltenen Parameters mc_all_tiles_exact_sample_value_match_flag „1“ oder der Wert von num_tile_rects_in_set_minus1[i] 0 ist, wird ein zu extrahierender Teilbereich so eingestellt, dass er den Kachelsatz aufweisen kann.
  • Diese Einstellung ermöglicht eine zuverlässigere Datenumwandlung.
  • In diesem Fall führt die Extraktionskachel-Vorgabeeinheit 112 eine Steuerungsverarbeitung durch, um eine solche Steuerung zu implementieren. Ein Beispiel für den Ablauf der Steuerungsverarbeitung wird mit Bezug auf das Flussdiagramm der 24 beschrieben.
  • Wenn die Steuerungsverarbeitung gestartet wird, bestimmt die Extraktionskachel-Vorgabeeinheit 112 in Schritt S301, ob ein Kachelsatz rechteckig ist oder nicht. Falls bestimmt wird, dass dieser rechteckig ist, fährt die Verarbeitung mit Schritt S302 fort. In Schritt S302 gestattet die Extraktionskachel-Vorgabeeinheit 112 die Extraktion des rechteckigen Kachelsatzes. Der zu extrahierende Teilbereich kann den Kachelsatz aufweisen, der auf diese Weise extrahiert werden kann. Wenn die Verarbeitung in Schritt S302 beendet ist, ist die Steuerungsverarbeitung beendet.
  • Des Weiteren fährt die Verarbeitung in einem Fall, in dem ein Kachelsatz in Schritt S301 als nicht rechteckig bestimmt wird, mit Schritt S303 fort. In Schritt S303 untersagt die Extraktionskachel-Vorgabeeinheit 112 die Extraktion des nicht rechteckigen Kachelsatzes. Der zu extrahierende Teilbereich kann den Kachelsatz, dessen Extraktion unterbunden werden soll, nicht aufweisen. Wenn die Verarbeitung in Schritt S303 beendet ist, ist die Steuerungsverarbeitung beendet.
  • Die oben beschriebene Steuerungsverarbeitung ermöglicht nur die Extraktion eines rechteckigen Kachelsatzes, was eine zuverlässigere Datenumwandlung gestattet.
  • <Behandlung von Kachelsätzen>
  • Es wird darauf hingewiesen, dass anstelle der Untersagung der Extraktion ein nicht rechteckiger Kachelsatz nach der Extraktion rechteckig gemacht werden kann (extrahierte codierte Daten werden aktualisiert, so dass der Teilbereich rechteckig gemacht wird). Zum Beispiel ist der in A der 25 veranschaulichte Kachelsatz 313 nicht rechteckig. Wie in B der 25 veranschaulicht, kann der Kachelsatz rechteckig gemacht werden, indem ein von einer gestrichelten Linie umgebener Teil mit einigen Informationen ergänzt wird. Im Fall von B der 25 wird der Kachelsatz 313 durch die Zusatzdaten 323 (schraffierter Teil) ergänzt, so dass er rechteckig ist.
  • Beliebige Daten können die Zusatzdaten 323 darstellen. So können beispielsweise leere codierte Daten, wie etwa ein Unterdrückungsblock, verwendet werden, oder die Zusatzdaten können durch erneute Codierung des Bereichs erzeugt werden. Es wird darauf hingewiesen, dass irgendeine Methode zum rechteckig machen angewendet wird, und dass eine andere Methode als die Durchführung von Ergänzungen durch Daten gewählt werden kann.
  • In diesem Fall führt beispielsweise die Datenextraktionseinheit 113 eine Behandlungsverarbeitung durch, um den extrahierten Kachelsatz rechteckig zu machen. Ein Beispiel für den Ablauf der Behandlungsverarbeitung in diesem Fall wird mit Bezug auf das Flussdiagramm der 26 beschrieben.
  • Wenn die Behandlungsverarbeitung gestartet wird, bestimmt die Datenextraktionseinheit 113 in Schritt S321, ob der extrahierte Kachelsatz rechteckig ist oder nicht. Wenn die Rechteckigkeit bestimmt wird, ist die Behandlungsverarbeitung abgeschlossen. Das heißt, der extrahierte rechteckige Kachelsatz wird so wie er ist für die Erzeugung eines Bitstroms verwendet.
  • Des Weiteren fährt die Verarbeitung in einem Fall, in dem der extrahierte Kachelsatz in Schritt S321 als nicht rechteckig bestimmt wird, mit Schritt S322 fort. In Schritt S322 führt die Datenextraktionseinheit 113 beispielsweise eine Ergänzung mit Daten durch, um den extrahierten nicht-rechteckigen Kachelsatz rechteckig zu machen. Das heißt, der rechteckig gemachte Kachelsatz wird zum Erzeugen des Bitstroms verwendet. Wenn die Verarbeitung in Schritt S322 beendet ist, ist die Behandlungsverarbeitung beendet.
  • Die oben beschriebene Behandlungsverarbeitung ermöglicht, dass alle extrahierten Kachelsätze rechteckig sind, was eine zuverlässigere Datenumwandlung gestattet.
  • <Sonstiges>
  • <Aktualisierung der Metadaten>
  • Es wird darauf hingewiesen, dass jegliche Metadaten aktualisiert werden können und die zu aktualisierenden Metadaten nicht auf das oben beschriebene Beispiel beschränkt sind. Des Weiteren entsprechen Metadaten irgendeiner Datenbasis. So können beispielsweise die Metadaten einem aus dem Folgenden entsprechen: Transformationseinheit (TU), Transformationsblock (TB), Vorhersageeinheit (PU), Vorhersageblock (PB), Codiereinheit (CU), größte Codiereinheit (LCU), Unterblock, Block, Kachel, Slice, Bild, Sequenz und Komponente. Die Metadaten können einer anderen Datenbasis entsprechen. Des Weiteren sind die Metadaten an einem beliebigen Speicherort gespeichert.
  • <Codierung/Decodierungsmethode>
  • Obwohl in der obigen Beschreibung ein Codierungs-/Decodierungsverfahren in dem Beispiel der HEVC beschrieben wurde, kann die vorliegende Technologie auf irgendein Bildcodierungs-/Decodierungsverfahren angewendet werden, solange das Verfahren einen unabhängig decodierbaren Teilbereich bilden kann.
  • So kann die vorliegende Technologie beispielsweise auch auf ein Multi-Viewpoint-Bildcodierungs-/Decodierungssystem und ein hierarchisches Bildcodierungs(skalierbares Codierungs-)/Decodierungssystem angewendet werden. Das Multi-Viewpoint-Bildcodierungs-/Decodierungssystem codiert/decodiert ein Multi-View-Bild, das ein Bild mit einer Vielzahl von Ansichten (Views) aufweist. Das hierarchische Bildcodierungs(skalierbare Codierungs)/- Decodierungssystem codiert/decodiert ein hierarchisches Bild, das mehrschichtig (hierarchisiert) ist, so dass es eine Skalierbarkeitsfunktion für einen vorbestimmten Parameter aufweist.
  • <Anwendungsgebiet der vorliegenden Technologie»
  • Die vorliegende Technologie kann beispielsweise auf Systeme, Vorrichtungen und Verarbeitungseinheiten angewendet werden, die Bilder verarbeiten und in jeglichen Gebieten eingesetzt werden, wie z.B. Verkehr, medizinische Versorgung, Verbrechensbekämpfung, Landwirtschaft, Tierhaltung, Bergbau, Kosmetik, Fabrikanlagen, Haushaltsgeräte, Wetter und Videoüberwachung.
  • So kann beispielsweise die vorliegende Technologie auch auf ein System und ein Gerät zur Verwendung beim Fernsehen angewendet werden. Des Weiteren kann die vorliegende Technologie beispielsweise auch auf ein System und ein Gerät zur Verwendung bei der Verkehrssteuerung angewendet werden. Darüber hinaus kann die vorliegende Technologie beispielsweise auch auf ein System und ein Gerät für die Sicherheit angewendet werden. Des Weiteren kann die vorliegende Technologie beispielsweise auch auf ein System und ein Gerät zur Verwendung beim Sport angewendet werden. Darüber hinaus kann die vorliegende Technologie beispielsweise auch auf ein System und ein Gerät zur Verwendung in der Landwirtschaft angewendet werden. Des Weiteren kann die vorliegende Technologie beispielsweise auch auf ein System und ein Gerät zur Verwendung bei der Tierhaltung angewendet werden. Darüber hinaus kann die vorliegende Technologie beispielsweise auch auf ein System und ein Gerät zur Überwachung von Umweltbedingungen, wie z.B. Vulkanen, Wäldern und Ozeanen angewendet werden. Des Weiteren kann die vorliegende Technologie auf ein Wetterbeobachtungssystem und eine Wetterbeobachtungsvorrichtung zum Beobachten von beispielsweise Wetter, Temperatur, Luftfeuchtigkeit, Windgeschwindigkeit, Sonnenscheindauer und dergleichen angewendet werden. Darüber hinaus kann die vorliegende Technologie auch auf beispielsweise ein System und ein Gerät zum Beobachten der Wildtierökologie, beispielsweise Vögel, Fische, Reptilien, Amphibien, Säugetieren, Insekten und Pflanzen angewendet werden.
  • <Computer>
  • Die oben beschriebene Verarbeitungsserie kann durch Hardware oder Software ausgeführt werden. In einem Fall, in dem die Verarbeitungsserie durch Software ausgeführt wird, wird ein die Software bildendes Programm auf einem Computer installiert. Der Computer hier beinhaltet beispielsweise einen Computer, der in speziell dafür vorgesehener Hardware integriert ist, und beispielsweise einen Allzweck-Personalcomputer, der durch die Installation verschiedener Programme verschiedene Funktionen ausführen kann.
  • 27 ist ein Blockdiagramm, das ein Konfigurationsbeispiel für die Hardware eines Computers veranschaulicht, der die oben beschriebene Serie von Verarbeitungen unter Verwendung eines Programms ausführt.
  • In einem in 27 veranschaulichten Computer 800 sind eine Zentraleinheit (CPU) 801, ein Nur-Lese-Speicher (ROM) 802 und ein Direktzugriffsspeicher (RAM) 803 über einen Bus 804 miteinander verbunden.
  • An dem Bus 804 ist auch eine Eingabe-/Ausgabeschnittstelle 810 angeschlossen. Eine Eingabeeinheit 811, eine Ausgabeeinheit 812, eine Speichereinheit 813, eine Kommunikationseinheit 814 und ein Antrieb 815 sind mit der Eingabe-/Ausgabeschnittstelle 810 verbunden.
  • Die Eingabeeinheit 811 weist beispielsweise eine Tastatur, eine Maus, ein Mikrofon, einen berührungsempfindlichen Bildschirm, ein Eingabeterminal und dergleichen auf. Die Ausgabeeinheit 812 weist beispielsweise eine Anzeige, einen Lautsprecher, ein Ausgabeterminal und dergleichen auf. Die Speichereinheit 813 weist beispielsweise eine Festplatte, eine RAM-Disk, einen nichtflüchtigen Speicher und dergleichen auf. Die Kommunikationseinheit 814 weist beispielsweise eine Netzwerkschnittstelle auf. Das Laufwerk 815 steuert ein Wechselmedium 821, wie etwa eine Magnetplatte, eine optische Platte, eine magneto-optische Platte und einen Halbleiterspeicher.
  • In dem wie vorstehend beschrieben gebildeten Computer wird die vorstehend beschriebene Verarbeitungsserie von der CPU 801 durchgeführt, die beispielsweise ein in der Speichereinheit 813 in dem RAM 803 gespeichertes Programm über die Eingabe-/Ausgabeschnittstelle 810 und den Bus 804 lädt und das Programm ausführt. Zum Beispiel sind Daten, die die CPU 801 zur Ausführung verschiedener Verarbeitungen benötigt, auch in dem RAM 803 geeignet gespeichert.
  • Ein von dem Computer auszuführendes Programm (CPU 801) kann angewendet werden, indem es z.B. auf dem Wechselmedium 821, das als Programmpaket-Medium und dergleichen dient, aufgezeichnet wird. In diesem Fall kann das Programm über die Eingabe-/Ausgabeschnittstelle 810 in der Speichereinheit 813 installiert werden, indem das Wechselmedium 821 in dem Laufwerk 815 montiert wird. Des Weiteren kann das Programm auch über ein drahtgebundenes oder drahtloses Übertragungsmedium, wie etwa ein lokales Netzwerk, das Internet und die digitale Satellitenübertragung bereitgestellt werden. In diesem Fall kann das Programm an der Kommunikationseinheit 814 empfangen und in der Speichereinheit 813 installiert werden. Des Weiteren kann das Programm vorab in dem ROM 802 und in der Speichereinheit 813 installiert werden.
  • Es wird darauf hingewiesen, dass ein Teil der oben beschriebenen Verarbeitungsserie durch Hardware und der andere Teil durch Software ausgeführt werden kann.
  • <Anwendung der vorliegenden Technologie>
  • Die Datenumwandlungsvorrichtung 100 gemäß der oben beschriebenen Ausführungsform kann auf verschiedene elektronische Geräte angewendet werden. Zum Beispiel beinhalten die elektronischen Geräte Sender, Empfänger, Aufzeichnungsgeräte, Wiedergabegeräte und dergleichen. Die Sender und Empfänger werden z.B. bei Satellitenübertragung, drahtgebundener Übertragung, wie etwa Kabelfernsehen, Verteilung über das Internet, Verteilung zu einem Endgerät durch Mobilfunk eingesetzt. Die Aufzeichnungsvorrichtungen zeichnen ein Bild in einem Medium, wie etwa einer optischen Platte, einer Magnetplatte und einem Flash-Speicher auf. Die Wiedergabevorrichtungen geben das Bild von diesen Speichermedien wieder.
  • So kann beispielsweise die vorliegende Technologie auch auf ein Netzwerksystem, das eine Vielzahl von Vorrichtungen aufweist, angewendet werden. 28 veranschaulicht ein Beispiel für eine schematische Ausgestaltung eines Netzwerksystems, auf welches die vorliegende Technologie angewendet wird.
  • In einem in 28 veranschaulichten Netzwerksystem 1600 kommunizieren Geräte über ein Netzwerk Informationen bezüglich eines Bildes (Bewegtbildes). Ein Cloud-Dienst 1601 des Netzwerksystems 1600 stellt Dienste bezüglich eines Bildes (Bewegtbildes) für ein Endgerät, wie einen Computer 1611, ein audiovisuelles (AV) Gerät 1612, ein tragbares Informationsverarbeitungsendgerät 1613 und ein Gerät für das Internet der Dinge (IoT, Internet of Things) 1614 bereit. Der Computer 1611 ist kommunikativ mit dem Cloud-Dienst 1601 verbunden. Zum Beispiel stellt der Cloud-Dienst 1601 einem Endgerät einen Bereitstellungsdienst für Bild(Bewegtbild)-Inhalte zur Verfügung, wie etwa die sogenannte Bewegtbildverteilung (On-Demand- und Live-Verteilung). Des Weiteren stellt der Cloud-Dienst 1601 beispielsweise einen Backup-Dienst zum Empfangen von Bild(Bewegtbild)-Inhalten aus einem Endgerät und zum Speichern der Inhalte bereit. Des Weiteren stellt der Cloud-Dienst 1601 beispielsweise einen Dienst zur Vermittlung der Kommunikation von Inhalten eines Bildes (Bewegtbildes) zwischen Endgeräten bereit.
  • Der Cloud-Dienst 1601 kann jegliche physische Ausgestaltung annehmen. So kann der Cloud-Dienst 1601 beispielsweise verschiedene Server und irgendein Netzwerk aufweisen. Die verschiedenen Server weisen beispielsweise Server zum Speichern und Verwalten von Bewegtbildern, Server zum Verteilen von Bewegtbildern an Endgeräte, Server zum Erfassen von Bewegtbildern von Endgeräten und Server zum Verwalten von Benutzern (Endgeräten) und zur Rechnungsstellung auf. Irgendein Netzwerk beinhaltet z.B. das Internet und LAN.
  • Der Computer 1611 schließt eine Informationsverarbeitungsvorrichtung, zum Beispiel einen Personalcomputer, einen Server, eine Workstation und dergleichen ein. Das AV-Gerät 1612 schließt eine Bildverarbeitungsvorrichtung, zum Beispiel einen Fernsehbildempfänger, einen Festplattenrecorder, ein Spielgerät, eine Kamera und dergleichen ein. Das tragbare Informationsverarbeitungsendgerät 1613 schließt eine tragbare Informationsverarbeitungsvorrichtung, zum Beispiel einen Notebook-Personalcomputer, ein Tablet-Endgerät, ein Mobiltelefon, ein Smartphone und dergleichen ein. Die IoT-Vorrichtung 1614 schließt irgendein Objekt, das eine Verarbeitung von Bildern durchführt, z.B. eine Maschine, ein Haushaltsgerät, Möbel, ein weiteres Objekt, einen IC-Tag, eine kartenartige Vorrichtung und dergleichen ein. Jedes dieser Endgeräte verfügt über eine Kommunikationsfunktion, ist mit dem Cloud-Dienst 1601 verbunden (Sitzung ist aufgebaut) und kann Informationen mit dem Cloud-Dienst 1601 austauschen (d.h. eine Kommunikation durchführen). Des Weiteren kann jedes Endgerät auch mit einem anderen Endgerät kommunizieren. Die Kommunikation zwischen den Endgeräten kann über den Cloud-Dienst 1601 oder ohne die Verwendung des Cloud-Services 1601 durchgeführt werden.
  • In dem vorstehend beschriebenen Netzwerksystem 1600 kann die vorliegende Technologie in einem Fall angewendet werden, in dem codierte Daten eines Bewegtbildes zwischen Endgeräten oder zwischen einem Endgerät und dem Cloud-Dienst 1601 übertragen werden.
  • In einem Fall, in dem ein Sendeziel eines Bewegtbildes nur Daten eines Teilbereichs des Bewegtbildes benötigt, kann beispielsweise eine Sendequelle (Senderseite) codierte Daten des Bewegtbildes in codierte Daten des Teilbereichs umwandeln und die umgewandelten codierten Daten an das Sendeziel senden, wie in der jeweiligen Ausführungsform beschrieben. Diese Ausgestaltung ermöglicht, die Menge von zu übertragenden Codes zu reduzieren, verglichen mit der Menge in einem Fall, in dem Daten eines Bewegtbildes vor der Umwandlung übertragen werden. Das heißt, die Übertragung von Daten, die für das Sendeziel unnötig sind, kann verhindert werden, und somit kann die Erhöhung einer Belastung in Bezug auf das Senden von codierten Daten an der Sendequelle, wie etwa eine Verarbeitungsmenge, eine Puffermenge und eine Verarbeitungsdauer verhindert werden. Des Weiteren kann die Reduzierung der Menge der zu übertragenden Codes eine Erhöhung der Bandbreitenbelegung und der Belegungsdauer eines Übertragungsmediums aufgrund der Übertragung der codierten Daten verhindern. Das heißt, eine Erhöhung einer Last auf einem Übertragungsmedium (z.B. Netzwerk) kann verhindert werden. Des Weiteren kann eine Anzahl von Codes, die am Sendeziel empfangen werden sollen, reduziert werden, wodurch die Erhöhung der Belastung beim Empfang von codierten Daten am Sendeziel, wie beispielsweise eine Verarbeitungsmenge, eine Puffermenge und eine Verarbeitungsdauer, verhindert werden kann. Darüber hinaus ermöglicht die Anwendung der vorliegenden Technologie die Übertragung eines geeigneten Bitstroms für einen Teilbereich, wodurch die Erhöhung einer Decodierlast verhindert werden kann.
  • Es wird darauf hingewiesen, dass die Erzeugung der codierten Daten des Teilbereichs (Umwandlung der codierten Daten) vor der Decodierung der codierten Daten durchgeführt werden muss. So kann beispielsweise die Umwandlung der codierten Daten an dem Sendeziel (Empfängerseite) durchgeführt werden. Das heißt, die codierten Daten des Bewegtbildes vor der Umwandlung können übertragen werden, und die vorliegende Technologie kann am Sendeziel angewendet werden. Wie in jeder Ausführungsform beschrieben, können die codierten Daten des empfangenen Bewegtbildes in codierte Daten eines gewünschten Teilbereichs umgewandelt werden und die codierten Daten des Teilbereichs nach der Umwandlung können decodiert werden. Eine solche Ausgestaltung ermöglicht, dass die Erhöhung der Decodierlast verhindert wird.
  • Es wird darauf hingewiesen, dass natürlich das Sendeziel (Empfängerseite) die codierten Daten des Teilbereichs nach der Umwandlung an andere (ein anderes Endgerät oder den Cloud-Dienst 1601) senden kann. Des Weiteren können die oben beschriebene Sendequelle (Senderseite) und das Sendeziel (Empfängerseite) das oben beschriebene Endgerät oder der Cloud-Dienst 1601 sein.
  • <Ergänzung>
  • Es wird darauf hingewiesen, dass verschiedene Informationen (z.B. Metadaten) über codierte Daten (Bitstrom) in jeglicher Form übertragen oder aufgezeichnet werden können, solange sie den codierten Daten zugeordnet sind. Der Begriff „zuordnen“ bedeutet hier beispielsweise, dass in einem Fall, in dem eine Dateneinheit verarbeitet wird, die anderen Daten verwendet (verknüpft) werden können. Das heißt, dass die miteinander verknüpften Daten als eine Dateneinheit zusammengefasst werden können oder als einzelne Dateneinheit verwendet werden können. So können beispielsweise Informationen, die codierten Daten (Bild) zugeordnet sind, auf einem Übertragungsweg übertragen werden, der sich von dem für die codierten Daten (Bild) unterscheidet. Des Weiteren können beispielsweise die codierten Daten (Bild) zugeordneten Informationen auf einem Aufzeichnungsmedium aufgezeichnet werden, das sich von dem für die codierten Daten (Bild) unterscheidet (oder in einem anderen Aufzeichnungsbereich desselben Aufzeichnungsmediums). Es wird darauf hingewiesen, dass diese „Zuordnung“ nicht für die gesamten Daten, sondern für einen Teil der Daten durchgeführt werden kann. So können beispielsweise ein Bild und Informationen, die dem Bild entsprechen, in irgendeiner Form miteinander verknüpft werden, wie beispielsweise einer Vielzahl von Rahmen, einem Rahmen und einem Teil in einem Rahmen.
  • Des Weiteren bedeuten Begriffe wie „synthetisieren“, „multiplexen“, „hinzufügen“, „integrieren“, „aufweisen“, „speichern“, „eingeben“, „einlassen“ und „einfügen“ in der Beschreibung, dass eine Vielzahl von Objekten in ein Objekt zusammengefasst sind, z.B. codierte Daten und Metadaten in einer Dateneinheit zusammenfassen, und bedeuten eine Methode des oben beschriebenen „zuordnen“.
  • Des Weiteren sind Ausführungsformen der vorliegenden Technologie nicht auf die oben beschriebenen Ausführungsformen beschränkt, und verschiedene Modifikationen sind möglich, ohne dass vom Kern der vorliegenden Technologie abgewichen wird.
  • Des Weiteren kann die vorliegende Technologie beispielsweise als jegliche Ausgestaltung implementiert werden, die eine Vorrichtung oder ein System bildet, z.B. Prozessoren, die als System-Großintegration (LSI, Large Scale Integration) und dergleichen dienen, Module, die die Vielzahl von Prozessoren und dergleichen verwenden, Einheiten, die die Vielzahl von Modulen und dergleichen verwenden, und Geräte, die durch weiteres Hinzufügen einer weiteren Funktion zu den Einheiten erhalten werden (d.h. ein Teil der Ausgestaltung einer Vorrichtung).
  • Es wird darauf hingewiesen, dass in der Beschreibung ein System eine Sammlung einer Vielzahl von Komponenten (z.B. Vorrichtungen und Module (Teile)) bedeutet, und es spielt keine Rolle, ob sich alle Komponenten im gleichen Gehäuse befinden oder nicht. Folglich sind sowohl eine Vielzahl von Vorrichtungen, die in verschiedenen Gehäusen untergebracht und über ein Netzwerk verbunden sind, als auch eine einzige Vorrichtung, die eine Vielzahl von Modulen, die in einem Gehäuse untergebracht sind, Systeme.
  • Des Weiteren kann beispielsweise eine als eine Vorrichtung (oder eine Verarbeitungseinheit) beschriebene Ausgestaltung in eine Vielzahl von Vorrichtungen (oder Verarbeitungseinheiten) unterteilt werden. Im Gegensatz dazu kann eine in der obigen Beschreibung als eine Vielzahl von Vorrichtungen (oder Verarbeitungseinheiten) beschriebene Ausgestaltung in einer einzigen Vorrichtung (oder einer Verarbeitungseinheit) zusammengefasst werden. Des Weiteren kann natürlich der Ausgestaltung jeder Vorrichtung (oder jeder Verarbeitungseinheit) eine andere Ausgestaltung als die oben beschriebenen Ausgestaltungen hinzugefügt werden. Des Weiteren kann ein Teil der Ausgestaltung einer bestimmten Vorrichtung (oder einer Verarbeitungseinheit) in die Ausgestaltung einer anderen Vorrichtung (oder einer anderen Verarbeitungseinheit) eingeschlossen werden, solange die Ausgestaltung und der Betrieb des Systems als Ganzes im Wesentlichen dieselben sind.
  • Des Weiteren kann die vorliegende Technologie beispielsweise eine Ausgestaltung als Cloud-Computing aufweisen, bei der sich eine Vielzahl von Vorrichtungen eine Funktion über ein Netzwerk teilt und die Verarbeitung gemeinsam durchführt.
  • Des Weiteren kann beispielsweise das oben beschriebene Programm in irgendeiner Vorrichtung ausgeführt werden. In diesem Fall muss diese Vorrichtung über eine notwendige Funktion (z.B. Funktionsblock) verfügen, um erforderliche Informationen zu erhalten.
  • Des Weiteren kann jeder im oben beschriebenen Flussdiagramm beschriebene Schritt, zusätzlich dazu, dass er von einer einzigen Vorrichtung ausgeführt wird, auch von einer Vielzahl von Vorrichtungen geteilt und ausgeführt werden. Darüber hinaus kann in einem Fall, in dem ein Schritt eine Vielzahl von Verarbeitungsschritten aufweist, die Vielzahl von Verarbeitungsschritten, die in diesem einen Schritt enthalten sind, von einer Vielzahl von Vorrichtungen geteilt und ausgeführt werden, zusätzlich dazu, dass sie nur von einer Vorrichtung ausgeführt werden. Mit anderen Worten, eine Vielzahl von Verarbeitungen, die in einem Schritt enthalten sind, kann als Verarbeitungen einer Vielzahl von Schritten ausgeführt werden. Umgekehrt können als eine Vielzahl von Schritten beschriebene Verarbeitungen gemeinsam als ein Schritt ausgeführt werden.
  • Es wird darauf hingewiesen, dass in einem von einem Computer ausgeführten Programm einzelne Verarbeitungen von Schritten, die das Programm beschreiben, chronologisch in der in der Beschreibung beschriebenen Reihenfolge oder einzeln parallel zu den erforderlichen Zeitpunkten, wenn beispielsweise der Aufruf erfolgt, ausgeführt werden können. Das heißt, solange keine Inkonsistenz entsteht, kann die Verarbeitung jedes Schrittes in einer Reihenfolge ausgeführt werden, die sich von der oben beschriebenen unterscheidet. Des Weiteren kann die Verarbeitung des Schrittes, der dieses Programm beschreibt, parallel zur Verarbeitung eines anderen Programms oder in Kombination mit der Verarbeitung eines anderen Programms ausgeführt werden.
  • Es wird darauf hingewiesen, dass jede aus der Vielzahl der in der Beschreibung beschriebenen vorliegenden Technologien unabhängig voneinander einzeln ausgeführt werden kann, solange keine Inkonsistenz auftritt. Natürlich kann eine optionale Vielzahl der vorliegenden Technologien gemeinsam implementiert werden. So kann beispielsweise ein Teil oder die gesamte vorliegende Technologie, die in einer der Ausführungsformen beschrieben ist, in Kombination mit einem Teil oder der gesamten in der anderen Ausführungsform beschriebenen vorliegenden Technologie implementiert werden. Des Weiteren kann ein Teil oder alle von den oben beschriebenen vorliegenden Technologien zusammen mit anderen Technologien, die oben nicht beschrieben sind, implementiert werden.
  • Es wird darauf hingewiesen, dass die vorliegende Technologie auch wie folgt ausgebildet sein kann.
    1. (1) Eine Bildverarbeitungsvorrichtung, die eine Metadaten-Aktualisierungseinheit aufweist, die Metadaten, welche aus codierten Daten eines Bewegtbildes extrahiert werden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aktualisiert.
    2. (2) Die Bildverarbeitungsvorrichtung gemäß (1), wobei die Metadaten-Aktualisierungseinheit die slice-basierten Metadaten aktualisiert, die jedem Slice entsprechen, der in dem Teilbereich enthalten ist.
    3. (3) Die Bildverarbeitungsvorrichtung gemäß (2), wobei die Metadaten-Aktualisierungseinheit Informationen über eine in den slice-basierten Metadaten enthaltene Adresse des Slice aktualisiert.
    4. (4) Die Bildverarbeitungsvorrichtung gemäß (2) oder (3), wobei die Metadaten-Aktualisierungseinheit in den slice-basierten Metadaten enthaltene Informationen über einen Versatz einer Kachel als Reaktion auf die Änderung einer Kachelausgestaltung in dem Slice aktualisiert.
    5. (5) Die Bildverarbeitungsvorrichtung gemäß einem von (2) bis (4), wobei die Metadaten-Aktualisierungseinheit die slice-basierten Metadaten als Reaktion auf die Änderung einer Slice-Ausgestaltung in einem Bild hinzufügt oder löscht.
    6. (6) Die Bildverarbeitungsvorrichtung gemäß einem von (1) bis (5), wobei die Metadaten-Aktualisierungseinheit bildbasierte Metadaten aktualisiert.
    7. (7) Die Bildverarbeitungsvorrichtung gemäß (6), wobei die Metadaten-Aktualisierungseinheit in den bildbasierten Metadaten enthaltene Informationen über einen Kachelsatz als Reaktion auf eine Änderung einer Kachelausgestaltung in einem unabhängig decodierbaren Kachelsatz aktualisiert.
    8. (8) Die Bildverarbeitungsvorrichtung gemäß (6) oder (7), wobei die Metadaten-Aktualisierungseinheit in den bildbasierten Metadaten enthaltene Informationen über eine Kachelausgestaltung in einem Kachelsatz als Reaktion auf eine Änderung einer Kachelausgestaltung in einem unabhängig decodierbaren Kachelsatz aktualisiert.
    9. (9) Die Bildverarbeitungsvorrichtung gemäß einem von (1) bis (8), wobei die Metadaten-Aktualisierungseinheit höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, aktualisiert.
    10. (10) Die Bildverarbeitungsvorrichtung gemäß (9), wobei die Metadaten-Aktualisierungseinheit in den höheren Metadaten enthaltene Informationen über einen Bildrahmen entsprechend einer Größe des Teilbereichs aktualisiert.
    11. (11) Die Bildverarbeitungsvorrichtung gemäß einem von (1) bis (10), wobei die Metadaten-Aktualisierungseinheit Metadaten über einen unabhängig decodierbaren Kachelsatz löscht.
    12. (12) Die Bildverarbeitungsvorrichtung gemäß einem von (1) bis (11), die ferner eine Metadaten-Extraktionseinheit aufweist, die Metadaten aus codierten Daten des Bewegtbildes extrahiert, wobei die Metadaten-Aktualisierungseinheit die von der Metadaten-Extraktionseinheit extrahierten Metadaten aktualisiert.
    13. (13) Die Bildverarbeitungsvorrichtung gemäß (12), wobei die Metadaten-Extraktionseinheit höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, extrahiert.
    14. (14) Die Bildverarbeitungsvorrichtung gemäß (12) oder (13), wobei die Metadaten-Extraktionseinheit bildbasierte Metadaten extrahiert.
    15. (15) Die Bildverarbeitungsvorrichtung gemäß einem von (12) bis (14), die ferner eine Datenextraktionseinheit aufweist, die codierte Daten des Teilbereichs aus codierten Daten des Bewegtbildes extrahiert, wobei die Metadaten-Aktualisierungseinheit Metadaten, die in codierten Daten des Teilbereichs, der von der Datenextraktionseinheit extrahiert wird, enthalten sind, aktualisiert.
    16. (16) Die Bildverarbeitungsvorrichtung gemäß (15), wobei die Metadaten-Aktualisierungseinheit in codierten Daten des Teilbereichs enthaltene slicebasierte Metadaten aktualisiert.
    17. (17) Die Bildverarbeitungsvorrichtung gemäß (15) oder (16), wobei die Datenextraktionseinheit codierte Daten eines unabhängig decodierbaren Teilbereichs extrahiert.
    18. (18) Die Bildverarbeitungsvorrichtung gemäß (17), wobei die Datenextraktionseinheit codierte Daten des Teilbereichs nur in einem Fall extrahiert, in dem der Teilbereich rechteckig ist.
    19. (19) Die Bildverarbeitungsvorrichtung gemäß (17) oder (18), wobei in einem Fall, in dem der Teilbereich nicht rechteckig ist, die Datenextraktionseinheit extrahierte codierte Daten aktualisiert, um den Teilbereich rechteckig zu machen.
    20. (20) Ein Bildverarbeitungsverfahren, welches das Aktualisieren von Metadaten, welche aus codierten Daten eines Bewegtbildes extrahiert werden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aufweist.
  • Bezugszeichenliste
  • 100
    Datenumwandlungsvorrichtung
    111
    Metadaten-Extraktionseinheit
    112
    Extraktionskachel-Vorgabeeinheit
    113
    Datenextraktionseinheit
    114
    Metadaten-Aktualisierungseinheit
    115
    Bitstromerzeugungseinheit
    800
    Computer
    1600
    Netzwerksystem
    1601
    Cloud-Dienst
    1611
    Computer
    1612
    AV-Gerät
    1613
    Tragbares Informationsverarbeitungsendgerät
    1614
    IoT-Gerät

Claims (20)

  1. Bildverarbeitungsvorrichtung, die eine Metadaten-Aktualisierungseinheit aufweist, die Metadaten, welche aus codierten Daten eines Bewegtbildes extrahiert werden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aktualisiert.
  2. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Metadaten-Aktualisierungseinheit slicebasierte Metadaten aktualisiert, die jedem in dem Teilbereich enthaltenen Slice entsprechen.
  3. Bildverarbeitungsvorrichtung gemäß Anspruch 2, wobei die Metadaten-Aktualisierungseinheit Informationen über eine in den slice-basierten Metadaten enthaltene Adresse des Slice aktualisiert.
  4. Bildverarbeitungsvorrichtung gemäß Anspruch 2, wobei die Metadaten-Aktualisierungseinheit in den slice-basierten Metadaten enthaltene Informationen über einen Versatz einer Kachel als Reaktion auf die Änderung einer Kachelausgestaltung in dem Slice aktualisiert.
  5. Bildverarbeitungsvorrichtung gemäß Anspruch 2, wobei die Metadaten-Aktualisierungseinheit die slice-basierten Metadaten als Reaktion auf die Änderung einer Slice-Ausgestaltung in einem Bild hinzufügt oder löscht.
  6. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Metadaten-Aktualisierungseinheit bildbasierte Metadaten aktualisiert.
  7. Bildverarbeitungsvorrichtung gemäß Anspruch 6, wobei die Metadaten-Aktualisierungseinheit in den bildbasierten Metadaten enthaltene Informationen über einen Kachelsatz als Reaktion auf eine Änderung einer Kachelausgestaltung in einem unabhängig decodierbaren Kachelsatz aktualisiert.
  8. Bildverarbeitungsvorrichtung gemäß Anspruch 6, wobei die Metadaten-Aktualisierungseinheit in den bildbasierten Metadaten enthaltene Informationen über eine Kachelausgestaltung in einem Kachelsatz als Reaktion auf eine Änderung einer Kachelausgestaltung in einem unabhängig decodierbaren Kachelsatz aktualisiert.
  9. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Metadaten-Aktualisierungseinheit höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, aktualisiert.
  10. Bildverarbeitungsvorrichtung gemäß Anspruch 9, wobei die Metadaten-Aktualisierungseinheit in den höheren Metadaten enthaltene Informationen über einen Bildrahmen entsprechend einer Größe des Teilbereichs aktualisiert.
  11. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Metadaten-Aktualisierungseinheit Metadaten über einen unabhängig decodierbaren Kachelsatz löscht.
  12. Bildverarbeitungsvorrichtung gemäß Anspruch 1, die ferner eine Metadaten-Extraktionseinheit, die Metadaten aus codierten Daten des Bewegtbildes extrahiert, aufweist, wobei die Metadaten-Aktualisierungseinheit die von der Metadaten-Extraktionseinheit extrahierten Metadaten aktualisiert.
  13. Bildverarbeitungsvorrichtung gemäß Anspruch 12, wobei die Metadaten-Extraktionseinheit höhere Metadaten, die gleich einer Sequenzebene oder höher als diese sind, extrahiert.
  14. Bildverarbeitungsvorrichtung gemäß Anspruch 12, wobei die Metadaten-Extraktionseinheit bildbasierte Metadaten extrahiert.
  15. Bildverarbeitungsvorrichtung gemäß Anspruch 12, die ferner eine Datenextraktionseinheit aufweist, die codierte Daten des Teilbereichs aus codierten Daten des Bewegtbildes extrahiert, wobei die Metadaten-Aktualisierungseinheit Metadaten, die in codierten Daten des Teilbereichs, die von der Datenextraktionseinheit extrahiert werden, enthalten sind, aktualisiert.
  16. Bildverarbeitungsvorrichtung gemäß Anspruch 15, wobei die Metadaten-Aktualisierungseinheit in codierten Daten des Teilbereichs enthaltene slicebasierte Metadaten aktualisiert.
  17. Bildverarbeitungsvorrichtung gemäß Anspruch 15, wobei die Datenextraktionseinheit codierte Daten eines unabhängig decodierbaren Teilbereichs extrahiert.
  18. Bildverarbeitungsvorrichtung gemäß Anspruch 17, wobei die Datenextraktionseinheit codierte Daten des Teilbereichs nur in einem Fall extrahiert, in dem der Teilbereich rechteckig ist.
  19. Bildverarbeitungsvorrichtung gemäß Anspruch 17, wobei in einem Fall, in dem der Teilbereich nicht rechteckig ist, die Datenextraktionseinheit extrahierte codierte Daten aktualisiert, um den Teilbereich rechteckig zu machen.
  20. Bildverarbeitungsverfahren, welches das Aktualisieren von Metadaten, welche aus codierten Daten eines Bewegtbildes extrahiert werden, gemäß codierten Daten eines Teilbereichs des Bewegtbildes, die aus den codierten Daten des Bewegtbildes extrahiert werden, aufweist.
DE112017006610.7T 2016-12-27 2017-12-14 Bildverarbeitungsvorrichtung und Verfahren Withdrawn DE112017006610T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016253065 2016-12-27
JP2016-253065 2016-12-27
PCT/JP2017/044841 WO2018123608A1 (ja) 2016-12-27 2017-12-14 画像処理装置および方法

Publications (1)

Publication Number Publication Date
DE112017006610T5 true DE112017006610T5 (de) 2019-09-12

Family

ID=62707532

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006610.7T Withdrawn DE112017006610T5 (de) 2016-12-27 2017-12-14 Bildverarbeitungsvorrichtung und Verfahren

Country Status (5)

Country Link
US (1) US11336909B2 (de)
JP (1) JP7052732B2 (de)
CN (1) CN110100442B (de)
DE (1) DE112017006610T5 (de)
WO (1) WO2018123608A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019145262A1 (en) 2018-01-25 2019-08-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient sub-picture extraction
JP7437374B2 (ja) * 2018-07-02 2024-02-22 ノキア テクノロジーズ オーユー ビデオコーディングでのタイル関連アドレス指定のための方法および装置
JPWO2020235659A1 (de) * 2019-05-21 2020-11-26
KR20220143943A (ko) 2020-02-28 2022-10-25 후아웨이 테크놀러지 컴퍼니 리미티드 슬라이스 헤더 신택스 엘리먼트의 시그널링을 단순화하는 인코더, 디코더, 및 대응하는 방법
US20220337855A1 (en) * 2021-04-20 2022-10-20 Samsung Electronics Co., Ltd. Operation of video decoding engine for evc

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7613727B2 (en) * 2002-02-25 2009-11-03 Sont Corporation Method and apparatus for supporting advanced coding formats in media files
US7260738B2 (en) * 2002-06-17 2007-08-21 Microsoft Corporation System and method for splitting an image across multiple computer readable media
AU2003244155A1 (en) * 2002-06-28 2004-01-19 Sharp Kabushiki Kaisha Image encoding device, image transmission device, and image pickup device
AU2007249117B2 (en) * 2007-12-19 2010-11-18 Canon Kabushiki Kaisha Variable-length encoding for image data compression
US20100232504A1 (en) * 2009-03-13 2010-09-16 The State of Oregon acting by and through the State Board of Higher Education on behalf of the Supporting region-of-interest cropping through constrained compression
PL3618431T3 (pl) * 2010-07-21 2023-05-29 Telefonaktiebolaget Lm Ericsson (Publ) Kodowanie i dekodowanie obrazu wizyjnego
US9414065B2 (en) * 2010-11-01 2016-08-09 Nec Corporation Dynamic image distribution system, dynamic image distribution method and dynamic image distribution program
US8767824B2 (en) * 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
US8923388B2 (en) * 2011-11-21 2014-12-30 Texas Instruments Incorporated Early stage slice cap decision in video coding
CN104081780A (zh) * 2012-01-31 2014-10-01 索尼公司 图像处理装置和图像处理方法
US9736476B2 (en) * 2012-04-27 2017-08-15 Qualcomm Incorporated Full random access from clean random access pictures in video coding
US20150208103A1 (en) * 2012-08-08 2015-07-23 National University Of Singapore System and Method for Enabling User Control of Live Video Stream(s)
KR20150063135A (ko) * 2012-09-28 2015-06-08 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
US20140098883A1 (en) * 2012-10-09 2014-04-10 Nokia Corporation Method and apparatus for video coding
JP5812028B2 (ja) * 2013-03-08 2015-11-11 ソニー株式会社 映像処理装置および映像処理方法
US20140301477A1 (en) * 2013-04-07 2014-10-09 Sharp Laboratories Of America, Inc. Signaling dpb parameters in vps extension and dpb operation
US9749627B2 (en) * 2013-04-08 2017-08-29 Microsoft Technology Licensing, Llc Control data for motion-constrained tile set
US20140362098A1 (en) * 2013-06-10 2014-12-11 Sharp Laboratories Of America, Inc. Display stream compression
JP6271888B2 (ja) * 2013-07-12 2018-01-31 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
KR101459557B1 (ko) * 2013-07-15 2014-11-17 주식회사 케이티 실시간 시청률에 기반한 모자이크 채널 가이드를 제공하는 서버 및 방법
MX364810B (es) * 2013-07-19 2019-05-07 Sony Corp Dispositivo y método de procesamiento de información.
KR102304687B1 (ko) * 2013-07-22 2021-09-27 소니그룹주식회사 정보 처리 장치 및 방법
GB2516825B (en) * 2013-07-23 2015-11-25 Canon Kk Method, device, and computer program for encapsulating partitioned timed media data using a generic signaling for coding dependencies
EP3057327A4 (de) * 2013-10-08 2017-05-17 Sharp Kabushiki Kaisha Bilddecodierer, bildcodierer und umsetzer für codierte daten
GB2524476B (en) * 2014-03-14 2016-04-27 Canon Kk Method, device and computer program for optimizing transmission of motion vector related information when transmitting a video stream
ES2913983T3 (es) * 2014-03-17 2022-06-07 Nokia Technologies Oy Un aparato, un método y un programa informático para codificación y decodificación de vídeo
JP6542201B2 (ja) * 2014-04-25 2019-07-10 シャープ株式会社 画像復号装置および画像復号方法
US20150313578A1 (en) * 2014-05-05 2015-11-05 Siemens Medical Solutions Usa, Inc. Multi-user wireless ulttrasound server
GB2530751A (en) * 2014-09-30 2016-04-06 Sony Corp Video data encoding and decoding
US20160100177A1 (en) * 2014-10-06 2016-04-07 Qualcomm Incorporated Non-uniform exponential-golomb codes for palette mode coding
JP2016103808A (ja) * 2014-11-28 2016-06-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
GB2539461B (en) * 2015-06-16 2020-01-08 Canon Kk Image data encapsulation
KR102106103B1 (ko) * 2015-07-03 2020-05-04 에스케이 텔레콤주식회사 고 해상도 영상에서의 영상 추출 장치 및 방법

Also Published As

Publication number Publication date
CN110100442A (zh) 2019-08-06
US20190387238A1 (en) 2019-12-19
WO2018123608A1 (ja) 2018-07-05
JP7052732B2 (ja) 2022-04-12
US11336909B2 (en) 2022-05-17
JPWO2018123608A1 (ja) 2019-10-31
CN110100442B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
DE112017006610T5 (de) Bildverarbeitungsvorrichtung und Verfahren
DE69937816T2 (de) Datenverarbeitungsgerät und Verfahren
DE10392598T5 (de) Unterstützung von fortschrittlichen Codierungsformaten in Mediendateien
DE10392282T5 (de) Verfahren und Vorrichtung zum Unterstützen von AVC in MP4
DE69920429T2 (de) Bewegungsschätzungssystem und -verfahren
DE202012013410U1 (de) Bildkompression mit SUB-Auflösungsbildern
DE112012000421B4 (de) Wiedergabevorrichtung, Verfahren zum Steuern der Wiedergabevorrichtung, Erzeugungsvorrichtung, Verfahren zum Steuern der Erzeugungsvorrichtung, Aufzeichnungsmedium, Datenstruktur, Steuerprogramm und Aufzeichnungsmedium, auf welchem das Programm gespeichert ist
DE10392280T5 (de) Verfahren und Vorrichtung zum Unterstützen von AVC in MP4
DE112012001635T5 (de) Verfahren zur Verwaltung einer Referenzbildliste und Vorrichtung zu dessen Ausführung
EP1371229B1 (de) Verfahren zur komprimierung und dekomprimierung von videodaten
EP1836853A1 (de) Verfahren und vorrichtung zur verarbeitung von skalierbaren daten
DE112014000261T5 (de) Verfahren und Gerät zum Senden und Empfangen eines Übertragungssignals zum Bereitstellen eines Trickmodusdienstes
DE10392281T5 (de) Verfahren und Vorrichtung zum Untersützten von AVC in MP4
DE69825638T2 (de) Verfahren für Bilddekodierung
DE202016008178U1 (de) Bewegungsvektorvorhersage mittels eines vorhergehenden Einzelbildresiduums
DE112015003805T5 (de) Bewegungskompensierte partitionierung
DE60312960T2 (de) Kodierungsverfahren und Dekodierungsverfahren für bewegliche Bilder
DE60008233T2 (de) Übertragung von profilierten mediadateien an kunden über ein netzwerk
DE202016008210U1 (de) Adaptiver direktionaler Schleifenfilter
DE102016015996B3 (de) Anpassungsfähige Kachel-Daten-Grössenkodierung für Video- und Bildkompression
DE102011006036B4 (de) Verfahren und Vorrichtungen zur Bildung eines Prädiktionswertes
EP3424200A1 (de) Kennungscodierungseinrichtung und kennungsdecodierungseinrichtung zur datenverteilung in netzwerken sowie derartige einrichtungen aufweisende netzwerkelemente
DE102015103827A9 (de) Fehlerverfolgung und Fehlerabschwächung für Videokompression auf Bewegungskompensationsbasis
DE202016008160U1 (de) Dynamischer Kodiermodus für Referenz-Bewegungsvektoren
DE102016125449A1 (de) Abschätzung einer Bewegung in einem superweiten Bereich zur Kodierung eines Videos

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee