MX2015002589A - Dispositivo de descodificacion y metodo de descodificacion, dispositivo de codificacion y metodo de codificacion. - Google Patents

Dispositivo de descodificacion y metodo de descodificacion, dispositivo de codificacion y metodo de codificacion.

Info

Publication number
MX2015002589A
MX2015002589A MX2015002589A MX2015002589A MX2015002589A MX 2015002589 A MX2015002589 A MX 2015002589A MX 2015002589 A MX2015002589 A MX 2015002589A MX 2015002589 A MX2015002589 A MX 2015002589A MX 2015002589 A MX2015002589 A MX 2015002589A
Authority
MX
Mexico
Prior art keywords
image
unit
decoding
luminance
data
Prior art date
Application number
MX2015002589A
Other languages
English (en)
Other versions
MX343609B (es
Inventor
Shinobu Hattori
Toshiya Hamada
Hiroaki Eto
Takumi TSURU
Kenichi Kanai
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2015002589A publication Critical patent/MX2015002589A/es
Publication of MX343609B publication Critical patent/MX343609B/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

La presente descripción se refiere a un dispositivo de descodificación, un método de descodificación, un dispositivo de codificación y un método de codificación, los cuales son capaces de permitir que un lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación. Una unidad de recepción recibe una corriente codificada que incluye datos codificados de una imagen y la información de gama de color que indica una gama de color de la imagen de un dispositivo de codificación que transmite la corriente codificada. Una unidad de extracción extrae los datos codificados y la información de gama de color de la corriente codificada. Una unidad de descodificación descodifica los datos codificados, y genera la imagen. La presente descripción puede aplicarse a, por ejemplo, un dispositivo de descodificación de un esquema de codificación de video de alta eficiencia (HEVC).

Description

DISPOSITIVO DE DESCODIFICACIÓN Y MÉTODO DE DESCODIFICACIÓN, DISPOSITIVO DE CODIFICACIÓN Y MÉTODO DE CODIFICACIÓN CAMPO TÉCNICO
[0001] La presente descripción se refiere a un dispositivo de descodificación, un método de descodificación, un dispositivo de codificación y un método de codificación, y más particularmente, un dispositivo de descodificación,un método de descodificación, un dispositivo de codificación y un método de codificación, los cuáles son capaces de permitir que un lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación.
TÉCNICA ANTECEDENTE
[0002] En años recientes, dispositivos que cumplen con un esquema tal como una fase de Grupo de Expertos de Imágenes en Movimiento (MPEG) en la cual se realiza compresión por transformada ortogonal tal como transformada de coseno discreto (DCT) y compensación de movimiento utilizando redundancia especifica de información de imagen se ha propagado para distribución de información de estaciones de difusión o similares y recepción de información en hogares generales.
[0003] Particularmente,un esquema deMPEG 2 (ISO/IEC 13818-2) se define como esquema de codificación de imagen de propósito general, y ahora se utiliza ampliamente para una amplia gama de aplicaciones de uso profesional y uso de consumo como conversión estándar de una imagen de barrido entrelazado, una imagen de barrido progresivo, una imagen de resolución estándar, y una imagen de alta definición. Al utilizar el esquema de MPEG 2, por ejemplo, una alta tasa de compresión y una excelente calidad de imagen pueden implementarse al asignar una tasa de bits de 4 a 8 Mbps en el case de una imagen de barrido entrelazado de una resolución estándar que tiene 720x 480 pixeles y una tasa de bit de 18 a 22 Mbps en el caso de una imagen de barrido entrelazado de una alta resolución que tiene 1920 x 1088 pixeles.
[0004] El MPEG 2 principalmente tiene como objetivo la codificación de alta calidad adecuada para difusión, pero no soporta un esquema de codificación de una tasa de bits menor que aquella de MPEG 1,es decir,un esquema de alta tasa de compresión. A medida que se propagan las terminalesmóviles, se ha considerado una necesidad de tal esquema de codificación para incrementar en futuro cercano, y por consiguiente un esquema de codificación de MPEG 4 se ha estandarizado. ISO/IEC 14496-2 se ha aprobado como estándar internacional para el esquema de codificación de imágenes MPEG 4 en diciembre de 1998.
[0005] Además, en años recientes, la estandarización de un estándar tal como H.26L (ITU-T Q6/16 VCEG) designado para codificación de imágenes para video conferencia se está llevando a cabo en primer lugar. Aunque H.26L se sabe requiere una mayor cantidad de cálculo para codificar y descodificar que en un esquema de codificación tal como MPEG 2 o MPEG 4, H.26L también se conoce que es capaz de implementar alta eficiencia de codificación.
[0006] Además, en años recientes, como una de las actividades de MPEG 4, la estandarización para incorporar una función que no se soporta por H.26L basándose en H.26L e implementar alta eficiencia de codificación se ha llevado a cabo como modelo conjunto de codificación de video de compresión mejorada.
Esta estandarización se ha probado en nombre de H.264 o MPEG-4 parte 10 (Codificación de Video Avanzada (AVC)) en marzo de 2003.
[0007] Además, como extensión de la misma, la Extensión de Margen de Fidelidad (FRExt) que incluye una herramienta de codificación necesaria para uso profesional tal como RGB o YUV422 o YUV444 o DCT de 8 x 8 y una matriz de cuantificación que se especifica en el MPEG-2 se ha estandarizado en febrero de 2005. Como resultado, el esquema de AVC se ha vuelto un esquema de codificación capaz de expresar también un ruido de película incluido en una película también y se utiliza en una amplia gama de aplicaciones tales como Disco BD (Blu-ray (una marca comercial registrada)).
[0008] Sin embargo, en años recientes, existe una necesidad en incremento de una codificación de alta tasa de compresión capaz de comprimir una imagen de aproximadamente 4000 x 2000 pixeles que es 4 veces tan alta como una imagen de alta definición o distribuir una imagen de alta definición en una ambiente de capacidad de transmisión limitado tal como Internet. Para este fin, una mejora en la eficiencia de codificación ha estado bajo revisión continua por el Grupo de Expertos de Codificación de Video (VCEG) bajo ITU-T.
[0009] Actualmente,para mejorar adicionalmente la eficiencia de codificación para que sea mayor que en el AVC, una estandarización de un esquema de codificación denominado Codificación de Video de Alta Eficiencia (HEVC) se ha llevado a cabo por el equipo de colaboración conjunta-codificación de video (JCTVC) el cual es una organización de estandarización conjunta de ITU-T e ISO/IEC.El documento que no es patente 1 se ha emitido como proyecto a partir de agosto de 2013.
[0010] Mientras tanto, en el esquema de AVC y el esquema de HEVC, un agama de color de una imagen de objetivo de codificación se define por color-primario de la información de utilidad de capacidad de uso de video (VUI).
LISTA DE CITAS DOCUMENTO QUE NO ES PATENTE
[0011] Documento que no es patente 1: Benjamín Bross, Gary J. Sullivan, Ye-Kui Wang, "Editores" proporcionan correcciones a la versión de HEVC 1, "JCTVC-M0432 v3, 2013.4.18-4.26.
COMPENDIO DE LA INVENCIÓN PROBLEMAS QUE SERÁN RESUELTOS POR LA INVENCIÓN
[0012] Sin embargo,una gama de color de una imagen de objetivo de codificación se define por un índice que identifica cualquiera de las gamas de color definidas en otro estándar. De esta manera, es difícil definir una gama de color distinta a una gama de color fija como gama de color de una imagen de objetivo de codificación, y es difícil reconocer con precisión una gama de color de una imagen objetivo de codificación en un lado de descodificación.
[0013] La presente descripción se hizo en vista de lo anterior, y es deseable permitir que un lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación.
SOLUCIONES A LOS PROBLEMAS
[0014] Un dispositivo de descodificación de acuerdo con un primer aspecto de la presente descripción incluye:una unidad de recepción que recibe una corriente codificada que incluye datos codificados de una imagen y la información de gama de color que indica una gama de color de la imagen de un dispositivo de codificación que transmite la corriente codificada; una unidad de extracción que extrae los datos codificados y la información de gama de color de la corriente codificada recibida por la unidad de recepción;y una unidad de descodificación que descodifica los datos codificados extraídos por la unidad de extracción, y genera la imagen.
[0015] Un método de descodificación de acuerdo con el primer aspecto de la presente descripción corresponde al dispositivo de descodificación de acuerdo con el primer aspecto de la presente descripción.
[0016] En el primer aspecto de la presente descripción, una corriente codificada que incluye datos codificados de una imagen e información de gama de color que indica una gama de color de la imagen se recibe de un dispositivo de codificación que transmite la corriente codificada, los datos codificados y la información de gama de color se extraen de la corriente codificada, y los datos codificados se descodifican para generar la imagen.
[0017] Un dispositivo de codificación de acuerdo con un Segundo aspecto de la presente descripción incluye: una unidad de codificación que codifica una imagen, y genera datos codificados; una unidad de ajuste que establece la información de gama de color que indica una gama de color de la imagen; y una unidad de transmisión que transmite una corriente codificada que incluye los datos codificados generados por la unidad de codificación y la información de gama de color generada por la unidad de ajuste.
[0018] Un método de descodificación de acuerdo con el segundo aspecto de la presente descripción corresponde al dispositivo de codificación de acuerdo con el segundo aspecto de la presente descripción.
[0019] En el segundo aspecto de la presente descripción, se codifica una imagen para generar datos codificados, información de gama de color que indica una gama de color de la imagen se establece, y una corriente codificada que incluye los datos codificados y la información de gama de color se transmiten.
[0020] Un dispositivo de descodificación de acuerdo con un tercer aspecto de la presente descripción incluye: una unidad de recepción que recibe una corriente codificada que incluye datos codificados de una imagen, información de identificación que identifica una cierta gama de color, y una relación de cobertura de una gama de color de la imagen para la cierta gama de color de un dispositivo de codificación que transmite la corriente codificada; y una unidad de extracción que extrae los datos codificados, la información de identificación y la relación de cobertura de la corriente codificada recibida por la unidad de recepción; y una unidad de descodificación que descodifica los datos codificados extraídos por la unidad de extracción, y genera la imagen.
[0021] El método de descodificación de acuerdo con el tercer aspecto de la presente descripción corresponde al dispositivo de descodificación de acuerdo con el tercer aspecto de la presente descripción.
[0022] En el tercer aspecto de la presente descripción, una corriente codificada que incluye datos codificados de una imagen, información de identificación que identifica una cierta gama de color, y una relación de cobertura de una gama de color de la imagen para la cierta gama de color se recibe de un dispositivo de codificación que transmite la corriente codificada, los datos codificados, la información de identificación y la relación de cobertura se extraen de la corriente codificada, y los datos codificados se descodifican para generar la imagen.
[0023] Un dispositivo de codificación de acuerdo con un cuarto aspecto de la presente descripción incluye: una unidad de codificación que codifica una imagen y genera datos codificados; una unidad de ajuste que establece la información de identificación que identifica una cierta gama de color y una relación de cobertura de una gama de color de la imagen para la cierta gama de color; y una unidad de transmisión que transmite una corriente codificada que incluye los datos codificados generados en la unidad de codificación y la información de identificación y la relación de cobertura generada en la unidad de ajuste.
[0024] Un método de codificación de acuerdo con el cuarto aspecto de la presente descripción, corresponde al dispositivo de codificación de acuerdo con el cuarto aspecto de la presente descripción.
[0025] En el cuarto aspecto de la presente descripción, se codifica una imagen para generar datos codificados, la información de identificación que identifica cierta gama de color y una relación de cobertura de una gama de color de una imagen para la cierta gama de color se establecen, y una corriente codificada que incluye los datos codificados, la información de identificación y la relación de cobertura se transmiten.
[0026] Los dispositivos de descodificación de acuerdo con el primer y tercer aspectos y los dispositivos de codificación de acuerdo con el segundo y cuarto aspectos pueden implementarse al provocar que una computadora ejecute un programa.
[0027] El programa ejecutado por la computadora para implementar los dispositivos de descodificación de acuerdo con el primer y tercer aspectos y los dispositivos de codificación de acuerdo con el segundo y cuarto aspectos pueden proporcionarse de manera que el programa se transmita mediante un medio de transmisión o se grabe en un medio de grabación.
[0028] El dispositivo de descodificación de acuerdo con el primer o tercer aspectos y el dispositivo de codificación de acuerdo con el segundo o cuarto aspectos puede ser un dispositivo independiente o puede ser un bloque interno que configura un dispositivo individual.
EFECTOS DE LA INVENCIÓN
[0029] De acuerdo con el primer y tercer aspectos de la presente descripción, es posible descodificar datos codificados de una imagen.Además, de acuerdo con el primer y tercer aspectos de la presente descripción, es posible reconocer con precisión una gama de color de una imagen objetivo de codificación.
[0030] Además, de acuerdo con el segundo y cuarto aspectos de la presente descripción,esposible codificar una imagen.Además, de acuerdo con el segundo y cuarto aspectos de la presente descripción, es posible permitir que un lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación.
[0031] Los efectos descritos en lo anterior no necesariamente se limitan, y pueden incluir cualquier efecto descrito en la presente descripción.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0032] La Figura 1 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de codificación de acuerdo con una primera modalidad de la presente descripción La Figura 2 es un diagrama que ilustra una sintaxis ejemplar de una SEI colour_primaries_info.
La Figura 3 es un diagrama para describir el contenido de información de la SEI colour_primaries_info.
La Figura 4 es un diagrama para describir contenido de información de la SEI colour_primaries info.
La Figura 5 es un diagrama que ilustra una sintaxis ejemplar de colour_primaries_info_sei element.
La Figura 6 es un diagrama para describir contenido de información de colour_primaries_info_sei_element.
La Figura 7 es un diagrama para describir contenido de información de colour_primaries_info_sei_element.
La Figura 8 es un diagrama que ilustra una sintaxis ejemplar de la SEI ref_display_luminance_info.
La Figura 9 es un diagrama para describir contenido de información de la SEI ref_display_luminance_info.
La Figura 10 es un diagrama de flujo para describir un proceso de generación de corriente de un dispositivo de codificación.
La Figura 11 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de descodificación de acuerdo con la primera modalidad de la presente descripción.
La Figura 12 es un diagrama de flujo para describir un proceso de generación de imágenes del dispositivo de descodificación de la Figura 11.
La Figura 13 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de codificación de acuerdo con una segunda modalidad de la presente descripción.
La Figura 14 es un diagrama que ilustra una sintaxis ejemplar de la SEI colour_primaries_info.
La Figura 15 es un diagrama para describir información de la SEI colour_primaries_info.
La Figura 16 es un diagrama para describir información de la SEI colour_primaries_info La Figura 17 es un diagrama para describir información de la SEI colour_primaries_info.
La Figura 18 es un diagrama para describir información de la SEI colour_primaries_info.
La Figura 19 es un diagrama para describir información de la SEI colour_primaries_info.
La Figura 20 es un diagrama de flujo para describir un proceso de generación de corriente de un dispositivo de codificación.
La Figura 21 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de descodificación de acuerdo con la segunda modalidad de la presente descripción.
La Figura 22 es un diagrama de flujo para describir un proceso de generación de imágenes del dispositivo de descodificación de la Figura 21.
La Figura 23 es un diagrama para describir una caja de MP4 como capa de sistema en la cual la información de gama de color y la información de luminancia se disponen.
La Figura 24 es un diagrama de bloque que ilustra una configuración de hardware ejemplar de una computadora.
La Figura 25 es un diagrama que ilustra un esquema de codificación de imágenes de varias listas ejemplar.
La Figura 26 es un diagrama que ilustra una configuración ejemplar de un dispositivo de codificación de imágenes de varias vistas al cual se aplica la presente descripción.
La Figura 27 es un diagrama que ilustra una configuración ejemplar de un dispositivo de descodificación de imágenes de varias vistas al cual se aplica la presente descripción.
La Figura 28 es un diagrama que ilustra un esquema de codificación de imágenes escalable ejemplar.
La Figura 29es un diagrama para describir codificación escalable espacial ejemplar.
La Figura 30 es un diagrama para describir codificación escalable temporal ejemplar.
La Figura 31 es un diagrama para describir codificación escalable ejemplar de una relación de señal a ruido.
La Figura 32 es un diagrama que ilustra una configuración ejemplar de un dispositivo de codificación de imágenes escalable al cual se aplica la presente descripción.
La Figura 33 es un diagrama que ilustra una configuración ejemplar de un dispositivo de descodificación de imágenes escalable al cual se aplica la presente descripción.
La Figura 34 es un diagrama que ilustra una configuración esquemática y ejemplar de un dispositivo de televisión al cual se aplica la presente descripción.
La Figura 35 es un diagrama que ilustra una configuración esquemática ejemplar de un teléfono móvil al cual se aplica la presente descripción.
La Figura 36 es un diagrama que ilustra una configuración esquemática ejemplar de un dispositivo de grabación/reproducción al cual se aplica la presente descripción.
La Figura 37 es un diagrama que ilustra una configuración esquemática ejemplar de un dispositivo de formación de imágenes al cual se aplica la presente descripción.
La Figura 38 es un diagrama de bloque que ilustra un ejemplo de aplicación de codificación escalable.
La Figura 39 es un diagrama de bloque que ilustra otro ejemplo de aplicación de codificación escalable.
La Figura 40 es un diagrama de bloque que ilustra otro ejemplo de aplicación de codificación escalable.
La Figura 41 ilustra una configuración esquemática ejemplar de un aparato de video al cual se aplica la presente descripción.
La Figura 42 ilustra una configuración esquemática ejemplar de un procesador de video al cual se aplica la presente descripción.
La Figura 43 ilustra otra configuración esquemática ejemplar de un procesador de video al cual se aplica la presente descripción.
MODO PARA LLEVAR A CABO LA INVENCIÓN
[0033] <Primera modalidad> Configuración ejemplar de dispositivo de codificación de acuerdo con la primera modalidad.
La Figura 1 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de codificación de acuerdo con una primera modalidad de la presente descripción.
[0034] Un dispositivo 10de codificación de la Figura 1 incluye una unidad 11 de ajuste,una unidad 12 de codificación y una unidad 13 de transmisión, y codifica una imagen de acuerdo con un esquema basado en el esquema de HEVC:
[0035] Específicamente,la unidad 11de ajuste del dispositivo 10 de codificación establece conjuntos de parámetros tales como un conjunto de parámetros de secuencia (SPS), un conjunto de parámetros de imagen (PPS), un VUI, y una información de mejora complementaria (SEI).
[0036] Ejemplos de la SEI incluyen una SEI colour_primaries_info, una SEI ref_display_luminance_info, y similares. La SEI colour_primaries_info es una SEI que incluye información de gama de color que indica un (limite de) gama de color. La SEI de ref_display_luminance_info es una SEI que incluye información de luminancia (información de gama de color de una pantalla maestra) que indica niveles de luminancia de blanco, gris y negro de la pantalla maestra (unidad de visualización) que despliega un imagen objetivo de codificación al momento de la creación de la imagen objetivo de codificación. La unidad 11 de ajuste proporciona los conjuntos de parámetros establecidos a la unidad 12 de codificación.
[0037] La unidad objetivo de codificación se ingresa en la unidad 12 de codificación en unidades de tramas. La unidad 12 de codificación codifica la imagen objetivo de codificación de entrada de acuerdo con el esquema HEVC. La unidad 12 de codificación genera una corriente codificada basada en datos codificados obtenidos como resultado de la codificación y los conjuntos de parámetros proporcionados desde la unidad 11 de ajuste, y proporciona la corriente codificada a la unidad 13 de transmisión.
[0038] La unidad 13 de transmisión transmite la corriente codificada proporcionada desde la unidad 12 de codificación hasta un dispositivo de descodificación que se describirá posteriormente .
[0039] (Sintaxis ejemplar de SEI colour_primaries_info) La Figura 2 es un diagrama que ilustra una sintaxis ejemplar de la SEI colour_primaries_info.
Como se ilustra en una segunda linea de la Figura 2, colour_primaries_info_id se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 3, colour_primaries_info_id es una ID y que identifica el propósito de la información de gama de color.
[0041] Como se ilustra en una tercera linea de la Figura 2, colour_primaries_type se describe en la SEI colour_primaries_info. Como se ilustra en la Figura 3, colour_primaries_type indica un tipo de espacio de color. Por ejemplo, como se ilustra en una tabla de la Figura 3 colour_primaries_type es uno cuando un tipo de espacio de color es sistema de coordenadas de color RGB, y colour_primaries_type es 2 cuando un tipo de espacio de color es el sistema de coordenadas de color XYZ.
[0042] Como se ilustra en una cuarta linea de la Figura 2, colour_primaries_info_present_flag se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 3, colour_primaries_info present flag es un indicador que indica si una información de color primario que indica una posición de color primario en el espacio de colores en la información de gama de color se describe o no en la SEI de colour_primaries info. colour_primaries_info_present_flag es uno cuando la información de color primaria se describe, y colour_primaries_info_present_flag es 0 cuando la información de color primaria no se describe.
[0043] Como se ilustra en una quinta linea de la Figura 2, white_point_info_present_flag se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 3, white_point_info_present_flag, es un indicador que indica si la información de blanco que indica una posición (punto blanco) de blanco en el espacio de color en la información de gama de color se describe o no en la SEI colour_primaries_info. White_point_info_present_flag es 1 cuando la información de blanco se describe, y White_point_info_present_flag es 0 cuando la información de blanco no se describe.
[0044] Como se ilustra en la sexta y séptima linea de la Figura 2, cuando colour_description_present_flag incluida en una VUI es 1, limited_colour_gamut_boundaries_flag se describe en la SEI colour_primaries_info. Además, colour_description_present_ flag es un indicador que indica si un índice que identifica una gama de color definida en una VUI en otro estándar se describe o no.
Colour_description_present_flag es 1 cuando un índice se describe enVUI,y colour_description_present_flag es 0 cuando un índice no se describe en VUI:
[0045] Además, limited_colour_gamut_boundaries_flag es un indicador que indica si una gama de color de una imagen objetivo de codificación se limita a una gama de color identificada por un índice descrito en una VUI como se ilustra en la Figura 4. Limited_colour_gamut_boundaries_flag es 0 cuando un agama de color se limita, y limited_colour_gamut_boundaries_flag es 1 cuando no se limita a una gama de color.
[0046] Como se ilustra en la octava y novena línea de la Figura 2, cuando limited_colour_gamut_boundaries_flag es 1, limited_colour_gamut_range_in_percent se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 4, limited_colour_gamut_range_in_percent indica una relación de cobertura de una gama de color de una imagen objetivo de codificación para una gama de color identificada por un índice descrito en VUI. En otras palabras, limited_colour_gamut_range_in_percent es una relación de una gama de color de una imagen objetivo de codificación con una gama de color identificada por un índice descrito en VUI
[0047] Como se ilustra en la décima y décimo primero lineas de la Figura 2, cuando colour_primaries_info_present_flag es 1, colour_primaries_order_type se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 4, colour_primaries_order_type es un tipo de un orden de descripción de la información de color primaria.
[0048] Por ejemplo, como se ilustra en una tabla de la Figura 4, cuando el tipo de espacio de color es el sistema de coordenadas de color de RGB, la información de color primario se describe en el orden de rojo, verde y azul, rojo, verde y azul, y después se describe en el orden descendente de longitudes de onda de los otros colores (por ejemplo, el orden de amarillo y cian), colour_primaries_order_type es 1. Además, cuando el tipo de espacio de color es el sistema de coordenadas de color de RGB y la información de color primario se describe en el orden descendente de longitudes de onda (por ejemplo, el orden de rojo, amarillo, verde, cian y azul), colour_primaries_order_type es 2. Cuando el tipo de espacio de color es el sistema de coordenadas de color XYZ y la información de color primario se describe en el orden de X, Y, y Z colour_primaries_order_type es 3.
[0049] Además, como se ilustra en una décima segunda linea de la Figura 2, cuando colour_primaries_info_present_flag es 1, num_colour_primaries_minus3 se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 4, num_colour_primaries_minus3 es un valor obtenido al restar tres de los númerosde piezas de información de colorprimario descrito en la SEI de colour_primaries_info.
[0050] Como se ilustra en la décimo tercera y décimo sexta lineas de la Figura 2,cuando colour_primaries_info_present_flag es 1, la información de color primario se describe en la SEI de colour_primaries_info por el número obtenido al agregar tres a num_colour_primaries_minus3. La información de color primario incluye colour_primaries_info_sei_element (ColourPrimaryXSign[i], ColourPrimaryXExp[i], ColourPrimaryXMantissa[i], y ColourPrimaryXManlen[i]) que indica posiciones de colores primarios en una dirección X en el espacio de color y colour_primaries_info_sei_element (ColourPrimaryYSign[i], ColourPrimaryYExp[i], ColourPrimaryYMantissa[i], y ColourPrimaryYManlen[i]) que indica posiciones en una dirección Y.
[0051] Como se ilustra en la décimo séptima y décimo novena lineas de la Figura 2, cuando white_point_info_present_flag es 1, la información de blanco se describe en la SEI de colour_primaries_info. La información de blanco incluye colour_primaries_info_sei_element (WhitePointXSign, WhitePointXExp, WhitePointXMantissa, WhitePointXManlen) que indica una posición de blanco en la dirección X en el espacio de color y colour_primaries_info_sei_element (WhitePointYSign, WhitePointYExp, WhitePointYMantissa, WhitePointYManlen) que indica una posición en la dirección Y.
[0052] Sintaxis ejemplar de colour_primaries_info_sei_element La Figura 5 es un diagrama que ilustra una sintaxis ejemplar de colour_primaries_info_sei_element que configura la información de color primaria y la información de blanco.
[0053] Como se ilustra en la Figura 5, colour_primaries_info_sei_element incluye colour_primaries_info_sign, colour_primaries_info_exponent, colour_primaries_info_mantissa_len_minusl, y colour_primaries_info_mantissa.
[0054] En La Figura 5, ColourPrimaryXSign [i], ColourPrimaryYSign[i], WhitePointXSign, y WhitePointYSign de manera similar, se denominan colectivamente como "OutSign." De manera similar, ColourPrimaryXExp[i], ColourPrimaryYExp[i], WhitePointXExp, y WhitePointYExp se denominan colectivamente como "OutExp, " y ColourPrimaryXMantissa [i], ColourPrimaryYMantissa[i], WhitePointXMantissa, y WhitePointYMantissa se denominan colectivamente como "OutMantissa. " Además, ColourPrimaryXManlen[i], ColourPrimaryYManlen[i], WhitePointXManlen, y WhitePointYManlen se denominan colectivamente como "OutManLen",
[0055] Como se ilustra en la Figura 6, colour_primaries_info_sign indica un signo de un punto flotante de coordenadas de una posición de un color correspondiente a un espacio de color.colour_primaries_info_sign es 0 cuando el signo es positivo, y colour_primaries_info_sign es 1 cuando el signo es negativo.
[0056] Como se ilustra en la Figura 6, colour_primaries_info_exponent indica una exponente de un punto flotante de coordenadas de una posición de un color correspondiente en espacio de color.
[0057] Como se ilustra en la Figura 6 colour_primaries_info_mantissa_len_minusl es un valor obtenido al restar 1 del número de bits de colour_primaries_info_mantissa. Como se ilustra en la Figura 6, colour_primaries_info_mantissa es una antissa de un punto flotante de coordenadas de una posición de un color correspondiente en un espacio de color.
[0058] Como se describe en lo anterior, colour_primaries_info_sei_element puede indicar coordenadas X de una posición de un color correspondiente en un espacio de color. En otras palabras, como se ilustra en la Figura 7, las coordenadas X pueden obtenerse por la siguientes Ecuaciones (1) utilizando colour_primaries_info_sign, colour_primaries_info_exponent, colour_primaries_info_mantissa_len_minusl, y colour primarles info mantissa.
[0059] Fórmula Matemática 1 Si o < e < 127 , x = (-1 ) s*2e 31* { 1 + n ÷ 2V) Si e = 0 , x = ( -1 ) s*2 < 30+v) *n . . . ( 1 ) [ 0060 ] En la Ecuación (1), s indica colour_primaries info_sign, y e indica colour_primaries info_exponent. Además, n indica colour_primaries info_mantissa, y v indica colour_primaries info mantissa len minusl.
[0061] Porejemplo, cuando colour_primaries_info_sei_element es colour_primaries_info_sei_element (ColourPrimaryXSign[i], ColourPrimaryXExp[i], ColourPrimaryXMantissa[i], y ColourPrimaryXManlen[i]) indican coordenadas ColourPrimariesX de los coloresprimarios en la dirección X en el espacio de color, ColourPrimariesXSign que es colour_primaries_info_sign de colour_primaries_info_sei_element (ColourPrimaryXSign[i], ColourPrimaryXExp [i], ColourPrimaryXMantissa[i], y ColourPrimaryXManlen[i] se sustituye en una s de la ecuación (1) como se ilustra en una tabla de la Figura 7.
[0062] Además, ColourPrimariesXExp que es colour_primaries_info_exponent de colour_primaries_info_sei_element (ColourPrimaryXSign [i], ColourPrimaryXExp[i], ColourPrimaryXMantissa[i], y ColourPrimaryXManlen[i]) se sustituye en e de la ecuación (1). Además, ColourPrimaryXMantissa que es colour_primaries_info_mantissa de colour_primaries_info_sei_element (ColourPrimaryXSign [i], ColourPrimaryXExp[i], ColourPrimaryXMantissa[i], y ColourPrimaryXManlen[i]) se sustituye en una n de la ecuación (1) y ColourPrimaryXManlen que es colour_primaries_info_mantissa_len_minusl se sustituye en v. De esta manera, las coordenadas ColourPrimariesX de las posiciones de los colores primarios en la dirección x en el espacio de color se calculan como las coordenadas x.
[0063] De manera similar, cuando colour_primaries_info_sei_element es colour_primaries_info_sei_element (ColourPrimaryYSign[i], ColourPrimaryYExp[i], y ColourPrimaryYMantissa[i], ColourPrimaryYManlen[i]), las coordenadas ColourPrimariesY de las posiciones de los colores primarios en la dirección y en el espacio de color se calculan como las coordenadas x.
[0064] Cuando colour_primaries_info_sei_element es colour_primaries_info_sei_element (WhitePointXSign, WhitePointXExp, WhitePointXMantissa y WhitePointXManlen), las coordenadas WhitePointX de la posición de blanco en la dirección y en el espacio de color se calculan como las coordenadas x.
[0065] Cuando colour_primaries_info_sei_element es colour_primaries_info_sei_element (WhitePointYSign, WhitePointYExp, WhitePointYMantissa y WhitePointYManlen), las coordenadas WhitePointY de la posición de blanco en la dirección x en el espacio de color se calculan como las coordenadas x
[0066] Sintaxisejemplar de SEI de ref_display_luminance_info La Figura 8 es un diagrama que ilustra una sintaxis ejemplar de SEI de ref_display_luminance_info.
[0067] Como se ilustra en una segunda linea de la Figura 8, ref_display_luminance_info_id se describe en la SEI de ref_display_luminance_info. Como se ilustra en la Figura 9, ref_display_luminance_info_id es una ID que identifica el propósito de la información de luminancia deblanco,gris,y negro de la pantalla maestra (pantalla de referencia).
[0068] Como se ilustra en una tercera línea de la Figura 8, ref_display_luminance_white_present_flag se describe el la SEI de ref_display_luminance_info. Como se ilustra en la Figura 9, ref_display_luminance_white_present_flag es un indicador que indica si la información de luminancia de blanco de pantalla maestra se describe o no en la SEI de ref_display_luminance_info. Cuando la información de luminancia de blanco de la pantalla maestra se describe en la SEI de ref_display_luminance_info, ref_display_luminance_white_present_flag es 1, y cuando la información de luminancia de blanco de la pantalla maestra no se describe en la SEI de ref_display_luminance_info, ref display_luminance_white_present_flag es 0
[0069] Como se ilustra en la cuarta y quinta líneas de la Figura 8, incluso para blanco y gris, de manera similar, ref_display_luminance_black_present_flag y ref_display_luminance_gray_present_flag se describen en la SEI de ref_display_luminance_info.
[0070] Además, como se ilustra en la sexta y séptima líneas de la Figura 8, cuando ref_display_luminance_white_present_flag es 1, ref display_luminance_white se describen en la SEI de ref display_luminance_info. Como se ilustra en la Figura 9, ref_display_luminance_white es la información de luminancia de blanco.
[0071] Como se ilustra en la octava y novena lineas de la Figura 8, para negro, de manera similar, cuando ref_display_luminance_black_present_flag es 1, ref_display_luminance_black que sirve como información de luminancia de blancos se describe en la SEI de ref_display_luminance_info
[0072] Además, como se ilustra en la décima y décimo primera lineas de la Figura 8, incluso para gris,demanera similar cuando ref_display_luminance_gray_present_flag es 1, ref_display_luminance_gray que sirve como información de luminancia de gris se describe en la SEI de ref_display_luminance_info
[0073] Descripción del procesamiento de dispositivo de codificación La Figura 10 es un diagrama de flujo para describir un proceso de generación de corriente del dispositivo 10 de codificación.
[0074] En la etapa Sil de la Figura 10, la unidad 11 de ajuste del dispositivo 10 de codificación establece un SPS. En la etapa S12, la unidad 11de ajuste establece una VUIque incluye un índice (información de identificación) que identifica una gama de colores definida en otro estándar.
[0075] En la etapa S13, la unidad 11 de ajuste establece un PPS. En la etapa S14, la unidad 11 de ajuste determina si la gama de color de una imagen objetivo de codificación es más estrecha o no que una gama de color identificada por el indice incluido en la VUI.
[0076] Cuando se determina en la etapa S14 que la gama de color de la imagen objetivo de codificación es más estrecha que la gama de color identificada por el indice incluido en la VUI,el proceso procede a la etapa S15. En la etapa S15, la unidad 11 de ajuste establece la SEI de colour_primaries_info incluyendo la información de gama de color de la imagen objetivo de codificación, y el proceso procede a la etapa S16.
[0077] Mientras tanto, cuando se determina en la etapa S14 que la gama de color de la imagen objetivo de codificación no es más estrecha que la gama de color identificada por el indice incluido en la VUI, en la SEI de colour_primaries_info que incluye la información de gama de color de la imagen objetivo de codificación no se establece.Por ejemplo, la SEI de colour_primaries_info que incluye limited_colour_gamut_range_in_percent se establece. Después, el proceso procede a la etapa S16.
[0078] En la etapa S16, la unidad 11 de ajuste establece la SEI de ref_display_luminance_info que incluye la información de luminancia de blanco, gris y negro de la pantalla maestra. La unidad 11 de ajuste proporciona los conjuntos de parámetros tales como el SPS establecido, el PPS y el VUI, la SEI de colour_primaries_info y la SEI de ref_display_luminance_info para la unidad 12 de codificación.
[0079] En la etapa S17, la unidad 12 de codificación codifica una imagen objetivo de codificación de unidades de trama ingresadas desde el exterior de acuerdo con el esquema de HEVC. En la etapa S18, la unidad 12 de codificación genera corriente codificada basada y en datos codificados obtenidos como resultado de la codificación y los conjuntos de parámetros proporcionados de la unidad 11 de ajuste, y proporciona la corriente codificada a la unidad 13 de transmisión.
[0080] En la etapa S19, la unidad 13 de transmisión transmite la corriente codificada proporcionada desde la unidad 11 de codificación hasta el dispositivo de descodificación que se describirá posteriormente, y después el proceso termina.
[0081]
[0081] Como se describe en lo anterior, el dispositivo 10 de codificación establece y transmite la SEI de colour_primaries_info que incluye la información de gama de color, y de esta manera incluso cuando la imagen objetivo de codificación tiene una gama de color diferente de una gama de color definida en otro estándar, es posible permitir que el lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación.
[0082] Además, el dispositivo 10 de codificación establece y transmite el SEI de ref_display_luminance_info que incluye la información de luminancia de blanco, negro y gris, y de esta manera es posible permitir que el lado de descodificación reconozca la información de luminancia de la pantalla maestra.
[0083] La descripción anterior se ha hecho junto con el ejemplo en el cual la SEI de colour_primaries_info que incluye la información de gama de color se establece cuando la gama de color de la imagen objetivo de codificación es más estrecha que la gama de color identificada por el indice incluido en la VUI, pero la SEI de colour_primaries_info que incluye la información de gama de color puede establecerse cuando la gama de color de la imagen objetivo de codificación es más ancha que la gama de color identificada por el indice incluido en la VUI.
[0084] Configuración ejemplar del dispositivo de descodificación de acuerdo con la primera modalidad La Figura 11 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de descodificación que descodifica la corriente codificada transmitida desde el dispositivo 10 de codificación de la Figura 1 de acuerdo con la primera modalidad de la presente descripción.
[0085] Un dispositivo 50 de descodificación de la Figura 11 incluye una unidad 51 de recepción, una unidad 52 de extracción, una unidad 53 de descodificación, una unidad 54 de ajuste, una unidad 55 de control de pantalla, y una unidad 56 de visualización.
[0086] La unidad 51 de recepción del dispositivo 50 de descodificación recibe la corriente codificada transmitida desde el dispositivo 10 de codificación de la Figura 1, y proporciona la corriente codificada a la unidad 52 de extracción.
[0087] La unidad 52 de extracción extrae los conjuntos de parámetros y los datos codificados de la corriente codificada proporcionada de la unidad 51 de recepción. La unidad 52 de extracción proporciona los conjuntos de parámetros y los datos codificados a la unidad 53 de descodificación.Además, la unidad 52 de extracción proporciona la VUI, la SEI de colour_primaries_info, la SEI de ref_display_luminance_info entre los conjuntos de parámetros para la unidad 54 de ajuste.
[0088] La unidad 53 de descodificación descodifica los datos codificados proporcionados desde la unidad 52 de extracción de acuerdo con el esquema de HEVC. En este tiempo, la unidad 53 de descodificación también se refiere a los conjuntos de parámetros proporcionados desde la unidad 52 de extracción cuando es necesario. La unidad 53 de descodificación proporciona una imagen obtenida como resultado de la descodificación para la unidad 54 de ajuste.
[0089] La unidad 54 de ajuste adquiere la información de gama de color de la SEI de colour_primaries_info proporcionada desde la unidad 52 de extracción o reconoce una gama de color basada en el indice incluido en la VUI. La unidad 54 de ajuste ajusta una gama de color de la imagen proporcionada desde la unidad 53 de descodificación basándose en ya sea una gama de color indicada por la información de gama de color adquirida o la gama de color reconocida y una gama de color de la unidad 56 de visualización.
[0090] Además, la unidad 54 de ajuste adquiere la información de luminancia de blanco, negro y gris de la SEI de ref display luminance_info proporcionada desde la unidad 52 de extracción. La unidad 54 de ajuste ajusta un margen dinámico de luminancia de la imagen cuya gama de color se ha ajustado basándose en la información de luminancia adquirida y la información de luminancia de la unidad 56 de visualización. La unidad 54 de ajuste proporciona la imagen cuyo margen dinámico de luminancia se ha ajustado a la unidad 55 de control de pantalla.
[0091] Aquí, el ajuste del margen dinámico de luminancia se asume que se realiza después del ajuste de la gama de color, pero el ajuste del margen dinámico de luminancia puede realizarse antes del ajuste de la gama de color.
[0092] La unidad 55 de control de pantalla provoca que la imagen proporcionada desde la unidad 54 de ajuste se despliegue en la unidad 56 de visualización.
[0093] Descripción del procesamiento del dispositivo de descodificación La Figura 12 es un diagrama de flujo para describir un proceso de generación de imágenes del dispositivo 50 de descodificación de la Figura 11.
[0094] En la etapa S51 de la Figura 12, la unidad 51 de recepción del dispositivo 50 de descodificación recibe la corriente codificada transmitida desde el dispositivo 10 de codificación de la Figura 1, y proporciona la corriente codificada a la unidad 52 de extracción.
[0095] En la etapa S52, la unidad 52 de extracción extrae los conjuntos de parámetros y los datos codificados de la corriente codificada proporcionada desde la unidad 51 de recepción. La unidad 52 de extracción proporciona los conjuntos de parámetros y los datos codificados a la unidad 53 de descodificación.Además, la unidad 52 de extracción proporciona la VUI, la SEI de colour_primaries_info, la SEI de ref_display_luminance_info entre los conjuntos de parámetros a la unidad 54 de ajuste.
[0096] En la etapa S53, la unidad 53 de descodificación descodifica los datos codificados proporcionados desde la unidad 52 de extracción de acuerdo con el esquema de HEVC.En este tiempo, la unidad 53 de descodificación se refiere a los conjuntos de parámetros proporcionados desde la unidad 52 de extracción cuando es necesario. La unidad 53 de descodificación proporciona una imagen obtenida como resultado de la descodificación a la unidad 54 de ajuste.
[0097] En la etapa S54, la unidad 54 de ajuste determina si la SEI de colour_primaries_info se ha proporcionado o no desde la unidad 52 de extracción. Cuando se determina en la etapa S54 que la SEI de colour_primaries_info se ha proporcionado, el proceso procede a la etapa S55.
[0098] En la etapa S55, la unidad 54 de ajuste adquiere la información de gama de color de la SEI de colour_primaries_info, y reconoce una gama de color indicada por la información de gama de color adquirida.Además,cuando la información de gama de color no se incluye en la SEI de colour_primaries_info, por ejemplo, una gama de color se reconoce basándose en limited_colour_gamut_range_in_percent. Después, el proceso procede a la etapa S57.
[0099] Mientras tanto, cuando se determina en la etapa S54 que la SEI de colour_primaries_info no se ha proporcionado, en la etapa S56, la unidad 54 de ajuste reconoce una gama de color definida en otro estándar basándose en el indice incluido en la VUI proporcionada desde la unidad 52 de extracción. Después, el proceso procede a la etapa S57.
[0100] En la etapa S57, la unidad 54 de ajuste ajusta una gama de color de la imagen proporcionada desde la unidad 53 de descodificación basándose en la gama de color de la unidad 56 de visualización o la gama de color reconocida en la etapa S55 o etapa S56.
[0101] En la etapa S58, la unidad 54 de ajuste adquiere la información de luminancia de blanco, negro y gris de SEI de ref_display_luminance_info proporcionada desde la unidad 52 de extracción.
[0102] En la etapa S59, la unidad 54 de ajuste ajusta un margen dinámico de luminancia de la imagen cuya gama de color se ha ajustado basándose en la información de luminancia de la unidad 56 de visualización y la información de luminancia adquirida. La unidad 54 de ajuste proporciona la imagen cuyo margen dinámico de luminancia se ha ajustado a la unidad 55de control de pantalla.
[0103] En la etapa S60, la unidad 55 de control de pantalla provoca que la imagen proporcionada desde la unidad 54 de ajuste se despliegue en la unidad 56 de visualización, y después el proceso termina.
[0104] Como se describe en lo anterior, el dispositivo 50 de descodificación recibe la SEI de colour_primaries_info que incluye la información de gama de color, y de esta manera puede reconocer con precisión una gama de color de una imagen objetivo de codificación. Como resultado, es posible optimizar una gama de color de una imagen descodificada. En otras palabras, cuando la gama de color de una imagen objetivo de codificación tiene una gama de color diferente de una gama de color definida en otro estándar, es posible que una gama de color de una imagen descodificada se reduzca o se amplie en vano.
[0105] Además, el dispositivo 50 de descodificación recibe la SEI de ref_display_luminance_info que incluye la información de luminancia de blanco, negro, y gris y de esta manera reconozca con precisión la información de luminancia de la pantalla maestra. Como resultado, es posible optimizar un margen dinámico de luminancia de una imagen descodificada.
[0106] Además, cuando una gama de color de una imagen objetivo de codificación es más grande que una gama de color identificada por un índice incluido en la VUI, la información de gama de color puede no describirse en la SEI de colour_primaries_info.En este caso, el dispositivo 50 de descodificación reconoce una gama de color de una imagen objetivo de codificación y ajusta una gama de color basándose en limited_colour_gamut_range_in_percent y una gama de color identificada por un indice incluido en una VUI.
[0107] Como se describe en lo anterior, cuando la información de gama de color no se describe, el dispositivo 50 de descodificación puede reconocer con precisión una gama de color de una imagen objetivo de codificación basándose en limited_colour_gamut_range_in_percent, en comparación cuando una gama de color de un objetivo de codificación se define por un indice de una VUI.
[0108] <Segunda modalidad> Configuración ejemplar del dispositivo de codificación de acuerdo con la segunda modalidad La Figura 13 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de codificación de acuerdo con una segunda modalidad de la presente descripción.
[0109] Entre componentes ilustrados en la Figura 13, los mismos componentes como los componentes ilustrados en la Figura 1 se indican por losmismos números de referencia.Una descripción repetida se omitirá adecuadamente.
[0110] Una configuración de un dispositivo 70 de codificación de la Figura 13 difiere de la configuración de la Figura 1 en que una unidad 72 de ajuste se proporciona en lugar de la unidad 11 de ajuste, y una unidad 71 de ajuste de imagen se proporciona nuevamente.
[0111] Una imagen se ingresa en la unidad 71de ajuste de imagen del dispositivo 70 de codificación desde el exterior. La unidad 71 de ajuste de imagen realiza, por ejemplo, una operación para editar una imagen ingresada desde el exterior mientras provoca que la imagen se despliegue en la pantalla maestra (no ilustrada) de acuerdo con el trabajo de creación de un usuario. La unidad 71 de ajuste de imagen proporciona información de gama de color de una imagen editada y la información de lu inancia de blanco y negro de la pantalla maestra (no ilustrada) a la unidad 72 de ajuste. Además, la unidad 71 de ajuste de imagen ingresa la imagen editada a la unidad 12 de codificación como imagen objetivo de codificación.
[0112] La unidad 72 de ajuste establece un SPS, un PPS y una VUI. Además, la unidad 72 de ajuste establece la SEI de colour_primaries_info que incluye la información de gama de color y la información de luminancia proporcionada desde la unidad 71 de ajuste de imagen. La unidad 72 de ajuste proporciona los conjuntos de parámetros tales como el SPS establecido, el PPS, la VUI, y la SEI de colour_primaries_info a la unidad 12 de codificación.
[0113] Sintaxis ejemplar de la SEI de colour_primaries_info La Figura 14 es un diagrama que ilustra una sintaxis ejemplar de la SEI de colour_primaries_info, y las Figuras 15 a 19 son diagramas para describir información de la SEI de colour_primaries_info.
[0114] Como se ilustra en la Figura 14, colour_primaries_info_id se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 15, colour_primaries_info_id es una ID que identifica el propósito de la información de gama de color.
[0115] Además, como se ilustra en la Figura 14, colour_primaries_cancel_flag se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 15, colour_primaries_cancel_flag es un indicador que indica si una continuidad de una SEIde colour_primaries_info previa se cancela o no.Colour_primaries_cancel_flag es 1 cuando la continuidad de la SEI de colour_primaries_info previa se cancela, y es 0 cuando la continuidad de la SEI de colour_primaries_info previa no se cancela.
[0116] Como se ilustra en la Figura 14, cuando colour_primaries_cancel_flag es 0, colour_primaries_persistence_flag se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 15, colour_primaries_persistence_flag es un indicador que indica si la información de gama de color y la información de luminancia incluidas en la SEI de colour_primaries_info se aplica o no a una pluralidad de imágenes consecutivas. colour_primaries_persistence_flag es 1 cuando la información de gama de color y la información de luminancia se aplican a una pluralidad de imágenes consecutivas, y es 0 cuando la información de gama de color y la información de luminancia se aplican a sólo una imagen.
[0117] Además, como se ilustra en la Figura 14, white_level_display_luminance_present_flag se describe en la SEI de colour_primaries_info. Como se ilustra en la Figura 16, white_level_display_luminance_present_flag es un indicador que indica si la white_level_display_luminance se describe o no en la SEI de colour_primaries_info.Como se ilustra en la Figura 19, white_level_display_luminance es la información de luminancia de blanco de la pantalla maestra. white_level_display_luminance_present_flag es 1 cuando la información de luminancia de blanco de la pantalla maestra se describe en la SEI de colour_primaries_info, y white_level_display_luminance_present_flag es 0 cuando la información de luminancia de blanco de la pantalla maestra no se describe en la SEI de colour_primaries_info.
[0118] Como se ilustra en las Figuras 14 y 16, para negro, de manera similar, black_level_display_luminance_present_flag se describe en la SEI de colour_primaries_info.
[0119] Además, como se ilustra en la Figura 14, colour_gamut_coverage_present_flag se describe en la SEI de colour_primaries_info SEI. Como se ilustra en la Figura 16, colour_gamut_coverage_present_flag es un indicador que indica si la colour_gamut_coverage se describe o no en la SEI de colour_primaries_info. Como se ilustra en la Figura 19, colour_gamut_coverage es información que indica una relación de cubierta de una gama de color de una imagen objetivo de codificación con una gama de color identificada por un índice descrito en una VUI. colour_gamut_coverage present flag es 1 cuando colour_gamut_coverage se describe en la SEI de colour_primaries_info, y colour_gamut_coverage_present_flag es 0 cuando colour_gamut_coverage no se describe en la SEI de colour_primaries_info.
[0120] Como se ilustra en las Figuras 14 y 17, colour_primary_Red_x que indica una cromaticidad de rojo en la dirección x en el sistema de coordenada de color de CIE en la información de gama de color y colour_primary_Red_y que indica una cromaticidad de rojo en la dirección y también se describen en la SEI de colour_primaries_info.Como se ilustra en las Figuras 14 y 18, para verde, azul y blanco, de manera similar, colour_primary_Green_x, colour_primary_Green_y, colour_primary_Blue_x, colour_primary_Blue_y, white_point_x, y white_point_y se describen en la SEI de colour_primaries_info como la información de gama de color.
[0121] La información de gama de color se describe utilizando un punto fijo de 16 bits. En otras palabras, la información de gama de color se considera que se transmite desde la unidad 71 de ajuste de imagen o similares,por ejemplo,a través de los datos de identificación de visualización extendidos (EDID) de la Interfaz de Multimedia de Alta Definición (HDMI) (una marca comercial registrada) en la cual un tamaño de la información transmisible no se limita. Además, la invención ha propuesto actualmentemetadatos relacionados con una gama de color descrita utilizando un punto fijo como Comisión Electrotéenica Internacional (IEC) 61966-12-2. De esta manera, para no cambiar el tamaño de la información de gama de color o para provocar que metadatos propuestos se utilicen como la información de gama de color, la información de gama de color se describe utilizando un punto fijo.
[0122] Además, la información de gama de color de acuerdo con la primera modalidad puede describirse utilizando un punto fijo de 16 bits también.
[0123] Como se ilustra en la Figura 14, cuando white_level_display_luminance_present_flag es 1, white_level_display_luminance se describe en la SEI de colour_primaries_info. Cuando black_level_display_luminance_present_flag es 1, black_level_display_luminance se describe.Como se ilustra en la Figura 19, black_level_display_luminance es la información de luminancia de negro de la pantalla maestra.
[0124] Como se describe en lo anterior, white_level_display_luminance y black_level_display_luminance se describen en la SEI de colour_primaries_info. En otras palabras, la invención ha propuesto actualmente metadatos relacionados con una luminancia que incluye información de luminancia de blanco y negro como IEC 61966-12-2.De esta manera, para provocar que los metadatos propuestos se utilicen como white_level_display_luminance y black_level_display_luminance, white_level_display_luminance y black_level_display_luminance se describen en la SEI de colour_primaries_info.
[0125] Además, como se ilustra en la Figura 14, cuando colour_gamut_coverage_present_flag es 1, colour_gamut_coverage se describe en la SEI de colour_primaries_info.
[0126] Descripción de procesamiento del dispositivo de codificación La Figura 20 es un diagrama de flujo para describir un proceso de generación de corriente del dispositivo 70 de codificación.
[0127] En la etapa S80 de la Figura 20, la unidad 71 de ajuste de imagen realiza una operación para editar una imagen ingresada desde el exterior mientras provoca que la imagen se despliegue en la pantalla maestra (no ilustrada) de acuerdo con el trabajo de creación del usuario. La unidad 71 de ajuste de imagen proporciona información de gama de color de una imagen editada y la información de luminancia de blanco y negro de la pantalla maestra (no ilustrada)a la unidad 72 de ajuste.Además, la unidad 71 de ajuste de imagen ingresa la imagen editada a la unidad 12 de codificación como imagen objetivo de codificación.
[0128] Un proceso de las etapas S81 a S83 es el mismo que el proceso de las etapas Sil a S13 de la Figura 10, y de esta manera se omite una descripción de las mismas.
[0129] En la etapa S84, la unidad 72 de ajuste establece la SEI de colour_primaries_info que incluye la información de gama de color de la imagen objetivo de codificación y la información de luminancia de la pantalla maestra proporcionada desde la unidad 71 de ajuste de imagen.
[0130] Un proceso de las etapas S85 a S87 es el mismo que el proceso de las etapas S17 a S19 de la Figura 20, y de esta manera se omite una descripción de las mismas.
[0131] Como se describe en lo anterior, el dispositivo 70 de codificación establece y transmite la SEI de colour_primaries_info que incluye la información de gama de color, y de esta manera incluso cuando una imagen objetivo de codificación tiene una gama de color diferente de una gama de color definida en otro estándar, es posible permitir que el lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación.
[0132] Además, el dispositivo 70 de codificación establece white_level_display_luminance y black_level_display_luminance en la SEI de colour_primaries_info y transmite la SEI de colour_primaries_info, y de esta manera es posible permitir que el lado de descodificación reconozca la información de luminancia de la pantalla maestra.
[0133] Configuración ejemplar del dispositivo de descodificación de acuerdo con la segunda modalidad La Figura 21 es un diagrama de bloque que ilustra una configuración ejemplar de un dispositivo de descodificación que descodifica la corriente codificada transmitida desde el dispositivo 70 de codificación de la Figura 13 de acuerdo con la segunda modalidad de la presente descripción.
[0134] Entre los componentes ilustrados en la Figura 21, los mismos componentes que los componentes ilustrados en la Figura 11 se indican por los mismos números de referencia. Una descripción repetida se omitirá adecuadamente.
[0135] Una configuración de un dispositivo 90 de descodificación de la Figura 21 difiere de la configuración de la Figura 11 en que una unidad 91 de extracción, una unidad 92 de ajuste, y una unidad 93 de control de visualización se proporcionan en lugar de la unidad 52 de extracción, la unidad 54 de ajuste, y la unidad 55 de control de visualización.
[0136] La unidad 91 de extracción del dispositivo 90 de descodificación de la Figura 21 extrae conjuntos de parámetros y datos codificados de la corriente codificada proporcionada desde la unidad 51 de recepción. La unidad 91 de extracción proporciona los conjuntos de parámetros y los datos codificados a la unidad 53 de descodificación. Además, la unidad 91 de extracción proporciona la VUI y la SEI de colour_primaries_info entre los conjuntos de parámetros a la unidad 92 de ajuste, y proporciona la SEI de colour_primaries_info a la unidad 93 de control de visualización.
[0137] La unidad 92 de ajuste adquiere información de gama de color y colour_gamut_coverage de la SEI de colour_primaries_info proporcionada desde la unidad 91 de extracción.Además, la unidad 92 de ajuste reconoce una gama de color basada en un indice incluido en laVUI proporcionada desde la unidad 91 de extracción.
La unidad 92 de ajuste ajusta la gama de color de la imagen proporcionada desde la unidad 53 de descodificación basándose en cualquiera de la gama de color indicada por la información de gama de color adquirida y la gama de color reconocida, la gama de color basada en colour_gamut_coverage, y la gama de color de la unidad 56 de visualización.La unidad 92 de ajuste proporciona la imagen cuya gama de color se ha ajustado a la unidad 93 de control de visualización.
[0138] La unidad 93 de control de visualización adquiere información de luminancia de blanco y negro de la SEI de colour_primaries_info proporcionada desde la unidad 91 de extracción. La unidad 93 de control de visualización ajusta un margen dinámico de luminancia de la imagen de la gama de color ajustada proporcionada desde la unidad 92 de ajuste basándose en la información de luminancia adquirida y la información de luminancia de la unidad 56 de visualización. La unidad 93 de control de visualización proporciona la imagen cuyo margen dinámico de luminancia se ha ajustado para desplegarse en la unidad 56 de visualización.
[0139] Descripción de procesamiento del dispositivo de descodificación La Figura 22 es un diagrama de flujo para describir un proceso de generación de imágenes del dispositivo 90 de descodificación de la Figura 21.
[0140] En la etapa S101 de la Figura 22, la unidad 51 de recepción del dispositivo 90 de descodificación recibe la corriente codificada transmitida desde el dispositivo 70 de codificación de la Figura 13, y proporciona la corriente codificada a la unidad 91 de extracción.
[0141] En la etapa S102, la unidad 91 de extracción extrae conjuntos de parámetros y datos codificados de la corriente codificada proporcionada desde la unidad 51 de recepción. La unidad 91 de extracción proporciona los conjuntos de parámetros y los datos codificados a la unidad 53 de descodificación.Además, la unidad 91 de extracción proporciona la VUI y la SEI de colour_primaries_info entre los conjuntos de parámetros a la unidad 92 de ajuste, y proporciona la SEI de colour_primaries_info a la unidad 93 de control de visualización.
[0142] En la etapa S103, la unidad 53 de descodificación descodifica los datos codificados proporcionados desde la unidad 91 de extracción de acuerdo con el esquema de HEVC.En este tiempo, la unidad 53 de descodificación se refiere a los conjuntos de parámetros proporcionados desde la unidad 91de extracción cuando es necesario. La unidad 53 de descodificación proporciona una imagen obtenida como resultado de la descodificación a la unidad 92 de ajuste.
[0143] En la etapa S104, la unidad 92 de ajuste reconoce una gama de color definida en otro estándar basándose en un indice incluido en la VUI proporcionada desde la unidad 91 de extracción.
[0144] En la etapa S105, la unidad 92 de ajuste determina si la SEI de colour_primaries_info se ha proporcionado o no desde la unidad 91 de extracción. Cuando se determina en la etapa S105 que la SEI de colour_primaries_info se ha proporcionado, el proceso procede a la etapa S106.
[0145] En la etapa S106, la unidad 92 de ajuste adquiere la información de gama de color de la SEI de colour_primaries_info, y reconoce una gama de color indicada por la información de gama de color adquirida.Además,cuando la información de gama de color no se incluye en la SEI de colour_primaries_info, por ejemplo, una gama de color se reconoce basándose en colour_gamut_coverage y la gama de color reconocida en la etapa S104.Después,el proceso procede a la etapa S107.
[0146] Mientras tanto, cuando se determina en la etapa S105 que la SEI de colour_primaries_info no se ha proporcionado, el proceso procede a la etapa S107.
[0147] En la etapa S107, la unidad 92 de ajuste ajusta una gama de color de la imagen proporcionada desde la unidad 53 de descodificación basándose en la gama de color de la unidad 56 de visualización o la gama de color reconocida en la etapa S104 o la etapa S106.
[0148] En la etapa S108, la unidad 93 de control de visualización adquiere información de luminancia de blanco y negro de la SEI de colour_primaries_info proporcionada desde la unidad 91 de extracción.En la etapa S109, la unidad 93 de control de visualización ajusta un margen dinámico de luminancia de la imagen de la gama de color ajustada proporcionada desde la unidad 92 de ajuste basándose en la información de luminancia de la unidad 56 de visualización y la información de luminancia adquirida.
[0149] En la etapa S110, la unidad 93 de control de visualización proporciona la imagen cuyo margen dinámico de luminancia se ha ajustado para desplegarse en la unidad 56 de visualización, y después el proceso termina.
[0150] Como se describe en lo anterior, el dispositivo 90 de descodificación recibe la SEI de colour_primaries_info que incluye la información de gama de color, y de esta manera puede reconocer con precisión una gama de color de una imagen objetivo de codificación. Como resultado, es posible optimizar una gama de color de una imagen descodificada. En otras palabras, cuando una gama de color de una imagen objetivo de codificación tiene una gama de color diferente de una gama de color definida en otro estándar, es posible que una gama de color de una imagen descodificada se reduzca o se amplie en vano.
[0151] Por ejemplo, cuando una gama de color de la unidad 56 de visualización esmás grande que una gama de color de una imagen objetivo de codificación, el dispositivo 90 de descodificación puede desplegar una imagen descodificada sin ajustar una gama de color de la imagen descodificada. Como resultado, es posible provocar que una imagen deseada por un operador de creación se despliegue en la unidad 56 de visualización.
[0152] Además, el dispositivo 90 de descodificación puede desplegar una imagen descodificada de alta calidad al ajustar una gama de color de una imagen descodificada basada en una gama de color reconocida con precisión.
[0153] Además, puesto que blak_level_display_luminance y blak_level_display_luminance también se incluyen en la SEI de colour primaries_info, el dispositivo 90 de descodificación puede reconocer con precisión la información de luminancia de la pantalla maestra.Como resultado, es posible optimizar un margen dinámico de luminancia de una imagen descodificada.
[0154] La descripción anterior se ha hecho junto con el ejemplo en el cual la información de gama de color y la información de luminancia se disponen en la SEI, pero la información de gama de color y la información de luminancia pueden disponerse en una capa de sistema.
[0155] <Ejemplo en el cual la información de gama de color y la información de luminancia se disponen en la caja de MP4> Descripción de caja de MP4 en la cual la información de gama de color y la información de luminancia se disponen La Figura 23 es un diagrama para describir una caja de MP4 como capa de sistema en la cual la información de gama de color y la información de luminancia se disponen.
[0156] Como se ilustra en la Figura 23, cuando la información de gama de color y la información de luminancia se disponen en la caja de MP4, una Caja de Información de Colores Primarios (tinf) que almacena ColourPrimariesInfo como la información de gama de color y la información de luminancia se define nuevamente. La caja de tinf se almacena en (una caja de stbl almacenada en) una caja de seguimiento o una caja de fragmento de seguimiento (caja de traf).
[0157] ColourPrimariesInfo tiene una configuración similar a la SEI de colour_primaries_info de la Figura 2 y la SEI ref_display_luminance_info de la Figura 8 o la SEI colour_primaries_info de la Figura 14 excepto que se inserta padding_value para alineación de bytes.
[0158] La presente descripción puede aplicarse incluso al esquema de AVC.
[0159] <Tercera modalidad> Descripción de computadora de acuerdo con la presente descripción La serie antes descrita de procesos puede ejecutarse por hardware o software.Cuando la serie de procesos se ejecutan por software, un programa que configura el software se instala en una computadora.Aquí, ejemplos de la computadora incluyen una computadora incorporada en hardware dedicado y una computadora personal de propósito general que incluye varios programas instalados en la misma y es capaz de ejecutar varios tipos de funciones.
[0160] La Figura 24 es un diagrama de bloque que ilustra una configuración de hardware ejemplar de una computadora que ejecuta la serie antes descrita de procesos por un programa.
[0161] En una computadora, una unidad 201 de procesamiento central (CPU), una memoria 202 de sólo lectura (ROM), y una memoria 203 de acceso aleatorio (RAM) se conectan entre si mediante un bus 204.
[0162] Una interfaz 205 de entrada/salida (E/S) además se conecta al bus 204. Una unidad 206 de entrada, una unidad 207 de salida, una unidad 208 de almacenamiento, una unidad 209 de comunicación, y una unidad 210 se conectan a la interfaz 205 de E/S.
[0163] La unidad 206 de entrada incluye un teclado, un ratón, un micrófono, y similares. La unidad 207 de salida incluye una pantalla, un altavoz, y similares. La unidad 208 de almacenamiento incluye un disco duro, una memoria no volátil, y similares. La unidad 209 de comunicación incluye una interfaz de red o similares.La unidad 210 impulsa un medio 211 removible tal como un discomagnético,un disco óptico,un discomagneto óptico, o una memoria de semiconductor.
[0164] En la computadora que tiene la configuración anterior, la CPU 201 ejecuta la serie de procesos antes descrita, por ejemplo, al cargar el programa almacenado en la unidad 208 de almacenamiento en la RAM 203 a través de la interfaz 205 de E/S y el bus 204 y ejecuta el programa.
[0165] Por ejemplo, el programa ejecutado por la computadora (la CPU 201) puede grabarse en el medio 211 removible como medio de paquete o similar y se proporciona.Además, el programa puede proporcionarse a través de un medio de transmisión alámbrica o inalámbrica tal como una red de área local (LAN), la Internet, o una difusión satelital digital.
[0166] En la computadora, el medio 211 removible se monta en la unidad 210,y después el programa puede instalarse en la unidad 208 de almacenamiento a través de la interfaz 205 de E/S.Además, el programa puede recibirse por la unidad 209 de comunicación mediante un medio de transmisión alámbrica o inalámbrica y después se instala en la unidad 208 de almacenamiento. Además, el programa puede instalarse en la ROM 202 o la unidad 208 de almacenamiento con anticipación.
[0167] Además, el programa puede ser un programa en el cual los procesos se realizan cronológicamente en el orden descrito en esta descripción o puede ser un programa en el cual los procesos se realizan en paralelo o en tiempo necesarios tal como tiempo solicitados.
[0168] <Cuarta modalidad> Aplicación a codificación de imágenes de varias vistas y descodificación de imágenes de varias vistas La serie de procesos antes descrita pueden aplicarse a codificación de imágenes de varias vistas y descodificación de imágenes de varias vistas. La Figura 25 ilustra un esquema de codificación de imágenes de varias vistas ejemplar.
[0169] Como se ilustra en la Figura 25, una imagen de varias vistas incluye imágenes de una pluralidad de vistas. La pluralidad de vistas de la imagen de varias vistas incluye una vista base en la cual la codificación y descodificación se realizan utilizando sólo una imagen de su propia vista sin utilizar imágenes de otras vistas y una vista no base en la cual la codificación y descodificación se realizan utilizando imágenes de otras vistas. Como la vista no base, una imagen de una vista base puede utilizarse, y una imagen de otra vista no base puede utilizarse.
[0170] Cuando la imagen de varias vistas de la Figura 25 se codifica y descodifica, una imagen de cada vista se codifica y descodifica, pero la téenica de acuerdo con la primera modalidad puede aplicarse a la codificación y descodificación de vistas respectivas. Por consiguiente, una gama de color de una imagen objetivo de codificación puede reconocerse con precisión en un lado de descodificación.
[0171] Además, los indicadores o los parámetros utilizados en la téenica de acuerdo con la primera modalidad pueden compartirse en la codificación y descodificación de vistas respectivas. Más específicamente, por ejemplo, los elementos de sintaxis de la SEI de colour_primaries_info o la SEI de ref_dislay_luminance_info pueden compartirse en la codificación y descodificación de vistas respectivas. Desde luego, cualquier otra información necesaria puede compartirse en la codificación y descodificación de vistas respectivas.
[0172] Por consiguiente, es posible evitar la transmisión de información redundante y reduce una cantidad (tasa de bit) de información que se transmite (es decir, es posible evitar que la eficiencia de codificación se degrade.
[0173] Dispositivo de codificación de imágenes de varias vistas La Figura 26 es un diagrama que ilustra un dispositivo de codificación de imágenes de varias vistas que realiza la codificación de imágenes de varias vistas antes descritas. Un dispositivo 600 de codificación de imágenes de varias vistas incluye una unidad 601 de codificación, una unidad 602 de codificación, y una unidad 603 de multiplexión como se ilustra en la Figura 26.
[0174] La unidad 601 de codificación codifica una imagen de vista base,y genera una corriente codificada de imágenes de vista base. La unidad 602 de codificación codifica una imagen de vista no base, y genera una corriente codificada de imágenes de vista no base. La unidad 603 de multiplexión realiza multiplexión de la corriente codificada de imágenes de vista base generada por la unidad 601 de codificación y la corriente codificada de imágenes de vista no base generada por la unidad 602 de codificación, y genera una corriente codificada de imágenes de varias vistas.
[0175] El dispositivo 10 de codificación (Figura 1) puede aplicarse como la unidad 601 de codificación y la unidad 602 de codificación del dispositivo 600 de codificación de imágenes de varias vistas.En otras palabras, es posible permitir que un lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación cuando la codificación de cada vista se realice. Además, la unidad 601 de codificación y la unidad 602 de codificación pueden realizar la codificación utilizando los mismos indicadores o parámetros (por ejemplo, elementos de sintaxis relacionados con el procesamiento de ínter-imagen) (es decir, puede compartir los indicadores o los parámetros), y de esta manera es posible evitar que la eficiencia de codificación se degrade.
[0176] Dispositivo de descodificación de imágenes de varias vistas La Figura 27 es un diagrama que ilustra un dispositivo de descodificación de imágenes de varias vistas que realiza la descodificación de imágenes de varias vistas antes descrita. Un dispositivo 610 de descodificación de imágenes de varias vistas incluye una unidad 61 de desmultiplexión, una unidad 612 de descodificación, y una unidad 613 de descodificación como se ilustra en la Figura 27.
[0177] La unidad 611 de desmultiplexión realiza desmultiplexión de la corriente codificada de imágenes de varias vistas obtenida al multiplexar la corriente codificada de imágenes de vista base y la corriente codificada de imágenes de vista no base, y extrae la corriente codificada de imágenes de vista base y la corriente codificada de imágenes de vista no base. La unidad 612 de descodificación descodifica la corriente codificada de imágenes de vista base extraída por la unidad 611 de desmultiplexión, y obtiene la imagen de vista base. La unidad 613 de descodificación descodifica la corriente codificada de imágenes de vista no base extraída por la unidad 611 de desmultiplexión, y obtiene la imagen de vista no base.
[0178] El dispositivo 50 de descodificación (Figura 11)puede aplicarse como la unidad 612 de descodificación y la unidad 613 de descodificación del dispositivo 610 de descodificación de imágenes de varias vistas. En otras palabras, una gama de color de una imagen objetivo de codificación puede reconocerse con precisión cuando la descodificación de cada vista se realice. Además, la unidad 612 de descodificación y la unidad 613 de descodificación pueden realizar descodificación utilizando los mismos indicadores o parámetros (por ejemplo, elementos de sintaxis relacionados con el procesamiento de ínter-imagen) (es decir, pueden compartir los indicadores o los parámetros), y de esta manera es posible evitar que la eficiencia de codificación se degrade.
[0179] <Quinta modalidad> Aplicación a codificación de imágenes escalable y descodificación de imágenes escalable La serie de procesos antes descrita puede aplicarse a la codificación de imágenes escalable y la descodificación de imágenes escalable (codificación escalable y descodificación escalable). La Figura 28 ilustra un esquema de codificación de imágenes escalable ejemplar.
[0180] La codificación de imágenes escalable (codificación escalable) es un esquema en el cual una imagen se divide en una pluralidad de capas (se jerarquiza) de modo que los datos de imagen tienen una función escalable para un cierto parámetro, y se realiza codificación en cada capa. La descodificación de imágenes escalable (descodificación escalable) es la descodificación que corresponde a la codificación de imágenes escalable.
[0181] Como se ilustra en la Figura 28, para la jerarquización de una imagen, una imagen se divide en una pluralidad de imágenes (capas) basándose en un cierto parámetro que tiene una función escalable. En otraspalabras,una imagen jerarquizada (una imagen escalable) incluye imágenes de una pluralidad de capas que difieren en un valor de cierto parámetro entre si. La pluralidad de capas de la imagen escalable incluyen una capa base en la cual la codificación y descodificación se realizan utilizando sólo una imagen de su propia capa sin utilizar imágenes de otras capas y capas no base (la cuales también se denominan como "capas de mejora") en las cuales la codificación y descodificación se realizan utilizando imágenes de otras capas.Como la capa no base, una imagen de la capa base puede utilizarse, y una imagen de cualquier otra capa no base puede utilizarse.
[0182] Generalmente, la capa no base se configura con datos (datos diferenciales) de una imagen diferencial entre su propia imagen y una imagen de otra capa de modo que la redundancia se reduce. Por ejemplo, cuando una imagen se jerarquiza en dos capas, es decir, una capa base y una capa no base (la cual también se denomina como capa de mejora), una imagen de una calidad menor que una imagen original se obtiene cuando sólo datos de la capa base se utilizan, y una imagen original (es decir, una imagen de alta calidad) se obtiene cuando ambos datos de la capa base y los datos de la capa no base se combinan.
[0183] A medida que una imagen se jerarquiza como se describe en lo anterior, imágenes de varias calidades pueden obtenerse dependiendo de la situación. Por ejemplo, para una terminal que tiene una baja capacidad de procesamiento tal como una terminal móvil, la información de compresión de imagen de sólo la capa base se transmite, y una imagen en movimiento de bajas resoluciones espacial y temporal o una baja calidad se reproduce, y para una terminal que tiene una alta capacidad de procesamiento tal como una televisión o una computadora personal, la información de compresión de imagen de la capa de mejora asi como la capa base se transmite, y una imagen en movimiento de altas resoluciones espacial y temporal o una alta calidad se reproduce. En otras palabras, sin realizar el proceso de transcodificación, la información de compresión de imagen de acuerdo con una capacidad de una terminal o una red puede transmitirse desde un servidor.
[0184] Cuando la imagen escalable ilustrada en la Figura 28 se codifica y descodifica, imágenes de capas respectivas se codifican y descodifican, pero la téenica de acuerdo con la primera modalidad puede aplicarse a la codificación y descodificación de las capas respectivas. Por consiguiente, una gama de color de una imagen objetivo de codificación puede reconocerse con precisión en el lado de descodificación.
[0185] Además, los indicadores o los parámetros utilizados en la técnica de acuerdo con la primeramodalidad pueden compartirse en la codificación y descodificación de capas respectivas. Más específicamente, por ejemplo, los elementos de sintaxis de la SEI de colour_primaries_info o la SEI de ref_display_luminance_info pueden compartirse en la codificación y descodificación de capas respectivas. Desde luego, cualquier otra información necesaria puede compartirse en la codificación y descodificación de vistas respectivas.
[0186] Por consiguiente, es posible evitar la transmisión de información redundante y reducir una cantidad (tasa de bit) de información que se transmite (es decir, es posible evitar que la eficiencia de codificación se degrade.
[0187] Parámetro escalable En la codificación de imágenes escalable y la descodificación de imágenes escalable (la codificación escalable y la descodificación escalable), cualquier parámetro tiene una función escalable. Por ejemplo, una resolución espacial puede utilizarse como el parámetro (escalabilidad espacial) como se ilustra en la Figura 29.En el caso de la escalabilidad espacial, las capas respectivas tienen diferentes resoluciones de imagen. En otras palabras, en este caso, cada imagen se jerarquiza en dos capas, es decir, una capa base de una resolución espacialmente menor que aquella de una imagen original y una capa de mejora que se combina con la capa base para obtener una resolución espacial original como se ilustra en la Figura 29. Desde luego, el número de capas es un ejemplo, y cada imagen puede jerarquizarse en un número arbitrario de capas.
[0188] Como otro parámetro que tiene tal escalabilidad, por ejemplo, una resolución temporal puede aplicarse (escalabilidad temporal) como se ilustra en la Figura 30. En el caso de la escalabilidad temporal, capas respectivas que tienen diferentes tasas de tramas. En otras palabras, en este caso, cada imagen se jerarquiza en dos capas, es decir, una capa base de una tasa de trama inferior que aquella de una imagen en movimiento original y una capa de mejora que se combina con la capa base para obtener una tasa de tramas original como se ilustra en la Figura 30.Desde luego, el número de capas es un ejemplo, y cada imagen puede jerarquizarse en un número arbitrario de capas.
[0189] Como otro parámetro que tiene tal escalabilidad, por ejemplo, una relación de señal a ruido (SNR) puede aplicarse (escalabilidad de SNR). En el caso de la escalabilidad de SNR, las capas respectivas que tienen diferentes SNR. En otras palabras, en este caso, cada imagen se jerarquiza en dos capas, es decir, una capa base de una SNR menor que aquella de una imagen original y una capa de mejora que se combina con la capa base para obtener una SNR original como se ilustra en la Figura 31. Desde luego, el número de capas es un ejemplo, y cada imagen puede jerarquizarse en un número arbitrario de capas.
[0190] Un parámetro distinto a los ejemplos antes descritos puede aplicarse como parámetro que tiene escalabilidad. Por ejemplo, una profundidad de bit puede utilizarse como parámetro que tiene escalabilidad (escalabilidad de profundidad de bit). En el caso de la escalabilidad de profundidad de bits, las capas respectivas tienen diferentes profundidades de bits. En este caso, por ejemplo, la capa base (capa base) incluye una imagen de 8 bits, y una imagen de 10 bits puede obtenerse al agregar la capa de mejora a la capa base.
[0191] Como otro parámetro que tiene escalabilidad, por ejemplo, un formato de croma puede utilizarse (escalabilidad de croma). En el caso de la escalabilidad de croma,capas respectivas tienen diferentes formatos de croma. En este caso, por ejemplo, la capa base (capa base) incluye una imagen de componente de un formato de 4 : 2 : 0, y una imagen de componente de un formato de 4 : 2 : 2 puede obtenerse al agregar la capa de mejora a la capa base.
[0192] Dispositivo de codificación de imágenes escalable La Figura 32 es un diagrama que ilustra un dispositivo de codificación de imágenes escalable que realiza la codificación de imágenes escalable antes descrita. Un dispositivo 620 de codificación de imágenes escalable incluye una unidad 621 de codificación, una unidad 622 de codificación, y una unidad 623 de multiplexión como se ilustra en la Figura 32.
[0193] La unidad 621 de codificación codifica una imagen de capa base, y genera una corriente codificada de imágenes de capa base. La unidad 622 de codificación codifica una imagen de capa no base, y genera una corriente codificada de imágenes de capa no base. La unidad 623 de multiplexión realiza multiplexión de la corriente codificada de imágenes de capa base generada por la unidad 621 de codificación y la corriente codificada de imágenes de capa no base generada por la unidad 622 de codificación, y genera una corriente codificada de imágenes escalable.
[0194] El dispositivo 10 de codificación (Figura 1) puede aplicarse como la unidad 621 de codificación y la unidad 622 de codificación del dispositivo 620 de codificación de imágenes escalable. En otras palabras, es posible permitir que el lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación cuando se realiza la codificación de cada capa. Además, la unidad 621 de codificación y la unidad 622 de codificación pueden realizar, por ejemplo, el control de un proceso de filtro de intra-predicción utilizando los mismos indicadores o parámetros (por ejemplo, elementos de sintaxis relacionados con el procesamiento ínter-imagen) (es decir, pueden compartir los indicadores o los parámetros), y de esta manera es posible evitar que la eficiencia de codificación se degrade.
[0195] Dispositivo de descodificación de imágenes escalable La Figura 33 es un diagrama que ilustra un dispositivo de descodificación de imágenes escalable que realiza la descodificación de imágenes escalable antes descrita. Un dispositivo 630 de descodificación de imágenes escalable incluye una unidad 631 de desmultiplexión, una unidad 632 de descodificación, y una unidad 633 de descodificación como se ilustra en la Figura 33.
[0196] La unidad 631 de desmultiplexión realiza desmultiplexión de la corriente codificada de imágenes escalable obtenida al multiplexar la corriente codificada de imágenes de capa base y la corriente codificada de imágenes de capa no base, y extrae la corriente codificada de imágenes de capa base y la corriente codificada de imágenes de capa no base. La unidad 632 de descodificación descodifica la corriente codificada de imágenes de capa base extraida por la unidad 631 de desmultiplexión, y obtiene la imagen de capa base. La unidad 633 de descodificación descodifica la corriente codificada de imágenes de capa no base extraída por la unidad 631 de desmultiplexión, y obtiene la imagen de capa no base.
[0197] El dispositivo 50 de descodificación (Figura 11) puede aplicarse como la unidad 632 de descodificación y la unidad 633 de descodificación del dispositivo 630 de descodificación de imágenes escalable. En otras palabras, una gama de color de una imagen objetivo de codificación puede reconocerse con precisión cuando se realice la descodificación de cada capa. Además, la unidad 612 de descodificación y la unidad 613 de descodificación pueden realizar descodificación utilizando los mismos indicadores o parámetros (por ejemplo, elementos de sintaxis relacionados con el procesamiento de inter-imagen) (es decir, pueden compartir los indicadores o los parámetros), y de esta manera es posible evitar que la eficiencia de codificación se degrade.
[0198] <Sexta modalidad> Configuración ejemplar del dispositivo de televisión La Figura 34 ilustra una configuración esquemática de un dispositivo de televisión al cual se aplica la presente teenología. Un dispositivo 900 de televisión incluye una antena 901, un sintonizador 902, un desmultiplexor 903, un descodificador 904, una unidad 905 de procesamiento de señales de video, una unidad 906 de visualización, una unidad 907 de procesamiento de señales de audio, un altavoz 908, y una unidad 909 de I/F externa. El dispositivo 900 de televisión además incluye una unidad 910 de control, una unidad 911 de I/F de usuario, y similares.
[0199] El sintonizador 902 sintoniza un canal deseado de una señal de difusión recibida por la antena 901, realiza desmodulación, y produce una corriente de bits codificados obtenida al desmultiplexor 903.
[0200] El desmultiplexor 903 extrae los paquetes de video o audio de un programa de un objetivo de visualización de la corriente de bits codificada, y produce los datos de los paquetes extraídos del descodificador 904. El desmultiplexor 903 proporciona datos de paquetes de datos tal como una guía de programación electrónica (EPG) a la unidad 910 de control. Además, cuando se ha realizado la aleatorización, se realiza desaleatorización por el desmultiplexor o similares.
[0201] El descodíficador 904 realiza un proceso de descodificación para descodificar los paquetes, y produce los datos de video y los datos de audio generados por el proceso de descodificación en la unidad 905 de procesamiento de señales de video y la unidad 907 de procesamiento de señales de audio.
[0202] La unidad 905 de procesamiento de señales de video realiza un proceso de cancelación de ruido o procesamiento de video de acuerdo con un ajuste de usuario en los datos de video. La unidad 905 de procesamiento de señales de video genera los datos de video de un programa que se desplegará en la unidad 906 de visualización, datos de imagen de acuerdo con el procesamiento basado en una aplicación proporcionada mediante una red, o similares. La unidad 905 de procesamiento de señales de video genera los datos de video para desplegar, por ejemplo, una pantalla de menú utilizada para seleccionar un punto, y provoca que los datos de video se superpongan en los datos de video de un programa. La unidad 905 de procesamiento de señales de video genera una señal de excitación basada en los datos de video generada como se describe en lo anterior, e impulsa la unidad 906 de visualización.
[0203] La unidad 906 de visualización impulsa un dispositivo de visualización (por ejemplo, un dispositivo de pantalla de cristal liquido o similares) basándose en la señal de excitación proporcionada desde la unidad 905 de procesamiento de señales de video, y provoca que un video de programa o similar se despliegue.
[0204] La unidad 907 de procesamiento de señales de audio realiza un cierto proceso tal como un proceso de cancelación de ruido en los datos de audio, realiza un proceso de conversión de digital a análogo (D/A)y un proceso de amplificación en los datos de audio procesados, y proporciona datos resultantes al altavoz 908 para producir un sonido.
[0205] La unidad 909 de I/F externa es una interfaz para una conexión con un dispositivo externo o una red, y realiza transmisión y recepción de datos tal como los datos de video o los datos de audio.
[0206] La unidad 911 de I/F de usuario se conecta con la unidad 910 de control. La unidad 911 de I/F de usuario incluye un conmutador de operación, una unidad de recepción de señal de control remoto, y similares, y proporciona una señal de operación de acuerdo con la operación del usuario a la unidad 910 de control.
[0207] La unidad 910 de control incluye una unidad de procesamiento central (CPU),unamemoria,y similares.La memoria almacena un programa ejecutado por la CPU, varios tipos de datos necesarios cuando la CPU realiza procesamiento, datos de EPG, datos adquiridos mediante una red, y similares. El programa almacenado en la memoria se lee y se ejecuta por la CPU en un cierto tiempo tal como al momento en el cual se activa el dispositivo 900 de televisión. La CPU ejecuta el programa, y controla las unidades respectivas de manera que el dispositivo 900 de televisión se opera de acuerdo con la operación del usuario.
[0208] El dispositivo 900 de televisión se proporciona con un bus 912 que conecta el sintonizador 902, el desmultiplexor 903, la unidad 905 de procesamiento de señales de video, la unidad 907 de procesamiento de señales de audio, la unidad 909 de I/F externa, y similares con la unidad 910 de control.
[0209] En el dispositivo de televisión que tiene la configuración anterior, el descodificador 904 se proporciona con la función del dispositivo de descodificación (método de descodificación) de acuerdo con la presente solicitud. De esta manera, es posible reconocer con precisión una gama de color de una imagen objetivo de codificación.
[0210] <Séptima modalidad> Configuración ejemplar de teléfono móvil La Figura 35 ilustra una configuración esquemática de un teléfono móvil al cual se aplica la presente teenología. Un teléfono 920 móvil incluye una unidad 922 de comunicación, un códec 923 de voz, una unidad 926 de cámara, una unidad 927 de procesamiento de imágenes, una unidad 928 de multiplexión/desmultiplexión, una unidad 929 de grabación/reproducción, una unidad 930 de visualización, y una unidad 931 de control. Estas unidades se conectan entre sí mediante un bus 933.
[0211] Además, una antena 921 se conecta a la unidad 922 de comunicación, y un altavoz 924 y un micrófono 925 se conectan al códec 923 de voz. Además, una unidad 932 de operación se conecta a la unidad 931 de control.
[0212] El teléfono 920 móvil realiza varios tipos de operaciones tales como transmisión y recepción de una señal de voz, transmisión y recepción de un correo electrónico o datos de imagen, captura de imágenes, o grabación de datos en varios modos tales como un modo de llamada de voz y un modo de comunicación de datos.
[0213] En el modo de llamada de voz, una señal de voz generada por el micrófono 925 se convierte en datos de voz a través del códec 923de voz,se comprime,y después se proporciona a la unidad 922 de comunicación. La unidad 922 de comunicación realiza, por ejemplo, un proceso de modulación y un proceso de transformada de frecuencia de los datos de voz, y genera una señal de transmisión. Además, la unidad 922 de comunicación proporciona la señal de transmisión a la antena 921 de modo gue la señal de transmisión se transmita a una estación base (no ilustrada). Además, la unidad 922 de comunicación realiza un proceso de amplificación, un proceso de transformada de frecuencia, y un proceso de desmodulación de una señal de recepción recibida a través de la antena 921, y proporciona los datos de voz obtenidos al códec 923 de voz. El códec 923 de voz descomprime los datos de voz, convierte los datos comprimidos en una señal de voz análoga, y produce la señal de voz análoga en el altavoz 924.
[0214] En el modo de comunicación de datos, cuando se realiza la transmisión de correo, la unidad 931 de control recibe datos de texto ingresados al operar la unidad 932 de operación, y provoca que el texto ingresado se despliegue en la unidad 930 de visualización. Además, la unidad 931 de control genera datos de correo, por ejemplo, basándose en una instrucción de usuario ingresada a través de la unidad 932 de operación, y proporciona los datos de correo a la unidad 922 de comunicación. La unidad 922 de comunicación realiza, por ejemplo, un proceso de modulación y un proceso de transformada de frecuencia de los datos de correo, y transmite una señal de transmisión obtenida a través de la antena 921.Además, la unidad 922 de comunicación realiza, por ejemplo, un proceso de amplificación, un proceso de transformada de frecuencia, y un proceso de desmodulación de una señal de recepción recibida a través de la antena 921, y restaura ios datos de correo. Los datos de correo se proporcionan a la unidad 930 de visualización de modo que el contenido de correo se despliegue.
[0215] El teléfono 920 móvil puede almacenar los datos de correo recibidos en un medio de almacenamiento a través de la unidad 929 de grabación/reproducción.El medio de almacenamiento es un medio de almacenamiento regrabable arbitrario.Ejemplos del medio de almacenamiento incluyen unamemoria de semiconductor tal como una RAM o una memoria flash interna, un disco duro, un disco magnético, un disco magneto óptico, un disco óptico, y un medio removible tal como una memoria de bus de serie universal (USB) o una tarjeta de memoria.
[0216] En el modo de comunicación de datos, cuando los datos de imagen se transmiten, los datos de imagen generados a través de la unidad 926 de cámara se proporcionan a la unidad 927 de procesamiento de imágenes. La unidad 927 de procesamiento de imágenes realiza un proceso de codificación para codificar los datos de imagen, y genera datos codificados.
[0217] La unidad 928 de multiplexión/desmultiplexión multiplexa los datos codificados generados a través de la unidad 927 de procesamiento de imágenes y los datosde vozproporcionados desde el códec 923 de voz de acuerdo con un cierto esquema, y proporciona datos resultantes a la unidad 922 de comunicación. La unidad 922 de comunicación realiza, por ejemplo, un proceso de modulación y un proceso de transformada de frecuencia de los datos multiplexados, y transmite una señal de transmisión obtenida a través de la antena 921. Además, la unidad 922 de comunicación realiza, por ejemplo, un proceso de amplificación, un proceso de transformada de frecuencia, y un proceso de desmodulación de una señal de recepción recibida a través de la antena 921, y restaura los datos multiplexados. Los datos multiplexados se proporcionan a la unidad 928 de multiplexión/desmultiplexión. La unidad 928 de multiplexión/desmultiplexión desmultiplexa los datos multiplexados, y proporciona los datos codificados y los datos de voz a la unidad 927 de procesamiento de imágenes y el códec 923 de voz. La unidad 927 de procesamiento de imágenes realiza un proceso de descodificación para descodificar datos codificados, y genera datos de imagen. Los datos de imagen se proporcionan a la unidad 930 de visualización de modo que se despliega una imagen recibida. El códec 923 de voz convierte los datos de voz en una señal de voz análoga, proporciona la señal de voz análoga al altavoz 924, y produce una voz recibida.
[0218] En el teléfono móvil que tiene la configuración anterior, la unidad 927 de procesamiento de imágenes se proporciona con la función del dispositivo de codificación y el dispositivo de descodificación (el método de codificación y el método de descodificación) de acuerdo con la presente solicitud. De esta manera,es posible permitir que el lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación.Además, es posible reconocer con precisión una gama de color de una imagen objetivo de codificación.
[0219] <Octava modalidad> Configuración ejemplar del dispositivo de grabación/reproducción La Figura 36 ilustra una configuración esquemática de un dispositivo de grabación/reproducción al cual se aplica la presente teenología. Un dispositivo 940 de grabación/reproducción graba,por ejemplo,datos de audio y datos de video de un programa de difusión recibido en un medio de grabación, y proporciona los datos grabados al usuario en un tiempo de acuerdo con la instrucción del usuario. Además, el dispositivo 940 de grabación/reproducción puede adquirir, por ejemplo, los datos de audio o los datos de video de otro dispositivo y provocar que los datos adquiridos se graven en un medio de grabación. Además, el dispositivo 940 de grabación/reproducción descodifica y produce los datos de audio o los datos de video grabados en el medio de grabación de modo que una presentación de imagen o un sonido producido pueda realizarse en un dispositivo del monitor.
[0220] El dispositivo 940 de grabación/reproducción incluye un sintonizador 941,una unidad 942 de I/F externa,un codificador 943, una unidad 944 de unidad de disco duro (HDD), una unidad 945 de disco, un selector 946, un descodificador 947, una unidad 948 de pantalla en pantalla (OSD), una unidad 949 de control, y una unidad 950 de I/F de usuario.
[0221] El sintonizador 941 sintoniza un canal deseado de una señal de difusión recibida a través de una antena (no ilustrada). El sintonizador 941 desmodula una señal de recepción del canal deseado, y produce una corriente de bits codificada obtenida en el selector 946.
[0222] La unidad 942 de I/F externa se configura con al menos una de una interfaz de IEEE1394, una interfaz de red,una interfaz de USB, una interfaz de memoria flash, y similares.La unidad 942 de I/F externa es una interfaz para una conexión con un dispositivo externo, una red, una tarjeta de memoria, y similares, y recibe datos tales como datos de video para datos de audio que se gravarán.
[0223] El codificador 943 termina los datos de video no codificados o los datos de audio proporcionados desde la unidad 942 de I/F externa de acuerdo con un cierto esquema, y produce una corriente de bit codificada en el selector 946.
[0224] La unidad 944 de HDD graba datos de contenido tal como video o sonido, varios tipos de programas, y otros datos en un disco duro interno, y lee los datos grabados del disco duro al momento de la reproducción o similares.
[0225] La unidad 945 de disco graba una señal en un disco óptico montado, y reproduce una señal del disco óptico. Ejemplos del disco óptico incluyen un disco DVD (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD+R, DVD+RW, y similares) y un disco Blu-ray (una marca comercial registrada).
[0226] Cuando se graba un video o sonido, el selector 946 selecciona cualquiera de una corriente de bit codificada proporcionada al sintonizador 941 y una corriente de bit codificada proporcionada desde el codificador 943, y proporciona la corriente de bit codificada seleccionada a cualquiera de la unidad 944 de HDD o la unidad 945 de disco.Además, cuando un video o un sonido se reproduce,el selector 946proporciona la corriente de bit codificada producida desde la unidad 944 de HDD o la unidad 945 de disco al descodificador 947.
[0227] El descodificador 947 realiza el proceso de descodificación de la descodificación de la corriente de bit codificada. El descodificador 947 proporciona los datos de video generados al realizar el proceso de descodificación a la unidad 948 de OSD. Además, el descodificador 947 produce los datos de audio generados al realizar el proceso de descodificación.
[0228] La unidad 948 de OSD genera los datos de video utilizados para desplegar, por ejemplo, una pantalla de menú utilizada, por ejemplo, para seleccionar un punto, y produce los datos de video que se superponen en los datos de video producidos desde el descodificador 947.
[0229] La unidad 950 de I/F de usuario se conecta a la unidad 949 de control. La unidad 950 de I/F de usuario incluye un conmutador de operación, una unidad de recepción de señal de control remoto, y similares, y proporciona una señal de operación de acuerdo con la operación del usuario a la unidad 949 de control.
[0230] La unidad 949 de control se configura con una CPU, una memoria, y similares. La memoria almacena un programa ejecutado por la CPU y varios tipos de datos necesarios cuando la CPU realiza procesamiento. El programa almacenado en la memoria se lee y se ejecuta por la CPU en un cierto tiempo tal como al momento en el cual se activa el dispositivo 940 de grabación/reproducción. La CPU ejecuta el programa, y controla las unidades respectivas de manera que el dispositivo 940 de grabación/reproducción se opera de acuerdo con la operación del usuario.
[0231] En el dispositivo de grabación/reproducción que tiene la configuración anterior, el descodificador 947 se proporciona con la función del dispositivo de descodificación (método de descodificación) de acuerdo con la presente solicitud. De esta manera, es posible reconocer con precisión una gama de color de una imagen objetivo de codificación.
[0232] <Novena modalidad> Configuración ejemplar del dispositivo de información de imágenes La Figura 37 ilustra una configuración esguemática de un dispositivo de formación de imágenes al cual se aplica la presente teenología.Un dispositivo 960 de formación de imágenes fotografía un objeto, y provoca gue una imagen del objeto se despliegue en una unidad de visualización o graba datos de imagen en un medio de grabación.
[0233] El dispositivo 960 de formación de imágenes incluye un bloque 961 óptico, una unidad 962 de captura de imágenes, una unidad 963 de procesamiento de señales de cámara, una unidad 964 de procesamiento de datos de imagen, una unidad 965 de visualización, una unidad 966 de I/F externa, una unidad 967 de memoria, una unidad 968 de medios, una unidad 969 de OSD, y una unidad 970 de control. Además, una unidad 971 de I/F de usuario se conecta a la unidad 970 de control. Además, la unidad 964 de procesamiento de datos de imagen, la unidad 966 de I/F externa, la unidad 967 de memoria, la unidad 968 de medios, la unidad 969 de OSD, la unidad 970 de control, y similares se conectan entre sí mediante un bus 972.
[0234] El bloque 961 óptico se configura con una lente focal, un mecanismo de diafragma,y similares.Elbloque 961 óptico forma una imagen óptica de un objeto en un plano de imagen de la unidad 962 de captura de imágenes. La unidad 962 de captura de imágenes se configura con un sensor de imagen de CCD o un sensor de imagen de CMOS, y genera una señal eléctrica de acuerdo con una imagen óptica obtenida por la conversión fotoeléctrica, y proporciona la señal eléctrica a la unidad 963 de procesamiento de señales de cámara.
[0235] La unidad 963 de procesamiento de señales de cámara realiza varios tipos de procesos de señales de cámara tales como corrección de knee, corrección de gama, y corrección de color en la señal eléctrica proporcionada desde la unidad 962 de captura de imágenes. La unidad 963 de procesamiento de señales de cámara proporciona los datos de imagen que se han sometido a los procesos de señales de cámara en la unidad 964 de procesamiento de datos de imagen.
[0236] La unidad 964 de procesamiento de datos de imagen realiza el proceso de codificación para codificar los datos de imagen proporcionados desde la unidad 963 de procesamiento de señales de cámara. La unidad 964 de procesamiento de datos de imagen proporciona datos codificados generados al realizar el proceso de codificación en la unidad 966 de I/F externa o la unidad 968 de medios. Además, la unidad 964 de procesamiento de datos de imagen realiza el proceso de descodificación de la descodificación de datos codificados proporcionados desde la unidad 966 de I/F externa o la unidad 968 de medios. La unidad 964 de procesamiento de datos de imagen proporciona datos de imagen generados al realizar el proceso de descodificación a la unidad 965 de visualización. Además, la unidad 964 de procesamiento de datos de imagen realiza un proceso para proporcionar los datos de imagen proporcionados desde la unidad 963 de procesamiento de señales de cámara a la unidad 965 de visualización, o proporciona datos de visualización adquiridos desde la unidad 969 de OSD a la unidad 965 de visualización que se superpone en los datos de imagen.
[0237] La unidad 969 de OSD genera una pantalla de menú que incluye un símbolo, un texto, o un diagrama o datos de visualización tal como un icono, y produce la pantalla de menú generada o los datos de visualización en la unidad 964 de procesamiento de datos de imagen.
[0238] La unidad 966 de I/F externa se configura,por ejemplo, con una terminal de E/S de USB o similares, y se conecta con una impresora cuando se imprime una imagen. Además, una unidad se conecta a la unidad 966 de I/F externa cuando es necesario, un medio removible tal como un disco magnético o un disco óptico se monta de manera adecuada, y un programa de computadora leído del medio removible se instala cuando es necesario.Además, la unidad 966 de I/S externa se conecta a una cierta red tal como una LAN o la Internet, e incluye una interfaz de red. La unidad 970 de control puede leer datos codificados de la unidad 968 de medios, por ejemplo, de acuerdo con una instrucción dada a través de la unidad 970 de I/F de usuario, y proporciona los datos leídos codificados a otro dispositivo conectado mediante una red a través de la unidad 966 de I/F externa.Además, la unidad 970 de control puede adquirir datos codificados o datos de imagen proporcionados desde otro dispositivo mediante una red a través de la unidad 966 de I/F externa y proporcionar los datos codificados adquiridos o los datos de imagen a la unidad 964 de procesamiento de datos de imagen.
[0239] Como medio de grabación impulsado por la unidad 968 de medios, por ejemplo, un medio removible legible/grabable arbitrario tal como un disco magnético, un disco magneto óptico, un disco óptico, o una memoria de semiconductor se utiliza. Además, el medio de grabación puede ser un dispositivo de cinta, un disco,o una tarjeta dememoria sin importar el tipo de un medio removible. Desde luego, el medio de grabación puede ser una tarjeta de circuito integrado (IC) sin contacto o similares.
[0240] Además, la unidad 968 de medios puede integrarse con el medio de grabación para configurar un medio de almacenamiento no portátil tal como una HDD interna o una unidad de estado sólido (SSD).
[0241] La unidad 970 de control se configura con una CPU. La unidad 967 de memoria almacena un programa ejecutado por la unidad 970 de control, varios tipos de datos necesarios cuando la unidad 970 de control realiza procesamiento, y similares. El programa almacenado en la unidad 967 de memoria se lee y se ejecuta por la unidad 970 de control en un cierto tiempo tal como el tiempo en el cual se activa el dispositivo 960 de formación de imágenes. La unidad 970 de control ejecuta el programa, y controla las unidades respectivas de manera que el dispositivo 960 de formación de imágenes se opera de acuerdo con la operación del usuario.
[0242] En el dispositivo de formación de imágenes que tiene la configuración anterior, la unidad 964 de procesamiento de datos de imagen se proporciona con la función del dispositivo de descodificación (método de descodificación) de acuerdo con la presente solicitud. De esta manera, es posible permitir que el lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación. Además, es posible reconocer con precisión una gama de color de una imagen objetivo de codificación.
[0243] <Aplicaciones de codificación escalable> Primer sistema A continuación,ejemplos concretos de aplicación de los datos escalables codificados generados por codificación escalable se describirán. La codificación escalable se utiliza para seleccionar datos que se transmiten, por ejemplo, como se ilustra en la Figura 38.
[0244] En un sistema 1000 de transmisión de datos ilustrado en la Figura 38, un servidor 1002 de distribución lee los datos codificados escalables almacenados en una unidad 1001 de almacenamiento de datos codificados escalables, y distribuye los datos codificados escalables a los dispositivos de terminal tal como una computadora 1004 personal, un dispositivo 1005 de AV, un dispositivo 1006 tipo Tablet,y un teléfono 1007móvil mediante una red 1003.
[0245] En este tiempo, el servidor 1002 de distribución selecciona datos codificados de alta calidad adecuados de acuerdo con las capacidades de los dispositivos de terminal o un ambiente de comunicación, y transmite los datos codificados de alta calidad seleccionados. Aunque el servidor 1002 de distribución transmite datos de alta calidad innecesarios, los dispositivos de terminal no necesariamente obtienen una imagen de alta calidad, y puede producirse un retardo o un exceso de flujo. Además, una banda de comunicación puede ocuparse de manera innecesaria, y una carga de un dispositivo de terminal puede incrementarse de manera innecesaria. Por otro lado, aunque el servidor 1002 de distribución transmita datos de baja calidad de manera innecesaria,los dispositivos de terminal es poco probable que obtengan una imagen de una calidad suficiente.De esta manera, el servidor 1002 de distribución lee los datos codificados escalables almacenados en la unidad 1001 de almacenamiento de datos codificados escalables como datos codificados de una calidad adecuada para la capacidad del dispositivo de terminal o un ambiente de comunicación, y después transmite los datos leídos.
[0246] Por ejemplo, la unidad 1001 de almacenamiento de datos codificados escalables se asume que almacena datos 1011 codificados escalables (BL+EL) que se codifican por la codificación escalable. Los datos 1011 codificados escalables (BL+EL) son datos codificados que incluyen una capa base y una capa de mejora, y una imagen de la capa base y una imagen de la capa de mejora pueden obtenerse al descodificar los datos 1011 codificados escalables (BL+EL).
[0247] El servidor 1002 de distribución selecciona una capa adecuada de acuerdo con la capacidad de un dispositivo de terminal al cual se transmite los datos o un ambiente de comunicación, y lee los datos de la capa seleccionada. Por ejemplo, para la computadora 1004 personal o el dispositivo 1006 tipo Tablet que tiene una alta capacidad de procesamiento, el servidor 1002 de distribución lee los datos 1011 codificados escalables (BL+EL) de alta calidad de la unidad 1001 de almacenamiento de datos codificados escalables, y transmite los datos 1011 codificados escalables (BL+EL) sin cambio. Por otro lado, por ejemplo, para el dispositivo 1005 de AV o el teléfono 1007 móvil que tiene una baja capacidad de procesamiento,el servidor 1002 de distribución extrae los datos de la capa base de los datos 1011 codificados escalables (BL+EL), y transmite datos 1012 codificados escalables (BL) es decir el mismo contenido que los datos 1011 codificados escalables (BL+EL) pero de menor calidad que los datos 1011 codificados escalables (BL+EL).
[0248] Como se describe en lo anterior, una cantidad de datos puede ajustarse fácilmente utilizando datos codificados escalables, y de esta manera es posible evitar la aparición de un retardo o un exceso de flujo y evitar que una carga de un dispositivo de terminal o un medio de comunicación se incremente de manera innecesaria. Además, los datos 1011 codificados escalables (BL+EL) se reducen en redundancia entre capas, y de esta manera esposible reducir una cantidad de datos que sea menor que cuando los datos individuales se utilizan como datos codificados de cada capa. De esta manera, es posible utilizar de manera más eficiente un área de memoria de la unidad 1001 de almacenamiento de datos codificados escalables.
[0249] Además, varios dispositivos tales como la computadora 1004 personal para el teléfono 1007 móvil pueden aplicarse como el dispositivo de terminal, y de esta manera el rendimiento de hardware de los dispositivos de terminal difieren de acuerdo con cada dispositivo. Además, puesto que varias aplicaciones pueden ejecutarse por los dispositivos de terminal, el software tiene varias capacidades. Además, todas las redes de linea de comunicación que incluyen cualquiera o ambas de una red alámbrica y una red inalámbrica tal como la Internet o una red de área local (LAN), pueden aplicarse como la red 1003 que sirve como medio de comunicación, y de esta manera varias capacidades de transmisión de datos se proporcionan.Además,un cambio puede hacerse por otra comunicación o similares.
[0250] En este sentido, el servidor 1002 de distribución puede configurarse para realizar comunicación con un dispositivo de terminal que sirve como destino de transmisión de datos antes de iniciar la transmisión de datos y obtener información relacionada con una capacidad de un dispositivo de terminal tal como rendimiento de hardware de un dispositivo de terminal o un rendimiento de una aplicación (software) ejecutada por un dispositivo de terminal e información relacionada con un ambiente de comunicación tal como un ancho de banda disponible de la red 1003. Después,el servidor 1002 de distribución puede seleccionar una capa adecuada basándose en la información obtenida.
[0251] Además, la extracción de la capa puede realizarse en un dispositivo de terminal. Por ejemplo, la computadora 1004 personal puede descodificar los datos 1011 codificados escalables (BL+EL) transmitidos y visualiza la imagen de la capa base o la imagen de la capa de mejora. Además, por ejemplo, la computadora 1004 personal puede extraer los datos 1012 codificados escalables (BL) de la capa base de los datos 1011 codificados escalables (BL+EL) transmitidos, almacenar los datos 1012 codificados escalables (BL) de la capa base, transferir los datos 1012 codificados escalables (BL) de la capa base a otro dispositivo, descodificar los datos 1012 codificados escalables (BL) de la capa base, y visualizar la imagen de la capa base.
[0252] Desde luego, el número de unidades 1001 de almacenamiento de datos codificados escalables, el número de servidores 1002 de distribución, el número de redes 1003, y el número de dispositivos de terminal son arbitrarios. La descripción anterior se ha hecho junto con el ejemplo en el cual el servidor 1002 de distribución transmite datos a los dispositivos de terminal, pero el ejemplo de aplicación no se limita a este ejemplo. El sistema 1000 de transmisión de datos puede aplicarse a cualquier sistema en el cual cuando los datos codificados generados por la codificación escalable se transmiten a un dispositivo de terminal, una capa adecuada se selecciona de acuerdo con una capacidad de un dispositivo de terminal o un ambiente de comunicación, y los datos codificados se transmiten.
[0253] Segundo sistema La codificación escaladle se utiliza para la transmisión utilizando una pluralidad de medios de comunicación, por ejemplo, como se ilustra en la Figura 39.
[0254] En un sistema 1100 de transmisión de datos ilustrado en la Figura 39,una estación 1101 de difusión transmite los datos 1121 codificados escalables (BL) de una capa base a través de difusión lili terrestre. Además, la estación 1101 de difusión transmite los datos 1122 codificados escalables (EL) de una capa de mejora (por ejemplo, forman paquetes los datos 1122 codificados escalables (EL) y después transmite los paquetes resultantes)mediante una red 1112 arbitraria configurada con una red de comunicación que incluye cualquiera o ambas de una red alámbrica y una red inalámbrica.
[0255] Un dispositivo 1102 de terminal tiene una función de recepción para recibir la difusión lili terrestre difundida por la estación 1101 de difusión, y recibe los datos 1121 codificados escalables (BL) de la capa base transmitidos a través de la difusión lili terrestre. El dispositivo 1102 de terminal además tiene una función de comunicación para realizar comunicación mediante la red 1112, y recibe los datos 1122 codificados escalables (EL) de la capa de mejora transmitida mediante la red 1112.
[0256] El dispositivo 1102 de terminal descodifica los datos 1121 codificados escalables (BL) de la capa base adquiridos a través de la difusión lili terrestre, por ejemplo, de acuerdo con la instrucción del usuario o similares, obtiene la imagen de la capa base, almacena la imagen obtenida, y transmite la imagen obtenida a otro dispositivo.
[0257] Además, el dispositivo 1102 de terminal combina los datos 1121 codificados escalables (BL)de la capa base adquiridos a través de la difusión lili terrestre con los datos 1122 codificados escalables (EL) de la capa de mejora adquirida a través de la red 1112, por ejemplo, de acuerdo con la instrucción del usuario o similares,obtiene los datos codificados escalables (BL+EL), descodifica los datos codificados escalables (BL+EL) para obtener la imagen de la capa de mejora, almacena la imagen obtenida, y transmite la imagen obtenida a otro dispositivo.
[0258] Como se describe en lo anterior, es posible transmitir datos codificados escalables de capas respectivas, por ejemplo, a través de diferentes medios de comunicación. De esta manera, es posible distribuir una carga, y es posible evitar la aparición de un retardo o un exceso de flujo.
[0259] Además,es posible seleccionar unmedio de comunicación utilizado para transmisión para cada capa de acuerdo con la situación, transmisión. Por ejemplo, los datos 1121 codificados escalables (BL) de la capa base que tienen una gran cantidad relativa de datos pueden transmitirse a través de un medio de comunicación que tiene un ancho de banda grande, y los datos 1122 codificados escalables (EL) de la capa de mejora que tiene una pequeña cantidad relativa de datos pueden transmitirse a través de un medio de comunicación que tiene un ancho de banda pequeño. Además, por ejemplo, un medio de comunicación para transmitir los datos 1122 codificados escalables (EL)de la capa de mejora puede intercalarse entre la red 1112 y la difusión lili terrestre de acuerdo con un ancho de banda disponible de la red 1112. Desde luego, lo mismo aplica a los datos de una capa arbitraria.
[0260] A medida que se realiza el control como se describe en lo anterior, es posible suprimir adicionalmente un incremento en una carga en la transmisión de datos.
[0261] Desde luego, el número de capas es arbitrario, y el número de medios de comunicación utilizados para la transmisión también es arbitrario.Además,el número de los dispositivos 1102 de terminal que sirve como destino de distribución de datos también es arbitrario. La descripción anterior se ha descrito junto con el ejemplo de difusión de la estación 1101 de difusión, y el ejemplo de aplicación no se limita a este ejemplo.El sistema 1100 de transmisión de datos puede aplicarse a cualquier sistema en el cual datos codificados generados por la codificación escalable se dividen en dos omás unidades de capas y se transmiten a través de una pluralidad de lineas.
[0262] Tercer sistema La codificación escalable se utiliza para almacenamiento de datos codificados,por ejemplo,como se ilustra en la Figura 40.
[0263] En un sistema 1200 de formación de imágenes ilustrado en la Figura 40, un dispositivo 1201 de formación de imágenes fotografía un objeto 1211, realiza la codificación escalable en los datos de imagen obtenidos, y proporciona datos 1221 codificados escalables (BL+EL) a un dispositivo 1202 de almacenamiento de datos codificados escalables.
[0264] El dispositivo 1202 de almacenamiento de datos codificados escalables almacena los datos 1221 codificados escalables (BL+EL) proporcionados desde el dispositivo 1201 de formación de imágenes en una calidad de acuerdo con la situación. Por ejemplo, durante un tiempo normal, el dispositivo 1202 de almacenamiento de datos codificados escalables extrae los datos de la capa base de los datos 1221 codificados escalables (BL+EL), y almacena los datos extraídos como datos 1222 codificados escalables (BL) de la capa base que tienen una pequeña cantidad de datos en una baja calidad. Por otro lado,por ejemplo, durante un tiempo de observación, el dispositivo 1202 de almacenamiento de datos codificados escalables almacena los datos 1221 codificados escalables (BL+EL) que tienen una gran cantidad de datos en una alta calidad sin cambio.
[0265] Por consiguiente, el dispositivo 1202 de almacenamiento de datos codificados escalables puede almacenar una imagen en una alta calidad sólo cuando sea necesario, y de esta manera es posible suprimir un incremento en una cantidad de datos y mejorar la eficiencia de uso de una área de memoria mientras se suprime una reducción en un valor de una imagen provocada por el deterioro de calidad.
[0266] Por ejemplo, el dispositivo 1201 de formación de imágenes es una cámara de monitoreo. Cuando el objetivo de monitoreo (por ejemplo, un intruso) no se muestra en una imagen fotografiada (durante un tiempo normal), el contenido de la imagen fotografiada es muy probable que sea inconsecuente, y de esta manera una reducción en una cantidad de datos se le da prioridad, y los datos de imagen (datos codificados escalables) se almacenan en una baja calidad. Por otro lado, cuando un objetivo de monitoreo se muestra en una imagen fotografiada como el objeto 1211 (durante un tiempo de observación), el contenido de la imagen fotografiada es muy probable que sea consecuente, y de esta manera una calidad de imagen se le da prioridad, y los datos de imagen (datos codificados escalables) se almacenan en una alta calidad.
[0267] Puede determinarse si es el tiempo normal o el tiempo de observación, por ejemplo, al analizar una imagen a través del dispositivo 1202 de almacenamiento de datos codificados escalables. Además, el dispositivo 1201 de formación de imágenes puede realizar la determinación y transmite el resultado de determinación al dispositivo 1202 de almacenamiento de datos codificados escalables.
[0268] Además, un criterio de determinación en cuanto a si el tiempo normal o el tiempo de observación es arbitrario, y el contenido de una imagen que sirve como el criterio de determinación es arbitrario. Desde luego, una condición distinta al contenido de una imagen puede ser un criterio de determinación. Por ejemplo, puede realizarse conmutación de acuerdo con la magnitud o una forma de onda de un sonido grabado, la conmutación puede realizarse en ciertos intervalos de tiempo, o la conmutación puede realizarse de acuerdo con una instrucción externa tal como la instrucción del usuario.
[0269] La descripción anterior se ha descrito junto con el ejemplo en el cual se realiza conmutación entre dos estados del tiempo normal y el tiempo de observación, pero el número de estados es arbitrario. Por ejemplo, la conmutación puede realizarse entre tres o más estados tales como un tiempo normal, un tiempo de observación de bajo nivel, un tiempo de observación, un tiempo de observación de alto nivel, y similares. Aqui, un número de limite superior de estados que se conmuta depende de número de capas de datos codificados escalables.
[0270] Además, el dispositivo 1201 de formación de imágenes puede decidir el número de capas para la codificación escaladle de acuerdo con un estado. Por ejemplo, durante el tiempo normal, el dispositivo 1201 de formación de imágenes puede generar los datos 1222 codificados escalables (BL) de la capa base que tienen a pequeña cantidad de datos en una baja calidad y proporcionar datos 1222 codificados escalables (BL) de la capa base al dispositivo 1202 de almacenamiento de datos codificados escalables. Además, por ejemplo, durante el tiempo de observación, el dispositivo 1201 de formación de imágenes puede generar los datos 1221 codificados escalables (BL+EL) de la capa base que tienen a gran cantidad de datos en una alta calidad y proporcionar los datos 1221 codificados escalables (BL+EL) de la capa base para el dispositivo 1202 de almacenamiento de datos codificados escalables.
[0271] La descripción anterior se ha hecho junto con el ejemplo de una cámara de monitoreo, pero el propósito del sistema 1200 de formación de imágenes es arbitrario y no se limita a una cámara de monitoreo.
[0272] <Décima modalidad> Otras modalidades Las modalidades anteriores se han descrito junto con el ejemplo del dispositivo, el sistema, o similares de acuerdo con la presente teenología, pero la presente tecnología no se limita a los ejemplos anteriores y puede implementarse como cualquier componente montado en el dispositivo o el dispositivo que configura el sistema, por ejemplo, un procesador que sirve como LSI de sistema (integración a gran escala) o similares, un módulo que utiliza una pluralidad de procesadores o similares, una unidad que utiliza una pluralidad de módulos o similares, un conjunto (es decir, algunos componentes del dispositivo) en el cual cualquier otra función además se agrega a una unidad, o similares.
[0273] Configuración ejemplar de aparato de video Un ejemplo en el cual se implementa la presente teenología como aparato se describirá con referencia a la Figura 41. La Figura 41 ilustra una configuración esquemática ejemplar de un aparato de video al cual se aplica la presente tecnología.
[0274] En años recientes, funciones de dispositivos electrónicos se han vuelto diversas,y cuando algunos componentes se implementan como venta, provisión, o similares en el desarrollo o manufactura, existen muchos casos en los cuales una pluralidad de componentes que tienen funciones relevantes se combinan e implementan como un conjunto que tiene una pluralidad de funciones así como también casos en los cuales se realiza una implementación como un componente que tiene una sola función.
[0275] Un aparato 1300 de video ilustrado en la Figura 41 es una configuración multi-funcional en la cual un dispositivo que tiene una función relacionada con la codificación de imágenes y/o la descodificación de imágenes se combina con un dispositivo que tiene cualquier otra función relacionada con la función.
[0276] Como se ilustra en la Figura 41,elaparato 1300devideo incluye un grupo modular tal como un módulo 1311 de video, una memoria 1312 externa, un módulo 1313 de gestión de energía, y un módulo 1314 de terminal de entrada y un dispositivo que tiene funciones relevantes tales como una conectividad 1321,una cámara 1322, y un sensor 1323.
[0277] Un módulo es una parte que tiene varias funciones en las cuales varias funciones de parte relevante se integran. Una configuración física concreta es arbitraria, pero, por ejemplo, se configura de manera que una pluralidad de procesos que tienen funciones respectivas, elementos de circuito electrónico tales como una resistencia y un condensador, y otros dispositivos se disponen e integran en un sustrato cableado. Además, un nuevo módulo puede obtenerse al combinar otro módulo o un procesador con un módulo.
[0278] En el caso del ejemplo de la Figura 41, el módulo 1311 de video es una combinación de componentes que tienen funciones relacionadas con el procesamiento de imágenes, e incluye un procesador de aplicaciones,un procesador de video,un modem 1333 de banda ancha, y un módulo 1334 de radiofrecuencia (RF).
[0279] Un procesador es uno en el cual una configuración que tiene una cierta función se integra en un chip de semiconductor a través de un Sistema en un Chip (SoC), y también se refiere, por ejemplo, a LSI de sistema (Integración a Gran Escala) o similares. La configuración que tiene la cierta función puede ser un circuito lógico (configuración de hardware), puede ser una CPU, una ROM, una RAM, y un programa (configuración de software) ejecutado que utiliza la CPU, la ROM, y la RAM, y puede ser una combinación de una configuración de hardware y una configuración de software.Por ejemplo,un procesador puede incluir un circuito lógico, una CPU, una ROM, una RAM, y similares, algunas funciones pueden implementarse a través del circuito lógico (componente de hardware), y las otras funciones pueden implementarse a través de un programa (componente de software) ejecutado por la CPU.
[0280] El procesador 1331 de aplicaciones de la Figura 41 es un procesador que ejecuta una aplicación relacionada con el procesamiento de imágenes. Una aplicación ejecutada por el procesador 1331 de aplicaciones no sólo puede realizar un proceso de cálculo sino también controlar componentes dentro y fuera del módulo 1311 de video tal como el procesador 1332 de video cuando sea necesario para implementar una cierta función.
[0281] El procesador 1332 de video es un proceso que tiene una función relacionada con la codificación de imágenes y/o la descodificación de imágenes.
[0282] El modem 1333 de banda ancha es un procesador (o módulo) que realiza un proceso relacionado con la comunicación de banda ancha alámbrica y/o inalámbrica es decir que se realiza mediante la linea de banda ancha tal como el Internet o una red de linea telefónica pública. Por ejemplo, el modem 1333 de banda ancha convierte datos (señal digital) que se transmiten en una señal análoga, por ejemplo, a través de modulación digital, desmodula una señal análoga recibida, y convierte la señal análoga en datos (señal digital). Por ejemplo, el modem 1333 de banda ancha puede realizar modulación digital y desmodulación en información arbitraria tal como datos de imagen procesados por el procesador 1332 de video, una corriente en la cual se codifican los datos de imagen, un programa de aplicación, o datos de ajuste.
[0283] El módulo 1334 de RF es un módulo que realiza un proceso de transformada de frecuencia, un proceso de modulación/desmodulación, un proceso de amplificación, un proceso de filtración, y similares en una señal de radiofrecuencia (RF) transmitida-recibida a través de una antena. Por ejemplo, el módulo 1334 de RF realiza, por ejemplo, transformada de frecuencia en una señal de banda base generada por elmodem 1333 de banda ancha,y genera una señal de RF.Además, por ejemplo, el módulo 1334 de RF realiza, por ejemplo, transformada de frecuencia en una señal de RF recibida a través del módulo 1314 de terminal de entrada,y genera una señal de banda base.
[0284] Además, una linea 1341 punteada, es decir, el procesador 1331 de aplicaciones y el procesador 1332 de video pueden integrarse en un solo procesador como se ilustra en la Figura 1.
[0285] Lamemoria 1312 externa se instala fuera delmódulo 1311 de video, y un módulo que tiene un dispositivo de almacenamiento utilizado por el módulo 1311 de video. El dispositivo de almacenamiento de la memoria 1312 externa puede implementarse por cualquier configuración física, pero se utiliza comúnmente para almacenar datos de gran capacidad tales como datos de imagen de unidades de trama, y de esta manera es deseable implementar el dispositivo de almacenamiento de la memoria 1312 externa que utiliza una memoria de semi-conductor de gran capacidad de chip relativa tal como una memoria de acceso aleatorio dinámica (DRAM).
[0286] Elmódulo 1313de gestión de energía gestiona y controla suministro de energía en el módulo 1311 de video (los componentes respectivos en el módulo 1311 de video).
[0287] El módulo 1314 de terminal de entrada es un módulo que proporciona una función de terminal de entrada (un circuito de un extremo de transmisión-recepción en un lado de antena) en el módulo 1334 de RF.Como se ilustra en la Figura 41, el módulo 1314 de terminal de entrada incluye, por ejemplo, una unidad 1351 de antena, un filtro 1352, y una unidad 353 de amplificación.
[0288] La unidad 1351 de antena incluye una antena que transmite-recibe una señal de radio y una configuración periférica. La unidad 1351 de antena transmite una señal proporcionada desde la unidad 1353 de amplificación como señal de radio,y proporciona una señal de radio recibida al filtro 1352 como señal eléctrica (Señal de RF). El filtro 1352 realiza, por ejemplo, un proceso de filtración en una Señal de RF recibida a través de la unidad 1351 de antena, y proporciona una señal de RF procesada al módulo 1334 de RF.La unidad 1353 de amplificación amplifica la Señal de RF proporcionada desde el módulo 1334 de RF, y proporciona la señal de RF amplificada a la unidad 1351 de antena.
[0289] La conectividad 1321 es un módulo que tiene una función relacionada con una conexión con el exterior. Una configuración física de la conectividad 1321 es arbitraria. Por ejemplo, la conectividad 1321 incluye una configuración que tiene una función de comunicación distinta a un estándar de comunicación soportado por el modem 1333 de banda ancha, una terminal de E/S externa, o similares.
[0290] Por ejemplo, la conectividad 1321 puede incluir un módulo que tiene una función de comunicación basada en un estándar de comunicación inalámbrica tal como Bluetooth (una marca comercial registrada), IEEE 802.11 (por ejemplo, Fidelidad Inalámbrica (Wi-Fi) (una marca comercial registrada)), Comunicación de Campo Cercano (NFC), Asociación de Datos por Infrarrojo (IrDA), una antena que tránsmite-recibe una señal que cumple con el estándar, o similares. Además, por ejemplo, la conectividad 1321 puede incluir un módulo que tiene una función de comunicación basada en un estándar de comunicación alámbrica tal como una Interfaz de Bus de Serie Universal (USB), o Interfaz de Multimedia de Alta Definición (HDMI) (una marca comercial registrada) o una terminal que cumple con el estándar. Además, por ejemplo, la conectividad 1321 puede incluir cualquier otra función (señal) de transmisión o similares tal como una terminal E/S análoga.
[0291] Además, la conectividad 1321 puede incluir un dispositivo de un destino de transmisión de datos (señal). Por ejemplo, la conectividad 1321 puede incluir una unidad (incluyendo un disco duro, una unidad de estado sólido (SSD), un Almacén Conectado a Red (ÑAS), o similares asi como también una unidad de un medio removible) que lee/escribe datos de/ en un medio de grabación tal como un disco magnético, un disco óptico, un disco magneto óptico, o una memoria de semiconductor.Además, la conectividad 1321 puede incluir un dispositivo de salida (un monitor, un altavoz, o similares) que produce una imagen o un sonido.
[0292] La cámara 1322 es un módulo que tiene una función para fotografiar un objeto y obtener los datos de imagen del objeto. Por ejemplo, los datos de imagen obtenidos por la fotografía de la cámara 1322 se proporciona a y se codifica por el procesador 1332 de video.
[0293] El sensor 1323 es un módulo que tiene una función de sensor arbitraria tal como un sensor de sonido, un sensor ultrasónico, un sensor óptico, un sensor de iluminación, un sensor infrarrojo, un sensor de imagen, un sensor de rotación, un sensor angular, un sensor de velocidad angular, un sensor de velocidad, un sensor de aceleración, un sensor de inclinación, un sensor de identificación magnética, un sensor de choque, o un sensor de temperatura. Por ejemplo, los datos detectados por el sensor 1323 se proporcionan al procesador 1331 de aplicaciones y se utilizan por una aplicación o similar.
[0294] Una configuración descrita en lo anterior como un módulo puede implementarse como un procesador, y una configuración descrita como un procesador puede implementarse como un módulo.
[0295] En el aparato 1300 de video que tiene la configuración anterior, la presente teenología puede aplicarse al procesador 1332 de video como se describirá posteriormente. De esta manera, el aparato 1300 de video puede implementarse como un aparato al cual se aplica la presente tecnología.
[0296] Configuración ejemplar del procesador de video La Figura 42 ilustra una configuración esquemática ejemplar del procesador 1332 de video (Figura 41) al cual se aplica la presente tecnología.
[0297] En el caso del ejemplo de la Figura 42, el procesador 1332 de video tiene una función para recibir una entrada de una señal de video y una señal de audio y codificar la señal de video y la señal de audio de acuerdo con un cierto esquema y una función para descodificar los datos de video descodificados y los datos de audio, y reproducir y producir una señal de video y una señal de audio.
[0298] El procesador 1332 de video incluye una unidad 1401 de procesamiento de entrada de video, una unidad 1402 de ampliación/reducción de primera imagen, una unidad 1403 de ampliación/reducción de segunda imagen, una unidad 1404 de procesamiento de salida de video, una memoria 1405 de tramas, y una unidad 1406 de control de memoria como se ilustra en la Figura 42. El procesador 1332 de video además incluye un motor 1407 de codificación/descodificación, memorias intermedias 1408A y 1408B de corriente elemental (ES) de video, y memorias intermedias 1409A y 1409B de ES de audio. El procesador 1332 de video además incluye un codificador 1410 de audio, un descodificador 1411 de audio, una unidad 1412 de multiplexión (multiplexor (MUX)), una unidad 1413 de desmultiplexión (desmultiplexor (DMUX)), y una memoria intermedia 1414 de corriente.
[0299] Por ejemplo, la unidad 1401 de procesamiento de entrada de video adquiere una señal de video ingresada desde la conectividad 1321 (Figura 41) o similares, y convierte la señal de video en datos de imagen digital. La unidad 1402 de ampliación/reducción de primera imagen realiza, por ejemplo, un proceso de conversión de formato y un proceso de ampliación/reducción de imagen en los datos de imagen.La unidad 1403 de ampliación/reducción de segunda imagen realiza un proceso de ampliación/reducción de imagen en los datos de imagen de acuerdo con un formato de destino al cual se producen los datos de imagen a través de la unidad 1404 de procesamiento de salida de video o realiza el proceso de conversión de formato y el proceso de ampliación/reducción de imagen que son idénticos a aquellos de la unidad 1402 de ampliación/reducción de primera imagen en los datos de imagen. La unidad 1404 de procesamiento de salida de video realiza conversión de formato y conversión en una señal análoga en los datos de imagen, y produce una señal de video reproducida, por ejemplo, la conectividad 1321 (Figura 41) o similares.
[0300] La memoria 1405 de tramas es una memoria de datos de imagen que se comparte por la unidad 1401 de procesamiento de entrada de video, la unidad 1402 de ampliación/reducción de primera imagen, la unidad 1403 de ampliación/reducción de segunda imagen, la unidad 1404 de procesamiento de salida de video, y el motor 1407 de codificación/descodificación. La memoria 1405 de tramas se implementa,por ejemplo, como memoria de semiconductor tal como una DRAM.
[0301] La unidad 1406 de control de memoria recibe una señal sincrónica del motor 1407 de codificación/descodificación, y controla el acceso de escritura/lectura en la memoria 1405 de tramas de acuerdo con un programa de acceso para la memoria 1405 de tramas escrita en una tabla 1406A de gestión de acceso.La tabla 1406Ade gestión de acceso se actualiza a través de la unidad 1406 de control de memoria de acuerdo con el procesamiento ejecutado por elmotor 1407 de codificación/descodificación,la unidad 1402 de ampliación/reducción de primera imagen, la unidad 1403 de ampliación/reducción de segunda imagen, o similares.
[0302] El motor 1407 de codificación/descodificación realiza un proceso de codificación para codificar datos de imagen y un proceso de descodificación para descodificar una corriente de video que son datos obtenidos al codificar los datos de imagen. Por ejemplo, el motor 1407 de codificación/descodificación codifica los datos de imagen leídos de la memoria 1405 de tramas, y escribe de manera secuencial los datos de imagen codificados en la memoria intermedia 1408A de ES de video como corriente de video. Además, por ejemplo, el motor 1407 de codificación/descodificación lee de manera secuencial la corriente de video de la memoria intermedia 1408B de ES de video, descodifica de manera secuencial la corriente de video, y de manera secuencial los datos de imagen descodificados en la memoria 1405 de tramas. El motor 1407 de codificación/descodificación utiliza la memoria 1405 de tramas como área de trabajo al momento de la codificación o la descodificación. Además, el motor 1407 de codificación/descodificación produce la señal sincrónica en la unidad 1406 de control de memoria, por ejemplo, en un tiempo en el cual el procesamiento de cada macro bloque inicia.
[0303] La memoria intermedia 1408A de ES de video guarda en memoria intermedia la corriente de video generada por el motor 1407 de codificación/descodificación, y después proporciona la corriente de video a la unidad 1412 de multiplexión (MUX). La memoria intermedia 1408B de ES de video guarda en la memoria intermedia la corriente de video proporcionada desde la unidad 1413 de desmultiplexión (DMUX), y después proporciona la corriente de video al motor 1407 de codificación/descodificación.
[0304] La memoria intermedia 1409A de ES de audio guarda en memoria intermedia una corriente de audio generada por el codificador 1410 de audio, y después proporciona la corriente de audio a la unidad 1412 de multiplexión (MUX). La memoria intermedia 1409B de ES de audio guarda en la memoria intermedia una corriente de audio proporcionada desde la unidad 1413 de desmultiplexión (DMUX), y después proporciona la corriente de audio al descodificador 1411 de audio.
[0305] Por ejemplo,el codificador 1410 de audio convierte una señal de audio ingresada desde,por ejemplo, la conectividad 1321 (Figura 41) o similares en una señal digital, y codifica la señal digital de acuerdo con un cierto esquema tal como un esquema de audio de MPEG o un esquema de Código de Audio número 3 (AC3). El codificador 1410 de audio escribe de manera secuencial la corriente de audio que son datos obtenidos al codificar la señal de audio en la memoria intermedia 1409A de ES de audio. El descodificador 1411 de audio descodifica la corriente de audio proporcionada desde la memoria intermedia 1409B de ES de audio, realiza, por ejemplo, la conversión en una señal análoga, y proporciona una señal de audio reproducida, por ejemplo, en la conectividad 1321 (Figura 41) o similares.
[0306] La unidad 1412 de multiplexión (MUX) realiza multiplexión de la corriente de video y la corriente de audio. UN método de multiplexión (es decir, un formato de una corriente de bit generada por la multiplexión) es arbitraria. Además, al momento de la multiplexión, la unidad 1412 de multiplexión (MUX) puede agregar cierta información de encabezado o similares a la corriente de bit. En otras palabras, la unidad 1412 de multiplexión (MUX) puede convertir un formato de corriente al multiplexar. Por ejemplo, la unidad 1412 de multiplexión (MUX) multiplexa la corriente de video y la corriente de audio para convertirse en una corriente de transporte que es una corriente de bit de un formato de transferencia. Además, por ejemplo, la unidad 1412 de multiplexión (MUX) multiplexa la corriente de video y la corriente de audio que se convierte en datos (datos de archivo) de un formato de archivo de grabación.
[0307] La unidad 1413 de desmultiplexión (DMUX) demultiplexa la corriente de bit obtenida al multiplexar la corriente de video y la corriente de audio por un método que corresponde a la multiplexión realizada por la unidad 1412 de multiplexión (MUX).
En otras palabras, la unidad 1413 de desmultiplexión (DMUX) extrae la corriente de video y la corriente de audio (separa la corriente de video y la corriente de audio) de la corriente de bit leída de la memoria intermedia 1414 de corriente. En otras palabras, la unidad 1413 de desmultiplexión (DMUX)puede realizar conversión (conversión inversa de la conversión realizada por la unidad 1412 de multiplexión (MUX)) de un formato de una corriente a través de la desmultiplexión. Por ejemplo, la unidad 1413 de desmultiplexión (DMUX) puede adquirir la corriente de transporte proporcionada desde,por ejemplo, la conectividad 1321 o el modem 1333 de banda ancha (ambos de la Figura 41) a través de la memoria intermedia 1414 de corriente y convierte la corriente de transporte en una corriente de video y una corriente de audio a través de la desmultiplexión.Además,por ejemplo, la unidad 1413 de desmultiplexión (DMUX) puede adquirir datos de archivo leídos de varios tipos de medios de grabación (Figura 41), por ejemplo, por la conectividad 1321 a través de la memoria intermedia 1414 de corriente y convierte los datos de archivo en una corriente de video y una corriente de audio por la desmultiplexión.
[0308] La memoria intermedia 1414 de corriente guarda la corriente de bit. Por ejemplo, la memoria intermedia 1414 de corriente guarda enmemoria intermedia la corriente de transporte proporcionada desde la unidad 1412 de multiplexión (MUX), y proporciona la corriente de transporte, por ejemplo, a la conectividad 1321 o el modem 1333 de banda ancha (ambos de la Figura 41) en un cierto tiempo o basándose en una solicitud externa o similares.
[0309] Además, por ejemplo, la memoria intermedia 1414 de corriente guarda en memoria intermedia los datos de archivo proporcionados desde la unidad 1412 de multiplexión (MUX), proporciona los datos de archivo, por ejemplo, a la conectividad 1321 (Figura 41) o similares en un cierto tiempo o basándose en una solicitud externa o similares, y provoca que los datos de archivo se graben en varios tipos de medios de grabación.
[0310] Además, la memoria intermedia 1414 de corriente guarda en memoria intermedia la corriente de transporte adquirida a través de, por ejemplo, la conectividad 1321 o el modem 1333 de banda ancha (ambos de la Figura 41), y proporciona la corriente de transporte a la unidad 1413 de desmultiplexión (DMUX) en un cierto tiempo o basándose en una solicitud externa o similares.
[0311] Además, la memoria intermedia 1414 de corriente guarda en memoria intermedia los datos de archivo leídos de varios tipos de medios de grabación,por ejemplo, la conectividad 1321 (Figura 41) o similares, y proporciona los datos de archivo a la unidad 1413 de desmultiplexión (DMUX) en un cierto tiempo o basándose en una solicitud externa o similares.
[0312] A continuación, una operación del procesador 1332 de video que tiene la configuración anterior se describirá.La señal de video ingresada al procesador 1332 de video, por ejemplo, de la conectividad 1321 (Figura 41)o similares se convierte en datos de imagen digital de acuerdo con un cierto esquema tal como un esquema de 4:2:2 Y/Cb/Cr en la unidad 1401 de procesamiento de entrada de video y de manera secuencial escrita en la memoria 1405 de tramas. Los datos de imagen digital se leen en la unidad 1402 de ampliación/reducción de primera imagen o la unidad 1403 de ampliación/reducción de segunda imagen, se someten a un proceso de conversión de formato para realizar una conversión de formato en un cierto esquema tal como un esquema de 4 : 2 : 0 Y/Cb/Cr y un proceso de ampliación/reducción, y se escribe en la memoria 1405 de tramas nuevamente. Los datos de imagen se codifican por el motor 1407 de codificación/descodificación, y se escriben en la memoria intermedia 1408A de ES de video como una corriente de video.
[0313] Además, una señal de audio ingresada en el procesador 1332 de video desde la conectividad 1321 (Figura 41) o similares se codifica por el codificador 1410 de audio, y se escriben en la memoria intermedia 1409A de ES de audio como corriente de audio.
[0314] La corriente de video de la memoria intermedia 1408A de ES de video y la corriente de audio de la memoria intermedia 1409A de ES de video se leen y se multiplexan por la unidad 1412 de multiplexión (MUX), y se convierten en una corriente de transporte, datos de archivo, o similares. La corriente de transporte generada por la unidad 1412 de multiplexión (MUX) se guarda en memoria intermedia en la memoria intermedia 1414 de corriente, y después se produce en una red externa a través de, por ejemplo, la conectividad 1321 o el modem 1333 de banda ancha (ambos de la Figura 41). Además, los datos de archivo generados por la unidad 1412 de multiplexión (MUX) se guardan en memoria intermedia en la memoria intermedia 1414 de corriente, después se producen, por ejemplo, en la conectividad 1321 (Figura 41) o similares, y se graban en varios tipos de medios de grabación.
[0315] Además, la corriente de transporte ingresada en el procesador 1332 de video desde una red externa a través de, por ejemplo, la conectividad 1321 o el modem 1333 de banda ancha (ambos de la Figura 41) se guardan en memoria intermedia en la memoria intermedia 1414 de corriente y después se desmultiplexan por la unidad 1413 de desmultiplexión (DMUX). Además, los datos de archivo que se leen de varios tipos de medios de grabación, por ejemplo, en la conectividad 1321 (Figura 41) o similares y después se ingresan en el procesador 1332 de video se guardan en memoria intermedia en la memoria intermedia 1414 de corriente y después se desmultiplexan por la unidad 1413 de desmultiplexión (DMUX).En otras palabras, la corriente de transporte o los datos de archivo ingresados al procesador 1332 de video se desmultiplexan en la corriente de video y la corriente de audio a través de la unidad 1413 de desmultiplexión (DMUX).
[0316] La corriente de audio se proporciona al descodificador 1411 de audio a través de la memoria intermedia 1409B de ES de audio y se descodifica, y de esta manera se reproduce una señal de audio. Además, la corriente de video se escribe en la memoria intermedia 1408B de ES de video, se lee de manera secuencial en y se descodifica por el motor 1407 de codificación/descodificación, y se escribe en la memoria 1405 de tramas. Los datos de imagen descodificados se someten al proceso de ampliación/reducción que se realiza por la unidad 1403 de ampliación/reducción de segunda imagen, y se escriben en la memoria 1405 de tramas. Después, los datos de imagen descodificados se leen en la unidad 1404 de procesamiento de salida de video, se someten al proceso de conversión de formato para realizar la conversión de formato a un cierto esquema tal como un esquema 4 :2 :2 Y/Cb/Cr, y se convierten en una señal análoga, y de esta manera se reproduce una señal de video.
[0317] Cuando se aplica la presente teenología al procesador 1332 de video que tiene la configuración anterior, es preferible que las modalidades anteriores de la presente teenología se apliquen al motor 1407 de codificación/descodificación.En otras palabras, por ejemplo, el motor 1407 de codificación/descodificación de preferencia tiene la función del dispositivo de codificación o dispositivo de descodificación de acuerdo con laprimeramodalidad.Por consiguiente,el procesador 1332 de video puede obtener los mismos efectos que los efectos descritos en lo anterior con referencia a las Figuras 1 a 12.
[0318] Además, en el motor 1407 de codificación/descodificación, la presente tecnología (es decir, las funciones de los dispositivos de codificación de imágenes o los dispositivos de codificación de imágenes de acuerdo con la modalidad anterior) pueden implementarse por cualquiera o ambos de hardware tal como un circuito lógico o software tal como un programa integrado.
[0319] Otra configuración ejemplar del procesador de video La Figura 43 ilustra otra configuración esquemática ejemplar del procesador 1332 de video (Figura 41) al cual se aplica la presente tecnología.En el caso del ejemplo de la Figura 43, el procesador 1332 de video tiene una función para codificar y descodificar datos de video de acuerdo con un cierto esquema.
[0320] Más específicamente, el procesador 1332 de video incluye una unidad 1511 de control, una interfaz 1512 de visualización, un motor 1513 de visualización, un motor 1514 de procesamiento de imágenes, y una memoria 1515 interna como se ilustra en la Figura 43. El procesador 1332 de video además incluye un motor 1516 de códec, una interfaz 1517 de memoria, una unidad 1518 de multiplexión/desmultiplexión (MUX DMUX), una interfaz 1519 de red, y una interfaz 1520 de video.
[0321] La unidad 1511de controlcontrola una operación de cada unidad de procesamiento en el procesador 1332 de video tal como la interfaz 1512 de visualización, el motor 1513 de visualización, el motor 1514 de procesamiento de imágenes, y el motor 1516 de códec.
[0322] La unidad 1511 de control incluye,por ejemplo,una CPU 1531 principal,una sub CPU 1532,y un controlador 1533 de sistema como se ilustra en la Figura 43. La CPU 1531 principal ejecuta, por ejemplo, un programa para controlar una operación de cada unidad de procesamiento en el procesador 1332 de video. La CPU 1531 principal genera una señal de control, por ejemplo, de acuerdo con el programa, y proporciona la señal de control a cada unidad de procesamiento (es decir, controla una operación de cada unidad de procesamiento). La sub CPU 1532 juega una función complementaria de la CPU 1531 principal. Por ejemplo, la sub CPU 1532 ejecuta un proceso hijo o una subrutina de un programa ejecutado por la CPU 1531 principal. El controlador 1533 de sistema controla las operaciones de la CPU 1531 principal y la sub CPU 1532, por ejemplo, designa un programa ejecutado por la CPU 1531 principal y la sub CPU 1532.
[0323] La interfaz 1512 de visualización produce datos de imagen, por ejemplo, en la conectividad 1321 (Figura 41) o similares bajo el control de la unidad 1511 de control. Por ejemplo, la interfaz 1512 de visualización convierte los datos de imagen de los datos digitales en una señal análoga, y produce la señal análoga, por ejemplo, en el dispositivo de monitor de la conectividad 1321 (Figura 41) como señal de video reproducida o produce los datos de imagen de los datos digitales,por ejemplo, el dispositivo de monitor de la conectividad 1321 (Figura 41).
[0324] El motor 1513 de visualización realiza varios tipos de procesos de conversión tal como un proceso de conversión de formato, un proceso de conversión de tamaño, y un proceso de conversión de gama de color en los datos de imagen bajo el control de la unidad 1511 de control para cumplir con, por ejemplo, una especificación de hardware del dispositivo de monitor que despliega la imagen.
[0325] El motor 1514 de procesamiento de imágenes realiza cierto procesamiento de imagen tal como un proceso de filtración para mejorar una calidad de imagen en los datos de imagen bajo control de la unidad 1511 de control.
[0326] La memoria 1515 interna es una memoria que se instala en el procesador 1332 de video y se comparte por el motor 1513 de visualización, el motor 1514 de procesamiento de imágenes, y el motor 1516 de códec. La memoria 1515 interna se utiliza para transferencia de datos realizada, por ejemplo, entre el motor 1513 de visualización, el motor 1514 de procesamiento de imágenes, y el motor 1516 de códec. Por ejemplo, la memoria 1515 interna almacena datos proporcionados desde el motor 1513 de visualización, el motor 1514 de procesamiento de imágenes, o el motor 1516 de códec, y proporciona los datos al motor 1513 de visualización, el motor 1514 de procesamiento de imágenes, o el motor 1516 de códec cuando sea necesario (por ejemplo, de acuerdo con una solicitud). La memoria 1515 interna puede implementarse por cualquier dispositivo de almacenamiento, pero puesto que la memoria 1515 interna se utiliza en su mayoría para almacenamiento de datos de pequeña capacidad tal como datos de imagen de unidades de bloque o parámetros, es deseable implementar la memoria 1515 interna que utiliza una memoria de semiconductor que es relativamente pequeña en capacidad (por ejemplo, en comparación con la memoria 1312 externa) y rápida en velocidad de respuesta tal como una memoria de acceso aleatorio estática (SRAM).
[0327] El motor 1516 de códec realiza el procesamiento relacionado con codificación y descodificación de datos de imagen. Un esquema de codificación/descodificación soportado por el motor 1516 de códec es arbitrario, y uno o más esquemas pueden soportarse por el motor 1516 de códec. Por ejemplo, el motor 1516 de códec puede tener una función de códec para soportar una pluralidad de esquemas de codificación/descodificación y realizar codificación de datos de imagen o descodificación de datos codificados utilizando un esquema seleccionado de entre los esquemas.
[0328] En el ejemplo ilustrado en la Figura 43, el motor 1516 de códec incluye, por ejemplo, un Video 1541 de MPEG-2, un AVC/H.264 1542, un HEVC/H.265 1543, un HEVC/H.265 1544 (Escalable), un HEVC/H.2651545 (Varias vistas), y un MPEG-DASH 1551 como bloques funcionales del procesamiento relacionado con un códec.
[0329] El Video 1541 de MPEG-2 es un bloque funcional para codificar o descodificar datos de imagen de acuerdo con un esquema de MPEG-2.ElAVC/H.2641542 esun bloque funcional para codificar o descodificar datos de imagen de acuerdo con un esquema de AVC. El HEVC/H.265 1543 es un bloque funcional para codificar o descodificar datos de imagen de acuerdo con un esquema de HEVC. El HEVC/H.265 1544 (Escalable) es un bloque funcional para realizar codificación escalable o descodificación escalable en datos de imagen de acuerdo con un esquema de HEVC. El HEVC/H.265 (Varias vistas) 1545 es un bloque funcional para realizar codificación de varias vistas o descodificación de varias vistas en datos de imagen de acuerdo con un esquema de HEVC.
[0330] El MPEG-DASH 1551 es un bloque funcional para transmitir y recibir datos de imagen de acuerdo con una Transmisión Continua Adaptable Dinámica de MPEG sobre HTTP (MPEG-DASH). El MPEG-DASH es una téenica para transmitir de manera continua un video utilizando Protocolo de Transferencia de Hiper Texto (HTTP), y tiene una característica de seleccionar la adecuada de entre una pluralidad de piezasde datos codificados que difieren en una resolución previamente preparada o similares en unidades de segmentos y transmite la seleccionada. El MPEG-DASH 1551 realiza generación de una corriente que cumple con un estándar, el control de transmisión de la corriente, y similares, y utiliza el video 1541 de MPEG-2 o el HEVC/H.2651545 (Varias vistas) para codificar y descodificar datos de imagen.
[0331] La interfaz 1517 de memoria es una interfaz para la memoria 1312 externa. Los datos proporcionados desde el motor 1514 de procesamiento de imágenes o el motor 1516 de códec se proporciona a la memoria 1312 externa a través de la interfaz 1517 de memoria. Además, datos leídos de la memoria 1312 externa se proporcionan al procesador 1332 de video (el motor 1514 de procesamiento de imágenes o el motor 1516 de códec) a través de la interfaz 1517 de memoria.
[0332] La unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) realiza multiplexión y desmultiplexión de varios tipos de datos relacionados con una imagen tal como una corriente de bits de datos codificados, datos de imagen, y una señal de video. El método de multiplexión/desmultiplexión es arbitrario. Por ejemplo, al momento de la multiplexión, la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) no sólo puede combinar una pluralidad de datos en una sino también puede agregar cierta información de encabezado o similares a los datos. Además, al momento de la desmultiplexión, la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) no sólo puede dividir datos en una pluralidad de datos sino también agregar cierta información de encabezado o similares a cada uno de los datos divididos. En otras palabras, la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) puede convertir un formato de datos a través de multiplexión y desmultiplexión. Por ejemplo, la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) puede multiplexar una corriente de bits gue se convierte en una corriente de transporte que sirve como corriente de bits de un formato de transferencia o datos (datos de archivo de un formato de archivo de grabación. Desde luego, la conversión inversa también puede realizarse a través de desmultiplexión.
[0333] La interfaz 1519 de red es una interfaz por ejemplo, para el módem 1333 de banda ancha o la conectividad 1321 (ambos de la Figura 41). La interfaz 1520 de video es una interfaz por ejemplo, para la conectividad 1321 o la cámara 1322 (ambas de la Figura 1).
[0334] A continuación, una operación ejemplar del procesador 1332 de video se describirá. Por ejemplo, cuando la corriente de transporte se recibe desde la red externa a través de por ejemplo, la conectividad 1321 o el módem 1333 de banda ancha (ambas de la Figura 41), la corriente de transporte se proporciona a la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) a través de la interfaz 1519 de red, se desmultiplexa y después se descodifica por el motor 1516 de códec. Los datos de imagen obtenidos por la descodificación del motor 1516 de códec se someten a cierto procesamiento de imagen realizado por ejemplo, por el motor 1514 de procesamiento de imágenes, se someten a cierta conversión realizada por el motor 1513 de visualización, y se proporcionan por ejemplo, a la conectividad 1321 (Figura 41) o similares, a través de la interfaz 1512 de visualización, y de esta manera la imagen se despliega en el monitor.Además, por ejemplo, los datos de imagen obtenidospor la descodificación delmotor 1516de códec se codifican por elmotor 1516de códec nuevamente, se multiplexan por la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) para convertirse en datos de archivo, producidos en por ejemplo, la conectividad 1321 (Figura 41) o similares a través de la interfaz 1520 de video, y después se graban en varios tipos de medios de grabación.
[0335] Además, por ejemplo, los datos de archivo de datos codificados obtenidos por la codificación de datos de imagen leídos de un medio de grabación (no ilustrado) a través de la conectividad 1321 (Figura 41) o similares se proporcionan a la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) a través de la interfaz 1520 de video, y se desmultiplexan, y se descodifican por el motor 1516 de códec. Los datos de imagen obtenidos por la descodificación del motor 1516 de códec se someten a cierto procesamiento de imagen realizado por el motor 1514 de procesamiento de imágenes, se someten a cierta conversión realizada por el motor 1513 de visualización, y se proporcionan por ejemplo, a la conectividad 1321 (Figura 41) o similares a través de la interfaz 1512 de visualización, y de esta manera la imagen se despliega en el monitor.Además, por ejemplo, los datos de imagen obtenidospor la descodificación delmotor 1516 de códec se codifican por el motor 1516de códec nuevamente, se multiplexan por la unidad 1518 de multiplexión/desmultiplexión (MUX DMUX) para convertirse en una corriente de transporte, proporcionada por ejemplo, a la conectividad 1321 o al módem 1333 de banda ancha (ambos de la Figura 41) a través de la interfaz 1519 de red, y se transmiten a otro dispositivo (no ilustrado).
[0336] Además, la transferencia de datos de imagen u otros datos entre las unidades de procesamiento en el procesador 1332 de video se realiza, por ejemplo, utilizando la memoria 1515 interna o la memoria 1312 externa. Además, el módulo 1313 de gestión de energía controla, por ejemplo, el suministro de energía a la unidad 1511 de control.
[0337] Cuando la presente teenología se aplica al procesador 1332 de video que tiene la configuración anterior, es deseable aplicar las modalidades anteriores de la presente tecnología al motor 1516de códec.En otraspalabras,por ejemplo,espreferible que el motor 1516 de códec tenga un bloque funcional para implementar el dispositivo de codificación y el dispositivo de descodificación de acuerdo con la primera modalidad.Además, por ejemplo, a medida que elmotor 1516de códec opera como se describe en lo anterior, el procesador 1332 de video puede tener los mismos efectos que los efectos descritos en lo anterior con referencia a las Figuras 1 a 12.
[0338] Además, en el motor 1516 de códec, la presente tecnología (es decir, las funciones de los dispositivos de codificación de imágenes o los dispositivos de descodificación de imágenes de acuerdo con la modalidad anterior) pueden implementarse por cualquiera o ambos de hardware tal como un circuito lógico o software tal como un programa integrado.
[0339] Las dos configuraciones ejemplares del procesador 1332 de video se han descrito en lo anterior, pero la configuración del procesador 1332 de video es arbitraria y puede tener cualquier configuración distinta a las dos configuraciones ejemplares anteriores. Además, el procesador 1332 de video puede configurarse con un chip de semiconductor sencillo o puede configurarse con una pluralidad de chips de semiconductor. Por ejemplo, el procesador 1332 de video puede configurarse con una LSI apilada de manera tridimensional en la cual una pluralidad de semiconductores se apila.Además, el procesador 1332 de video puede implementarse por una pluralidad de LSI.
[0340] Ejemplos de aplicación a dispositivos El aparato 1300 de video puede incorporarse en varios tipos de dispositivos que procesan datos de imagen. Por ejemplo, el aparato 1300 de video puede incorporarse en el dispositivo 900 de televisión (Figura 34), el teléfono 920 móvil (Figura 35), el dispositivo 940 de grabación/reproducción (Figura 36), el dispositivo 960 de formación de imágenes (Figura 37), o similares. A medida que el aparato 1300 de video se incorpora, los dispositivos pueden tener los mismos efectos que los efectos descritos en lo anterior con referencia a las Figuras 1 a 12.
[0341] Además, el aparato 1300 de video también puede incorporarse a un dispositivo de terminal tal como la computadora 1004 personal,el dispositivo 1005 de AV,el dispositivo 1006 tipo Tablet, o el teléfono 1007 móvil en el sistema 1000 de transmisión de datos de la Figura 38, la estación 1101 de difusión o el dispositivo 1102 de terminal en el sistema 1100 de transmisión de datos de la Figura 39, o el dispositivo 1201 de formación de imágenes o el dispositivo 1202 de almacenamiento de datos codificados escalables en el sistema 1200 de formación de imágenes de la Figura 40. A medida que el aparato 1300 de video se incorpora, los dispositivos pueden tener los mismos efectos que los efectos descritos en lo anterior con referencia a las Figuras 1 a 12.
[0342] Además, incluso cada componente del aparato 1300 de video puede implementarse como un componente al cual se aplica la presente teenología cuando el componente incluye el procesador 1332 de video.Por ejemplo, sólo el procesador 1332 de video puede implementarse como procesador de video al cual se aplica la presente tecnología. Además, por ejemplo, los procesadores indicados por la línea 1341 punteada como se describe en lo anterior, el módulo 1311 de video, o similares pueden implementarse por ejemplo, como procesador o módulo al cual se aplica la presente teenología. Además, por ejemplo, una combinación del módulo 1311 de video, la memoria 1312 externa, el módulo 1313 de gestión de energía, y el módulo 1314 de terminal de entrada pueden iplementarse como unidad 1361 de video a la cual se aplica la presente tecnología. Estas configuraciones pueden tener los mismos efectos que los efectos descritos en lo anterior con referencia a las Figuras 1 a 12.
[0343] En otras palabras, una configuración que incluye el procesador 1332 de video puede incorporarse en varios tipos de dispositivos que procesan datos de imagen, de manera similar al caso del aparato 1300 de video. Por ejemplo, el procesador 1332 de video, los procesadores indicados por la línea 1341 punteada, el módulo 1311 de video o la unidad 1361 de video pueden incorporarse en el dispositivo 900 de televisión (Figura 34), el teléfono 920 móvil (Figura 35), el dispositivo 940 de grabación/reproducción (Figura 36), el dispositivo 960 de formación de imágenes (Figura 37) , el dispositivo de terminal tal como la computadora 1004 personal, el dispositivo 1005 de AV, el dispositivo 1006 tipo Tablet, o el teléfono 1007 móvil en el sistema 1000 de transmisión de datos de la Figura 38, la estación 1101 de difusión o el dispositivo 1102 de terminal en el sistema 1100 de transmisión de datos de la Figura 39, el dispositivo 1201 de formación de imágenes o el dispositivo 1202 de almacenamiento de datos codificados escalables en el sistema 1200 de formación de imágenes de la Figura 40, o similares. Además, como la configuración a la cual se aplica la presente teenología, los dispositivos pueden tener los mismos efectos que los efectos descritos en lo anterior con referencia a las Figuras 1 a 12, de manera similar al aparato 1300 de video.
[0344] En la presente descripción, la descripción se ha hecho junto con el ejemplo en el cual varios tipos de información tal como la información de gama de color y la información de luminancia se multiplexan en datos codificados y se transmiten desde un lado de codificación hacia un lado de descodificación. Además, la técnica para transmitir la información no se limita a este ejemplo. Por ejemplo, la información puede transmitirse o grabarse como datos individuales asociados con datos codificados sin que se multiplexen en datos codificados. Aquí, un término "asociado" significa que una imagen (o una parte de una imagen tal como una sección o un bloque) incluida en una corriente de bits puede enlazarse con la información que corresponde a la imagen almomento de la descodificación.En otras palabras, la información puede transmitirse a través de una trayectoria de transmisión diferente de los datos codificados. Además, la información puede grabarse en un medio de grabación (o un área de grabación diferente del mismo medio de grabación) diferente de los datos codificados.Además, la información y los datos codificados pueden asociarse entre sí, por ejemplo, en unidades de una pluralidad de tramas, tramas, o unidades arbitrarias tal como partes de una trama.
[0345] En la presente descripción, un sistema representa un conjunto de una pluralidad de componentes (dispositivos,módulos (partes), y similares),y todos los componentes no necesariamente necesitan disponerse en un solo alojamiento. De esta manera, tanto una pluralidad de dispositivos que se disponen en alojamientos individuales y se conectan entre si mediante una red y un solo dispositivo que incluye una pluralidad de módulos dispuestos en un solo alojamiento se consideran como sistema.
[0346] Los efectos descritos en la presente descripción son sólo ejemplos, y otros efectos pueden obtenerse.
[0347] Además, una modalidad de la presente descripción no se limita a las modalidades anteriores, y varios cambios pueden hacerse dentro del alcance sin apartarse de la esencia de la presente descripción.
[0348] Por ejemplo, la presente descripción puede tener una configuración de informática en la nube en la cual una función se comparte y se procesa conjuntamente por una pluralidad de dispositivos mediante una red.
[0349] Las etapas descritas en lo anterior con referencia al diagrama de flujo pueden realizarse por un solo dispositivo o pueden compartirse y realizarse por una pluralidad de dispositivos.
[0350] Además, cuando una pluralidad de procesos se incluye en una sola etapa, la pluralidad de procesos incluidos en una sola etapa puede realizarse por un solo dispositivo o pueden compartirse y realizarse por una pluralidad de dispositivos.
[0351] La presente descripción puede tener las siguientes configuraciones también.
[0352] (1) Un dispositivo de descodificación, que incluye: una unidad de recepción que recibe una corriente codificada que incluye datos codificados de una imagen e información de gama de color que indica una gama de color de la imagen de un dispositivo de codificación que transmite la corriente codificada; una unidad de extracción que extrae los datos codificados y la información de gama de color de la corriente codificada recibida por la unidad de recepción; y unaunidad de descodificación que descodifica losdatos codificados extraídos por la unidad de extracción, y genera la imagen. (2) El dispositivo de descodificación de acuerdo con (1), que además incluye una unidad de ajuste que ajusta la gama de color de la imagen generada por la unidad de descodificación basándose en la información de gama de color extraída por la unidad de extracción. (3) El dispositivo de descodificación de acuerdo con (2), en donde la corriente codificada incluye información de luminancia que indica luminancia de una unidad de visualización que despliega la imagen al momento de crear la imagen, la unidad de extracción extrae la información de luminancia de la corriente codificada, y la unidad de ajuste ajusta un margen dinámico de luminancia de la imagen generada por la unidad de descodificación basándose en la información de luminancia extraída por la unidad de extracción. (4) El dispositivo de descodificación de acuerdo con (3), en donde la información de luminancia indica luminancia de blanco y negro de la unidad de visualización. (5) Un método de descodificación realizado por un dispositivo de descodificación, que incluye: una etapa de recepción para recibir una corriente codificada que incluye datos codificados de una imagen e información de gama de color que indica una gama de color de la imagen de un dispositivo de codificación que transmite la corriente codificada; una etapa de extracción para extraer los datos codificados y la información de gama de color de la corriente codificada recibida en la etapa de recepción; y una etapa de descodificación para descodificar los datos codificados extraídos en la etapa de extracción y generar la imagen. (6) Un dispositivo de codificación, que incluye: una unidad de codificación que codifica una imagen, y genera los datos codificados; una unidad de ajuste que establece la información de gama de color que indica una gama de color de la imagen; y una unidad de transmisión que transmite una corriente codificada que incluye los datos codificados generados por la unidad de codificación y la información de gama de color generada por la unidad de ajuste. (7) El dispositivo de codificación de acuerdo con (6), en donde la unidad de ajuste establece la información de luminancia que indica luminancia de una unidad de visualización que despliega la imagen al momento de crear la imagen, y la unidad de transmisión transmite una corriente codificada que incluye los datos codificados, la información de gama de color y la información de luminancia.
El dispositivo de codificación de acuerdo con (7), en donde la información de luminancia indica la luminancia de blanco y negro de la unidad de visualización. (9) Un método de codificación realizado por un dispositivo de codificación, que incluye: una etapa de codificación para codificar una imagen y generar datos codificados; una etapa de ajuste para establecer la información de gama de color que indica una gama de color de la imagen; y una etapa de transmisión para transmitir una corriente codificada que incluye los datos codificados generados en la etapa de codificación y la información de gama de color generada en la etapa de acceso. (10) Un dispositivo de descodificación, que incluye: una unidad de recepción que recibe una corriente codificada que incluye datos codificados de una imagen, información de identificación que identifica una cierta gama de color, y una relación de cobertura de una gama de color de la imagen con la cierta gama de color de un dispositivo de codificación que transmite la corriente codificada; una unidad de extracción que extrae los datos codificados, la información de identificación y la he relación de cobertura de la corriente codificada recibida por la unidad de recepción; y una unidad de descodificación que descodifica losdatos codificados extraídos por la unidad de extracción, y genera la imagen. (11) El dispositivo de descodificación de acuerdo con (10), que además incluye una unidad de ajuste que ajusta la gama de color de la imagen generada por la unidad de descodificación basándose en la información de identificación y la relación de cobertura extraída por la unidad de extracción. (12) El dispositivo de descodificación de acuerdo con (11), en donde la corriente codificada incluye información de luminancia que indica luminancia de una unidad de visualización que despliega la imagen al momento de crear la imagen, la unidad de extracción extrae la información de luminancia de la corriente codificada, y la unidad de ajuste ajusta un margen dinámico de luminancia de la imagen generada por la unidad de descodificación basándose en la información de luminancia extraída por la unidad de extracción. (13) El dispositivo de descodificación de acuerdo con (12), en donde la información de luminancia indica luminancia de blanco y negro de la unidad de visualización. (14) Un método de descodificación realizado por un dispositivo de descodificación, que incluye: una etapa de recepción para recibir una corriente codificada que incluye datos codificados de una imagen, información de identificación que identifica una cierta gama de color, y una relación de cobertura de una gama de color de la imagen con la cierta gama de color de un dispositivo de codificación que transmite la corriente codificada; una etapa de extracción para extraer los datos codificados, la información de identificación y la relación de cobertura de la corriente codificada recibida en la etapa de recepción; y una etapa de descodificación para descodificar los datos codificados extraídos en la etapa de extracción y generar la imagen. (15) Un dispositivo de codificación, que incluye: una unidad de codificación que codifica una imagen, y genera datos codificados; una unidad de ajuste que establece la información de identificación que identifica una cierta gama de color y una relación de cobertura de una gama de color de la imagen con la cierta gama de color; y una unidad de transmisión que transmite una corriente codificada que incluye los datos codificados generados por la unidad de codificación y la información de identificación y la relación de cobertura generada por la unidad de ajuste. (16) El dispositivo de codificación de acuerdo con (15), en donde la unidad de ajuste establece la información de luminancia que indica luminancia de una unidad de visualización que despliega la imagen al momento de crear la imagen, y la unidad de transmisión transmite una corriente codificada que incluye los datos codificados, la información de gama de color y la información de luminancia. (17) El dispositivo de codificación de acuerdo con (16), en donde la información de luminancia indica luminancia de blanco y negro de la unidad de visualización. (18) Un método de codificación realizado por el dispositivo de codificación, que incluye: una etapa de codificación para codificar una imagen y generar datos codificados; una etapa de ajuste para establecer la información de identificación que identifica una cierta gama de color y una relación de cobertura de una gama de color de la imagen con la cierta gama de color; y una etapa de transmisión para transmitir una corriente codificada que incluye los datos codificados generados en la etapa de codificación y la información de identificación y la relación de cobertura generada en la etapa de acceso.
[0353] LISTA DE SIGNOS DE REFERENCIA 10 Dispositivo de codificación 11 Unidad de ajuste 12 Unidad de codificación 13 Unidad de transmisión 50 Dispositivo de descodificación 51 Unidad de recepción 52 Unidad de extracción 53 Unidad de descodificación 54 Unidad de ajuste 70 Dispositivo de codificación 72 Unidad de ajuste 90 Dispositivo de descodificación 91 Unidad de extracción 92 Unidad de ajuste

Claims (15)

REIVINDICACIONES
1. Un dispositivo de descodificación, caracterizado porque comprende: una unidad de recepción que recibe una corriente codificada que incluye datos codificados de una imagen e información de luminancia que indica luminancia de un cierto color de una unidad de visualización que despliega la imagen al momento de crear la imagen a partir de un dispositivo de codificación que transmite la corriente codificada; una unidad de extracción que extrae los datos codificados y la información de luminancia de la corriente codificada recibida por la unidad de recepción; y unaunidad de descodificación quedescodifica losdatos codificados extraídos por la unidad de extracción, y genera la imagen.
2.El dispositivo de descodificación de conformidad con la reivindicación 1, caracterizado además porque comprende una unidad de ajuste que ajusta un margen dinámico de la imagen generada por la unidad de descodificación basándose en la información de luminancia extraída por la unidad de extracción.
3.El dispositivo de descodificación de conformidad con la reivindicación 2, caracterizado porque la información de luminancia indica luminancia de al menos un color de blanco y negro de la unidad de visualización.
4. El dispositivo de descodificación de conformidad con la reivindicación 3, caracterizado porque la información de luminancia indica luminancia de blanco y negro de la unidad de visualización.
5. Un método de descodificación realizado por un dispositivo de descodificación, caracterizado porque comprende: una etapa de recepción para recibir una corriente codificada que incluye datos codificados de una imagen e información de luminancia que indica luminancia de un cierto color de una unidad de visualización que despliega la imagen al momento de crear la imagen a partir de un dispositivo de codificación que transmite la corriente codificada; una etapa de extracción para extraer los datos codificados y la información de luminancia de la corriente codificada recibida en la etapa de recepción; y una etapa de descodificación para descodificar los datos codificados extraídos en la etapa de extracción y generar la imagen.
6. El método de descodificación de conformidad con la reivindicación 5, caracterizado además porque comprende una etapa de ajuste para ajustar un margen dinámico de la imagen generada en la etapa de descodificación basándose en la información de luminancia extraída en la etapa de extracción.
7. El método de descodificación de conformidad con la reivindicación 6, caracterizado porque la información de luminancia indica luminancia de al menos un color de blanco y negro de la unidad de visualización.
8. El método de descodificación de conformidad con la reivindicación 7, caracterizado porque la información de luminancia indica luminancia de blanco y negro de la unidad de visualización.
9. Un dispositivo de codificación, caracterizado porque comprende: una unidad de codificación que codifica una imagen, y genera datos codificados; una unidad de ajuste que establece la información de luminancia que indica luminancia de un cierto color de una unidad de visualización que despliega la imagen al momento de crear la imagen; y una unidad de transmisión que transmite una corriente codificada que incluye los datos codificados generados por la unidad de codificación y la información de luminancia generada por la unidad de ajuste.
10. El dispositivo de codificación de conformidad con la reivindicación 9, caracterizado porque la información de luminancia indica luminancia de al menos un color de blanco y negro de la unidad de visualización.
11. El dispositivo de codificación de conformidad con la reivindicación 10, caracterizado porque la información de luminancia indica luminancia de blanco y negro de la unidad de visualización.
12. Un medio de grabación que tiene grabado en el mismo una corriente codificada que incluye datos codificados de una imagen e información de luminancia que indica luminancia de un cierto color de una unidad de visualización que despliega la imagen al momento de crear la imagen, el medio de grabación caracterizado porque configure un sistema de descodificación de imagen junto con un dispositivo de descodificación, en donde la imagen se genera al extraer los datos codificados y la información de luminancia de la corriente codificada y al descodificar los datos codificados extraídos en el dispositivo de descodificación.
13. El medio de grabación de conformidad con la reivindicación 12, caracterizado porque un margen dinámico de la imagen se ajusta en el dispositivo de descodificación basándose en la información de luminancia.
14. El medio de grabación de conformidad con la reivindicación 13, caracterizado porque la información de luminancia indica luminancia de al menos un color de blanco y negro de la unidad de visualización.
15. El medio de grabación de conformidad con la reivindicación 14, caracterizado porque la información de luminancia indica luminancia de blanco y negro de la unidad de visualización. RESUMEN DE LA INVENCIÓN La presente descripción se refiere a un dispositivo de descodificación, un método de descodificación, un dispositivo de codificación y un método de codificación, los cuales son capaces de permitir que un lado de descodificación reconozca con precisión una gama de color de una imagen objetivo de codificación. Una unidad de recepción recibe una corriente codificada que incluye datos codificados de una imagen y la información de gama de color que indica una gama de color de la imagen de un dispositivo de codificación que transmite la corriente codificada. Una unidad de extracción extrae los datos codificados y la información de gama de color de la corriente codificada. Una unidad de descodificación descodifica los datos codificados, y genera la imagen. La presente descripción puede aplicarse a, por ejemplo, un dispositivo de descodificación de un esquema de codificación de video de alta eficiencia (HEVC).
MX2015002589A 2013-09-03 2014-08-25 Dispositivo de descodificacion y metodo de descodificacion, dispositivo de codificacion y metodo de codificacion. MX343609B (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013182578 2013-09-03
JP2013272944 2013-12-27
PCT/JP2014/072104 WO2015033809A1 (ja) 2013-09-03 2014-08-25 復号装置および復号方法、並びに符号化装置および符号化方法

Publications (2)

Publication Number Publication Date
MX2015002589A true MX2015002589A (es) 2015-07-09
MX343609B MX343609B (es) 2016-11-14

Family

ID=52628287

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2015002589A MX343609B (es) 2013-09-03 2014-08-25 Dispositivo de descodificacion y metodo de descodificacion, dispositivo de codificacion y metodo de codificacion.

Country Status (10)

Country Link
EP (2) EP2966869B1 (es)
JP (2) JP6651848B2 (es)
KR (1) KR20160052459A (es)
CN (2) CN110012297B (es)
BR (1) BR112015006711B1 (es)
IN (1) IN2015DN01681A (es)
MX (1) MX343609B (es)
MY (1) MY184223A (es)
TW (2) TWI646828B (es)
WO (1) WO2015033809A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6289900B2 (ja) * 2013-12-27 2018-03-07 株式会社東芝 放送信号送信装置
US20160309154A1 (en) * 2015-04-17 2016-10-20 Qualcomm Incorporated Dynamic range adjustment for high dynamic range and wide color gamut video coding
US10244249B2 (en) 2015-09-21 2019-03-26 Qualcomm Incorporated Fixed point implementation of range adjustment of components in video coding
MX2018006642A (es) * 2015-12-14 2018-08-01 Panasonic Ip Corp America Metodo de codificacion de datos tridimencionales, metodos de decodificacion de datos tridimensionales, dispositivo de codificacion de datos tridimensionales y dispositivo de decodificacion de datos tridimensionales.
CN112702529B (zh) * 2020-12-29 2022-07-08 杭州海康机器人技术有限公司 云台相机配置方法、装置及可读存储介质和电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6775417B2 (en) * 1997-10-02 2004-08-10 S3 Graphics Co., Ltd. Fixed-rate block-based image compression with inferred pixel values
US8218625B2 (en) * 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
KR20070116980A (ko) * 2005-04-04 2007-12-11 코닌클리케 필립스 일렉트로닉스 엔.브이. 감소된 프린징을 위한 컬러 변환 유닛
KR101237608B1 (ko) * 2005-08-26 2013-02-26 파나소닉 주식회사 다중화 방법 및 기록 매체
CN100596200C (zh) * 2007-04-27 2010-03-24 华为技术有限公司 图像压缩方法及图像编码器
US20110128438A1 (en) * 2008-08-29 2011-06-02 Haruo Yamashita Color signal converting apparatus, video displaying apparatus, color signal converting method, video displaying method and image data
JP4697557B2 (ja) * 2009-01-07 2011-06-08 ソニー株式会社 符号化装置、符号化方法、記録媒体及び画像処理装置
BRPI1009443B1 (pt) * 2009-03-13 2021-08-24 Dolby Laboratories Licensing Corporation Método de geração de parâmetros de mapeamento de tons inverso, método de compactação de dados de vídeo e método para geração de um fluxo de bits de saída a partir de um fluxo de bits de entrada
TWI513327B (zh) * 2011-04-15 2015-12-11 Dolby Lab Licensing Corp 高動態範圍影像的編碼、解碼及表示
TWI556629B (zh) * 2012-01-03 2016-11-01 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數

Also Published As

Publication number Publication date
EP2966869A4 (en) 2017-01-11
EP3783900A1 (en) 2021-02-24
TWI713355B (zh) 2020-12-11
BR112015006711B1 (pt) 2023-03-14
TW201524200A (zh) 2015-06-16
JPWO2015033809A1 (ja) 2017-03-02
JP6651848B2 (ja) 2020-02-19
EP2966869B1 (en) 2020-11-18
EP2966869A1 (en) 2016-01-13
CN110012297B (zh) 2022-03-01
CN104662911B (zh) 2019-05-10
KR20160052459A (ko) 2016-05-12
JP6881555B2 (ja) 2021-06-02
WO2015033809A1 (ja) 2015-03-12
JP2020036368A (ja) 2020-03-05
MX343609B (es) 2016-11-14
IN2015DN01681A (es) 2015-07-03
TW201921940A (zh) 2019-06-01
BR112015006711A2 (pt) 2017-07-04
CN110012297A (zh) 2019-07-12
MY184223A (en) 2021-03-27
TWI646828B (zh) 2019-01-01
CN104662911A (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
US10595034B2 (en) Decoding device and decoding method, and coding device and coding method
US10798398B2 (en) Decoding device and decoding method, encoding device, and encoding method
JP6881555B2 (ja) 復号装置および復号方法
JP6287035B2 (ja) 復号装置および復号方法
WO2015053115A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
WO2015053116A1 (ja) 復号装置および復号方法、並びに、符号化装置および符号化方法
JP6477930B2 (ja) 符号化装置および符号化方法

Legal Events

Date Code Title Description
FG Grant or registration