MX2015006472A - Dispositivo de decodificacion y metodo de decodificacion, y dispositivo de codificacion y metodo de codificacion. - Google Patents

Dispositivo de decodificacion y metodo de decodificacion, y dispositivo de codificacion y metodo de codificacion.

Info

Publication number
MX2015006472A
MX2015006472A MX2015006472A MX2015006472A MX2015006472A MX 2015006472 A MX2015006472 A MX 2015006472A MX 2015006472 A MX2015006472 A MX 2015006472A MX 2015006472 A MX2015006472 A MX 2015006472A MX 2015006472 A MX2015006472 A MX 2015006472A
Authority
MX
Mexico
Prior art keywords
image
conversion
luminance
inflection
information
Prior art date
Application number
MX2015006472A
Other languages
English (en)
Other versions
MX351317B (es
Inventor
Shinobu Hattori
Toshiya Hamada
Hiroaki Eto
Takumi TSURU
Kenichi Kanai
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of MX2015006472A publication Critical patent/MX2015006472A/es
Publication of MX351317B publication Critical patent/MX351317B/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Picture Signal Circuits (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Se provee un dispositivo de decodificación que incluye circuitería configurada para recibir datos codificados e información de conversión, los datos codificados que pertenecen a una imagen que tiene luminancia en un primer intervalo dinámico y la información de conversión que pertenece a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodifica los datos codificaos de manera que genera la imagen, en donde la conversión usa una función de inflexión.

Description

DISPOSITIVO DE DECODIFICACIÓN Y MÉTODO DE DECODIFICACIÓN, Y DISPOSITIVO DE CODIFICACIÓN Y MÉTODO DE CODIFICACIÓN REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS Esta solicitud reivindica el beneficio de la solicitud de prioridad de patente japonesa JP 2013-215060 presentada el 15 de octubre de 2013, solicitud de prioridad de patente japonesa JP 2013-272945 presentada el 27 de diciembre de 2013 y la solicitud de prioridad de patente japonesa JP 2014-042174 presentada el 4 de marzo 2014, todo el contenido de cada una de las cuales se incorpora aquí por referencia.
CAMPO TÉCNICO La presente descripción se refiere a un dispositivo de decodificación y un método de decodificación, y a un dispositivo de codificación y un método de codificación, y particularmente a un dispositivo de decodificación y a un método de decodificación, y a un dispositivo de codificación y un método de codificación capaz de convertir una imagen decodificada en una imagen deseada con un intervalo dinámico diferente.
TÉCNICA ANTERIOR En los últimos años, los aparatos que se ajustan a un método como el Grupo de Expertos de Imágenes en Movimiento (MPEG, por sus siglas en inglés) han sido ampliamente difundidos ampliamente tanto para el suministro de información en las estaciones de radiodifusión como para la recepción del producto y la información en los hogares comunes. El MPEG comprime la información de imágenes a través de transformación ortogonal tal como transformación de coseno discreta y compensación de movimiento mediante el uso de la redundancia única a la información de imágenes.
En particular, un método MPEG2 (ISO/IEC 13818-2) se define como un método de codificación de imagen de uso general, y en la actualidad se utiliza ampliamente en aplicaciones extensas para uso profesional y uso del consumidor como una estándar que abarca tanto una imagen de barrido entrelazada y una imagen de barrido progresiva de imagen de resolución estándar y una imagen de alta definición. Por el uso del método MPEG2, es posible realizar una relación de compresión alta y buena calidad de imagen, por ejemplo, mediante la asignación de una velocidad de bits de 4 Mbps a 8 Mbps a una imagen de barrido entrelazada de una resolución estándar que tiene 720x480 pixeles y la asignación de una velocidad de bits de 18 Mbps a 22 Mbps a una imagen de barrido entrelazada de una alta resolución que tiene 1920x1088 pixeles.
MPEG2 se ha dirigido principalmente a codificación de imágenes de alta calidad adecuada para la radiodifusión, pero no ha manejado un método de codificación a una tasa de bits más baja que en MPEG1, es decir, a una mayor relación de compresión. Con el amplio uso de las terminales portátiles, se ha considerado incrementar el deseo de un método de este tipo de codificación, y por lo tanto un método de codificación de MPEG4 se ha estandarizado de manera que corresponda al mismo. En relación con un método de codificación de imágenes de MPEG4, una norma del mismo fue aprobada como una norma internacional titulada ISO/IEC 14496-2 en diciembre de 1998.
Además, en los últimos años, la estandarización de una norma llamada H.26L (UIT-T Q6/16 VCEG) ha progresado para el propósito original de la codificación de imágenes para uso de conferencia de video. H.26L utiliza una cantidad de cálculo más grande debido a la codificación y decodificación que en el método de codificación de la téenica relacionada tal como MPEG2 o MPEG4, pero es conocido por lograr una mayor eficiencia de codificación.
Además, como parte de las actividades de MPEG4, el Modelo Mixto de Codificación de Video de Compresión Mejorada está siendo estandarizado a fin de lograr una mayor eficiencia de codificación porque también incorpora functiones que no son compatibles con H.26L, sobre la base de H.26L. En cuanto a la programación de la estandarización de los mismos, el método de codificación se ha convertido en una norma internacional bajo el nombre de H.26L y MPEG-4 Parte 10 ((Codificación de video Avanzada (AVC, por sus siglas en inglés)), en marzo de 2003.
Además, como una extensión del método AVC, Extensión del Intervalo de Fidelidad (FRExt) que incluye herramientas de codificación para su uso en los negocios como RGB o YUS422 y YUV444 y también incluye DCT 8x8 o matriz de cuantificación definida en MPEG2 se estandarizó en febrero de 2005. Este logra un método de codificación en el que incluso el ruido de película que se incluye en una película puede ser expresado favorablemente mediante el método de AVC, y por lo tanto conduce a utilizar diversas aplicaciones tales como un disco Blu-Ray (marca registrada) (BD).
Sin embargo, recientemente, ha habido demandas crecientes para una mayor relación de compresión de codificación, tales como una demanda para la compresión de una imagen con cerca de 4000x2000 píxeles, que es cuatro veces el tamaño de una imagen de alta visión o una demanda para el suministro de una imagen de alta visión en circunstancias limitadas de capacidad de transmisión tal como Internet. P Poorr eessttaa rraazzóónn,, el estudio de mejora de la eficiencia de codificación se está realizando actualmente en el Grupo de Expertos de Codificación de Video (VCEG) afiliado al ITU-T anterior.
Además, en la actualidad, con el propósito de mejora en la eficiencia de codificación mayor que la de AVC, la normalización de un método de codificación llamado Codificación de Video de Alta Eficiencia (HEVC) está en progreso por Codificación de Video por el Equipo de Colaboración Conjunta (JCTVC) que es una organización de estandarización conjunta de UIT-T e ISO/IEC. NPL 1 ha sido publicada en la actualidad como un proyecto en agosto de 2013.
Mientras tanto, recientemente, con el progreso de las téenicas, un alto intervalo dinámico (HDR) de pantalla con la luminancia máxima de 500 nit o 1000 nit se ha comenzado a venderse en el mercado.
En un caso en el que se mezclan una pantalla estándar de intervalo dinámico (SDR) y una pantalla de HDR, es necesario codificar cada uno de una imagen de SDR y una imagen de HDR en el método AVC o el método HEVC, y por lo tanto aumenta una cantidad de datos. Por lo tanto, un método en el que se considera una de la imagen de SDR y se codifica la imagen de HDR, y luego un intervalo dinámico se convierte después de la decodificación se lleva a cabo según sea necesario, generando de ese modo el otro.
LISTA DE CITAS Literatura que no es patente NPL 1. Benjamín Bross, Gary J. Sullivan, Ye-Kui Wang, "Editors' proposed corrections to HEVC versión 1", JCTVC-MO432_v3, 2013. 4. 18-4. 26 SUMARIO Problema Téenico Sin embargo, la conversión en una imagen que se pretende por un productor no se considera cuando se convierte la conversión de un intervalo dinámico.
Es deseable convertir una imagen decodificada en una imagen deseada con un intervalo dinámico diferente.
Solución al Problema De acuerdo con una modalidad de la presente descripción, se proporciona un dispositivo de decodificación, incluyendo: circuitería configurada para recibir datos codificados e información de conversión, los datos codificados correspondientes a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados recibidos a fin de generar la imagen, en el que la conversión utiliza una función de inflexión.
Un método de decodificación para causar un dispositivo de decodificación para llevar a cabo: recibir datos codificados e información de conversión, los datos codificados correspondientes a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados recibidos a fin de generar la imagen, en el que la conversión utiliza una función de inflexión.
Un dispositivo de codificación, incluyendo: circuiteria configurada para ajustar información de conversión correspondiente a un intervalo de conversión de dinámica de una luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico; y el código de la imagen que tiene de luminancia en el primer intervalo dinámico a fin de generar datos codificados, en el que la conversión utiliza una función de inflexión.
Un medio legible en la computadora no transitoria que tiene almacenado en el mismo datos codificados e información de conversión, los datos codificados relativos a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico, en el que un dispositivo de decodificación decodifica los datos codificados, genera la imagen basada en los datos decodificados, y convierte el intervalo dinámico basado en la información de conversión que incluye un punto de inflexión.
De acuerdo con una modalidad de la presente descripción, se proporciona un dispositivo de decodificación que incluye una unidad de extracción que extrae datos codificados e información de conversión a partir de una emisión codificada incluyendo los datos codificados de una primera imagen que es una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión con respecto a la conversión de un intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y una unidad de decodificación que decodifica los datos codificados extraídos por la unidad de extracción a fin de generar la primera imagen.
Un método de decodificación de acuerdo con una modalidad de la presente descripción corresponde al dispositivo de decodificación de acuerdo con la modalidad de la presente descripción.
De acuerdo con una modalidad de la presente descripción, los datos codificados e información de conversión se extraen de una emisión codificada que incluye los datos codificados de una primera imagen que es una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión que es información con respecto a la conversión de un intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico, y los datos codificados extraídos se decodifican de manera que se genera la primera imagen.
De acuerdo con otra modalidad de la presente descripción, se proporciona un dispositivo de codificación que incluye una unidad de ajuste que ajusta la información de conversión que es información con respecto a la conversión de un intervalo dinámico de luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico; una unidad de codificación que los códigos de una primera imagen que es la imagen que tiene de luminancia en el primer intervalo dinámico a fin de generar datos codificados; y una unidad de transmisión que transmite una emisión codificada incluyendo la información de conversión establecida por la unidad de ajuste y los datos codificados de la primera imagen generada por la unidad de codificación.
Un método de codificación de otra modalidad de la presente descripción corresponde al dispositivo de codificación de acuerdo con otra modalidad de la presente descripción.
De acuerdo con una modalidad de la presente descripción, la información de conversión se ajusta que es información con respecto a conversión de un intervalo dinámico de luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico, una primera imagen que es la imagen que tiene de luminancia en el primer intervalo dinámico se codifica de modo que se generan datos codificados, y se transmite una emisión codificada que incluye la información de conversión y los datos codificados de la primera imagen.
Además, el dispositivo de decodificación y el dispositivo de codificación de acuerdo con las modalidades pueden ser implementadas mediante la ejecución de un programa en una computadora.
Además, el programa ejecutado en la computadora con el fin de implementar el dispositivo de decodificación y el dispositivo de codificación de acuerdo con una modalidad puede ser proporcionado por la transmisión del programa a través de un medio de transmisión o por la grabación del programa en un medio de grabación.
El dispositivo de decodificación y el dispositivo de codificación de acuerdo con las modalidades pueden ser dispositivos independientes, y pueden ser un bloque interno formando un solo aparato.
Efectos ventajosos de la invención De acuerdo con una modalidad de la presente descripción, es posible decodificar los datos codificados de una imagen. Además, de acuerdo con la modalidad de la presente descripción, es posible convertir una imagen decodificada en una imagen deseada con un intervalo dinámico diferente.
De acuerdo con otra modalidad de la presente descripción, es posible codificar una imagen. Además, de acuerdo con otra modalidad de la presente descripción, es posible codificar una imagen de modo que una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente durante la decodificación.
Además, los efectos descritos en la presente descripción no son necesariamente limitados, y pueden ser uno cualquiera de los efectos descritos en la presente descripción.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es un diagrama que ilustra una imagen de SDR.
La Figura 2 es un diagrama que ilustra una imagen de HDR.
La Figura 3 es un diagrama que ilustra una revisión general de la codificación en una modalidad de la presente descripción.
La Figura 4 es un diagrama que ilustra una revisión general de decodificación en una modalidad de la presente descripción.
La Figura 5 es un diagrama que ilustra la descompresión de inflexión.
La Figura 6 es un diagrama de bloques que ilustra un ejemplo de configuración de una modalidad de un dispositivo de codificación al cual se aplica la presente descripción.
La Figura 7 es un diagrama que ilustra un ejemplo de la sintaxis de SEI de knee_function_info.
La Figura 8 es un diagrama que ilustra cada pieza de información establecida en la SEI de knee_function_info de la Figura 7.
La Figura 9 es un diagrama que ilustra un ejemplo de información de conversión establecido en la SEI de knee_function_info.
La Figura 10 es un diagrama que ilustra un ejemplo de información de conversión establecido en la SEI de knee function info.
La Figura 11 es un diagrama de flujo que ilustra un proceso de generación de emisión realizado por el dispositivo de codificación.
La Figura 12 es un diagrama de bloques que ilustra un ejemplo de configuración de una modalidad de un dispositivo de decodificación al que se aplica la presente descripción.
La Figura 13 es un diagrama de flujo que ilustra un proceso de generación de imágenes realizado por el dispositivo de decodificación de la Figura 12.
La Figura 14 es un diagrama que ilustra otro ejemplo de sintaxis de la SEI de knee_function_info.
La Figura 15 es un diagrama que ilustra cada pieza de información que se ilustra en la SEI de knee_function_info de la Figura 14.
La Figura 16 es un diagrama de bloques que ilustra un ejemplo de configuración de una primera modalidad de un dispositivo de codificación a1 que se aplica una modalidad de la presente descripción.
La Figura 17 es un diagrama que ilustra un primer ejemplo de la sintaxis de la SEI de knee_function_info establecido por una unidad de ajuste de la Figura 16.
La Figura 18 es un diagrama que ilustra cada pieza de información que se ajusta en la SEI de knee function info de la Figura 17.
La Figura 19 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 17.
La Figura 20 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 17.
La Figura 21 es un diagrama de flujo que ilustra un proceso de generación de emisión realizado por el dispositivo de codificación de la Figura 16.
La Figura 22 es un diagrama de bloques que ilustra un ejemplo de configuración de una segunda modalidad de un dispositivo de decodificación al que se aplica la presente descripción.
La Figura 23 es un diagrama de flujo que ilustra un proceso de generación de imagen realizado por el dispositivo de decodificación de la Figura 22.
La Figura 24 es un diagrama que ilustra otro ejemplo de información de conversión DR de la Figura 17.
La Figura 25 es un diagrama que ilustra todavía otro ejemplo de información de conversión DR de la Figura 17.
La Figura 26 es un diagrama que ilustra un ejemplo de la sintaxis de tone_mapping__info_SEI incluyendo la información de conversión de DR de la Figura 17.
La Figura 27 es un diagrama que ilustra otro ejemplo de la sintaxis de tone_mapping_info_SEI incluyendo la información de conversión de DR de la Figura 17.
La Figura 28 es un diagrama que ilustra un segundo ejemplo de la sintaxis de la SEI de knee_function_info establecido por la unidad de ajuste de la Figura 16.
La Figura 29 es un diagrama que ilustra cada pieza de información que se ilustra en la SEI de knee function info de la Figura 28.
La Figura 30 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 28.
La Figura 31 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 28.
La Figura 32 es un diagrama que ilustra un ejemplo de la sintaxis de tone__mapping_info_SEI incluyendo la información de conversión de DR de la Figura 28.
La Figura 33 es un diagrama que ilustra cada pieza de información que se ajusta en la SEI de knee_function_info de la Figura 28 en un caso donde el número de puntos de inflexión está restringido.
La Figura 34 es un diagrama que ilustra un ejemplo de la SEI de knee_function_info de la Figura 28 en un caso donde el número de puntos de inflexión está restringido.
La Figura 35 es un diagrama que ilustra un ejemplo de la tone_mapping_info_SEI de la Figura 32 en un caso donde el número de puntos de inflexión está restringido.
La Figura 36 es un diagrama que ilustra un tercer ejemplo de la sintaxis de la SEI de knee_function_info establecido por la unidad de ajuste de la Figura 16.
La Figura 37 es un diagrama que ilustra cada pieza de información que se ajusta en la SEI de knee_function_info de la Figura 36.
La Figura 38 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 36.
La Figura 39 es un diagrama que ilustra un ejemplo de la sintaxis de tone__mapping_info_SEI incluyendo la información de conversión DR de la Figura 36.
La Figura 40 es un diagrama que ilustra un cuarto ejemplo de la sintaxis de SEI de knee_function_info establecido por la unidad de ajuste de la Figura 16.
La Figura 41 es un diagrama que ilustra cada pieza de información que se ajusta en la SEI de knee_function_info de la Figura 40.
La Figura 42 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 40.
La Figura 43 es un diagrama que ilustra un ejemplo de información de conversión DR de la Figura 40.
La Figura 44 es un diagrama que ilustra una operación del dispositivo de decodificación en un caso en el que la SEI de knee_function_info de la Figura 40 se ajusta en una pluralidad.
La Figura 45 es un diagrama que ilustra un ejemplo de la sintaxis de tone_mapping_info_SEI incluyendo la información de conversión de DR de la Figura 40.
La Figura 46 es un diagrama que ilustra una caja de MP4 en la que se dispone la información de conversión de DR.
La Figura 47 es un diagrama que ilustra un ejemplo de la sintaxis de ToneMapInfo.
La E'igura 48 es un diagrama que ilustra que la semántica en una primera configuración de una tercera modalidad de un dispositivo de codificación al que se aplica la presente descripción es diferente de la de la segunda modalidad.
La Figura 49 es un diagrama de bloques que ilustra un primer ejemplo de configuración de una modalidad de un sistema de decodificación a la que se aplica la presente descripción.
La Figura 50D es un diagrama que ilustra un ejemplo de un punto de inflexión y una función de conversión de inflexión definido por SEI de knee_function_info que es recibida por el sistema de decodificación de la Figura 49.
La Figura 50B es un diagrama que ilustra un ejemplo de un punto de inflexión y una función de conversión de inflexión definido por la SEI de knee_function_info que es recibida por el sistema de decodificación de la Figura 49.
La Figura 51 es un diagrama que ilustra un ejemplo de una función de conversión aproximada de inflexión de la Figura 50.
La Figura 52 es un diagrama que ilustra un ejemplo de una función de conversión aproximada de inflexión de la Figura 50.
La Figura 53 es un diagrama de flujo que ilustra un proceso de decodificación realizado por el dispositivo de decodificación de la Figura 49.
La Figura 54 es un diagrama de flujo que ilustra un proceso de pantalla realizado por un dispositivo de pantalla de la Figura 49.
La Figura 55 es un diagrama que ilustra un ejemplo de la sintaxis de SEI de knee_function__info en una segunda configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción.
La Figura 56 es un diagrama que ilustra una diferencia en la semántica de la Figura 55 de la segunda modalidad.
La Figura 57A es un diagrama que ilustra un ejemplo de un punto de inflexión y una función de conversión de inflexión definido por la SEI de knee_function_info de la Figura 55.
La Figura 57B es un diagrama que ilustra un ejemplo de un punto de inflexión y una función de conversión de inflexión definido por SEI de knee_function_info de la Figura 55.
La Figura 58 es un diagrama que ilustra un ejemplo de una función de conversión aproximada de inflexión de la Figura 57.
La Figura 59 es un diagrama que ilustra un ejemplo de una función de conversión aproximada de inflexión de la Figura 57.
La Figura 60 es un diagrama que ilustra un ejemplo de la sintaxis de SEI de knee_function_info.
La Figura 61 es un diagrama que ilustra una relación entre una señal eléctrica de entrada y pantalla de luminancia de un CRT.
La Figura 62 es un diagrama que ilustra una señal eléctrica que es proporcional a la luminancia.
La Figura 63 es un diagrama que ilustra una relación entre una señal eléctrica de entrada y pantalla de luminancia.
La Figura 64 es un diagrama que ilustra una función con una característica inversa a una función de la Figura 61.
La Figura 65 es un diagrama que ilustra un ejemplo de una emisión de un proceso hasta que se muestre una imagen de la captura de la imagen.
La Figura 66 es un diagrama que ilustra OETF para su uso en una imagen de SDR.
La Figura 67 es un diagrama que ilustra OETF para su uso en una imagen de HDR.
La Figura 68 es un diagrama que ilustra una revisión general de un proceso de conversión fotoeléctrica en una cuarta modalidad.
La Figura 69 es un diagrama que ilustra una revisión general de una conversión electro-óptica en la cuarta modalidad.
La Figura 70 es un diagrama de bloques que ilustra un ejemplo de configuración de la cuarta modalidad de un dispositivo de codificación al que se aplica la presente descripción.
La Figura 71 es un diagrama de flujo que ilustra un proceso de generación de emisión realizado por el dispositivo de codificación de la Figura 70.
La Figura 72 es un diagrama de bloques que ilustra un ejemplo de configuración de la cuarta modalidad de un dispositivo de decodificación al que se aplica la presente descripción.
La Figura 73 es un diagrama de flujo que ilustra un proceso de generación de imagen realizado por el dispositivo de decodificación de la Figura 72.
La Figura 74 es un diagrama de bloques que ilustra un ejemplo de configuración de hardware de una computadora.
La Figura 75 es un diagrama que ilustra un ejemplo de un método de imagen de múltiples puntos de vista de codificación.
La Figura 76 es un diagrama que ilustra un ejemplo de configuración de un dispositivo de múltiples vistas de codificación de imágenes al que se aplica la presente descripción.
La Figura 77 es un diagrama que ilustra un ejemplo de configuración de múltiples puntos de vista de dispositivos de decodificación de imágenes al que se aplica la presente descripción.
La Figura 78 es un diagrama que ilustra un ejemplo de un método de capa de la imagen de codificación.
La Figura 79 es un diagrama que ilustra un ejemplo de codificación espacialmente escalable.
La Figura 80 es un diagrama que ilustra un ejemplo de una codificación temporalmente escalable.
La Figura 81 es un diagrama que ilustra un ejemplo de codificación escalable de una relación S/N.
La Figura 82 es un diagrama que ilustra un ejemplo de configuración de un dispositivo de codificación de imagen de la capa a la que se aplica la presente descripción.
La Figura 83 es un diagrama que ilustra un ejemplo de configuración de un dispositivo de decodificación de imágenes capa a la que se aplica la presente descripción.
La Figura 84 es un diagrama de bloques que ilustra un ejemplo de configuración esquemática de un aparato de televisión al que se aplica la presente descripción.
La Figura 85 es un diagrama de bloques que ilustra un ejemplo de configuración esquemática de un teléfono móvil al que se aplica la presente descripción.
La Figura 86 es un diagrama de bloques que ilustra un ejemplo de configuración esquemática de un aparato de grabación/reproducción al que se aplica la presente descripción.
La Figura 87 es un diagrama de bloques que ilustra un ejemplo de configuración esquemática de un aparato de formación de imágenes al que se aplica la presente descripción.
La Figura 88 es un diagrama de bloques que ilustra un ejemplo del uso de codificación escalable.
La Figura 89 es un diagrama de bloques que ilustra otro ejemplo del uso de la codificación escalable.
La Figura 90 es un diagrama de bloques que ilustra otro ejemplo del uso de la codificación escalable.
La Figura 91 es un diagrama que ilustra un ejemplo de configuración esquemática de un conjunto de video al que se aplica la presente descripción.
La Figura 92 es un diagrama que ilustra un ejemplo de configuración esquemática de un procesador de video a la que se aplica la presente descripción.
La Figura 93 es un diagrama que ilustra otro ejemplo de configuración esquemática de un procesador de video a la que se aplica la presente descripción.
DESCRIPCIÓN DE LAS MODALIDADES Base de presente descripción Descripción de la imagen de SDR La Figura 1 es un diagrama que ilustra una imagen de SDR.
Como se ilustra en la Figura 1, una imagen de SDR es, por ejemplo, una imagen cuya calidad de imagen se ajusta de manera que corresponda a un dispositivo de pantalla con la máxima luminancia de 100 nit (candela por metro cuadrado). Dado que la luminancia máxima en el sistema natural alcanza 20000 nit o más en algunos casos, en la imagen de SDR, un intervalo dinámico de brillo se comprime en gran medida.
Descripción de la imagen de HDR La Figura 2 es un diagrama que ilustra una imagen de HDR.
Como se ilustra en la Figura 2, una imagen de HDR es una imagen en la que un intervalo dinámico de luminancia es mayor que 0 a 100%. En la presente descripción, a menos que se describa lo contrario, un intervalo dinámico de una luminancia de la imagen de HDR es de 0 a 400%. Por ejemplo, como se ilustra en la Figura 2, en un caso donde una imagen de HDR en el que un intervalo dinámico de luminancia es de 0 a 800% (800 nit) se codifica, y se graba en un disco Blu-ray (marca registrada) disco (BD) o similares, atribuyen información que indica la luminancia también se registra a lo largo de la imagen de HDR con. Además, la información de atributo es introducida en un dispositivo de pantalla a lo largo de una imagen decodificada con HDR, y la imagen de HDR se muestra como una imagen en la que un intervalo dinámico de luminancia es de 0 a 800%.
Además, en un caso donde la luminancia máxima del dispositivo de pantalla es de 1000 nit, por ejemplo, la luminancia de una imagen de HDR se aumenta a 1000 nit y se muestra. Incluso en un caso en el que el escalado se realiza de esta manera, una imagen de HDR tiene un intervalo dinámico de luminancia de 0 a 800%, y por lo tanto deterioro de la calidad de la imagen del mismo debido al aumento es menor que el de una imagen de SDR.
Primera modalidad Descripción general de la codificación en la primera modalidad La Figura 3 es un diagrama que ilustra una revisión general de la codificación en una primera modalidad de un dispositivo de codificación al que se aplica la presente descripción.
En la Figura 3, el eje transversal expresa un valor de luminancia (valor de código de entrada), y el eje longitudinal expresa luminancia (nivel de video de salida). Además, el valor de luminancia del eje transversal de la Figura 3 es un valor obtenido mediante el establecimiento el número de bits del valor de luminancia de 10 bits y el establecimiento de luminancia blanca después de haber sido sometidos a la conversión de inflexión al 100%, pero un valor de luminancia convertida en luminancia en la práctica es un valor que se normaliza a 0 o más y a 1 o menos. Esto también es el mismo para Figura 5 que se describirá más adelante.
Como se ilustra en la Figura 3, en la primera modalidad, de 80% a 400% de una Imagen de HDR en la que un intervalo dinámico de luminancia de 0 a 400% es comprimida por inflexión de 80% a 100%, de modo que una imagen de SDR en la que un intervalo dinámico de luminancia es de 0 a 100% entonces se genera y se codifica.
Descripción general de decodificación en primera modalidad La Figura 4 es un diagrama que ilustra una revisión general de decodificación en la primera modalidad de un dispositivo de decodificación al que se aplica la presente descripción.
Como se ilustra en la Figura 4, en la primera modalidad, se decodifican los datos codificados de la imagen de SDR en la que un intervalo dinámico de luminancia es de 0 a 100%, generada como se describe en la Figura 3. En un caso en el que una unidad de pantalla es una pantalla de SDR, la imagen de SDR que se obtiene como resultado de la decodificación se introduce y se muestra en la unidad de pantalla sin cambio. Por otro lado, en un caso en el que la unidad de pantalla es una pantalla HDR, la imagen de SDR obtenida como resultado de la decodificación se aumenta a una imagen de HDR, y se introduce y se muestra en la unidad de pantalla.
Específicamente, como se ilustra en la Figura 5, de 80% a 100% de la imagen de SDR en el que un intervalo dinámico de luminancia es de 0 a 100% es la descomprimida por inflexión de 80% a 400%, y por lo tanto se genera una imagen de HDR en la que un intervalo dinámico de luminancia es de 0 a 400 %. Además, se muestra la imagen de HDR generada.
Además, en este momento, con el fin de generar una imagen de HDR deseada, es necesaria la información con respecto a la conversión de una imagen de SDR en la imagen de HDR deseada, tal como un intervalo (de 80% a 100% en el ejemplo de la Figura 5) de la luminancia de una imagen de SDR que es descomprimida por inflexión, y un intervalo (de 80% a 400% en el ejemplo de la Figura 5) de luminancia de una imagen de HDR correspondiente al intervalo. Por lo tanto, en la primera modalidad, la información de conversión con respecto a la conversión de una imagen de SDR en una imagen de HDR se transmite desde el dispositivo de codificación para el dispositivo de decodificación, y por lo tanto una imagen de HDR deseada puede ser generada a partir de una imagen de SDR decodificada en el dispositivo de decodificación.
Ejemplo de configuración de primera modalidad de dispositivo de codificación La Figura 6 es un diagrama de bloques que ilustra un ejemplo de configuración de la primera modalidad de un dispositivo de codificación al que se aplica la presente descripción.
Un dispositivo de codificación 10 de la Figura 6 incluye una unidad de ajustes 11, una unidad de codificación 12, una unidad de transmisión 13, y una unidad de conversión, y codifica una imagen de SDR que se convierte de una imagen de HDR en un método que se conforma al método HEVC.
Específicamente, la unidad de ajustes 11 del dispositivo de codificación 10 ajusta un conjunto de parámetros de secuencia (MSF), un conjunto de parámetros de imagen (PPS), VUI, y similares. Además, la unidad de ajustes 11 ajusta Información de Incremento Suplemental (SEI) de knee_function_info que incluye información de conversión en respuesta a un comando de un usuario (productor). La unidad de ajuste 11 proporciona los conjuntos de parámetros, incluyendo el conjunto de MSF, PPS, VUI, SEI de knee_function_info, y similares, a la unidad de codificación 12.
La unidad de codificación 12 codifica la imagen de SDR suministrada desde la unidad de conversión 14 en el método HEVC. La unidad de codificación 12 genera una emisión codificada de datos codificados que se obtiene como resultado de la codificación y los conjuntos de parámetros que son suministrados desde la unidad de ajuste 11, y transmite la emisión codificada generada a la unidad de transmisión 13.
La unidad de transmisión 13 transmite la emisión codificada suministrada desde la unidad de codificación 12, a un dispositivo de decodificación descrito más adelante. Además, la unidad de transmisión 13 puede transmitir la emisión codificada a un dispositivo de registro que registra la emisión codificada sobre un medio de grabación tal como un BD. En este caso, la emisión codificada se transmite al dispositivo de decodificación a través del medio de grabación.
La unidad de conversión 14 convierte una imagen de entrada HDR desde un dispositivo externo en una imagen de SDR a través de la compresión de inflexión, y suministra la imagen de SDR a la unidad de codificación 12.
Ejemplo de la sintaxis de SEI de knee_function_info La Figura 7 es un diagrama que ilustra un ejemplo de la sintaxis de SEI de knee_function_info, y la Figura 8 es un diagrama que ilustra cada pieza de información que se ilustra en la SEI de knee_function__info de la Figura 7.
Como se ilustra en la Figura 7, la información de la posición de inflexión de entrada (knee_point_of_input), información de la posición de inflexión de salida (knee point of input), la información de intervalo de luminancia de salida (output_white_level_range), información de luminancia de salida (output_white_level_range_luminance), y similares se ajustan en la SEI de knee_function_info como información de conversión.
La información de posición de inflexión de entrada es información que indica el valor mínimo (punto de inflexión) de luminancia que es la descompresión de inflexión de una imagen de SDR que es una imagen no convertida. La información de posición de inflexión de entrada es una permillage de un punto de inflexión cuando el valor máximo de luminancia de una imagen de SDR se ajusta en 1000 permil.
La información de posición de inflexión de salida es información que indica la luminancia de una imagen de HDR que es una imagen convertida, correspondiente al valor mínimo (punto de inflexión) de luminancia que es un objetivo de la descompresión de inflexión de una imagen de SDR que es una imagen no convertida. La información de posición de inflexión de salida es un permillage de luminancia correspondiente a un punto de inflexión cuando el valor máximo de luminancia de una imagen de HDR se ajusta en 1000 permil.
La información del intervalo de luminancia de salida es información que indica la luminancia blanca de una imagen de HDR que es una imagen convertida. Además, la información de luminancia de salida es información que indica el brillo (luminancia) de la unidad de pantalla, que corresponde al blanco de la imagen de HDR que es una imagen convertida.
Ejemplo de información de conversión Las Figuras 9 y 10 son diagramas que ilustran ejemplos de información de conversión establecidos en la SEI de knee function info.
En el ejemplo de la Figura 9, el usuario ajusta una imagen de HDR que se obtiene como resultado de se utiliza descompresión por inflexión de 80% a 100% de la luminancia de una imagen de SDR a 80% a 400% como una imagen de HDR deseada. En este caso, en la SEI de knee_function__info, 800 como la información de la posición de inflexión de entrada (knee_point_of_input), y 200 se ajusta como la información de posición de inflexión de salida (knee_point_of_output).
Por lo tanto, un dispositivo de decodificación descrito más adelante puede descomprimir por inflexión de 80% a 100% de la luminancia de una imagen de SDR que se obtiene como resultado de la decodificación a 80% a 400% sobre la base de la información de posición de inflexión de entrada y la información de posición de inflexión de salida. Como resultado, el dispositivo de decodificación puede convertir la imagen de SDR obtenida como resultado de la decodificación en una imagen de HDR deseada.
Además, en el ejemplo de la Figura 9, la información intervalo de luminancia de salida (output_white_level_range) es 400, y la información de luminancia de salida (output_white_level_range_luminance) es 800 (candelas por metro cuadrado).
En el ejemplo de la Figura 10, el usuario ajusta una imagen de HDR que se obtiene como resultado de descompresión por inflexión de 80% a 100% de la luminancia de una imagen de SDR de 100% a 400% como una imagen de HDR deseada. En este caso, en la SEI de knee_function_info, 800 se ajusta que la información de la posición de inflexión de entrada (knee_point_of_input), y 200 se ajusta como la información de la posición de inflexión de salida (knee_point_of_output).
Por lo tanto, el dispositivo de decodificación que se describe más adelante puede descomprimir por inflexión del 80% a 100% de la luminancia de una imagen de SDR que se obtiene como resultado de la decodificación de 100% a 400% sobre la base de la información de posición de inflexión de entrada e información de la posición de inflexión de salida. Como resultado, el dispositivo de decodificación puede convertir la imagen de SDR obtenida como resultado de la decodificación en una imagen de HDR deseada.
Además, en el ejemplo de la Figura 10, la información de intervalo de luminancia de salida (output_white_level_range) es 400, y la información de luminancia de salida (output_white_level__range_luminance) es 800 (candelas por metro cuadrado).
Descripción del proceso en el dispositivo de codificación La Figura 11 es un diagrama de flujo que ilustra un proceso de generación de emisión realizado por el dispositivo de codificación 10.
En el paso S10 de la Figura 11, la unidad de conversión 14 del dispositivo de codificación 10 convierte una imagen de HDR que se introduce desde un dispositivo externo, en una imagen de SDR que se suministra entonces a la unidad de codificación 12.
En el paso Sil, la unidad de ajuste 11 ajusta una MSF. En el paso S12, la unidad de ajuste 11 ajusta VUI. En el paso S13, la unidad de ajuste 11 ajusta un PPS.
En el paso S14, la información de configuración de la unidad de ajuste 11 ajusta LA SEI de knee_function_info en respuesta a una instrucción o similares de un usuario. La unidad de ajuste 11 proporciona los conjuntos de parámetros, incluyendo el conjunto de MSF, PPS, VUI, SEI de knee_function_info, y similares, para la unidad de codificación 12.
En el paso S15, la unidad de codificación 12 codifica la imagen de SDR suministrada desde la unidad de conversión 14 en el método HEVC. En el paso S16, la unidad de codificación 12 genera una emisión codificada de datos codificados que se obtiene como resultado de la codificación y los conjuntos de parámetros que son suministrados desde la unidad de ajuste 11, y transmite la emisión codificada generada a la unidad de transmisión 13.
En el paso S17, la unidad de transmisión 13 transmite la emisión codificada suministrada desde la unidad de codificación 12, al dispositivo de decodificación descrito más adelante y, a continuación, termina el proceso.
Como se mencionó anteriormente, el dispositivo de codificación 10 ajusta y transmite la SEI de knee_function_info incluyendo información de conversión, y por lo tanto el dispositivo de decodificación descrito más adelante puede convertir una imagen de SDR obtenida como resultado de la decodificación en una imagen de HDR deseada sobre la base de la información de conversión. Por lo tanto, se puede decir que el dispositivo de codificación 10 puede codificar una imagen de SDR de modo que una imagen de SDR decodificada se puede convertir una imagen de HDR deseada durante la decodificación.
Además, dado que se ajusta la información de conversión, el dispositivo de codificación 10 puede generar una emisión codificada de una imagen correspondiente a una pantalla HDR y una pantalla SDR solamente mediante la codificación de una imagen de SDR. Por lo tanto, es posible reducir además una cantidad de datos de una emisión codificada que en un caso de codificación tanto una imagen de HDR y una imagen de SDR.
Ejemplo de configuración de la primera modalidad del dispositivo de decodificación La Figura 12 es un diagrama de bloques que ilustra un ejemplo de configuración de una modalidad de un dispositivo de decodificación que decodifica una emisión codificada transmitida desde el dispositivo de codificación 10 de la Figura 6 y al que se aplica la presente descripción.
Un dispositivo de decodificación 50 de la Figura 12 incluye una unidad de recepción 51, una unidad de extracción 52, una unidad de decodificación 53, una unidad de conversión 54, una unidad de control de pantalla 55, y una unidad de pantalla 56.
La unidad de recepción 51 del dispositivo de decodificación 50 recibe la emisión codificada transmitida desde el dispositivo de codificación 10 de la Figura 6, y suministra la emisión codificada a la unidad de extracción 52.
La unidad de extracción 52 extrae los conjuntos de parámetros y los datos codificados de la imagen de SDR de la emisión codificada que se suministra desde la unidad de recepción 51. La unidad de extracción 52 suministra los conjuntos de parámetros y los datos codificados a la unidad de decodificación 53. Además, la unidad de extracción 52 suministra la SEI de knee_function__info entre los conjuntos de parámetros, a la unidad de conversión 54.
La unidad de decodificación 53 decodifica los datos codificados de la imagen de SDR suministrada desde la unidad de extracción 52 en el método HEVC. En este momento, la unidad de decodificación 53 también se refiere a los conjuntos de parámetros suministrados desde la unidad de extracción 52 según sea necesario. La unidad de decodificación 53 suministra la imagen de SDR que se obtiene como resultado de la decodificación a la unidad de conversión 54.
La unidad de conversión 54 convierte la imagen de SDR suministrada desde la unidad de decodificación 53 en una imagen de HDR a través de la descompresión de inflexión sobre la base de la información de conversión incluida en la SEI de knee_function_info suministrada desde la unidad de extracción 52, y suministra la imagen de HDR a la pantalla unidad de control 55.
La unidad de control de pantalla 55 muestra la imagen de HDR suministrada desde la unidad de conversión 54 en la unidad de pantalla 56. La unidad de pantalla 56 es una pantalla de HDR.
Descripción del proceso en el dispositivo de decodificación La Figura 13 es un diagrama de flujo que ilustra un proceso de generación de imagen realizado por el dispositivo de decodificación 50 de la Figura 12.
En el paso S51 de la Figura 13, la unidad de recepción 51 del dispositivo de decodificación 50 recibe la emisión codificada transmitida desde el dispositivo de codificación 10 de la Figura 6, y suministra la emisión codificada a la unidad de extracción 52.
En el paso S52, la unidad de extracción 52 extrae los conjuntos de parámetros y los datos codificados de la imagen de SDR de la emisión codificada que se suministra desde la unidad de recepción 51. La unidad de extracción 52 suministra los conjuntos de parámetros y los datos codificados de la imagen de SDR a la unidad de decodificación 53. Además, la unidad de extracción 52 suministra la SEI de knee_function_info entre los conjuntos de parámetros, a la unidad de conversión 54.
En el paso S53, la unidad de decodificación 53 decodifica los datos codificados de la imagen de SDR suministrada desde la unidad de extracción 52 en el método HEVC. En este momento, la unidad de decodificación 53 también se refiere a los conjuntos de parámetros suministrados desde la unidad de extracción 52 según sea necesario. La unidad de decodificación 53 suministra la imagen de SDR que se obtiene como resultado de la decodificación a la unidad de conversión 54.
En el paso S54, la unidad de conversión 54 adquiere la información de conversión de la función de inflexión SEI de información que se suministra desde la unidad de extracción 52.
En el paso S55, la unidad de conversión 54 convierte la imagen de SDR suministrada desde la unidad de decodificación 53 en una imagen de HDR sobre la base de la información de conversión, y suministra la imagen de HDR a la unidad de control de pantalla 55.
En el paso S56, la unidad de control de pantalla 55 muestra la imagen de HDR suministrada desde la unidad de conversión 54 en la unidad de pantalla 56, y termina el proceso.
Como se mencionó anteriormente, el dispositivo de decodificación 50 convierte la imagen de SDR obtenida como resultado de la decodificación en la imagen de HDR sobre la base de la información de conversión, y por lo tanto puede convertir la imagen de SDR obtenida como resulLado de la decodificación en una imagen de HDR deseada.
Otro ejemplo de la sintaxis de SEI de knee_function_info La Figura 14 es un diagrama que ilustra otro ejemplo de la sintaxis de SEI de knee_function info, y la Figura 15 es un diagrama que ilustra cada pieza de información que se ilustra en la SEI de knee_function_info de la Figura 14.
La SEI de knee_function_info de la Figura 14 es la misma que la SEI de knee_function_info de la Figura 7, excepto la información de intervalo de luminancia (white_level_range) y la información de luminancia (luminancia_white_level_range) se ajustan en lugar de la información de intervalo de luminancia de salida (output_white_level_range) y la información de luminancia de salida (output_white_level_range__luminance).
La información intervalo de luminancia es la salida de información intervalo de luminancia cuando la información de posición de inflexión de entrada (knee_point of_input) es igual o más de información de la posición de inflexión de salida (knee_point_of_output), es decir, cuando la descompresión de inflexión se realiza en un lado de decodificación de la misma manera que en la primera modalidad.
Por otra parte, cuando la información de posición de inflexión de entrada es menor que la información de la posición de inflexión de salida, es decir, cuando la compresión de inflexión se lleva a cabo en el lado de decodi icación, la información de intervalo de luminancia es información que indica la luminancia blanco de una imagen no convertida (por ejemplo, una imagen de HDR).
Similarmente, la información de luminancia (Luminancia_white_level_range) es información de luminancia de salida cuando la información de posición de inflexión de entrada es igual o mayor que la información de la posición de inflexión de salida en la misma manera que en la primera modalidad, y es información que indica la luminancia blanco (valor) de una imagen sin convertir (por ejemplo, una imagen de HDR) cuando la información de posición de inflexión de entrada es menor que la información de la posición de inflexión de salida.
Además, en la primera modalidad, sólo una imagen de SDR se codifica en el dispositivo de codificación 10, pero sólo una imagen de HDR convertida de la imagen de SDR puede codificarse. En este caso, la información con respecto a la conversión de la imagen de SDR en la imagen de HDR se encuentra en SEI y se transmite al dispositivo de decodificación 50. En concreto, la SEI de knee_function_info ilustra en la Figura 7 o la Figura 15 en el que una imagen no convertida se fija como una imagen de HDR, y una imagen convertida se fija como una imagen de SDR se transmite al dispositivo de decodificación 50. Además, el dispositivo de decodificación 50 convierte una imagen de HDR en una imagen original SDR con alta precisión sobre la base de la SEI de knee_function_info.
Además, en la primera modalidad, la unidad de pantalla 56 es una pantalla HDR, pero la unidad de pantalla 56 puede ser una pantalla SDR. En este caso, la unidad de conversión 54 suministra una imagen de SDR a la unidad de control de pantalla 55 sin la conversión en una imagen de HDR. En consecuencia, la imagen de SDR se visualiza en la unidad de pantalla 56.
Además, una imagen deseada puede ser una imagen de HDR que es introducida en el dispositivo de codificación 10.
Además, en la primera modalidad, el dispositivo de codificación 10 convierte una imagen de HDR que se introduce desde un dispositivo externo en una imagen de SDR que se codifica entonces, pero puede codificar una imagen de SDR que se introduce desde el dispositivo externo sin conversión.
Segunda Modalidad Ejemplo de configuración de la segunda modalidad del dispositivo de codificación La Figura 16 es un diagrama de bloques que ilustra un ejemplo de configuración de una segunda modalidad de un dispositivo de codificación al que se aplica la presente descripción.
Entre elementos constitutivos ilustrados en la Figura 16, los mismos elementos constituti os como los elementos constitutivos de la Figura 6 se les da el mismo número de referencia. La descripción repetida se omitirá según sea apropiado.
Una configuración de un dispositivo de codificación 70 de la Figura 16 es diferente de la configuración del dispositivo de codificación 10 de la Figura 6 en que una unidad de ajuste 71, una unidad de codificación 72, y una unidad de conversión 73 se proporcionan en lugar de la unidad de ajuste 11, la unidad de codificación 12, y la conversión de la unidad 14. El dispositivo de codificación 70 codifica una imagen de HDR que se introduce desde un dispositivo externo, o códigos de una imagen de SDR que se convierte de una imagen de HDR, en un método conforme al método HEVC.
Específicamente, la unidad de ajuste 71 de los dispositivo de codificación 70 ajusta, una SPS, un PPS, VUI, y similares. Además, la unidad de ajuste 71 ajusta SEI tal como la SEI de knee_function_info incluyendo información de conversión DR en respuesta a un comando de un usuario (productor). La información de conversión DR es información con respecto a la conversión de un intervalo dinámico de luminancia de una imagen que es un destino de codificación en un intervalo dinámico diferente. La unidad de ajuste 71 proporciona los conjuntos de parámetros, incluyendo el conjunto de MSF, PPS, VUI, SEI de knee_function info, y similares, para la unidad de codificación 72.
La unidad de codificación 72 ajusta una imagen de HDR o una imagen de SDR suministrada desde la unidad de conversión 73 como una imagen de destino de codificación, y los códigos de la imagen de destino de codificación en el método HEVC. La unidad de codificación 72 genera una emisión codificada de datos codificados que se obtiene como resultado de la codificación y los conjuntos de parámetros que son suministrados desde la unidad de ajuste 71, y transmite la emisión codificada generada a la unidad de transmisión 13.
La unidad de conversión 73 comprime por inflexión la luminancia de una imagen de HDR que se introduce desde un dispositivo externo a fin de generar una imagen de SDR que se suministra a la unidad de codificación 72, o suministra una imagen de HDR que se introduce desde el dispositivo externo a la unidad 72 de codificación sin compresión.
Primer ejemplo de la sintaxis de SEI de knee_function_info La Figura 17 es un diagrama que ilustra un primer ejemplo de la sintaxis de la SEI de knee_function_info establecida por la unidad de ajuste 71 de la Figura 16, y la Figura 18 es un diagrama que ilustra cada pieza de información que se ilustra en la información de la función de inflexión SEI de la Figura 17.
Como se ilustra en la Figura 17, una ID de conversión de inflexión (knee_function_id) y una etiqueta de cancelación de conversión de inflexión (knee_function_cancel_flag) se ajustan en la SEI de knee_function_info.
La ID de conversión de inflexión es una ID única para el propósito de conversión de inflexión que es la compresión o descompresión de inflexión de inflexión como se ilustra en la Figura 18. Además, la etiqueta de cancelación de conversión de inflexión es una etiqueta que ilustra si se cancela o no la persistencia de SEI de knee_function_info. La etiqueta de cancelación de conversión de inflexión se pone a 1 cuando indica que se cancela la persistencia anterior de SEI de knee_function_info, y se ajusta a 0 cuando no se cancela la persistencia.
Si la etiqueta de cancelación de conversión de inflexión es 0, como se ilustra en la Figura 17, una sola pieza de información previa a la conversión de la posición (input_knee_point), una sola pieza de información de posición posterior a conversión (output_knee_point), Información de intervalo de luminancia HDR (d_range), y la información de luminancia de pantalla (d_range_disp_luminance) se ajustan en la SEI de knee function info como información de conversión DR.
La información de la posición de pre-conversión es información que indica un punto de inflexión de una imagen de destino de codificación que es una imagen convertida en la conversión correspondiente a la información de conversión DR, y es un permillage de un punto de inflexión cuando el valor máximo de luminancia de la imagen de destino de codificación se ajusta en 1000 permil. El punto de inflexión es de luminancia (que es un valor obtenido mediante la normalización de los valores RGB lineales en el intervalo de 0.0 a 1.1) distinto de 0, que es un punto de inicio de un intervalo de luminancia que es inflexión convertida en la misma proporción que la de conversión un intervalo dinámico de luminancia de la imagen de destino de codificación.
La información de la posición posterior a conversión es información que indica un punto de inicio de una serie de luminancia correspondiente a un intervalo de luminancia convertida por inflexión que tiene un punto de inflexión como un punto de inicio de una imagen después de ser convertido (en lo sucesivo, denominada como una imagen convertida) en la conversión correspondiente a la información de conversión DR. Específicamente, la información de posición posterior a la conversión es un permillage de luminancia de una imagen convertida correspondiente a un punto de inflexión cuando el valor máximo de luminancia de la imagen convertida se ajusta en 1000 permil.
La información intervalo de luminancia HDR es información que indica un permillage del valor máximo de luminancia de una imagen de HDR que es una imagen de destino de codificación o una imagen convertida. Además, la información de pantalla de luminancia es información que indica un valor esperado de brillo (luminancia) de la unidad de pantalla correspondiente al valor máximo de luminancia de una imagen de HDR.
Primer ejemplo de información de conversión DR Las Figuras 19 y 20 son diagramas que ilustran ejemplos de la información de conversión DR establecido en la SEI de knee_function_info de la Figura 17.
En el ejemplo de la Figura 19, una imagen de destino de codificación es una imagen de SDR, y un usuario ajusta una imagen de HDR que se obtiene como resultado de descompresión por inflexión de 80% a 100% de luminosidad de la imagen de SDR a 80% al 400%, como imagen convertida deseada. En este caso, en el SEI de knee_function info, 800 se fija como la información de posición previa a conversión (input_knee_point), y 200 se ajusta que la información de la posición posterior a conversión (output knee point).
Además, en el ejemplo de la Figura 19, la información de intervalo de luminancia HDR (d_range) es 4000, y la información de intervalo de pantalla de luminancia (d_range_disp_luminance) es de 800 (candelas por metro cuadrado).
Como en el caso de la Figura 19, en un caso en el que una imagen de destino de codificación es una imagen de SDR y una imagen convertida es una imagen de HDR, punto de inflexión input_knee_point_PER (%) y output_knee_point_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión se define por la siguiente ecuación (1).
Matemáticas 1 input_knee point input knee point DR = lOOx 1000 d_range output_knee_point output knee point_DR = _ x_ _ 10 1000 1) Por lo tanto, un dispositivo de decodificación descrito más adelante reconoce que el input_knee_point_PER del punto de inflexión y output_knee_point_PER de luminancia son 80% de acuerdo con la ecuación (1). Además, el dispositivo de decodificación descrito más adelante reconoce que la conversión de inflexión correspondiente a la información de conversión DR es la descompresión de inflexión desde la información de posición antes de la conversión es igual a o mayor de la información de posición posterior a la conversión. Además, el dispositivo de decodificación descrito más adelante reconoce que el valor máximo de lu inancia de la imagen convertida es de 400% a partir de la información de intervalo de luminancia HDR.
Como se mencionó anteriormente, el dispositivo de decodificación descrito más adelante descomprime por inflexión del 80% a 100% de luminancia de la imagen de SDR que se obtiene como resultado de la decodificación de 80% a 400%. Por lo tanto, el dispositivo de decodificación puede convertir la imagen de SDR obtenida como resultado de la decodificación en una imagen de HDR deseada.
En el ejemplo de la Figura 20, una imagen de destino de codificación es una imagen de HDR, y el usuario ajusta una imagen de SDR que se obtiene como resultado de inflexión de compresión del 80% al 400% de luminancia de la imagen de HDR de 80% a 100%, como imagen convertida deseada. En este caso, en la SEI de knee_function_info, 200 se ajusta que la información de la posición previa a conversión (input_knee_point), y 800 se ajusta que la información de la posición posterior a conversión (output knee point).
Además, en el ejemplo de la Figura 20, la información de intervalo de luminancia HDR (d__range) es 4000, y la información de intervalo de pantalla de luminancia (d__range_disp_luminance) es 800 (candela por metros cuadrados).
Como en el caso de la Figura 20, en un caso en que una imagen de destino de codificación es una imagen de HDR y una imagen convertida es una imagen de SDR, el punto de inflexión input_knee_point_PER (%) y el output_knee_point_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión se definen por la siguiente ecuación (2).
Matemáticas 2 d_range input_knee_point input_knee_point_DR x 10 1000 output_knee_point output_knee_point_DR = lOOx_ 1000 . . . (2) Por lo tanto, el dispositivo de decodificación descrito más adelante reconoce que la entrada del punto de inflexión input_knee_point_PER y el output knee point PER de luminancia son el 80% de acuerdo con la ecuación (2). Además, el dispositivo de decodificación descrito más adelante reconoce que la conversión de inflexión correspondiente a la información de conversión de DR es inflexión de compresión desde la información de posición antes de la conversión es menor que la información de posición posterior a la conversión. Además, el dispositivo de decodificación descrito más adelante reconoce que el valor máximo de luminancia de la imagen convertida es de 400% a partir de la información de intervalo de luminancia HDR.
Como se mencionó anteriormente, el dispositivo de decodificación descrito más adelante comprime por inflexión de 80% a 400% de luminancia de la imagen de SDR que se obtiene como resultado de la decodificación, de 80% a 100%. Por lo tanto, el dispositivo de decodificación puede convertir la imagen de HDR obtenida como resultado de la decodificación en una imagen de SDR deseada.
Descripción del proceso en el dispositivo de codificación La Figura 21 es un diagrama de flujo que ilustra un proceso de generación de emisión realizado por el dispositivo de codificación 70 de la Figura 16.
En la etapa S71 de la Figura 21, la unidad de conversión 73 del dispositivo de codificación 70 determina si, por ejemplo, una imagen de destino de codificación es o no una imagen de SDR en respuesta a una instrucción o similar del usuario. Si se determina que una imagen de destino de codificación es una imagen de SDR en la etapa S71, el proceso pasa a la etapa S72.
En la etapa S72, la unidad de conversión 73 convierte una imagen de HDR que se introduce desde un dispositivo externo en una imagen de SDR través de la compresión de inflexión de la luminancia de la imagen de HDR, y suministra la imagen de SDR a la unidad de codificación 72.
Por otro lado, si se determina que una imagen de destino de codificación no es una imagen de SDR en la etapa S71, es decir, una imagen de destino de codificación es una imagen de HDR, la unidad de conversión 73 suministra una imagen de HDR que se introduce desde un dispositivo externo a la unidad de codificación 72 sin cambio, y el proceso procede al paso 873.
En la etapa S73, la unidad de ajuste 71 ajusta un SPS. En la etapa S74, la unidad de ajuste 71 ajusta VUI. En la etapa S75, la unidad de ajuste 71 ajusta un PPS.
En la etapa S76, la unidad de ajuste 71 ajusta SEI de knee_function_info en respuesta a una instrucción o similares de un usuario. La unidad de ajuste 71 proporciona los conjuntos de parámetros, incluyendo el conjunto SPS, PPS, VUI, SEI de knee_function_info, y similares, para la unidad de codificación 72.
En la etapa S77, la unidad de codificación 72 codifica una imagen de SDR o una imagen de HDR suministrada desde la unidad de conversión 73 como una imagen de destino de codificación en el método HEVC. En la etapa S78, la unidad de codificación 72 genera una emisión codificada de datos codificados que se obtiene como resultado de la codificación y los conjuntos de parámetros que son suministrados desde la unidad de ajuste 71, y transmite la emisión del código generado a la unidad de transmisión 13.
En la etapa S79, la unidad de transmisión 13 transmite la emisión codificada suministrada desde la unidad de codificación 72, para el dispositivo de decodificación se describe más adelante y, a continuación, termina el proceso.
Como se mencionó anteriormente, el dispositivo de codificación 70 conjuntos y transmite SEI de knee_function_info incluyendo información de conversión DR, y por lo tanto el dispositivo de decodificación se describe más adelante puede convertir una imagen de destino de codificación obtenida como resultado de la decodificación en una imagen convertida deseada sobre la base de la Información de conversión DR. Por lo tanto, se puede decir que el dispositivo de codificación 70 puede codificar una imagen de modo que una imagen decodificada se puede convertir en una imagen convertida deseada durante la decodificación.
Además, puesto que la información de conversión DR está establecida, el dispositivo de codificación 70 puede generar una emisión codificada de una imagen correspondiente a una pantalla HDR y una pantalla SDR solamente mediante la codificación ya sea de una imagen de SDR o una imagen de HDR. Por lo tanto, es posible reducir además una cantidad de datos de una emisión codificada que en un caso de codificación tanto una imagen de HDR y una imagen de SDR.
Ejemplo de configuración de la segunda modalidad del dispositivo de decodificación La Figura 22 es un diagrama de bloques que ilustra un ejemplo de configuración de una segunda modalidad de un dispositivo de decodificación que decodifica una emisión codificada transmitida desde el dispositivo de codificación 70 de la Figura 16 y al que se aplica la presente descripción.
Entre elementos constitutivos ilustrados en la Figura 22, los mismos elementos constitutivos como los elementos constitutivos de la Figura 12 se dan los mismos números de referencia. Se omitirá la descripción repetida según sea apropiado.
Una configuración de un dispositivo de decodificación 90 de la Figura 22 es diferente de la configuración del dispositivo de decodificación 50 de la Figura 12 en esa unidad una extracción 91, una unidad de decodificación 92, una unidad de conversión 93, una unidad de control de pantalla 94, y una unidad de pantalla 95 se proporcionan en lugar de la unidad de extracción 52, la unidad de decodificación 53, la unidad de conversión 54, la unidad de control de pantalla 55, y la unidad de pantalla 56. El dispositivo de decodificación 90 convierte una imagen decodificada en una imagen convertida de acuerdo con el tipo de unidad de pantalla 95, y muestra la imagen convertida en la unidad de pantalla 95.
Específicamente, la unidad de extracción 91 del dispositivo de decodificación 90 extrae conjuntos de parámetros y datos codificados de una emisión codificada que se suministra desde la unidad de recepción 51. La unidad de extracción 91 suministra los conjuntos de parámetros y los datos codificados a la unidad de decodificación 92. Además, la unidad de extracción 91 suministra SEI de knee_function_info entre los conjuntos de parámetros, a la unidad de conversión 93.
La unidad de decodificación 92 decodifica los datos codificados suministrados desde la unidad de extracción 91 en el método HEVC. En este momento, la unidad de decodificación 92 también se refiere a los conjuntos de parámetros suministrados desde la unidad de extracción 91 según sea necesario. La unidad de decodificación 92 suministra una imagen decodificada a la unidad de conversión 93.
En un caso en el que un intervalo dinámico de luminancia correspondiente a la unidad de pantalla 95 es un intervalo dinámico de luminancia de la imagen decodificada, la unidad de conversión 93 suministra la imagen decodificada que se suministra desde la unidad de decodificación 92, a la unidad de control de pantalla 94 sin cambio. Por otro lado, en un caso donde un intervalo dinámico de luminancia correspondiente a la unidad de pantalla 95 no es un intervalo dinámico de luminancia de la imagen decodificada, la unidad de conversión 93 convierte la imagen decodificada en una imagen convertida a través de la conversión de inflexión sobre la base de información de conversión DR incluida en la SEI de knee_funcion_info suministrada desde la unidad de extracción 91. Además, la unidad de conversión 93 suministra la imagen convertida a la unidad de control de pantalla 94 como una imagen de pantalla.
Específicamente, en un caso en el que la unidad de pantalla 95 es una pantalla HDR, y la imagen decodificada es una imagen de HDR, o en un caso en el que la unidad de pantalla 95 es una pantalla de SDR, y la imagen decodificada es una imagen de SDR, la unidad de conversión 93 suministra la imagen decodificada a la unidad de control de pantalla 94 sin cambio. Por otro lado, en un caso en el que la unidad de pantalla 95 es una pantalla de SDR, y la imagen decodificada es una imagen de HDR, o en un caso en el que la unidad de pantalla 95 es una pantalla de HDR, y la imagen decodificada es una imagen de SDR, la unidad de conversión 93 realiza la conversión de inflexión en la imagen decodificada sobre la base de la información de conversión DR de manera que genere una imagen convertida. Además, la unidad de conversión 93 suministra la imagen convertida a la unidad de control de pantalla 94 como una imagen de pantalla.
La unidad de control de pantalla 94 muestra la imagen de pantalla suministrada desde la unidad de conversión 93 en la unidad de pantalla 95. Por consiguiente, en un caso en el que la unidad de pantalla 95 es una pantalla de HDR, una imagen de HDR se visualiza en la unidad de pantalla 95, y en un caso en el que la unidad de pantalla 95 es una pantalla de SDR, una imagen de SDR se visualiza en la unidad de pantalla 95. La unidad de pantalla 95 es una pantalla de HDR o una pantalla de SDR, y muestra una imagen de la pantalla suministrada desde la unidad de control de la pantalla 94.
Descripción del proceso en el dispositivo de decodificación La Figura 23 es un diagrama de flujo que ilustra un proceso de generación de imagen realizado por el dispositivo de decodificación 90 de la Figura 22.
En la etapa S91 de la Figura 23, la unidad de recepción 51 del dispositivo de decodificación 90 recibe una emisión codificada transmitida desde el dispositivo de codificación 70 de la Figura 16, y suministra la emisión codificada a la unidad de extracción 91.
En la etapa S92, la unidad de extracción 91 extrae conjuntos de parámetros y datos codificados de la emisión codificada que se suministra desde la unidad de recepción 51. La unidad de extracción 91 suministra los conjuntos de parámetros y los datos codificados a la unidad de decodificación 92. Además, la unidad de extracción 91 suministra SEI de knee_function_info entre los conjuntos de parámetros, a la unidad de conversión 93.
En la etapa S93, la unidad de decodificación 92 decodifica los datos codificados suministrados desde la unidad de extracción 91 en el método HEVC. En este momento, la unidad de decodificación 92 también se refiere a los conjuntos de parámetros suministrados desde la unidad de extracción 91 según sea necesario. La unidad de decodificación 92 suministra una imagen decodificada a la unidad de conversión 93.
En la etapa S94, la unidad de conversión 93 adquiere información de conversión DR de la SEI de knee_function_info que se suministra desde la unidad de extracción 91.
En la etapa S95, la unidad de conversión 93 determina si un intervalo dinámico de luminancia correspondiente a la unidad de pantalla 95 es o no un intervalo dinámico de luminancia de la imagen decodificada. Si se determina que un intervalo dinámico de luminancia correspondiente a la unidad de pantalla 95 no es un intervalo dinámico de luminancia de la imagen decodificada, el proceso prosigue a la etapa S96.
En la etapa S96, la unidad de conversión 93 convierte la imagen decodificada suministrada desde la unidad de decodificación 92 en una imagen convertida sobre la base de la información de conversión DR, y suministra la imagen convertida a la unidad de control de pantalla 94 como una imagen de pantalla. Además, el proceso prosigue al paso S97.
Por otro lado, se determina en la etapa S95 que un intervalo dinámico de luminancia correspondiente a la unidad de pantalla 95 es un intervalo dinámico de luminancia de la imagen decodificada, la unidad de conversión 93 suministra la imagen decodificada que se suministra desde la unidad de decodificación 92, a la unidad de control de pantalla 94 como una imagen de la pantalla sin cambios. Además, el proceso prosigue al paso S97.
En la etapa S97, la unidad de control de pantalla 94 muestra la imagen de la pantalla suministrada desde la unidad de conversión 93 en la unidad de pantalla 95 y termina el proceso.
Como se mencionó anteriormente, el dispositivo de decodificación 90 convierte la imagen decodificada en la imagen convertida sobre la base de la información de conversión DR, y por lo tanto puede convertir una imagen decodificada a una imagen convertida deseada.
Además, en la segunda modalidad, una de una imagen de SDR y una imagen de HDR es una imagen de destino de codificación, y la otra es una imagen convertida, pero una imagen de SDR se puede sustituir por una imagen de desarrollo desensibilizada de una imagen de HDR con en la que un valor esperado de brillo de la unidad de pantalla correspondiente al valor máximo de luminancia es mayor que el de la imagen de SDR.
Segundo ejemplo de información de conversión DR Las Figuras 24 y 25 son diagramas que ilustran ejemplos de información de conversión DR establecidos en SEI de knee function info en un caso en el que una de una imagen de desarrollo insensibilizada y una imagen de HDR es una imagen de destino de codificación y la otra es una imagen convertida. Además, en los ejemplos de las Figs.24 y 25, la imagen de desarrollo insensibilizada es una imagen en la que un intervalo dinámico de luminancia es de 0 a 200%, obtenido mediante la modalidad de desarrollo insensibilizada de 1 EV (valor de exposición) en una imagen de HDR. Además, un valor esperado de brillo de la unidad de pantalla correspondiente al valor máximo de luminancia de la imagen de desarrollo desensibilizada es de 400 (candela por metro cuadrado) superior a 200 (candela por metro cuadrado), que es un valor esperado de brillo correspondiente a la valor máximo de luminancia de una imagen SDR.
La información que indica que una imagen de destino de codificación o una imagen convertida es una imagen obtenida mediante la modalidad de desarrollo insensibilizada en una imagen de HDR, y un intervalo dinámico de luminancia de la imagen de desarrollo insensibilizada se ajustan en tone_mapping_info_SEI por la unidad de ajuste 71.
En el ejemplo de la Figura 24, una imagen de destino de codificación es una imagen de desarrollo insensibilizada, y el usuario ajusta una imagen de HDR que se obtiene como resultado de descompresión por inflexión de 160% a 200% de luminancia de la imagen desarrollo insensibilizadas a 160% al 400%, como deseada imagen convertida. En este caso, en la información de la función de inflexión SEI, 800 se ajusta que la información de la posición de pre-conversión (input_knee_point), y 400 se ajusta que la información de la posición posterior a conversión (output_knee_point).
Además, en el ejemplo de la Figura 24, la información de intervalo de luminancia HDR (d_range) es 4000, y el intervalo de pantalla de luminancia (d_range_disp_luminance) es 800 (candela por metros cuadrados).
Como en el caso de la Figura 24, en un caso donde una imagen de destino de codificación es una imagen de desarrollo desensibilizada, y una imagen convertida es una imagen de HDR, un punto de inflexión input_knee_point_PER (%) y output_knee_poínt_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión se definen por la ecuación anterior (1).
Por lo tanto, el dispositivo de decodificación 90 reconoce que el punto de inflexión input_knee_point_PER y output__knee_point_PER de luminancia es 160% de acuerdo con la ecuación (1). Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen convertida es 400% a partir de la información de intervalo de luminancia HDR. Además, el dispositivo de decodificación 90 reconoce que un intervalo dinámico de luminancia de la imagen de destino de codificación es de 0 a 200% de la tone_mapping_info_SEI. Además, en un caso en el que la unidad de pantalla 95 es una pantalla de HDR, de 160% a 200% de la luminancia de una imagen de desarrollo desensibilizada que se obtiene como resultado de la decodificación es descomprimido por inflexión de 160% a 400% de manera que se muestra como una imagen de pantalla.
Por otro lado, en un caso en el que la unidad de pantalla 95 es una pantalla de SDR, el dispositivo de decodificación 90 muestra una imagen de desarrollo insensibilizada como una imagen de la pantalla sin cambios. En este momento, un valor esperado de brillo de la unidad de pantalla correspondiente al valor máximo de luminancia de la imagen de desarrollo desensibilizada es mayor que la de una imagen de SDR, y por lo tanto el brillo de la imagen de la pantalla es insuficiente.
Sin embargo, recientemente, una pantalla SDR (en lo sucesivo, denominada como una pantalla de luminancia de alta SDR) de las cuales se ha desarrollado el brillo correspondiente al valor máximo de luminancia es relativamente alto de 300 (candela por metro cuadrado) o similar. En un caso en el que la unidad de pantalla 95 es una pantalla de SDR alta luminancia, el brillo de una imagen de pantalla se puede mantener suficientemente incluso si una imagen de desarrollo desensibilizada se muestra como la imagen de la pantalla sin cambios. Además, puesto que una relación de compresión de la compresión de inflexión durante la generación de una imagen de destino de codificación es menor que en un caso en que es una imagen de destino de codificación de una imagen de SDR, puede ser mejorada la calidad de una imagen de pantalla.
En el ejemplo de la Figura 25, una imagen de destino de codificación es una imagen de HDR, y el usuario ajusta una imagen de desarrollo insensibilizada que se obtiene como resultado de la compresión de inflexión de 160% a 400% de luminancia de la imagen de HDR de 160% a 200%, como una imagen convertida deseada. En este caso, en la SEI de knee_function_info, 400 se ajusta como la información de posición previa a conversión (input_knee_point), y 800 se ajusta como la información de la posición posterior a conversión (output_knee_point).
Además, en el ejemplo de la Figura 25, la información de intervalo de luminancia HDR (d_range) es 4000, y el intervalo de pantalla de luminancia (d_range_disp luminance) es 800 (candela por metros cuadrados).
Como en el caso de la Figura 25, en un caso en que una imagen de destino de codificación es una imagen de HDR y una imagen convertida es una imagen de desarrollo insensibilizada, un punto de inflexión input_knee_point_PER (%) y output_knee_point_PER de luminancia (%) de una imagen convertida que corresponde al punto de inflexión se definen por la ecuación (2) anterior.
Por lo tanto, el dispositivo de decodificación 90 reconoce que el punto de inflexión input_knee_point_PER y el output_knee_point_PER de luminancia son 160% de acuerdo con la ecuación (2). Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen de destino de codificación es 400% a partir de la información de intervalo de luminancia HDR. Además, el dispositivo de decodificación 90 reconoce que un intervalo dinámico de luminancia de la imagen convertida es de 0 a 200% de la tone_mapping_info_SEI.
Además, en un caso en el que la unidad de pantalla 95 es una pantalla de SDR, el dispositivo de decodificación 90 comprime por inflexión de 160% a 400% de la luminancia de una imagen de HDR que se obtiene como resultado de la decodificación a 160% a 200% de manera que se muestra un resultado comprimido como una imagen de pantalla. En este caso, como se describió anteriormente, es insuficiente el brillo de la imagen de la pantalla. Sin embargo, en un caso en el que la unidad de pantalla 95 es una pantalla de SDR de alta luminancia, el brillo de una imagen de pantalla se puede mantener suficientemente como se describió anteriormente. Además, la calidad de una imagen de pantalla puede ser mejorada.
Por otro lado, en un caso en el que la unidad de pantalla 95 es una pantalla de HDR, el dispositivo de decodificación 90 muestra una imagen de HDR que se obtiene como resultado de decodificación como una imagen de la pantalla sin cambios.
Además, la información de conversión DR de la Figura 17 puede ser incluida en SEI tal como tone_mapping_info_SEI diferente a SEI de info_function_knee.
Primer ejemplo de la sintaxis de tone_mapping_info_SEI La Figura 26 es un diagrama que ilustra un ejemplo de la sintaxis de tone mapping_info_SEI en un caso donde la información de conversión DR de la Figura 17 está incluida en tone_mapping_info_SEI.
La tone_mapping_info_SEI es SEI con respecto conversión de luminancia. Como se ilustra en la Figura 26, en un caso donde la información de conversión DR de la Figura 17 está incluida en tone_mapping info_SEI, tone_ ap_model_id que indica un modelo de conversión de luminancia se ajusta en, por ejemplo, 5. Además, en la tone_mapping_info_SEI, la información de posición previa a conversión (input_knee_point), la información de posición posterior a la conversión (output_knee_point), información de intervalo de luminancia HDR (d_range) y muestran información de luminancia (d_range_disp_luminance) se ajustan en el tone_mapping_info_SEI como información de conversión DR.
Además, la información de intervalo de luminancia de HDR (d__range) y la información de la pantalla de luminancia (d_range_disp_luminance) se incluyen en tone_mapping_info_SEI cuando tone_map_model_id es 4. Por lo tanto, como se ilustra en la Figura 27, la información de intervalo de luminancia de HDR (d_range) y la información de la pantalla de luminancia (d_range_disp_luminance) no pueden incluirse en tone_mapping_info_SEI. Además, sólo uno de la información de intervalo de luminancia de HDR (d_range) y la información de pantalla de luminancia (d range disp luminance) pueden ser incluidos.
Segundo ejemplo de la sintaxis de SEI de knee_func ion_info La Figura 28 es un diagrama que ilustra un segundo ejemplo de la sintaxis de la SEI de knee_function_info establecida por la unidad de ajuste 71 de la Figura 16, y la Figura 29 es un diagrama que ilustra cada pieza de información que se muestra en la información de la función de inflexión SEI de la Figura 28.
Una pluralidad de puntos de inflexión se encuentra en la SEI de knee_function_info de la Figura 28.
Específicamente, de la misma manera como en el caso de la Figura 17, una ID de conversión de inflexión (knee_function_id) y una etiqueta de cancelación de conversión de inflexión (knee_function_cancel_flag) se ajustan en la información de la función de inflexión SEI de la Figura 28.
Además, si la etiqueta de cancelación de conversión de inflexión es 0, como se ilustra en la Figura 28, la información de conversión DR se encuentra en SEI de knee_function__info. La información de conversión DR es la misma que en el caso de la Figura 17, excepto que están incluidos una etiqueta de compresión (compression_flag) y un número de punto de inflexión (num_knee_point_minusl), y la información previa a la conversión de la posición (input_knee_point) y la información de posición posterior a la conversión (output_knee_point) se ajustan para cada punto de inflexión. La descripción de la misma parte como en el caso de la Figura 17 se repite y por lo tanto se omitirá según corresponda.
Como se ilustra en la Figura 29, la etiqueta de compresión es una etiqueta que indica si la conversión de inflexión es la compresión de inflexión. En otras palabras, en un caso donde el número de puntos de inflexión es uno, cuando la información de posición previa a conversión (input_knee__point) es igual o superior a la información de posición posterior a la conversión (output_knee_point), se puede determinar si la conversión de inflexión es la descompresión de inflexión, y cuando la información de posición previa a conversión (input_knee_point) es menor que la información de posición posterior a conversión (output_knee_point), se puede determinar que la conversión de inflexión es la compresión de inflexión.
Sin embargo, en un caso donde hay un número de puntos de inflexión, es incapaz de determinar con precisión si la conversión de inflexión es la descompresión de inflexión o la compresión de inflexión mediante el uso de la correlación de magnitud entre la información de posición antes de la conversión y la información de posición pósterior a la conversión, y por lo tanto se ajusta la etiqueta de compresión. Además, incluso en un caso donde el número de puntos de inflexión es uno, puede ser ajustada la etiqueta de compresión. La etiqueta de compresión se pone a 1 cuando la conversión de inflexión es la compresión de inflexión, y se ajusta a 0 cuando la conversión de inflexión es la descompresión de inflexión.
El número de punto de inflexión es un valor obtenido restando 1 del número de puntos de inflexión. Además, una orden i (donde es un número entero de 0 o más) en el que la información de posición previa a la conversión e información de conversión posterior a información de los puntos de inflexión se ajusta es un orden en el que se reduce la información de posición previa a la conversión.
Tercer ejemplo de información de conversión DR Las Figuras 30 y 31 son diagramas que ilustran ejemplos de información de conversión DR ajustadas en la SEI de knee_function_info de la Figura 28.
En el ejemplo de la Figura 30, una imagen de destino de codificación es una imagen SDR. Además, el usuario ajusta una imagen de HDR que se obtiene como resultado de la conversión de respectivamente 0 a 60%, 60% a 80%, 80% a 90%, y 90% a 100% de una imagen de SDR en 0 a 40% , 40% a 100%, 100% a 180%, y 180% a 400%, como una imagen convertida deseada.
En este caso, en la SEI de knee_function_info, 600 se ajusta como información de la posición previa a la conversión (input_knee_point [0]) del punto de inflexión 0-ésimo, y 100 se ajusta como información de posición posterior a la conversión (output__knee_point [0]) del mismo. 800 se ajusta como información de posición pre-conversión (input_knee_point [1]) del primer punto de inflexión, y 250 se ajusta como información de posición posterior a la conversión (output_knee__point [1]) de los mismos.900 se fija como información de posición previa a conversión (input knee point [2]) del segundo punto de inflexión, y 450 se ajusta como información de posición posterior a la conversión (output_knee_point [2]) del mismo.
Además, en el ejemplo de la Figura 30, la información de intervalo de luminancia HDR (d_range) es 4000, el intervalo de pantalla de luminancia (d_range_disp__luminance) es 800 (candelas por metro cuadrado), y la etiqueta de compresión (compression_flag) es 0.
Como se describió anteriormente, en un caso donde una imagen de destino de codificación es una imagen de SDR, y una imagen convertida es una imagen de HDR, un punto de inflexión input_knee_point_PER (%) y output_knee_point_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión son definidos por la ecuación anterior (1) Por lo tanto, el dispositivo de decodificación 90 reconoce que el 0-ésimo a los puntos de inflexión segundo input knee point_PER son, respectivamente, 60%, 80%, y 90% de acuerdo con la ecuación (1). Además, el dispositivo de decodificación 90 reconoce que el 0-ésimo a segunda output knee point_PER de luminancia son, respectivamente, de 40%, 100%, y 180%. Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen convertida es 400% a partir de la información de intervalo de luminancia de HDR.
Además, el dispositivo de decodificación 90 convierte por inflexión respectivamente 0 a 60%, 60% a 80%, 80% a 90%, y 90% a 100% de una imagen de SDR que se obtiene como resultado de la decodificación en 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400%, de acuerdo a una linea recta de conversión en la que los puntos de inflexión están conectados el uno al otro en un orden establecido. Por lo tanto, el dispositivo de decodificación 90 puede convertir la imagen de SDR que se obtiene como resultado de la decodificación, en una imagen de HDR deseada.
En el ejemplo de la Figura 31, una imagen de destino de codificación es una imagen de HDR. Además, el usuario ajusta una imagen de SDR que se obtiene como resultado de la conversión de respectivamente 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400% de la luminancia de una imagen de HDR en 0 a 60%, 60% a 80%, 80% a 90%, y 90% a 100%, como una imagen convertida deseada.
En este caso, en la SEI de knee_function_info, 100 se ajusta como información de la posición pre-conversión (input_knee_point [0]) del punto de inflexión 0-ésimo, y 600 se ajusta como información de posición posterior a la conversión (output_knee_point [0]). 250 se fija como información de posición previa a conversión (input_knee_point [1]) del primer punto de inflexión, y 800 se ajusta como información de posición posterior a la conversión (output_knee_jpoint [1]). 450 se fija como ([2] input_knee_point) del segundo punto de inflexión información de posición antes de la conversión, y 900 se ajusta como información de posición posterior a conversión (output_knee_point [2]).
Además, en el ejemplo de la Figura 31, la información de intervalo de luminancia de HDR (d_range) es de 4000, el intervalo de pantalla de luminancia (d_range_disp_luminance) es de 800 (candelas por metro cuadrado), y la etiqueta de compresión (compression_flag) es de 1.
Como se describió anteriormente, en un caso donde una imagen de destino de codificación es una imagen de HDR, y una imagen convertida es una imagen de SDR, un punto de inflexión input_knee_point PER (%) y output_knee_point_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión se define por la ecuación anterior (2).
Por lo tanto, el dispositivo de decodificación 90 reconoce que el 0-ésimo de los segundos puntos de inflexión input_knee_point_PER son, respectivamente, 40%, 100%, y 180% de acuerdo con la ecuación (2). Además, el 0-ésimo de la output_knee_point_PER de luminancia (%) son, respectivamente, de 60%, 80%, y 90%. Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen convertida es de 400% a partir de la información de intervalo de luminancia de HDR.
Además, el dispositivo de decodificación 90 convierte por inflexión de 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400% de una imagen de HDR que se obtiene como resultado de la decodificación en 0 a 60%, 60% a 80%, 80% a 90%, y 90% a 100% mediante la conexión de los puntos de inflexión entre si en un orden establecido. Por lo tanto, el dispositivo de decodificación 90 puede convertir la imagen de HDR que se obtiene como resultado de la decodificación, en una imagen de SDR deseada.
Como se ha mencionado anteriormente, en un caso en el que se ajustan una pluralidad de puntos de inflexión, una relación de compresión se puede ajustar con más precisión que en un caso en el que se ajusta un único punto de inflexión. Por lo tanto, es posible realizar la conversión de inflexión con una mayor precisión.
Además, la información de conversión DR de la Figura 28 puede ser incluida en SEI como tone_mapping_info_SEI distinto de SEI knee_function__info.
Segundo ejemplo de sintaxis de tone_mapping_info_SEI La Figura 32 es un diagrama que ilustra un ejemplo de la sintaxis de tone mapping info SEI en un caso donde la información de conversión DR de la Figura 28 está incluida en el tone_mapping_info_SEI.
Como se ilustra en la Figura 32, en un caso donde la información de conversión DR de la Figura 28 está incluida en tone_mapping__info_SEI, tone_map_model_id se ajusta en, por ejemplo, 5. Además, en el tone_mapping_info_SEI, etiqueta de compresión (compression_flag (mapping_flag)), información de intervalo de luminancia de HDR (d_range), muestran información de luminancia (d range disp luminance), un número de punto de inflexión (num_knee_point_minusl), y la información de posición antes de la conversión (input_knee_point) y la información de posición posterior a la conversión (output_knee_point) de cada punto de inflexión se ajustan en la tone_mapping_info_SEI como información de conversión DR.
Además, de la misma manera como en el tone_mapping_info_SEI de la Figura 27, la información de intervalo de luminancia de HDR (d range) y la información de la pantalla de luminancia (d range disp luminance) no pueden incluirse en la tone_mapping_info_SEI de la Figura 32. Además, puede ser incluido sólo uno de la información de intervalo de luminancia de HDR (d_range) y la información de pantalla de luminancia (d_range_disp_luminance )· Además, el número de punto de inflexión (num_knee_point__minusl) puede ser cualquiera de 0, 1, y 2 como se ilustra en las Figuras 33 a 35. En otras palabras, el número de punto de inflexión (num_knee_point_minusl) puede estar limitado a 2 o menos. En este caso, como se ilustra en las Figuras 33 a 35, el número de bits del número punto inflexión (num_knee_point_minusl) incluido en SEI de knee function info o la tone mapping_info SEI se ajusta a 2 bits (u (2)).
Como se mencionó anteriormente, se determina el valor máximo del número punto de inflexión (num_knee_point_minusl), y por lo tanto puede ser reducida una cantidad de información de conversión DR. En consecuencia, la información de conversión DR se puede transmitir con un pequeño paquete como en AVI Infoframe de Interfaz Multimedia de Alta Definición (HDMI (marca registrada)).
Tercer ejemplo de sintaxis de SEI de knee_function_info La Figura 36 es un diagrama que ilustra un tercer ejemplo de la sintaxis de SEI de knee_function_info ajustada por la unidad de ajuste 71 de la Figura 16, y la Figura 37 es un diagrama que ilustra cada pieza de información que se ilustra en la información de la función de inflexión SEI de la Figura 36.
Una pluralidad de puntos de inflexión y un punto de inflexión (en adelante, conocidos como un punto de inflexión representante) que se utiliza de forma representativa se ajustan en la información de la función de inflexión SEI de la Figura 36.
Específicamente, de la misma manera como en el caso de la Figura 17, una ID de conversión de inflexión (knee function id) y una etiqueta de cancelación de conversión de inflexión (knee_function cancel_flag) se ajustan en la SEI de knee_function info de la Figura 36.
Además, si la etiqueta de cancelación de conversión de inflexión es 0, como se ilustra en la Figura 36, información de conversión DR se encuentra en la SEI de knee_function_info. La información de conversión DR es la mismo que en el caso de la Figura 28, excepto que está incluida la información de posición previa a conversión representativa (representative_input_knee_point) y la información de posición posterior a la conversión representante (representative_output_knee_point). La descripción de la misma parte como en el caso de la Figura 28 se repite y por lo tanto se omitirá según corresponda.
Como se ilustra en la Figura 37, la información posición previa a conversión representativa se indica la información de un punto de inflexión representante de una imagen de destino de codificación que es una imagen convertida en la conversión correspondiente a la información de conversión DR, y es un permillage del punto inflexión representativas cuando el valor máximo de luminancia de la imagen de destino de codificación se ajusta en 1000 permil.
La información representativa posición pre conversión es información que indica la luminancia correspondiente a un punto de inflexión representante de una imagen convertida en la conversión correspondiente a la información de conversión DR, y es un permillage de luminancia correspondiente a un punto de inflexión cuando el valor máximo de luminancia de la convertida imagen está ajustado en 1000 permil.
Además, el punto de inflexión representativo puede ser uno de los puntos de inflexión correspondientes a una pluralidad de piezas de información de posición previas a conversión incluidas en la información de conversión DR, y puede ser un punto de inflexión que es completamente diferente desde el punto de inflexión.
Cuarto ejemplo de información de conversión DR La Figura 38 es un diagrama que ilustra un ejemplo de información de conversión DR ajustada en la SEI de knee function info de la Figura 36.
En el ejemplo de la Figura 38, una imagen de destino de codificación es una imagen SDR. Además, el usuario ajusta una imagen de HDR que se obtiene como resultado de la conversión de respectivamente 0 a 60%, 60% a 80%, 80% a 90%, y 90% a 100% de una imagen de SDR en 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400%, como una imagen convertida deseado cuando el dispositivo de decodificación 90 realiza la conversión de inflexión con una alta precisión. Además, el usuario ajusta una imagen de HDR que se obtiene por la descompresión por inflexión de 80% a 100% de la luminancia de una imagen de SDR a 80% a 400%, como una imagen convertida deseado cuando el dispositivo de decodificación 90 realiza la conversión de inflexión simple con baja precisión.
En este caso, en la SEI de knee_function_info, los mismos valores que en la Figura 30 se ajustan como la información de posición previas a conversión (input_knee_point) y la información de posición posterior a conversión (output_knee_point) de la 0-ésima a los segundos puntos de inflexión. Además, la información de posición previa a conversión representativa (representative_input_knee__point) es 800, y la información de posición posterior a la conversión representativa (representative_output_knee_point) es de 200.
Además, en el ejemplo de la Figura 38, la Información de intervalo de luminancia HDR (d_range) es 4000, el intervalo de pantalla de luminancia (d range disp lu inance) es 800 (candelas por metro cuadrado), y la etiqueta de compresión (compression_flag) es 0.
Como se ilustra en la Figura 38, en un caso en el que el dispositivo de decodificación 90 realiza la conversión de inflexión simple con baja precisión, el dispositivo de decodificación 90 reconoce que el punto de inflexión representativo representative_input_knee_point_PER (%) y representative input knee_point PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión representativo son de 80% de acuerdo con la ecuación anterior (1). Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen convertida es 400% a partir de la información de intervalo de luminancia de HDR. Además, el dispositivo de decodificación 90 de inflexión-descomprime 80% a 100% de la luminancia de una imagen de SDR que se obtiene como resultado de la decodificación, a 80% a 400%. Por lo tanto, el dispositivo de decodificación 90 puede convertir la imagen de SDR que se obtiene como resultado de la decodificación en una imagen de HDR deseada.
Por otro lado, en un caso en el que el dispositivo de decodificación 90 realiza la conversión de inflexión con una alta precisión, el dispositivo de decodificación 90 realiza el mismo proceso que en la Figura 30, y convierte una imagen de SDR que se obtiene como resultado de la decodificación en una imagen de HDR deseada.
Como se mencionó anteriormente, la información posición previa a conversión representativa (representative_input_knee_point) y la información de posición posterior a conversión representante (representative_output_knee_point) se incluyen en la información de conversión DR de la Figura 36. Por lo tanto, incluso en un caso en el que una tasa de procesamiento o un recurso como una capacidad de memoria es incapaz de ser suficientemente asegurado en el dispositivo de decodificación 90, la conversión de inflexión se puede realizar sobre la base de un punto de inflexión representativo. Además, puesto que la información de posición previa a conversión representativa y la información de posición posterior a la conversión representativa se transmiten al dispositivo de decodificación 90, el dispositivo de decodificación 90 no tiene que generar la información de posición previa a conversión representativa y la información posición posterior a la conversión representativa en la base de la información de posición antes de la conversión y la información de posición posterior a la conversión de una pluralidad de puntos de inflexión.
Además, la información de conversión DR de la Figura 36 pueden ser incluidos en SEI como tone_mapping info SEI distinto de SEI knee function info.
Tercer ejemplo de sintaxis de tone_mapping_info_SEI La Figura 39 es un diagrama que ilustra un ejemplo de la sintaxis de tone_mapping_info SEI en un caso donde la información de conversión DR de la Figura 36 está incluido en el tone_mapping_info_SEI.
Como se ilustra en la Figura 39, en un caso donde la información de conversión DR de la Figura 36 está incluido en el tone mapping_info_SEI, tone_map_model id se ajusta en, por ejemplo, 5. Además, en el tone_mapping_info SEI, una etiqueta de compresión (compression__flag), información de posición previo a conversión representativo (representative__input_knee_point), información de posición posterior a la conversión representativa (representative_output_knee_point), información de intervalo de luminancia HDR (d__range), muestran información de luminancia (intervalo_d_disp_luminance), un número de punto de inflexión (num_knee_point_minusl), y la información previa a la conversión de la posición (input_knee_point) y la información de posición posterior a la conversión (output_knee_point) de cada punto de inflexión se ajustan en la tone mapping info_SEI como información de conversión DR.
Además, de la misma manera que en la tone mapping info SEI de la Figura 27, la información de intervalo de luminancia de HDR (d_range) y la información de la pantalla de luminancia (d range disp luminance) no pueden incluirse en el tone_mapping_info SEI de la Figura 39. Además, sólo puede ser incluido uno de la información de intervalo de luminancia de HDR (d_range) y la información de pantalla de luminancia (d_range_disp_luminance).
Cuarto ejemplo de sintaxis de SEI de knee_function_info La Figura 40 es un diagrama que ilustra un cuarto ejemplo de la sintaxis de SEI de knee_function info ajustado por la unidad de ajuste 71 de la Figura 16, y la Figura 41 es un diagrama que ilustra (semántica) de cada pieza de información que se ilustra en la información de la función de inflexión SEI de la Figura 40.
En la información de la función de inflexión SEI de la Figura 40, otras imágenes una imagen de SDR que se pueden emplear como uno de una imagen de destino de codificación y una imagen convertida.
Específicamente, de la misma manera como en el caso de la Figura 17, un ID de conversión inflexión (knee_function_id) y una etiqueta de cancelación de conversión de inflexión (knee_function_cancel_flag) se encuentran en la información de la función de inflexión SEI de la Figura 40.
Además, si la etiqueta de cancelación de conversión de inflexión es 0, como se ilustra en la Figura 40, información de conversión DR se encuentra en la información de la función de inflexión SEI. La información de conversión DR es el mismo que en el caso de la Figura 28, excepto que la etiqueta de la persistencia de conversión de inflexión (knee_function_persistence_flag) está recién incluido, y la información de intervalo de pantalla no convertida (input_d_range), muestran información de luminancia no convertida (input_disp_lurninance), convierte la información intervalo de pantalla (output_d_range), y se convierte la información de pantalla de luminancia (input_disp_luminance) se incluyen en lugar de la información del intervalo de luminancia HDR (d_range) y la información de la pantalla de luminancia (d range_disp_luminance). Se repite la descripción de la misma parte como en el caso de la Figura 28 y por lo tanto se omitirá según corresponda.
Como se ilustra en la Figura 41, la etiqueta de persistencia de conversión de inflexión es una etiqueta que indica si la información de conversión DR se aplica o no a una pluralidad de imágenes que se encuentran continuamente. La etiqueta persistencia de conversión de inflexión se ajusta en 1 cuando se aplica la información de conversión DR a una pluralidad de imágenes que se encuentran de forma continua, y se ajusta en 0 cuando se aplica la información de conversión DR a una sola imagen. La etiqueta persistencia de conversión de inflexión también puede ajustarse en la información de la función de inflexión SEI de las Figuras 17, 28, 34 y 36.
Además, la información intervalo de luminancia no convertida es información que indica un permillage del valor máximo de luminancia de una imagen de destino de codificación que es una imagen no convertida en la conversión correspondiente a la información de conversión DR, y la información de intervalo de luminancia convertida es información que indica un permillage del valor máximo de luminancia de una imagen convertida.
Además, la información de pantalla de luminancia no convertida es información que indica un valor esperado de brillo de la unidad de pantalla correspondiente al valor máximo de luminancia de una imagen de destino de codificación, y la información de pantalla de luminancia convertida es información que indica un valor esperado de brillo de la pantalla unidad correspondiente al valor máximo de luminancia de una imagen convertida.
Quinto ejemplo de información de conversión DR Las Figuras 42 y 43 son diagramas que ilustran ejemplos de información de conversión DR ajustada en la SEI de knee_function_info de la Figura 40.
En el ejemplo de la Figura 42, una imagen de destino de codificación es una imagen de HDR (de aquí en adelante, referido como una imagen de HDR 200%), cuyo intervalo dinámico es de 0 a 200%. Además, el usuario ajusta una imagen de HDR a 400% que se obtiene como resultado de conversión por inflexión, respectivamente de 0 a 120%, 120% y 160%, 160% a 180%, y 180% a 200% de la luminancia de un 200 % imagen de HDR en 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400%, como una imagen convertida deseada. La imagen de HDR 400% es una imagen de HDR cuyo intervalo dinámico es de 0 a 400%.
En este caso, en la SEI de knee_function_info, los mismos valores que en la Figura 30 se ajustan como la información de posición pre-conversión (input_knee_point) y la información de posición posterior a conversión (output_knee_point) de la 0-ésima a los segundos puntos de inflexión. Además, 2000 se ajusta como la información del intervalo de luminancia no convertida (input_d_range), y 4000 se ajusta como la información de intervalo de luminancia convertida (output_d_range) Además, en el ejemplo de la Figura 42, la información en pantalla luminancia no convertida (input_disp_luminance) es de 400 (candelas por metro cuadrado), y la información en pantalla luminancia convertida (output_disp_luminance) es de 800 (candelas por metro cuadrado). La etiqueta de compresión (compression_flag) es de 0.
Como se ilustra en la Figura 42, en un caso donde una imagen de destino de codificación es una imagen con un intervalo dinámico correspondiente a la información de intervalo de luminancia no convertida, y una imagen convertida es una imagen con un intervalo dinámico correspondiente a la información de intervalo de luminancia convertida, un punto de inflexión de input_knee_point_PER (%) y output_knee_point_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión se definen por la siguiente ecuación (3).
Matemáticas 3 input_d__range input_knee_point input_knee_point_DR x 10 1000 output d range output_knee_point output_knee_point_DR _ x 10 1000 (3) Por lo tanto, el dispositivo de decodificación 90 reconoce que el 0-ésimo a los puntos de inflexión segundo input_knee_point_PER son, respectivamente, 120%, 160%, y 180% de acuerdo con la ecuación (3). Además, el dispositivo de decodificación 90 reconoce que el 0-ésimo a segunda luminancias output_knee_point_PER son, respectivamente, del 40%, 100%, y 180%. Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen de destino de codificación es de 200% a partir de la información de intervalo de luminancia de entrada, y el valor máximo de luminancia de la imagen convertida es de 400% a partir de la información de intervalo de luminancia de salida.
Además, el dispositivo de decodificación 90 respectivamente inflexión-convierte 0 a 120%, 120% y 160%, 160% a 180%, y 180% a 200% de una imagen 200% HDR que se obtiene como resultado de la decodificación en 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400%, de acuerdo a una linea recta de conversión en la que los puntos de inflexión están conectados el uno al otro en un orden establecido. Por lo tanto, el dispositivo de decodificación 90 puede convertir la imagen de HDR al 200% que se obtiene como resultado de la decodificación, en una imagen de HDR al 400% deseada.
En el ejemplo de la Figura 43, una imagen de destino de codificación es una imagen de HDR al 400%. Además, el usuario ajusta una imagen de HDR al 200% que se obtiene como resultado convirtiendo por inflexión respectivamente de 0 a 40%, de 40% a 100%, de 100% a 180%, y de 180% a 400% de la luminancia de una imagen de HDR al 400%, de 0 a 120%, 120 y 160%, 160% a 180%, y 180% a 200% como una imagen convertida deseada.
En este caso, en la SEI de knee_function_info, los mismos valores que en la Figura 31 se ajustan como información de posición antes de la conversión (Input_knee_point) y la información de posición posterior a la conversión (output_knee_point) del 0-ésimo a los segundos puntos de inflexión. Además, 4000 se ajusta como la información intervalo de luminancia no convertida (input d range), y 2000 se ajusta como la información intervalo de luminancia convertida (output_d_range).
Además, en el ejemplo de la Figura 43, la información en pantalla luminancia no convertida (input_disp_luminance) es de 800 (candelas por metro cuadrado), y la información en pantalla luminancia convertida (output_disp_luminance) es de 400 (candelas por metro cuadrado). La etiqueta de compresión (compression_flag) es de 1.
Como se describió anteriormente, en un caso donde una imagen de destino de codificación es una imagen con un intervalo dinámico correspondiente a la información de intervalo de luminancia no convertido, y una imagen convertida es una imagen con un intervalo dinámico correspondiente a la información de intervalo de luminancia convertida, punto de inflexión de input knee point PER (%) y output_knee_point_PER de luminancia (%) de una imagen convertida correspondiente al punto de inflexión se define por la ecuación anterior (3).
Por lo tanto, el dispositivo de decodificación 90 reconoce que el 0-ésimo para los segundos puntos de inflexión input_knee_point_PER son, respectivamente, de 40%, 100%, y 180% de acuerdo con la ecuación (3). Además, el dispositivo de decodificación 90 reconoce que el 0-ésimo para los segundos output_knee_point_PER de luminancia (%) son, respectivamente, 120%, 160%, y 180%. Además, el dispositivo de decodificación 90 reconoce que el valor máximo de luminancia de la imagen de destino de codificación es del 400% a partir de la información de intervalo de luminancia de entrada, y el valor máximo de luminancia de la imagen convertida es del 200% a partir de la información de intervalo de luminancia de salida.
Además, el dispositivo de decodificación 90 convierte por inflexión respectivamente del 0 a 40%, 40% a 100%, 100% a 180%, y 180% a 400% de una imagen de HDR al 400% que se obtiene como resultado de la decodificación de 0 a 120%, 120% y 160%, 160% a 180%, y 180% a 200%, mediante la conexión de los puntos de inflexión entre si en un orden establecido. Por lo tanto, el dispositivo de decodificación 90 puede convertir la imagen de HDR al 400% que se obtiene como resultado de la decodificación, en una imagen de HDR al 200% deseado.
Como se ha mencionado anteriormente, según la información de conversión DR de la Figura 40, no sólo la conversión entre una imagen de SDR y una imagen de HDR, sino también la conversión entre imágenes HDR con diferentes rangos dinámicos se puede realizar según se desee por un usuario en el dispositivo de decodificación 90. Un intervalo dinámico de una imagen de HDR puede ser mayor de 0 a 100%, y puede ser de 0 a 400%, de 0 a 800%, 0 a 1300%, y similares.
Además, un valor esperado de brillo de la pantalla correspondiente al valor máximo de luminancia de una imagen de HDR puede ser mayor que de 100 (candela por metro cuadrado), y puede ser de 800 (candela por metro cuadrado), de 4000 (candela por metro cuadrado metros), de 1500 (candelas por metro cuadrado), y similares.
Descripción del funcionamiento del dispositivo de decodificación La Figura 44 es un diagrama que ilustra una operación del dispositivo de decodificación 90 en un caso donde la SEI knee_function_info de la Figura 40 se encuentra en una pluralidad.
En un ejemplo de la Figura 44, una imagen de destino de codificación es una imagen de HDR al 400%. Además, la información de función de inflexión SEI (en lo sucesivo, denominada como SEI de knee_function_info de la imagen de HDR al 800%) para ajustar una imagen convertida deseada una imagen de HDR al 800% cuyo intervalo dinámico es de 0 a 800%, y se ajustan la SEI de knee_function_info (en lo sucesivo, denominada imagen de SDR de SEI de knee_function_info) para ajustar una imagen convertida deseada a una imagen SDR. En este caso, diferentes ID de conversión de inflexión se dan a la imagen de HDR al 800% de SEI de knee_function_info y la imagen de SDR de SEI de knee_function_info.
En un caso en el que la unidad de pantalla 95 es una pantalla de HDR que puede mostrar una imagen de HDR al 800%, el dispositivo de decodificación 90 descomprime por inflexión la luminancia de una imagen de HDR al 400% que es una imagen decodificada sobre la base de la imagen de HDR al 800% de SEI de knee_function_info, a fin de generar una imagen de HDR al 800% deseada como una imagen de pantalla.
Por otro lado, en un caso en el que la unidad de pantalla 95 es una pantalla de HDR que puede mostrar una imagen de HDR al 400%, el dispositivo de decodificación 90 utiliza una imagen de HDR al 400% que es una imagen decodificada como una imagen de la pantalla sin cambios. Además, en un caso en el que la unidad de pantalla 95 es una pantalla de SDR, el dispositivo de decodificación 90 comprime por inflexión la luminancia de una imagen de HDR al 400% que es una imagen decodificada sobre la base de la imagen de SDR de SEI de knee_function_info, a fin de generar una imagen de SDR deseada como imagen de la pantalla.
Además, la información de conversión DR de la Figura 40 puede ser incluida en la SEI como tone mapping info SEI distinta de la SEI de knee_function info.
Cuarto ejemplo de sintaxis de tone_mapping_info_SEI La Figura 45 es un diagrama que ilustra un ejemplo de la sintaxis de tone_mapping_info_SEI en un caso donde la información de conversión DR de la Figura 40 está incluido en el tone_mapping_info_SEI.
Como se ilustra en la Figura 45, en un caso donde la información de conversión DR de la Figura 40 se incluye en tone_mapping__info_SEI, tone_map_model_id se ajusta en, por ejemplo, 5. Además, en el tone_mapping_info_SEI, una etiqueta de compresión (compression_flag), información de intervalo de entrada de luminancia (input__d_range), entrada de intervalo de pantalla de luminancia (disp__luminance_input_d_range) información intervalo de luminancia de salida (output_d_range), intervalo de salida de pantalla de luminancia (luminance_output_d_range_disp), un número de punto de inflexión (num_knee_point_minusl), y la información de posición previa a conversión (input_knee_point) y la información de la posición posterior a conversión (output knee point) de cada punto de inflexión se ajustan en la tone_mapping_info_SEI como información de conversión DR.
Además, por lo menos una de la información del intervalo de luminancia de entrada (input_d_range), el intervalo de luminancia de pantalla de entrada (input_d_range_disp_luminance), la información del intervalo de luminancia de salida (output_d_range), y el intervalo de luminancia de pantalla de salida (output d range disp luminance) no se pueden incluir en la tone_mapping_info_SEI de la Figura 45.
Además, en la descripción anterior, la información de conversión DR se dispone en SEI, pero puede disponerse en una capa del sistema.
Ejemplo de disposición de información de conversión DR en la caja de MP4 Descripción de caja de MP4 en la cual se dispone la información de conversión de DR La Figura 46 es un diagrama que ilustra una caja de MP4 como una capa del sistema en la cual se dispone la información de conversión DR.
Como se ilustra en la Figura 46, en un caso en donde la información de conversión DR se dispone en una caja de MP4, una caja de tinf (Caja de Información de Mapeo de Tonos) que almacena información de conversión DR como ToneMapInfo se define nuevamente. La caja de tinf se almacena en una caja de trak (caja de pistas) (una caja stbl almacenada en la misma) o una caja de traf (caja de fragmento de pistas).
Ejemplo de sintaxis de ToneMapInfo La Figura 47 es un diagrama que ilustra un ejemplo de la sintaxis de ToneMapInfo.
ToneMapInfo de la Figura 47 tiene la misma configuración que la de tone_mapping_info_SF,I de la figura 32 excepto que se inserta en la misma el padding_value para alineación de bites.
Además, aunque lo se ilustra, ToneMapInfo puede tener la misma configuración que la de tone__mapping_info_SEI de la Figura 26, 27, 39, o 45 excepto que padding_value para alineación de vires se inserta en el mismo.
Además, de la misma manera que en la segunda modalidad, la información de conversión en la primera modalidad puede estar dispuesta en una capa de sistema.
Además, una imagen de HDR deseada por un usuario puede ser una imagen de HDR que es introducida en el dispositivo de codificación 70.
Además, en la segunda modalidad, una imagen de HDR es introducida en el dispositivo de codificación 70, pero una imagen de SDR puede introducirse al mismo. En este caso, cuando una imagen de destino de codificación es una imagen de HDR, el dispositivo de codificación 70 convierte una imagen de SDR que se introduce desde un dispositivo externo en una imagen de HDR que se ajusta a continuación, como una imagen de destino de codificación.
Además, una pluralidad de puntos de inflexión se encuentra en la SEI de knee_function_info de la Figura 40. Por lo tanto, la conversión de inflexión de una función puede ser definida más uniforme y más compleja que en un caso en el que se ajusta un solo punto de inflexión. Como resultado, la unidad de conversión 93 puede realizar la conversión óptima de inflexión.
Sin embargo, si el número de inflexión señala aumentos, aumenta una cantidad de información de conversión DR. Por lo tanto, por ejemplo, en un caso donde una imagen decodificada y la información de conversión DR se transmiten con HDMI, una cantidad de la información de conversión DR es igual o mayor que 27 bytes que es un tamaño de un paquete de AVI InfoFrame de HDMI, y por lo tanto la información de conversión DR no se puede incluir en AVI InfoFrame.
Por lo tanto, en una tercera modalidad se describe más adelante, un dispositivo de decodificación realiza la reducción de salida de un punto de inflexión óptima en un caso en el que se reduce una cantidad de información de conversión DR, tal como un caso en el que la información de conversión DR se transmite con HDMI.
Tercera modalidad Primer ejemplo de la semántica Una primera configuración de una tercera modalidad de un dispositivo de codificación al que se aplica la presente descripción es la misma que la configuración del dispositivo de codificación 70 de la Figura 16 excepto por el orden i de puntos de inflexión y la semántica indicada por la SEI de knee_function_info de la Figura 40 establecida por la unidad de ajuste 71. Por lo tanto, en adelante, sólo se describirán el orden i de los puntos de inflexión y semántica indicada por la SEI de knee_function_info de la Figura 40.
En la primera configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción, el orden i de los puntos de inflexión se encuentra en un orden en el que las prioridades para la representación de una función de conversión por inflexión deseada son más altos en la SEI de knee_function_info de la Figura 40.
Además, la Figura 48 es un diagrama que ilustra que la semántica en la primera configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción es diferente de aquella de la segunda modalidad.
Como se ilustra en la Figura 48, en la semántica de la Figura 40 en la primera configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción, la información de posición previa a conversión (input_knee_point [i]) de un punto de inflexión i-ésimo puede ser igual o menor que antes de la conversión información de posición (input_knee___point [i—1]) de un punto de inflexión (i-l)-ésimo. En otras palabras, el orden i (donde i es un número entero de 0 o más) en el que se ajustan la información de la posición previa a la conversión y la información de posición posterior a la conversión de un punto de inflexión no puede ser un orden en el que es menor la información de posición posterior a conversión.
Además, una función (función de inflexión) de la conversión de inflexión es una linea recta que conecta los puntos de inflexión a la otra en un orden (orden ascendente) en el que es menor la información de posición previa a conversión (input_knee_point).
Además, una imagen decodificada puede ser convertida por inflexión utilizando una función aproximada de la conversión de inflexión. La función de conversión aproximada de inflexión es una linea recta que conecta los puntos de inflexión 0-ésimo a N-ésimo (donde N es igual o superior a 0 e igual o menor que num_knee_point minusl) entre si en un orden en el que la información de la posición previa a conversión es menor. Dado que el orden i de los puntos de inflexión se encuentra en un orden en el que una de las prioridades para la representación de una función de conversión de inflexión deseada es más alta, una función aproximada de la conversión de inflexión es más aproximada a una función de conversión de inflexión deseada como N es mayor.
Primer ejemplo de configuración de una modalidad del sistema de decodificación La Figura 49 es un diagrama de bloques que ilustra un primer ejemplo de configuración de una modalidad de un sistema de decodificación al que se aplica la presente descripción y que decodifica una emisión codificada transmitida desde la primera configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción.
Entre elementos constitutivos ilustrados en la Figura 49, a los mismos elementos constitutivos como los elementos constitutivos de las Figuras 12 y 22 se dan los mismos números de referencia. Descripción repetida se omitirá según sea apropiado.
Un sistema de decodificación 110 de la Figura 49 incluye un dispositivo de decodificación 111 y un dispositivo de pantalla 112. El dispositivo de decodificación 111 incluye una unidad de recepción 51, una unidad de extracción 91, una unidad de decodificación 92, una unidad de selección 121, y una unidad de transmisión 122.
La unidad de selección de 121 de los dispositivos de decodificación 111 adquiere SEI de knee_function_info entre los conjuntos de parámetros extraídos por la unidad de extracción 91. La unidad de selección 121 selecciona información de conversión DR del número (por ejemplo, 3) de los puntos de inflexión incluidas en un solo paquete de AVI InfoFrame de HDMI en un orden en el que el orden i es menor entre información de conversión DR de piezas de una pluralidad de puntos de inflexión incluidas en la SEI de knee_function_info. La unidad de selección 121 suministra la información de conversión DR seleccionada del punto de inflexión a la unidad de transmisión 122.
La unidad de transmisión 122 dispone la información de conversión DR seleccionada por la unidad de selección 121 en un solo paquete de AVI InfoFrame de HDMI, y transmite un resultado de la misma al dispositivo de pantalla 112 con HDMI junto con una imagen decodificada generada por la unidad de decodificación 92.
El dispositivo de pantalla 112 incluye una unidad de recepción 131, una unidad de conversión 93, una unidad de control de pantalla 94, y una unidad de pantalla 95.
La unidad de recepción 131 de] dispositivo de pantalla 112 recibe AVI InfoFrame y la imagen decodificada que se transmite desde la unidad de transmisión 122 con HDMI. La unidad de recepción 131 proporciona la información de conversión DR dispuesto en AVI InfoFrame y la imagen decodificada a la unidad de conversión 93.
Descripción del primer método de selección del punto de inflexión La Figura 50 es un diagrama que ilustra un ejemplo de un punto de inflexión y una función de conversión de inflexión definido por la SEI de knee_function_info que es recibida por el sistema de decodificación 110 de la Figura 49.
Además, en el ejemplo de la Figura 50, un número de punto de inflexión (número knee__point_minusl) ajusta en la SEI de knee_function_info es 8.
Como se ilustra en la Figura 50A, entre los ocho puntos de inflexión establecidos en la SEI de knee_function_info, la información de posición previa a conversión (input_knee_point [0]) del punto de inflexión 0-th es 200, y la información de posición posterior a la conversión (output_knee_point [0]) del mismo es 433. Además, la información de posición previa a conversión (input_knee_point_ [1]) del primer punto de inflexión es 600, y la información de posición posterior a la conversión (output_knee_point [1]) del mismo es 774, y la información de posición previa a conversión (input_knee_point [1]) [2]) del segundo punto de inflexión es de 100, y knee_point información de posición posterior a la conversión (salida [2]) de la misma es de 290.
Además, la información de posición previa a conversión (input_knee_point [3]) del tercer punto de inflexión es de 400, y la información d eposición posterior a conversión (output_knee_point [3]) del mismo es de 628, y la información de posición previa a conversión (input_knee point [4]) del cuarto punto de inflexión es de 800, y la información de posición posterior a conversión (output_knee_point [4]) es de 894.
Además, la información de posición previa a conversión (input_knee_point [5]) del quinto punto de inflexión es de 300, y la información de posición posterior a conversión (output_knee_point [5]) del mismo es de 540, y la información de posición previa a conversión (input_knee_point [6]) del sexto punto de inflexión es de 500, y la información de posición posterior a conversión (output knee point [6]) del mismo es de 705.
Además, la información de posición previa a conversión (input_knee_point [7]) del séptimo punto de inflexión es de 700, y la información de posición posterior a conversión (output_knee_point [7]) del mismo es de 836, y la información de posición previa a conversión (input_knee_point [8]) del octavo punto de inflexión es de 500, y la información de posición posterior a conversión (output_knee_point [8]) del mismo es de 949.
En este caso, los puntos de inflexión respectivos están conectados el uno al otro en un orden en el que la información de posición antes de la conversión es menor, y por lo tanto una función de la conversión de inflexión es como se ilustran en la Figura 50B. En otras palabras, una línea recta que conecta los puntos de inflexión entre sí en un orden del segundo, 0-ésimo, quinto, tercero, sexto, primero, séptimo, cuarto y octavo puntos de inflexión, sirve como una función de la conversión de inflexión. Además, el eje transversal de la Figura 50B expresa de luminancia de una imagen de destino de codificación, y el eje longitudinal expresa de luminancia de una imagen convertida. Esto también es el mismo para las Figuras 51, 52, y 57 a 59 descritas más adelante.
En un caso en el que la unidad de selección 121 selecciona piezas de información de conversión DR de tres puntos de inflexión de las piezas de información de conversión DR de los puntos de inflexión definidos por la SEI de knee_function_info de la Figura 50A, una función de conversión aproximada de inflexión que tiene los puntos seleccionados de inflexión es como se ilustra en la Figura 51.
En otras palabras, en este caso, la unidad de selección 121 selecciona piezas de información de conversión DR de los 0-ésimo a los segundos puntos inflexión de entre las piezas de información de conversión DR del 0-ésimo al octavo puntos de inflexión definidos por la SEI de knee_function_info. Por lo tanto, una función de conversión de inflexión que tiene los puntos seleccionados de inflexión es una linea recta que conecta del 0-ésimo al segundo punto de inflexión el uno al otro en un orden en el que la información de posición antes de la conversión es menor, es decir, en un orden del segundo, 0-ésimo y primero puntos de inflexión Mientras tanto, en un caso en el que la unidad de selección 121 selecciona información de conversión DR piezas de cinco puntos de inflexión de entre la información de conversión DR piezas de los puntos de inflexión definidos por el knee_function_info SEI de la Figura 50A, una función de conversión aproximada de inflexión que tiene los puntos seleccionados de inflexión es como se ilustra en la Figura 52.
En otras palabras, en este caso, la unidad de selección 121 elige las piezas de información de conversión DR de los 0-ésimo al cuarto puntos de inflexión de entre las piezas de información de conversión DR de los 0-ésimo a octavo puntos de inflexión definidos por el SEI de knee__function_info. Por lo tanto, una función de conversión de inflexión que tiene los puntos de inflexión seleccionados es una línea recta que conecta los 0-ésimo a cuarto puntos de inflexión entre ellos en un orden en el cual la información de posición previa a conversión es menor, es decir, en un orden de los segundo, 0-ésimo, tercero, primero y cuarto puntos de inflexión.
El orden i de los puntos de inflexión se ajustan en un orden de una prioridad para representar la función de la Figura 50B que es una función deseada de la conversión de inflexión es superior, y las piezas de información de conversión DR de un número predeterminado de los puntos de inflexión se seleccionan del orden inferior i. Por lo tanto, como se ilustra en las Figuras 51 y 52, una función aproximada de la conversión de inflexión es más aproximada a la función de la Figura 50B que en un caso en el que se seleccionan otros puntos de inflexión del mismo número.
Además, un número mayor de los puntos de inflexión conducen a una función más uniforme y más compleja. Por lo tanto, una función aproximada de la conversión de inflexión de la Figura 52 en la cual el número de puntos de inflexión es de cinco es más aproximado a la función de conversión de inflexión de la Figura 50B que una función aproximada de la conversión de inflexión de la Figura 51 en la cual el número de los puntos de inflexión es de tres.
Descripción de proceso en el sistema de decodificación La Figura 53 es una gráfica de flujo que ilustra un proceso de decodificación llevado a cabo por un dispositivo de decodificación 111 del sistema de decodificación 110 de la Figura 49.
En la etapa Slll de la Figura 53, la unidad de recepción 51 del dispositivo de decodificación 111 recibe una emisión codificada transmitida del dispositivo de codificación 70 de la Figura 16, y provee la emisión codificada a la unidad de extracción 91.
En la etapa S112, la unidad de extracción 91 extrae conjuntos de parámetros y datos codificados de la emisión codificada que se suministra desde la unidad de recepción 51. La unidad de extracción 91 suministra los conjuntos de parámetros y los datos codificados a la unidad de decodificación 92. Además, la unidad de extracción 91 equipos de SEI de knee function info entre el parámetro ajusta a la unidad de selección 121.
En la etapa S113, la unidad de decodificación 92 decodifica los datos codificados suministrados desde la unidad de extracción 91 en el método HEVC. En este momento, la unidad de decodificación 92 también se refiere a los conjuntos de parámetros suministrados desde la unidad de extracción 91 según sea necesario. La unidad de decodificación 92 suministra la imagen decodificada a la unidad de transmisión 122.
En la etapa S114, la unidad de selección 121 selecciona información de conversión DR del número de puntos de inflexión incluidas en un solo paquete de AVI InfoFrame de HDMI en un orden en el que el orden i es menor de entre piezas de información de conversión DR de una pluralidad de puntos de inflexión incluida en la SEI de knee_function_info de la unidad de extracción 91. La unidad de selección 121 suministra la información de conversión DR seleccionada del punto de inflexión a la unidad de transmisión 122.
En la etapa S115, la unidad de transmisión 122 dispone la información de conversión DR seleccionada por la unidad de selección 121 en un solo paquete de AVI InfoFrame de HDMI, y transmite un resultado de la misma al dispositivo de pantalla 112 con HDMI junto con una imagen decodificada generada por la unidad de decodificación 92. Además, se termina el proceso.
La Figura 54 es un organigrama que ilustra un proceso de pantalla realizada por el dispositivo de pantalla 112 del sistema de decodificación 110.
En la etapa S131 de la Figura 54, la unidad de recepción 131 del dispositivo de pantalla 112 recibe la información de conversión DR dispuesta en AVI InfoFrame y la imagen decodificada que se transmite desde la unidad de transmisión 122 con HDMI. La unidad de recepción 131 proporciona la información de conversión DR y la imagen decodificada a la unidad de conversión 93.
Los procesos en las etapas S132 a S134 son los mismos que los procesos en las etapas S95 y S97 de la Figura 23, y por lo tanto su descripción no se repetirá.
Como se mencionó anteriormente, en la primera configuración de la tercera modalidad a la que se aplica la presente descripción, la información de conversión DR del punto de inflexión en la que el orden se encuentra en un orden en el que una prioridad para la representación de una conversión deseada de inflexión es superior se ajusta en la SEI de knee__function_info y se transmite. Por lo tanto, el dispositivo de decodificación 111 selecciona información de conversión DR del número de puntos de inflexión incluida en un solo paquete de AVI InfoFrame en un orden en el que el orden i es menor, y por lo tanto puede disponer de información de conversión DR del punto de inflexión que indica una función aproximada de la conversión de inflexión que es más aproximada a una función de conversión deseada de inflexión en un solo paquete de AVI InfoFrame.
Ejemplo de la sintaxis de SEI de knee_function_info Una segunda configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción es la misma que la configuración del dispositivo de codificación 70 de la Figura 16 a excepción de SEI de knee_function_info ajustada por la unidad de ajuste 71 y la semántica. Por lo tanto, en lo sucesivo, sólo se describirán SEI de knee_function_info y la semántica.
La Figura 55 es un diagrama que ilustra un ejemplo de la sintaxis de la SEI de knee_function__info ajustada por la unidad de ajuste 71 en la segunda configuración de la tercera modalidad del dispositivo de codificación al que se aplica la presente descripción.
La SEI de knee_function_info de la Figura 55 es la misma que la SEI de knee_function__info de la Figura 40 excepto que un índice punto de inflexión aproximado (approximate knee_point_index) (información de prioridad) que indica que el orden i se pone en un orden en el que una de las prioridades para la representación de una función de conversión de inflexión deseado es superior.
En la SEI de knee_function_info de la Figura 55, el orden i de puntos de inflexión es un orden en el que la información de posición previa a conversión es menor de la misma manera como en el caso de la Figura 40, pero el indice de punto de inflexión aproximado (Approximate_knee_point_index) está recién establecido. Un valor del indice de punto de inflexión aproximada (approximate_knee_point_index) es igual o menor que el número de punto de inflexión (number_knee_point_minus1).
Segundo ejemplo de la semántica La Figura 56 es un diagrama que ilustra que la semántica de la Figura 55 es diferente de la de la segunda modalidad.
Como se ilustra en la Figura 56, en la semántica de la Figura 55, una imagen decodificada puede ser hasta la inflexión convertidos utilizando una función aproximada de la conversión de inflexión. Esta función de conversión aproximada de inflexión es una linea recta que conecta los puntos de inflexión en la que el orden i es 0-ésimo a N-ésimo (donde N es igual o superior a 0 e igual o menor que number_knee_point_minusl) del indice de punto de inflexión aproximado (approximate__knee_point_index [0] a approximate_knee_point_indez[N]) en un orden en el que el orden i es menor. Un orden j de los indices de punto de inflexión aproximados es un orden en el que una de las prioridades para la representación de una función de conversión de inflexión deseada es más alto, y por lo tanto una función de conversión aproximada de inflexión es más aproximada a una función de conversión de inflexión deseada como N es mayor.
Ejemplo de configuración de una modalidad de sis-tema de codificación Una segunda configuración de una modalidad del sistema de decodificación al que se aplica la presente descripción es la misma que la configuración del sistema de decodificación 110 de la Figura 49 excepto que la selección por la unidad de selección 121 se realiza sobre la base de no el orden i de puntos de inflexión, pero el orden j de los índices de puntos de inflexión aproximados. Por lo tanto, en lo sucesivo, sólo se describirá la selección por la unidad de selección 121.
Descripción del segundo método de selección del punto de inflexión Las Figuras 57A y 57B son diagramas que ilustran un ejemplo de un punto de inflexión y una función de conversión de inflexión definido por la SEI de knee function info de la Figura 55.
Además, en el 57A y 57B, un numero de punto de inflexión (number _knee _point__minusl) ajusta en la SEI de knee function info es 8 de la misma manera que en las figuras. Puntos 50a y 50B, y de inflexión también son los mismos que en las Figuras 50A y 50B. Sin embargo, en la SEI de knee_function_info de la Figura 55, el orden i de puntos de inflexión es un orden en el que la información de posición antes de la conversión es menor, y es por lo tanto diferente de la de las Figuras 50A y 50B.
Como se ilustra en la Figura 57?, entre ocho puntos de inflexión establecidos en el SEI de knee_function_info, información sobre la posición de previa a conversión (input_knee_point [0]) del punto de inflexión 0-ésimo es de 100, y la información de posición posterior a conversión (output_knee_point [0]) del mismo es 290. Además, la posición de previa a conversión (input_knee_point [1]) del primer punto de inflexión es 200, y la información de posición posterior a la conversión (output_knee_point [1]) del mismo es 433, y la información de posición previa a conversión (input knee point [2]) del segundo punto de inflexión es 300, y la información de posición posterior a la conversión (output_knee_point [2]) del mismo es 540.
Además, la información de posición previa a conversión (input knee point [3]) del tercer punto de inflexión es 400, y la información de posición posterior a la conversión (output_knee_point [3]) del mismo es 628, y la información de posición previa a conversión (input_knee_point [4]) de la cuarta inflexión punto es 500, y la información de posición posterior a la conversión (output_knee_point [4]) del mismo es 705.
Además, la información de posición previa a conversión (input_knee_point [5]) del quinto punto de inflexión es de 600, y la información de posición antes de la conversión (output_knee_point [5]) del mismo es 774, y la información de posición posterior a la conversión (input knee_point [6]) del sexto punto de inflexión de es de 700, e información de posición después de conversión (output_knee_point [6]) del mismo es 836.
Además, la información de posición previa a conversión (input_knee_point [7]) del punto de inflexión séptimo es 800, y la información de posición posterior a la conversión (output_knee_point [7]) del mismo es 894, y la información de posición previa a conversión (input_knee_point [8]) del octavo punto de inflexión es de 900, y la información de posición posterior a la conversión (output_knee_point [8]) del mismo es 949.
En este caso, los puntos de inflexión respectivos están conectados el uno al otro en un orden en el que el orden i es menor, y por lo tanto una función de la conversión de inflexión es como se ilustran en la Figura 57B.
Además, como se ilustra en la Figura 57A, los índices de puntos de inflexión aproximadas (approximate_knee_point_index) en el que el orden j es de 0 a 8 son en orden 1, 5, 0, 3, 7, 2, 4, 6, y 8.
En un caso en el que la unidad de selección 121 selecciona piezas de tres puntos de inflexión de información de conversión DR de entre las piezas de los puntos de inflexión de información de conversión DR definidos por la SEI de knee_function_info de la Figura 57A, una función de conversión de inflexión que tiene los puntos seleccionados de inflexión es como se ilustra en la Figura 58.
En otras palabras, en este caso, la unidad de selección 121 selecciona DR de información de conversión de piezas de los puntos de inflexión en la cual el orden i es del 0-ésimo a segundos índices puntuales inflexión aproximados (approximate_knee_point_index) de entre las piezas de información conversión DR del 0-ésimo a octavo puntos de inflexión definidos por la SEI de knee_function__info. En otras palabras, la unidad de selección 121 selecciona las piezas de información de conversión DR de los primero, quinto y 0-éximo puntos de inflexión. Por lo tanto, una función de conversión de inflexión que tiene los puntos seleccionados de inflexión es una línea recta que conecta los primero, quinto y 0-ésimo puntos de inflexión entre sí en un orden en el que el orden es más bajo, es decir, en un orden de 0-ésimo, primero y quinto puntos de inflexión.
Mientras tanto, en un caso en el que la unidad de selección 121 selecciona piezas de cinco puntos de inflexión de información de conversión DR de entre las piezas de los puntos de inflexión de información de conversión DR definidos por la SEI de knee_function_info de la Figura 57A, una función de conversión de inflexión que tiene los puntos seleccionados de inflexión es como se ilustra en la Figura 59.
En otras palabras, en este caso, la unidad de selección 121 selecciona piezas de los puntos de inflexión de información conversión DR en la que el orden i es del 0-ésimo al cuarto indices del punto de inflexión aproximados (approximate_knee_point_index) de entre las piezas de información de conversión DR del 0-ésimo al octavo puntos de inflexión definidos por la SEI de knee_function_info. En otras palabras, la unidad de selección 121 selecciona las piezas de información de conversión DR de los primero, quinto, 0-ésimo, tercero y séptimo puntos de inflexión. Por lo tanto, una función de conversión de inflexión que tiene los puntos seleccionados de inflexión es una linea recta que conecta los primero, quinto, 0-ésimo, tercero y séptimo puntos de inflexión al otro en un orden en el que el orden i es menor, es decir, en un orden de los 0-ésimo, primero, tercero, quinto y séptimo puntos de inflexión.
El orden j de los indices de punto de inflexión aproximados se encuentra en un orden de prioridades para la representación de la función de la Figura 57B que es una función de conversión de inflexión deseada superior, y información de conversión DR de piezas de puntos de inflexión con un número predeterminado de indices de punto de inflexión aproximados en el orden que se seleccionan del orden inferior j. Por lo tanto, como se ilustra en las Figuras 58 y 59, una función de conversión aproximada de inflexión es más aproximada a la función de la Figura 57B que en un caso en el que se seleccionan otros puntos de inflexión del mismo número.
Además, un mayor número de puntos de inflexión conducen a una función más suave y más compleja. Por lo tanto, una función de conversión de inflexión aproximada de la Figura 59 en la que el número de puntos de inflexión es cinco es más aproximada a la función de la conversión de inflexión de la Figura 57B de una función de conversión de inflexión aproximada de la Figura 58 en la que el número de puntos de inflexión es tres.
Además, como se ilustra en la Figura 60, el indice de punto de inflexión aproximada (approximate__knee_point_index) puede ajustarse en SEI de approximate_knee_function_info diferente de SEI de knee_fanction_info.
En este caso, una ID de conversión aproximada de inflexión (approximate_knee function id) y una etiqueta de cancelación de conversión de inflexión aproximada (approximate_knee_function_cancel_flag) se encuentran en la SEI de approximate_knee_function_info.
La ID de conversión aproximada de inflexión es una ID única para el propósito de conversión de inflexión usando una función aproximada. Además, la etiqueta de cancelación de conversión inflexión aproximada es una etiqueta que ilustra si persistencia de SEI de approximate_knee_function_info anterior o no se cancela. La etiqueta de cancelación de conversión inflexión aproximada se ajusta a 1 cuando indica que se cancela la persistencia de SEI de approximate_knee_function_info anterior, y se ajusta a 0 cuando la persistencia no se cancela.
En un caso en el que la etiqueta de cancelación de conversión inflexión aproximada es 0, una ID de conversión de inflexión de referencia (ref_knee_function_id) se ajusta en la SEI de approximate_knee_function_info. La ID de conversión de inflexión de referencia es una ID de conversión de inflexión de SEI de knee_funcion_info incluyendo información DR de un punto de inflexión que indica una función de la conversión de inflexión que se aproxima mediante el uso de un indice de punto de inflexión aproximado de la SEI de approximate_knee_function_info.
Además, se ajustan un número de indice de punto de inflexión aproximado (num_approximate_knee_point_indices_minus1), que es un valor obtenido restando 1 de la serie de índices de punto de inflexión aproximados, y un índice de punto de inflexión aproximado (approximate_knee_point_index).
Como se mencionó anteriormente, también en un caso donde el índice de punto de inflexión aproximado (approximate_knee_point_index) está situado en la SEI de approximate_knee function_info, la semántica es la misma que la semántica descrita en la Figura 56.
Además, en la descripción anterior, se configura sólo la SEI de knee_function_info incluyendo información DR de un punto de inflexión que indica una función de la conversión de inflexión, pero info función de inflexión SEI incluyendo información DR de un punto de inflexión que indica una función de conversión aproximada de inflexión puede ajustar. En este caso, por ejemplo, información DR de un punto de inflexión que indica una función de la conversión de inflexión se ajusta en SEI de knee_function_info en el que un ID de conversión de inflexión es 0, y la información DR de un punto de inflexión que indica una función de conversión aproximada de inflexión es ajusta en SEI de knee_function_info en el que una ID de conversión de inflexión es 1. Además, en un caso donde la información DR se transmite con HDMI, el dispositivo de decodificación dispone la información DR incluida en la información de función de inflexión SEI en la que la ID de conversión de inflexión es 1, en un único paquete de AVI InfoFrame, y transmite la información DR.
Además, un identificador único se ajusta en el brillo predeterminado como la información de luminancia de pantalla no convertida (input_disp_luminance) y la información de intervalo de luminancia convertida (output_d_range), y por lo tanto es posible reducir una cantidad de información DR. En este caso, por ejemplo, 0 puede ser asignado a 400 candelas por metro cuadrado, y el 1 puede ser asignado a 800 candelas por metro cuadrado, como una ID. Una relación correspondiente entre una ID y brillo asignado con la ID se ajusta en común a un lado de codificación y un lado de pantalla, y por lo tanto el lado de pantalla puede reconocer el brillo de la ID.
En la tercera modalidad, un punto de inflexión se selecciona en un orden en el cual son superiores las prioridades para representar una función deseada de la conversión de inflexión, pero un punto de inflexión puede seleccionarse en otros órdenes Demás, en la tercera modalidad, el número de puntos de inflexión seleccionados es el número que se puede incluir en un solo paquete de AVI InfoFrame, pero no se limita a lo mismo. Por ejemplo, en un caso en donde el dispositivo de decodificación 111 tiene una función del dispositivo de pantalla 112, el número de puntos de inflexión seleccionados puede ser el número de puntos de inflexión correspondientes a la conversión de inflexión que puede procesarse por la unidad de conversión 93, o similares.
Cuarta Modalidad Base de la cuarta modalidad Como se ilustra en la Figura 61, en un tubo de rayos catódicos (CRT) usado en una pantalla CRT, una señal eléctrica de entrada y luminancia de pantalla no tiene relación proporcional, y es necesario introducir una señal eléctrica superior con el fin de exhibir alta luminancia. Por lo tanto, si una señal eléctrica que es proporcional a la luminancia en una imagen se introduce a la pantalla de CRT como se ilustra en la Figura 62, la luminancia de pantalla es inferior a la luminancia original de la imagen como se ilustra en la Figura 63. Por lo tanto, con el fin de exhibir una imagen con la luminancia original de la imagen, como se ilustra en la Figura 64, es necesario convertir la luminancia de una imagen en una señal eléctrica al usar una función que tiene una característica inversa a la de la función de la Figura 61.
Además, en las Figuras 61 y 63, el eje transversal expresa un valor obtenido mediante la normalización de una señal eléctrica de entrada cuando un valor de la señal eléctrica de entrada para la pantalla con la luminancia máxima en la pantalla CRT se ajusta en 1, y el eje longitudinal expresa un valor obtenido mediante la normalización de luminancia de pantalla cuando el valor máximo de la luminancia de pantalla de la pantalla CRT se ajusta en 1. En las Figuras 62 y 64, el eje transversal expresa un valor obtenido mediante la normalización de luminancia de una imagen de destino pantalla cuando el valor máximo de la luminancia de una imagen de destino de pantalla se ajusta en 1, y el eje longitudinal expresa un valor obtenido mediante la normalización de una señal eléctrica cuando un valor de la señal eléctrica correspondiente al valor máximo de la luminancia de una imagen de destino de pantalla se ajusta en 1.
Una función para convertir una señal eléctrica de entrada en la pantalla de luminancia, como se ilustra en la Figura 61 se refiere como función electro-óptico de transferencia (EOTF), y una función de conversión de luminancia de una imagen en una señal eléctrica como se ilustra en la Figura 64 se refiere como una función de transferencia óptica-electro (OETF).
Otras pantallas como un diodo emisor de luz (LED) del panel tienen características diferentes de las características de la pantalla CRT. Sin embargo, a fin de no cambiar los procedimientos de generación de una señal eléctrica de entrada dependiendo de la muestra, se procesa usando el EOTF y OETF también se llevan a cabo de la misma manera que en la pantalla CRT en un caso de realizar la visualización con otras pantallas.
La Figura 65 es un diagrama que ilustra un ejemplo de una emisión de un proceso hasta que se muestre una imagen de la captura de la imagen.
Además, en el ejemplo de la Figura 65, una señal eléctrica es un valor de código de 10 bits (0 a 1023), y la OETF y la EOFT se definen en BT.709.
Como se ilustra en la Figura 65, cuando una imagen es capturada por una cámara o similar, un proceso de conversión fotoeléctrica de convertir luminancia (luz) en una señal eléctrica (valor de código) utilizando el OETF se realiza en la imagen capturada. A continuación, la señal eléctrica se codifica, y la señal eléctrica codificada se decodifica. Además, un proceso de conversión electro-óptica de la conversión de una señal eléctrica en luminancia mediante el uso de la EOTF se realiza en la señal eléctrica decodificada.
Mientras tanto, el sentido visual humano tiene una característica de ser sensible a una diferencia de luminancia a baja luminancia y ser insensible a una diferencia de luminancia a alta luminancia. Por lo tanto, como se ilustra en la Figura 65, el OETF de BT.709 es una función en la que más valores de código son asignados a una parte de luminancia baja que una parte de luminancia alta. Como resultado, subjeti amente se realiza suficiente calidad de la imagen.
En un caso en el que la luminancia máxima de una imagen es de aproximadamente 100 candelas por metro cuadrado, pueden ser asignados valores de código satisfactorios a una parte de luminancia baja mediante el uso de la OETF de BT.709. Sin embargo, la luminancia máxima de pantallas ha tendido a aumentar recientemente, y se espera que se acelere en el futuro. Si la luminancia máxima de una imagen aumentos en virtud de los mismos, los valores de código que se asignarán a una parte de luminancia baja son insuficientes en el OETF de BT.709, y de este modo es incapaz de obtenerse calidad de imagen satisfactoria.
Por lo tanto, se considera que se genera un nuevo OETF para su uso en una imagen de HDR en el que se incrementa una relación de los valores de código asignados a una parte de luminancia baja, y por lo tanto la calidad de imagen satisfactoria se obtiene en una imagen de HDR. Sin embargo, en este caso, con el fin de realizar un proceso de conversión fotoeléctrica y un proceso de conversión electro-óptica, es necesario preparar tanto para un OETF y un EOTF para una imagen de HDR y un OETF y un EOTF para una imagen de SDR.
Por otro lado, en un caso donde la conversión electro-óptica se lleva a cabo en una imagen de SDR mediante el uso de un OETF para una imagen de HDR, la expresión de escala de grises de luminancia es rugosa.
Por ejemplo, como se ilustra en la Figura 66, en un caso donde la conversión fotoeléctrica se lleva a cabo en una imagen de SDR mediante el uso de un OETF de BT.709 para una imagen de SDR que tiene la luminancia máxima de 100 candelas por metro cuadrado, de luminancia de la imagen de SDR se expresa en los códigos de 1024 incluyendo de 0 a 1023. En contraste, como se ilustra en la Figura 67, en un caso donde la conversión fotoeléctrica se lleva a cabo en una imagen de SDR mediante el uso de un OETF para una imagen de HDR que tiene la luminancia máxima de 400 candelas por metro cuadrado, de luminancia de la imagen de SDR se expresa, por ejemplo, en 502 valores de código incluidos de 0 a 501.
Por lo tanto, un OETF y un EOTF son preferiblemente variable para asignar valores de código suficientes para una parte de luminancia baja tanto en una imagen de HDR tener una imagen de SDR que tiene una baja luminancia máxima luminancia máxima y. Por lo tanto, en la cuarta modalidad, la conversión de inflexión se lleva a cabo antes de la OETF de BT.709 y después de la EOTF de BT.709, y valores de código de este modo suficientes se puede asignar a una parte de luminancia baja.
Descripción general de proceso de conversión fotoeléctrica en cuarta modalidad La Figura 68 es un diagrama que ilustra una visión general de un proceso de conversión fotoeléctrica en la cuarta modalidad.
Como se ilustra en la parte izquierda de la Figura 68, en la cuarta modalidad, primero, la conversión de inflexión predeterminada se realiza en luminancia (luminancia de entrada) de una imagen capturada. En un ejemplo de la Figura 68, a través de la conversión de inflexión, 10% de una parte de luminancia baja de la luminancia de entrada se convierte en 90% de la parte de luminancia baja de luminancia de entrada, y 90% de una alta luminancia parte de la luminancia de entrada se convierte en 10% de la parte de luminancia alta de la luminancia de entrada. Por consiguiente, hay una generación de la luminancia de entrada 'en la que más valores se asignan a la parte de luminancia baja de la parte de luminancia alta.
A continuación, como se ilustra en la parte central de la Figura 68, un proceso de conversión fotoeléctrica utilizando la OETF de BT.709 se realiza en la luminancia de entrada a fin de generar un valor de código de un número predeterminado de bits (10 bits en el ejemplo de la Figura 68). Como se describió anteriormente, ya que, en la luminancia de entrada, más valores se asignan a la parte de luminancia baja de la parte de luminancia alta, como se ilustra en la parte derecha de la Figura 68, más valores se asignan en valores de código convertidos de la luminancia de entrada, debido a la parte de luminancia baja de la luminancia de entrada que en el OETF de BT.709. En el ejemplo de la Figura 68, 10% de la parte de luminancia baja de la luminancia de entrada se asigna a 94% de los valores de código.
Como se ha mencionado anteriormente, en la cuarta modalidad, una extensión de la asignación de valores de código a una parte de luminancia baja (parte oscura) y una medida de la asignación de los valores de código a una parte de luminancia alta (parte brillante) se ajustan mediante el uso de una función de conversión de inflexión como un parámetro.
Además, la información sobre un punto de la conversión de inflexión realizada en la luminancia de entrada de inflexión se encuentra en la SEI de knee_function_info de la Figura 40 y se transmite a un lado de decodificación.
Revisión general de proceso de conversión electro-óptica en la cuarta modalidad La Figura 69 es un diagrama que ilustra una visión general de un proceso de conversión electro-óptica en la cuarta modalidad.
Como se ilustra en la parte izquierda de la Figura 69, en la cuarta modalidad, en primer lugar, un proceso de conversión electro-óptica usando el EOTF de BT.709 se realiza en valores de código de una imagen decodificada a fin de generar luminancia (luminancia de salida). A continuación, como se ilustra en la parte central de la Figura 69, la conversión de inflexión predeterminada se realiza en la luminancia de salida. En un ejemplo de la Figura 68, a través de la conversión de inflexión, 90% de una parte de luminancia baja de la luminancia de salida se convierte en 10% de una parte de luminancia baja de luminancia de salida, y 10% de una parte de luminancia alta de la luminancia de salida se convierte en 90% de una parte de luminancia alta de la luminancia de salida.
En consecuencia, como se ilustra en la parte derecha de la Figura 69, valores de código en el que más valores son asignados debido a la parte de luminancia baja de la luminancia de entrada que en el EOTF de BT.709 se puede convertir en la misma luminancia de salida como luminancia de entrada correspondiente a los valores de código.
Como se ha mencionado anteriormente, en la cuarta modalidad, los valores de código en lo que una medida de la asignación a una parte de luminancia baja (parte oscura) y una extensión de la asignación a una parte de luminancia alta (parte brillante) son ajustados son convertidos en luminancia mediante el uso de una función de la conversión de inflexión como un parámetro.
Además, la información sobre un punto de inflexión de la conversión de inflexión realizada en la luminancia de salida es determinado sobre la base de la información que se muestra en la SEI de knee_function_info o similar transmitida desde un lado de codificación.
Ejemplo de configuración de cuarta modalidad de dispositivo de codificación La Figura 70 es un diagrama de bloques que ilustra un ejemplo de configuración de la cuarta modalidad de un dispositivo de codificación al que se aplica la presente descripción.
Entre elementos constituti os ilustrados en la Figura 70, los mismos elementos constitutivos como los elementos constitutivos de la Figura 6 o 16 se dan los mismos números de referencia. Se omitirá la descripción repetida según sea apropiado.
Una configuración de un dispositivo de codificación 150 de la Figura 70 es diferente de la configuración de la Figura 16 en esa unidad una cuantificación 151 se proporciona en lugar de la unidad de conversión 73. El dispositivo de codificación 150 realiza un proceso de conversión fotoeléctrica en una imagen capturada que se introduce desde un dispositivo externo a fin de realizar la codificación.
Específicamente, la unidad de cuantificación 151 del dispositivo de codificación 150 de inflexión-conversos de luminancia de la imagen capturada que se introduce desde el dispositivo externo. La información sobre un punto de la conversión de inflexión se encuentra en SEI de knee_function_info por la unidad de ajuste 71. La unidad de cuantificación 151 realiza un proceso de conversión fotoeléctrica utilizando el OETF de BT.709 en la luminancia convertida por inflexión a fin de generar un valor de código. La unidad de cuantificación 151 suministra el valor de código generada a la unidad de codificación 72 como una imagen de destino de codificación.
Descripción del proceso en el dispositivo de codificación La Figura 71 es un diagrama de flujo que ilustra un proceso de generación de emisión realizada por el dispositivo de codificación 150 de la Figura 70.
En la etapa S150 de la Figura 71, la unidad de cuantificación 151 del dispositivo de codificación 150 convierte por inflexión la luminancia de una imagen capturada que se introduce desde un dispositivo externo. En la etapa S152, la unidad de cuantificación 151 realiza un proceso de conversión fotoeléctrica utilizando la EOTF de BT.709 en la luminancia convertida por inflexión a fin de generar un valor de código. La unidad de cuantificación 151 suministra el valor de código generada a la unidad de codificación 72 como una imagen de destino de codificación.
Procesos en las etapas S152 a S154 son los mismos que los procesos en las etapas S73 a S75 de la Figura 21, y por lo tanto se omitirá su descripción.
En la etapa S155, la unidad de establecimiento info función de inflexión 71 conjuntos SEI incluida la información sobre un punto de la conversión de inflexión realizada debido al proceso en la etapa 3150. La unidad de ajuste de inflexión juegos de parámetros 71 suministros, tales como el conjunto de MSF, PPS, VUI y la inflexión info función SEI a la unidad de codificación 72.
En la etapa S156, la unidad de codificación 72 códigos de la imagen de destino de codificación que se suministra desde la unidad de conversión 73 en el método HEVC. Procesos en las etapas S157 y S158 son los mismos que los procesos en las etapas S78 y S79 de la Figura 21, y por lo tanto se omitirá su descripción.
Como se mencionó anteriormente, el dispositivo de codificación 150 realiza la conversión de inflexión antes de la OETF de BT.709, y por lo tanto puede llevar a cabo un proceso de conversión fotoeléctrica adecuado tanto una imagen de SDR y una imagen de HDR utilizando el OETF de BT.709.
Ejemplo de configuración de cuarta modalidad de dispositivo de decodificación La Figura 72 es un diagrama de bloques que ilustra un ejemplo de configuración de la cuarta modalidad de un dispositivo de decodificación al que se aplica la presente descripción y que decodifica una emisión codificada transmitida desde el dispositivo de codificación 150 de la Figura 70.
Entre elementos constitutivos ilustrados en la Figura 72, los mismos elementos constitutivos como los elementos constitutivos de la Figura 12 o 22 se dan los mismos números de referencia. Se omitirá la descripción repetida según sea apropiado.
Una configuración de un dispositivo de decodificación 170 de la Figura 72 es diferente de la configuración del dispositivo de decodificación 90 de la Figura 22 en esa unidad una conversión 171 se proporciona en lugar de la unidad de conversión 93. El dispositivo de decodificación 170 decodifica una emisión codificada, y realiza un proceso de conversión electro-óptica en una imagen decodificada que se obtiene como resultado de la misma.
Específicamente, la unidad de conversión 171 del dispositivo de decodificación 170 realiza un proceso de conversión electro-óptico usando el EOTF de BT.709 en un valor de código como una imagen decodificada suministrada desde la unidad de decodificación 92, a fin de generar luminancia. La unidad de conversión 171 realiza la conversión de inflexión en la luminancia sobre la base de SEI de knee_function_info de la unidad de extracción 91. La unidad de conversión 171 suministra la luminancia que se obtiene como resultado de la conversión de inflexión a la unidad de control de pantalla 94 como una imagen de pantalla.
Descripción del proceso en el dispositivo de decodificación La Figura 73 es un diagrama de flujo que ilustra un proceso de generación de imagen realizado por el dispositivo de decodificación 170 de la Figura 72.
Los procesos en las etapas S171 a S173 de la Figura 73 son los mismos que los procesos en las etapas S91-S93 de la Figura 23, y por lo tanto se omitirá su descripción.
En la etapa S174, la unidad de conversión 171 del dispositivo de decodificación 170 realiza un proceso de conversión electro-óptica usando el EOTF de BT.709 en un valor de código como una imagen decodificada suministrada desde la unidad de decodificación 92, a fin de generar luminancia.
En la etapa S175, la unidad de conversión 171 realiza la conversión de inflexión en la luminancia generada sobre la base de SEI de nee_function_info de la unidad de extracción 91. La unidad de conversión 171 suministros de luminancia que se obtiene como resultado de la conversión de inflexión a la unidad de control de pantalla 94 como una imagen de la pantalla.
En la etapa S176, la unidad de control de pantalla 94 muestra la imagen de pantalla suministrado desde la unidad de conversión 93 en la unidad de pantalla 95, y termina el proceso.
Como se mencionó anteriormente, el dispositivo de decodificación 170 realiza la conversión de inflexión después de la EOTF de BT.709, y por lo tanto puede llevar a cabo un proceso de conversión electro-óptico adecuado tanto una imagen de SDR y una imagen de HDR utilizando el EOTF de BT.709.
Además, la luminancia máxima de una imagen de destino de codificación puede ser incluida en una emisión codificada junto con los datos codificados y puede ser transmitida al dispositivo de decodificación 170 desde el dispositivo de codificación 150, y puede ser determinada de antemano como un valor común para el dispositivo de codificación 150 y el dispositivo de decodificación 170. Además, la SEI de knee_function_info se puede ajustar para cada punto de la luminancia máxima de una imagen de destino de codificación.
Además, en la cuarta modalidad, la SEI de knee function info de las modalidades primera a tercera se puede ajustar. En este caso, el lado de decodificación realiza la conversión de inflexión mediante el uso de información de conversión DR, y por lo tanto es posible realizar la conversión en una imagen que es adecuado para varias pantallas de luminancia.
Además, el dispositivo de decodificación 170 en la cuarta modalidad puede dividirse en un dispositivo de decodificación y un dispositivo de pantalla de la misma manera que en la tercera modalidad.
Además, en la cuarta modalidad, una extensión de la asignación de valores de código a una parte de luminancia baja y una extensión de la asignación de los valores de código a una parte de luminancia alta se ajustan mediante el uso de una función de conversión de inflexión como un parámetro, pero se puede ajustar mediante el uso de otras funciones distintas de la función de conversión de inflexión como un parámetro.
Además, la presente descripción se puede aplicar al método de AVC.
Quinta modalidad Descripción del equipo al que se aplica presente descripción La serie de procesos descritos anteriormente se puede realizar por hardware o software. Cuando la serie descrita anteriormente de procesos se lleva a cabo por el software, los programas que constituyen el software se instalan en una computadora. Aquí, la computadora incluye una computadora incorporada en hardware dedicado, o una computadora personal de de propósito general o similares, que pueden ejecutar varios tipos de funciones mediante la instalación de varios tipos de programas.
La Figura 74 es un diagrama de bloques que ilustra un ejemplo de configuración de hardware de una computadora que realiza la serie de procesos de acuerdo con un programa descrito anteriormente.
En la computadora, una unidad de procesamiento central (CPU) 201, una memoria de sólo lectura (ROM) 202, y una memoria de acceso aleatorio (RAM) 203 están conectados entre si a través de un colector 204.
El colector 204 también está conectado a una interfaz de entrada y de salida 205. La la interfaz de entrada y de salida 205 está conectada a una unidad de entrada 206, una unidad de salida 207, una unidad de almacenamiento 208, una unidad de comunicación 209, y una unidad 210.
La unidad de entrada 206 incluye un teclado, un ratón, un micrófono, y similares. La unidad de salida 207 incluye una pantalla, un altavoz, y similares. La unidad de almacenamiento 208 incluye un disco duro, una memoria no volátil, o similares. La unidad de comunicación 209 incluye una interfaz de red o similar. El accionamiento 210 acciona un medio extraible 211 tal como un disco magnético, un disco óptico, un disco magneto-óptico, o similares.
En la computadora configurada de esta manera, la CPU 201 realiza la serie de procesos descritos anteriormente, por ejemplo, mediante la carga del programa almacenado en la unidad de almacenamiento 208 a la RAM 203 a través de la interfaz de entrada y de salida 205 y el colector 204 y se ejecuta el programa.
El programa ejecutado por la computadora (la CPU 201) puede ser grabado en el medium extraíble 211, por ejemplo, como un medio de paquetes, y puede ser proporcionado. Además, el programa puede ser proporcionado a través de un medio de transmisión por cable o inalámbrico tal como una red de área local, la Internet, o una emisión vía satélite digital.
En la computadora, el programa puede ser instalado en la unidad de almacenamiento 208 a través de la interfaz de entrada y de salida 205 mediante la instalación del medio removible 211 en la unidad 210. Además, el programa puede ser recibido por la unidad de comunicación 209 a través de un medio de transmisión con cable o inalámbrico y puede ser instalado en la unidad de almacenamiento 208. Además, el programa se puede instalar en la ROM 202 o la unidad de almacenamiento 208 por adelantado.
Además, el programa ejecutado por la computadora puede ser un programa que realiza los procesos en una serie de tiempo de acuerdo con el orden descrito en la presente especificación, y puede ser un programa que realiza los procesos en paralelo o con un cronómetro necesario, como cuando se accede.
Sexta modalidad Aplicación de múltiples vistas de la imagen de codificación y de múltiples vistas de la imagen de decodificación La serie de procesos antes descrita se puede aplicar a múltiples vista de la imagen de codificación y múltiples vistas de la imagen de decodificación. La Figura 75 es un diagrama que ilustra un ejemplo de un método de codificación de la imagen de múltiples vistas.
Como se ilustra en la Figura 75, las imágenes de múltiples vistas incluyen imágenes en una pluralidad de vistas. La pluralidad de vistas de las imágenes de múltiples vistas incluye una vista base en el que la codificación/decodificación se realiza mediante el uso de sólo una imagen en su propia vista, y una vista que no es de base en la que la codificación/decodificación se realiza mediante el uso de imágenes en otras vistas. La vista que no es de base puede utilizar una imagen de vista de base y puede utilizar otras imágenes vistas que no es de base.
En un caso de codificación/decodificación de imágenes de múltiples vistas como en la Figura 75, cada imagen vista se codifica/decodifica, y el método de la primera modalidad descrita anteriormente se puede aplicar a la codificación/decodificación de cada vista. De esta manera, una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente.
Además, en la codificación/codificación de cada punto de vista, pueden ser compartidos la etiqueta o el parámetro usado en el método de la primera modalidad. Más específicamente, por ejemplo, el elemento de sintaxis o similares de SEI de knee_function_info pueden ser compartidos en la codificación/decodificación de cada vista. Por supuesto, la información necesaria que no sean estos elementos se puede compartir en la codificación/decodificación de cada vista.
De esta manera, es posible minimizar la transmisión de información redundante y por lo tanto reducir la cantidad de información transmitida (tasa de bits) (es decir, que es posible minimizar una reducción en la eficiencia de codificación).
Múltiples vistas de dispositivos de codificación de imagen La Figura 76 es un diagrama que ilustra un dispositivo de codificación múltiples vistas de la imagen que realiza la múltiples vistas de la imagen de codificación antes descrito. Como se ilustra en la Figura 76, la imagen múltiples vistas de dispositivos de codificación 600 incluye una unidad de codificación 601, una unidad de codificación 602, y un multiplexor 603.
La unidad de codificación 601 codifica una imagen vista base a fin de generar una emisión codificada de vista de base de la imagen. La unidad de codificación 602 codifica una imagen vista que no es de base con el fin de generar una emisión codificada vista no de base de imagen. El multiplexor 603 multiplexa la emisión codificada de vista de la imagen de base generada en la unidad de codificación 601 y la emisión codificada de la vista que no es de base generada en la unidad de la imagen de codificación 602, a fin de generar una emisión codificada de múltiples vistas de la imagen.
El dispositivo de codificación 10 (Figura 6) se aplica a la unidad de codificación 601 y la unidad de codificación 602 del dispositivo de múltiples vistas de la imagen de codificación 600. En otras palabras, en la codificación de cada vista, una imagen se puede codificar de manera que una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente durante la decodificación. Además, la unidad de codificación 601 y la unidad de codificación 602 pueden realizar codificación (es decir, una etiqueta o un parámetro se puede compartir) mediante el uso de las mismos etiquetas o parámetros mutuamente (por ejemplo, un elemento de sintaxis o similar con respecto a un proceso de imágenes), y por lo tanto es posible reducir al mínimo una reducción en la eficiencia de codificación.
Múltiples vistas de dispositivos de decodificación de imágenes La Figura 77 es un diagrama que ilustra una vista multi-dispositivo de decodificación de imágenes que realiza la múltiples vistas de la imagen de decodificación anteriormente descrito. Como se ilustra en la Figura 77, la múltiples vistas de dispositivos de decodificación de imágenes 610 incluye un desmultiplexor 611, una unidad de decodificación 612, y una unidad de decodificación 613.
El des ultiplexor 611 desmultiplexa la emisión codificada de la imagen de múltiples vistas en la que se multiplexan la emisión codificada de imagen de vista de base y la emisión codificada de imagen de vista que no es de base, a fin de extraer la emisión codificada de imagen de vista de base y la emisión codificada de imagen de vista que no es de base. La unidad de decodificación 612 decodifica la emisión codificada de imagen de vista de base extraída por el desmultiplexor 611 a fin de obtener una imagen de vista de base. La unidad de decodificación 613 decodifica la emisión codificada de la imagen de vista que no es de base extraída por el desmultiplexor 611 a fin de obtener una imagen de vista que no es de base.
El dispositivo de decodificación 50 (Figura 12) es aplicable a la unidad de decodificación 612 y la unidad de decodificación 613 de las múltiples vistas de dispositivos de decodificación de imágenes 610. En otras palabras, en la decodificación de cada vista, una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente. Además, la unidad de decodificación 612 y la unidad de decodificación 613 puede realizar la codificación (es decir, una etiqueta o un parámetro se puede compartir) mediante el uso de las mismas etiquetas o parámetros mutuamente (por ejemplo, un elemento de sintaxis o similar con respecto a un proceso de imágenes), y por lo tanto es posible reducir al mínimo una reducción en la eficiencia de codificación.
Séptima modalidad Aplicación a la capa codificación de la imagen y la imagen de decodificación de la capa La serie de procesos descritos anteriormente se puede aplicar a la capa de codificación de imágenes y capa de decodificación de imágenes. La Figura 78 ilustra un ejemplo de un método de capa de la imagen de codificación.
La imagen de la capa de codificación (codificación escalable) es generar una pluralidad de capas de una imagen y para codificar cada capa de modo que los datos de imagen tienen una función escalable con respecto a un parámetro predeterminado. La decodificación de imágenes de capa (decodificación escalable) es decodificación correspondiente a la codificación de la imagen de la capa.
Como se ilustra en la Figura 78, en capas de una imagen, una sola imagen se divide en una pluralidad de imágenes (capas) con un parámetro predeterminado que tiene una función escalable como referencia. En otras palabras, imágenes superpuestas (imágenes de capa) incluyen imágenes de una pluralidad de capas en las que los valores del parámetro predeterminado son diferentes entre si. Una pluralidad de capas de las imágenes de capas incluye una capa de base en el que la codificación/decodificación se lleva a cabo mediante el uso de sólo una imagen de su propia capa y una capa que no es de base (también conocida como una capa de mejora) en el que se lleva a cabo la codificación/decodificación mediante el uso de imágenes de otras capas. La capa que no es de base puede utilizar una imagen de capa base y puede utilizar otras imágenes capa que no es de base.
Generalmente, la capa no de base está formada por su propio (datos de diferencia) de imagen y datos en una imagen de diferencia con imágenes de otras capas. Por ejemplo, en un caso en el que se genera una sola imagen como dos capas que incluyen una capa de base y una capa que no es de base (también conocida como una capa de refuerzo), una imagen con calidad menor que la de una imagen original se obtiene solamente utilizando los datos de la capa de base, y por lo tanto los datos de la capa de base y datos de la capa que no es de base se combinan unos con otros a fin de obtener la imagen original (es decir, imagen de alta calidad).
Una imagen es en capas como se mencionó anteriormente, y por lo tanto varias imágenes de calidad se pueden obtener fácilmente en función de las circunstancias. Por ejemplo, la información de compresión de imagen de solamente una capa de base se transmite a un terminal que tiene bajo rendimiento de procesamiento, tales como un teléfono móvil, por lo que una imagen en movimiento de que la resolución espacial y temporal es baja o se reproduce la calidad de imagen baja, y la imagen que información de compresión de una capa de mejora, asi como una capa de base se transmite a un terminal con un alto rendimiento de procesamiento, tales como un televisor o una computadora personal, de manera que una imagen en movimiento del que la resolución espacial y temporal es alta o calidad de la imagen es alta se reproduce. De esta manera, la información de compresión de imagen puede ser transmitida desde un servidor en función de un rendimiento del terminal o de la red sin realizar un proceso de transcodificación.
Una imagen de la capa como en el ejemplo de la Figura 78 se codifica/decodificada, una imagen de cada capa se codifica/decodificado, el método de la primera modalidad descrita anteriormente se puede aplicar a la codificación/decodificación de cada capa. De esta manera, una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente.
Además, en la codificación/codificación de cada capa, la etiqueta o el parámetro usado en el método de la primera modalidad pueden ser compartidos. Más específicamente, por ejemplo, el elemento de sintaxis o similar de la SEI de knee_function__info pueden ser compartidos en la codificación/decodificación de cada capa. Por supuesto, la información necesaria aparte de estos elementos puede ser compartida en la codificación/decodificación de cada capa.
De esta manera, es posible minimizar la transmisión de información redundante y por lo tanto reducir la cantidad de información transmitida (tasa de bits) (es decir, que es posible minimizar una reducción en la eficiencia de codificación).
Parámetros evolutivos En tal codificación de imagen de capa y capa de decodificación de imágenes (codificación y decodificación escaladle escalable), un parámetro que tiene una función escalable es arbitrario. Por ejemplo, una resolución espacial, como se ilustra en la Figura 79, puede ser un parámetro (escalabilidad espacial). En un caso de la escalabilidad espacial, una resolución de una imagen es diferente para cada capa. En otras palabras, en este caso, como se ilustra en la Figura 79, cada imagen se genera como dos capas que incluyen una capa de base de las cuales una resolución espacial es menor que la de una imagen original, y una capa de mejora que permite una resolución espacial original que se obtiene a través de la combinación con la capa de base. Por supuesto, el número de capas es un ejemplo, y puede ser generado cualquier número de capas.
Además, como un parámetro que da como escalabilidad, por ejemplo, se puede emplear una resolución temporal (escalabilidad temporal} como se ilustra en la Figura 80. En un caso de la escalabilidad temporal, una velocidad de fotograma es diferente para cada capa. En otra palabras, en este caso, como se ilustra en la Figura 80, cada imagen se genera como dos capas que incluyen una capa de base de la cual una velocidad de cuadros es menor que la de una imagen en movimiento original, y una capa de mejora que permite una velocidad de fotogramas original a ser obtenida a través de combinación con la capa de base. Por supuesto, el número de capas es un ejemplo, y puede ser generado cualquier número de capas.
Además, como un parámetro que da dicha escalabilidad, por ejemplo, se puede emplear una relación señal a ruido (SNR) (SNR escalabilidad). En un caso de la escalabilidad SNR, una SNR es diferente para cada capa. En otras palabras, en este caso, como se ilustra en la Figura 81, cada imagen se genera como dos capas que incluyen una capa de base de las cuales una SNR es menor que el de una imagen original, y una capa de mejora que permite que se obtenga una SNR original a través de la combinación con la capa de base. Por supuesto, el número de capas es un ejemplo, y puede ser generado cualquier número de capas.
Los parámetros que dan la escalabilidad pueden utilizar parámetros distintos de los ejemplos descritos anteriormente. Por ejemplo, como un parámetro que da escalabilidad, puede ser utilizada una profundidad de bits (escalabilidad de profundidad de bit). En un caso de la escalabilidad de profundidad de bits, una profundidad de bits es diferente para cada capa. En este caso, por ejemplo, una capa de base está formada por una imagen de 8 bits, y se puede conseguir una capa de refuerzo se añade al mismo de modo que una imagen de 10 bits.
Además, como un parámetro que da escalabilidad, un formato cromático puede ser utilizado (escalabilidad cromática). En un caso de la escalabilidad cromática, un formato cromático es diferente para cada capa. En este caso, por ejemplo, una capa de base está formada por una imagen de componente con formato de 4: 2: 0, y una capa de refuerzo se añade al mismo de modo que puede ser obtenida una imagen de componentes con un formato de 4: 2: 2.
Además, como un parámetro que da escalabilidad, puede ser utilizada un intervalo dinámico de luminancia (DR escalabilidad). En un caso de la escalabilidad DR, un intervalo dinámico de luminancia es diferente para cada capa. En este caso, por ejemplo, una capa de base está formada por una imagen de SDR, y se añade una capa de refuerzo a la misma de manera que se puede conseguir una imagen de HDR.
En un caso de aplicación de la serie de procesos descritos anteriormente para la escalabilidad del intervalo dinámico, por ejemplo, la información con respecto a la descompresión de inflexión de una imagen de SDR a una imagen de HDR se encuentra en una emisión codificada de una imagen de capa de base como información de conversión DR. Además, la información con respecto a la compresión de inflexión de un intervalo dinámico de luminancia de una imagen de HDR está situada en una emisión codificada de una imagen de capa de mejora como información de conversión DR.
Además, un dispositivo de decodificación, que puede decodificar solamente una emisión codificada de una imagen de capa de base e incluye una pantalla HDR, convierte una imagen de SDR, que es una imagen decodificada en una imagen de HDR sobre la base de la información de conversión DR, y ajusta la imagen de HDR como una imagen de pantalla. Por otro lado, un dispositivo de decodificación, que también puede decodificar una emisión codificada de una imagen de capa de mejora e incluye una pantalla de HDR que puede mostrar una imagen de HDR. Con un intervalo dinámico bajo, comprime por inflexión un intervalo dinámico de luminancia de una imagen de HDR que es una imagen decodificada sobre la base de la información de conversión DR, y ajusta un resultado de la misma como una imagen de pantalla.
Además, la información sobre la descompresión de un intervalo dinámico de luminancia de una imagen de HDR se puede ajustar en una emisión codificada de una imagen de capa de mejora como información de conversión DR. En este caso, un dispositivo de decodificación, que también puede decodificar una emisión codificada de una imagen de capa de mejora e incluye una pantalla de HDR que puede mostrar una imagen de HDR con un intervalo dinámico alto, descomprime por inflexión un intervalo dinámico de luminancia de una imagen de HDR que es una imagen decodificada sobre la base de la información de conversión DR, y ajusta un resultado de la misma como una imagen de pantalla.
Como se mencionó anteriormente, la información de conversión DR se encuentra en una emisión codificada de una imagen de capa base o una imagen de capa de mejora, y por lo tanto es posible visualizar una imagen que es más adecuado para un rendimiento de pantalla.
Dispositivo de imagen de la capa de codificación La Figura 82 es un diagrama que ilustra un dispositivo de codificación de imagen de la capa que realiza la codificación de imagen de la capa descrita anteriormente. Como se ilustra en la Figura 82, la imagen de la capa dispositivo 620 de codificación incluye una unidad de codificación 621, una unidad de codificación 622, y un multiplexor 623.
La unidad de codificación 621 codifica la imagen una capa de base con el fin de generar una emisión codificada de imagen de la capa base. La unidad de codificación 622 codifica la imagen una capa que no es de base con el fin de generar una emisión codificada de imagen de capa que no es de base. El multiplexor 623 multiplexa la emisión codificada de imagen de capa de base generada en la unidad de codificación 621 y la emisión codificada de imagen de capa que no es de base generada en la unidad de codificación 622, de manera que genera una emisión codificada de imagen de la capa.
El dispositivo de codificación 10 (Figura 6) es aplicable a la unidad de codificación 621 y la unidad de codificación 622 de la imagen de capa de dispositivo de codificación 620. En otras palabras, en la codificación de cada capa, una imagen puede ser codificada de manera que una imagen decodificada puede ser convertida en una imagen deseada con un intervalo dinámico diferente durante la decodificación. Además, la unidad de codificación 621 y la unidad de codificación 622 pueden realizar el control o similar de un proceso de filtro de intra-predicción (es decir, una etiqueta o un parámetro se puede compartir) mediante el uso de los mismos mutuamente etiquetas o parámetros (por ejemplo, un elemento de sintaxis o similar con respecto a un proceso de imágenes), y por lo tanto es posible reducir al mínimo una reducción en la eficiencia de codificación.
Capa dispositivo de decodificación de imágenes La Figura 83 es un diagrama que ilustra un dispositivo de decodificación de imagen de la capa que realiza la decodificación de imagen de la capa descrita anteriormente. Como se ilustra en la Figura 83, el dispositivo de decodificación de imágenes capa 630 incluye un desmultiplexor 631, una unidad de decodificación 632, y una unidad de decodificación 633.
El desmultiplexor 631 desmultiplexa la emisión codificada imagen de la capa en la que se multiplexan la emisión codificada imagen de la capa base y la emisión codificada imagen capa que no es de base, a fin de extraer la emisión codificada imagen de la capa base y la emisión codificada imagen capa que no es de base. La unidad de decodificación 632 decodifica la emisión codificada de imagen capa de base extraída por el desmultiplexor 631 a fin de obtener una imagen de capa base. La unidad de decodificación 633 decodifica la imagen de la capa de emisión codificada que no es de base extraída por el desmultiplexor 631, a fin de obtener una imagen de capa que no es de base.
El dispositivo de decodificación 50 (Figura 12) es aplicable a la unidad de decodificación 632 y la unidad de codificación 633 de la imagen de capa de dispositivo de decodificación 630. En otras palabras, en la decodificación de cada capa, una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente. Además, la unidad de decodificación 612 y la unidad de decodificación 613 puede realizar la codificación (es decir, una etiqueta o un parámetro puede ser compartido) mediante el uso de las etiquetas o parámetros mutuamente iguales (por ejemplo, un elemento de sintaxis o similares con respecto a un proceso de imágenes), y por lo tanto es posible minimizar una reducción en eficiencia de codificación.
Octava modalidad Ejemplo de configuración de un aparato de televisión La Figura 84 ejemplifica en aparato a televisión a la que se aplica la presente teenología. El aparato de televisión 900 incluye una antena 901, un sintonizador 902, un desmultiplexor 903, un decodificador 904, una unidad de proceso de señales de video 905, una unidad de pantalla 906, una unidad de procesamiento de señales de audio 907, un altavoz 908, y una unidad de interfaz externa 909. Además, el aparato de televisión 900 incluye una unidad de control 910, una interfaz de usuario 911, y similares.
El sintonizador 902 selecciona un canal deseado desde una señal de emisión que se recibe a través de la antena 901, desmodula el canal seleccionado, y envía una emisión de bits codificados que se obtiene a través de desmodulación, al desmultiplexor 903.
El desmultiplexor 903 extrae un paquete de video o una audio de un programa que es un objetivo de visualización de la emisión de bits codificada, y emite los datos en el paquete extraído al decodificador 904. Además, el desmultiplexor 903 provee un paquete de datos como la guía electrónica de programas (EPG) para la unidad de control 910. Además, el desmultiplexor o similares puede realizar la descomposióión cuando se mezcla la emisión codificada.
El decodificador 904 decodifica el paquete, y produce datos de video y datos de audio generados mediante decodificación a la unidad de proceso de señal de video 905 y la unidad de proceso de señal de audio 907, respectivamente.
La unidad de proceso de señal de video 905 lleva a cabo remoción de ruido o un proceso de video o similares de acuerdo con los ajustes del usuario en los datos de video. La unidad de proceso de señal de video 905 genera datos de video de un programa que se exhibe en la unidad de pantalla 906, o datos de imagen o similares a través de un proceso con base en una aplicación que se suministra vía una red. Además, la unidad de procesamiento de señal de video 905 genera datos de video para visualizar una pantalla de menú tales como la selección de artículos, y superpone los datos de video en los datos de video de un programa. La unidad de procesamiento de señal de video 905 genera una señal de excitación sobre la base de los datos de video generados de esta manera, a fin de generar la unidad de pantalla 906.
La unidad de pantalla 906 acciona un dispositivo de pantalla (por ejemplo, un elemento de pantalla de cristal líquido) sobre la base de la señal de accionamiento de la unidad de procesamiento de señal de video 905 con el fin de visualizar un video de un programa o similar.
La unidad de procesamiento de señal de audio 907 realiza un proceso tal como la eliminación de ruido en los datos de audio, y realiza conversión D/A o la amplificación en los datos de audio procesada que se suministra entonces al altavoz 908, la salida de ese modo sonidos.
La unidad de interfaz externa 909 es una interfaz para la conexión a un aparato externo o de la red, y transmite y recibe datos tales como datos de video o datos de audio.
La unidad de control 901 está conectada a la unidad de interfaz de usuario 911. La unidad de interfaz de usuario 911 está constituida por un interruptor de funcionamiento, una porción de recepción de señal de control remoto, y similares, y suministra una señal de operación correspondiente a la operación de un usuario a la unidad de control 910.
La unidad de control 910 se forma mediante el uso de una unidad de procesamiento central (CPU), memorias, y similares. Las memorias almacenan un programa ejecutado por la CPU, una variedad de datos que es necesario en la CPU realizar un proceso, datos de la EPG, los datos adquiridos a través de la red, y similares. El programa almacenado en la memoria es leído y ejecutado por la CPU, por ejemplo, cuando se inicia el aparato de televisión 900. La CPU ejecuta el programa, y por lo tanto controla cada unidad de manera que el aparato de televisión 900 realiza una operación de responder a la operación de un usuario.
Además, el aparato de televisión 900 está provisto de un colector 912 que. conecta el sintonizador 902, el desmultiplexor 903, la unidad de procesamiento de señal de video 905, la unidad 907 de procesamiento de señal de audio, la unidad de interfaz externa 909, y la unidad de control 910, el uno al otro.
En el aparato de televisión que tiene la configuración, una función del dispositivo de decodificación (método de decodificación) de la presente solicitud se proporciona en el decodificador 904. Por esta razón, es posible convertir una imagen decodificada en una imagen deseada con un intervalo dinámico diferente.
Novena modalidad Ejemplo de configuración del teléfono móvil La Figura 85 ejemplifica una configuración esquemática de un teléfono móvil al que se aplica la presente descripción. El teléfono móvil 920 incluye una unidad de comunicación 922, un códec de audio 923, una unidad de cámara 926, una unidad de procesamiento de imágenes 927, un multiplexor/desmultiplexor 928, una grabación/reproducción de la unidad 929, una unidad de pantalla 930, y una unidad 931 de control. Tesis elementos constitutivos están conectados entre si a través de un colector 933.
Además, la unidad de comunicación 922 está conectado a una antena 921, y el códec de audio 923 está conectado a un altavoz 924 y un micrófono 925. Además, la unidad de control 931 está conectado a una unidad de operación 932.
El teléfono móvil 920 realiza varias operaciones tales como la transmisión y recepción de señales de audio, transmisión y recepción de correos electrónicos o datos de imagen, captura de una imagen, y la grabación de datos en varios modos de operación, tales como un modo de voz y un modo de comunicación de datos.
En el modo de voz, una señal de audio generada por el micrófono 925 se somete a conversión en datos de audio o de compresión de datos en el códec de audio 923, y se suministra entonces a la unidad de comunicación 922. La unidad de comunicación 922 realiza un proceso de modulación o un proceso de conversión de frecuencia en los datos de audio a fin de generar una señal de transmisión. Además, la unidad de comunicación 922 transmite la señal de transmisión a la antena 921 para transmitir la señal de transmisión a una estación base (no ilustrada). Además, la amplificación unidad de comunicación 922 realiza, un proceso de conversión de frecuencia, y un proceso de demodulación en una señal que se recibe a través de la antena 921, y suministra los datos de audio generados para el códec de audio 923. El códec de audio de descompresión de datos 923 se realiza en los datos de audio o convierte los datos de audio en una señal de audio analógica, y emite la señal de audio generada al altavoz 924.
Además, en el modo de comunicación de datos, en un caso de la transmisión de un correo electrónico, la unidad de control 931 recibe datos de texto que se introducen mediante el uso de la unidad de operación 932, y muestra el texto de entrada en la unidad de pantalla 930. Además, la unidad de control 931 genera datos de correo en respuesta a una instrucción realizada por el usuario mediante el uso de la unidad de operación 932, y suministra los datos de correo generados a la unidad de comunicación 922. La unidad de comunicación 922 realiza un proceso de modulación o un proceso de conversión de frecuencia en los datos de correo, y transmite la señal de transmisión generada desde la antena 921. Además, la unidad de comunicación 922 realiza la amplificación, un proceso de conversión de frecuencia, y un proceso de demodulación en una señal que se recibe a través de la antena 921, a fin de recuperar los datos de correo. Los datos de correo se suministra a la unidad de pantalla 930, y se muestra por lo tanto el contenido del correo.
Además, el teléfono móvil 920 puede almacenar los datos de correo recibidos en un medio de grabación mediante el uso de la grabación/reproducción de la unidad 929. El medio de grabación es cualquier medio de grabación regrabable. Por ejemplo, el medio de grabación es una memoria de semiconductor tal como una RAM o una memoria incorporada flash, o un medio extraible, como un disco duro, un disco magnético, un disco magneto-óptico, un disco óptico, un colector serie universal memoria (USB), o una tarjeta de memoria.
En un caso donde los datos de imagen se transmiten en el modo de comunicación de datos, los datos de imagen generados por la unidad de cámara 926 se suministran a la unidad de procesamiento de imágenes 927. La unidad de procesamiento de imagen 927 realiza un proceso de codificación en los datos de imagen a fin de generar datos codificados.
Además, el multiplexor/desmultiplexor 928 multiplexa la emisión de imágenes que ha sido generada por la unidad de procesamiento de imagen 927 y los datos de audio que se suministran desde el códec de audio 923, y suministra los datos multiplexados a la unidad de comunicación 922. La unidad de comunicación 922 realiza un proceso de modulación o un proceso de conversión de frecuencia en los datos multiplexados, y transmite una señal de transmisión obtenida a la antena 921. Además, la unidad de comunicación 922 realiza un proceso de amplificación, un proceso de conversión de frecuencia, y un proceso de demodulación en una señal que se recibe a través de la antena 921 con el fin de recuperar los datos multiplexados. Los datos multiplexados se suministran al multiplexor/desmultiplexor 928. El multiplexor/desmultiplexor 928 desmultiplexa los datos multiplexado, y los materiales de datos codificados a la unidad de procesamiento de imagen de datos 927 y de audio para el códec de audio 923. La unidad de procesamiento de imágenes 927 decodifica los datos codificados a fin de generar datos de imagen. Los datos de imagen se suministra a la unidad de pantalla 930 para permitir que la imagen recibida a visualizar. El códec de audio 923 convierte los datos de audio en una señal de audio analógica que es suministrada entonces al altavoz 924 para emitir un sonido recibido.
En el aparato de teléfono móvil que tiene la configuración, las funciones de dispositivo de codificación y el dispositivo de decodificación (el método de codificación y el método de decodificación) de la presente solicitud se proporcionan en la unidad de procesamiento de imagen 927. Por esta razón, una imagen puede ser codificada por lo que una imagen decodificada se puede convertir en una imagen deseada con un intervalo dinámico diferente durante la decodificación. Además, es posible convertir una imagen decodificada en una imagen deseada con un intervalo dinámico diferente .
Décima modalidad] Ejemplo de configuración de grabación/reproductor La Figura 86 ejemplifica una configuración esquemática de un aparato de grabación/reproducción a la que se aplica la presente teenología. El aparato de grabación/reproducción 940 registra, por ejemplo, datos de audio y datos de video de un programa de emisión recibido en un medio de grabación, y proporciona los datos grabados a un usuario con un cronómetro en respuesta a una instrucción del usuario. Además, el aparato de grabación/reproducción 940 puede adquirir, por ejemplo, datos de audio y datos de imagen a partir de otros aparatos, y puede grabar los datos en el medio de grabación. Además, el aparato de grabación/reproducción 940 codifica y da salida a los datos de audio o datos de video grabados en el medio de grabación de modo que pantalla de la imagen o la salida de sonido se pueden realizar en un dispositivo de monitor.
El aparato de grabación/reproducción 940 incluye un sintonizador 941, una unidad de interfaz externa 942, un codificador 943, una unidad de disco duro (HDD) 944, una unidad de disco 945, un selector 946, un decodificador 947, una unidad de exhibición en pantalla (OSD) 948, una unidad de control 949, y una unidad de interfaz de usuario 950.
El sintonizador 941 selecciona un canal deseado de una señal de radiodifusión que es recibida a través de una antena (no ilustrado). Además, el sintonizador 941 emite una emisión de bits codificados que se obtiene mediante la desmodulación de la señal recibida del canal deseado, al lector 946.
La unidad de interfaz externa 942 incluye una cualquiera de una interfaz IEEE1394, una interfaz de red, una interfaz de USB, una interfaz de memoria flash, o similares. La unidad de interfaz externa 942 es una interfaz que está conectada a un aparato externo, una red, una tarjeta de memoria, o similares, y recibe datos tales como datos de video o datos de audio a ser grabados.
El codificador 943 codifica datos de video o datos de audio en un método predeterminado en un caso en el que no se codifican los datos de video y los datos de audio suministrados desde la unidad de interfaz externa 942, y produce una emisión de bits codificados al selector 946.
La unidad 944 graba datos contenidos tales como un video y un sonido, varios programas y otros datos en un disco duro incorporado, y lee los datos del disco duro cuando se reproducen el video y el sonido.
La unidad de disco 945 graba y reproduce datos en y desde un disco óptico que instalado en el mismo. El disco óptico puede ser, por ejemplo, un disco DVD (DVD-Video, DVD-RAM, DVD-R, DVD-RW, DVD + R, DVD + RW, o similares), un reproductor de Blu-ray (marca registrada) disco, o lo similar.
Cuando se graba un video o un sonido, el selector 946 selecciona una emisión de bits codificados que se introduce desde el sintonizador 941 o el codificador 943, y produce la emisión de bits codificados seleccionados a la unidad de HDS 944 o la unidad de disco 945. Además, cuando se reproduce un video y un sonido, el selector 946 produce una emisión de bits codificados que se produce de la unidad de HDD 944 o la unidad de disco 945, al decodificador 947.
El decodificador 947 decodifica la emisión de bits codificado. Además, el decodificador 947 suministra los datos de video generados por el proceso de decodificación, a la unidad de OSD 948. Además, el decodificador 947 produce datos de audio generados por el proceso de decodificación.
La unidad de OSD 948 genera datos de video para la pantalla de una pantalla de menú tal como la selección de puntos, y superpone y emite los datos de video en datos de video que se emiten desde el decodificador 947.
La unidad de control 949 está conectada a la unidad de interfaz de usuario 950. La unidad de interfaz de usuario 950 está constituida por un interruptor de funcionamiento, una porción de recepción de señal de control remoto, y similares, y suministra una señal de operación correspondiente a la operación de un usuario a la unidad de control 949.
La unidad de control 949 se forma mediante el uso de una unidad de procesamiento central (CPU), memorias, y similares. Las memorias almacenan un programa ejecutado por la CPU, una variedad de datos que es necesaria en la CPU realizar un proceso, datos de la EPG, los datos adquiridos a través de la red, y similares. El programa almacenado en la memoria es leído y ejecutado por la CPU en un tiempo predeterminado, por ejemplo, cuando se inicia el aparato de grabación/reproducción 940. La CPU ejecuta el programa, y por lo tanto controla cada unidad de manera que el aparato de grabación/reproducción 940 realiza una operación de responder a la operación de un usuario.
En el aparato de grabación/reproducción que tiene la configuración, en el decodificador 947 se proporciona una función del dispositivo de decodificación (método de decodificación) de la presente solicitud. Por esta razón, es posible convertir una imagen decodificada en una imagen deseada con un diferente intervalo dinámico.
Undécima modalidad Ejemplo de configuración del aparato de imagen La Figura 87 ejemplifica una configuración esquemática de un aparato de formación de imágenes al que se aplica la presente teenología. El aparato de formación de imágenes 960 captura una imagen de un sujeto, y muestra la imagen del sujeto en una unidad de pantalla o graba la imagen en un medio de grabación como datos de imagen.
El aparato de formación de imágenes 960 incluye un bloque óptico 961, una unidad de imagen 962, una unidad de procesamiento de señal de la cámara 963, una unidad de procesamiento de datos de imagen 964, una unidad de pantalla 965, una unidad de interfaz externa 966, una unidad de memoria 967, una unidad de medio 968, una unidad OSD 969, y una unidad de control 970. Además, la unidad de control 970 está conectado a una interfaz de usuario 971. Además, la unidad de procesamiento de datos de imagen 964, la unidad de interfaz externa 966, la unidad de memoria 967, la unidad de medio 968 , la unidad OSD 969, la unidad de control 970, y similares están conectados entre si a través de un colector 972.
El bloque óptico 961 incluye una lente de enfoque, un mecanismo de diafragma, y similares. El bloque óptico 961 forma una imagen óptica de un objeto sobre una superficie de formación de imágenes de la unidad de imagen 962. La unidad de formación de imágenes 962 incluye un sensor de imagen tal como un CCD o un CMOS, y genera una señal eléctrica correspondiente a la imagen óptica a través de la conversión fotoeléctrica, y suministra la señal eléctrica a la unidad de procesamiento de señal de la cámara 963.
La unidad de procesamiento de señal de la cámara 963 realiza diversos procesos de señal de la cámara como la corrección de inflexión, corrección gamma, y la corrección de color, en la señal de imagen que se introduce desde la unidad 962. La unidad de procesamiento de imágenes de la señal de la cámara 963 suministra los datos de imagen después de haber sido sometidos a la cámara procesa la señal a la unidad de procesamiento de datos de imagen 964.
La unidad de procesamiento de datos de imagen 964 codifica los datos de imagen que se suministra desde la unidad de procesamiento de señal de la cámara 963. La unidad de procesamiento de datos de imagen 964 suministra datos codificados generados a través del proceso de codificación a la unidad de interfaz externa 966 o a la unidad de medio 968. Además, la unidad de procesamiento de datos de imagen 964 decodifica los datos codificados que se suministran desde la unidad de interfaz externa 966 o la unidad de medio 968. Además, la unidad de procesamiento de datos de imagen 964 suministra datos de imagen generados por el proceso de decodificación para la unidad de pantalla 965. Además, la unidad de procesamiento de datos de imagen 964 suministra datos de imagen que se suministran desde la unidad de procesamiento de señal de la cámara 963, a la unidad de pantalla 965, o superpone datos de pantalla que se adquieren de la unidad OSD 969, en datos de imagen que es entonces la salida a la unidad de pantalla 965.
La unidad OSD 969 genera y produce visualización de datos, tales como una pantalla de menú formada por símbolos, caracteres o figuras, o un icono, a la unidad de procesamiento de datos de imagen 964.
La unidad de interfaz externa 966 está formada por, por ejemplo, un terminal de entrada y de salida de USB, y está conectada a una impresora cuando se imprime una imagen. Además, la unidad de interfaz externa 966 está conectada a una unidad según sea necesario. Un medio extraíble, como un disco magnético o un disco óptico, se instala en la unidad en su caso, y se instala en ella cuando sea necesario un programa informático que sea leído desde el medio extraíble. Además, la unidad de interfaz externa 966 incluye una interfaz de red que está conectada a una red predeterminada tal como una LAN o Internet. La unidad de control 970 puede leer datos codificados de la unidad de medio 968, por ejemplo, en respuesta a una instrucción de la interfaz de usuario 971, y puede suministrar los datos codificados a otros aparatos que están conectados al mismo a través de la red, desde la unidad de interfaz externa 966. Además, la unidad de control 970 puede adquirir datos o imágenes codificados que se suministran desde otros aparatos a través de la red, a través de la unidad de interfaz externa 966, y puede suministrar los datos a la unidad de procesamiento de datos de imagen 964.
Un medio de grabación dirigido por la unidad de medios 968 puede ser cualquier medio extraible de lectura y escritura tal como un disco magnético, un disco magneto-óptico, un disco óptico, o una memoria de semiconductores. Además, el medio de grabación puede ser cualquier tipo de medio extraible, puede ser un dispositivo de cinta, puede ser un disco, y puede ser una tarjeta de memoria. Por supuesto, se pueden usar una tarjeta sin contacto de circuito integrado (IC) o similares.
Además, se pueden formar integralmente la unidad de medio y un soporte de grabación a fin de estar constituidos por una unidad de almacenamiento no portátil, como un sistema incorporado en la unidad de disco duro o una unidad de estado sólido (SSD).
La unidad de control 970 se forma mediante el uso de una CPU. La unidad de memoria 967 almacena un programa ejecutado por la unidad de control 970, una variedad de datos que es necesaria en la unidad de control 970 que lleva a cabo un proceso, y similares. El programa almacenado en la unidad de memoria 967 es leído y ejecutado por la unidad de control 970, una temporización predeterminada, por ejemplo, cuando se inicia el aparato de formación de imágenes 960. La unidad de control 970 ejecuta el programa, y por lo tanto controla cada unidad de manera que el aparato de formación de imágenes 960 realiza una operación de responder a la operación de un usuario.
En el aparato de formación de imágenes que tiene la configuración, las funciones del dispositivo de codificación y el dispositivo de descodificación (el método de codificación y el método de decodificación) de la presente solicitud se proporcionan en la unidad de procesamiento de datos de imagen 964. Por esta razón, una imagen puede ser codificada por lo que una imagen descodificada se puede convertir en una imagen deseada con un rango dinámico diferente durante la decodificación. Además, es posible convertir una imagen descodificada en una imagen deseada con un rango dinámico diferente.
Ejemplos de aplicaciones de codificación evolutiva Primer sistema A continuación, se hará la descripción de un ejemplo especifico del uso de datos codificados escaladle (capa codificada) que se codifica de manera evolutiva. La codificación evolutiva se usa, por ejemplo, para seleccionar datos a transmitir como en un ejemplo ilustrado en la Figura 88.
En un sistema de transmisión de datos 1000 ilustrado en la Figura 88, un servidor de suministro 1002 lee los datos codificados escalables almacenados en la unidad de almacenamiento de datos codificados escalables 1001, y suministro los datos codificados escalables a aparatos terminales tal como una computadora personal 1004, un aparato AV 1005, un dispositivo de tableta 1006, y un teléfono móvil 1007 a través de una red de 1003.
En este momento, el servidor de suministro 1002 selecciona y transmite datos codificados con la calidad apropiada sobre la base de desempeño de los aparatos terminales, las circunstancias de comunicación, o similares. Si el servidor de suministro 1002 transmite innecesariamente datos de alta calidad, no se puede suponer que se obtiene una imagen de alta calidad en el aparato terminal, y hay una preocupación de que se pueda producir retraso o sobrecarga. Además, hay una preocupación de que los datos de alta calidad pueden ocupar innecesariamente una banda de comunicación, y puede aumentar innecesariamente una carga en el aparato terminal. A la inversa, si el servidor de suministro 1002 transmite innecesariamente datos de baja calidad, hay una preocupación de que no se pueda obtener una imagen con suficiente calidad de imagen en el aparato terminal. Por esta razón, el servidor de suministro 1002 lee y transmite los datos codificados con la calidad (capa) que es adecuada para el desempeño de los aparatos terminales o las circunstancias de comunicación de la unidad de almacenamiento de datos codificados escalables 1001.
Aquí, se supone que la unidad de almacenamiento de datos codificados escalables 1001 almacene los datos codificados escalables (BL + EL) 1011 que se codifican de manera evolutiva. Los datos codificados escalables (BL + EL) 1011 datos codificados que incluyen tanto una capa de base como una capa de mejora, y son datos que permiten que se obtenga tanto una imagen de capa de base como una imagen de capa de mejora a través de decodificación.
El servidor de suministro 1002 selecciona una capa correspondiente sobre la base de un desempeño de un aparato terminal al que se transmiten los datos o las circunstancias comunicación, y lee los datos de la capa. Por ejemplo, el servidor de suministro 1002 lee los datos codificados escalables (BL + EL) 1011 que tienen alta calidad a partir de la unidad de almacenamiento de datos codificados escalables 1001, y transmite los datos, ya que, en relación con el ordenador personal 1004 o el dispositivo de tableta 1006, tiene un desempeño de alto procesamiento. En contraste, por ejemplo, en relación con el aparato AV 1005 o el teléfono móvil 1007 que tiene un bajo desempeño de procesamiento, el servidor de suministro 1002 extrae los datos de la capa base de los datos codificados escalables (BL + EL) 1011, y transmite los datos como datos codificados escalables (BL) 1012 que son los mismos datos de contenido que los datos escalables codificados (BL + EL) 1011 en términos de contenido, pero tiene menor calidad que los datos codificados escalables (BL + EL) 1011.
Como se mencionó anteriormente, ya que una cantidad de datos se puede ajustar fácilmente mediante el uso de los datos codificados escalables, es posible minimizar la aparición de retraso o de sobrecarga o para minimizar un aumento innecesario de una carga en un aparato terminal o un medio de comunicación. Además, la redundancia entre las capas se reduce en los datos codificados escalables (BL + EL) 1011, y por lo tanto una cantidad de datos de los mismos se puede reducir más que en un caso donde los datos codificados de cada capa se utilizan como datos separados. Por lo tanto, se puede utilizar de manera más eficiente una región de almacenamiento de la unidad de almacenamiento de datos codificados escalables 1001.
Además, diversos aparatos tales como la computadora personal 1004 para el teléfono móvil 1007 se pueden emplear como aparatos terminales y por lo tanto es diferente el desempeño del hardware de los aparatos terminales dependiendo de los aparatos. Además, hay varias aplicaciones que se ejecutan por los aparatos terminales, y por lo tanto también hay varios desempeños de software de los mismos. Además, todas las redes de líneas de comunicación, incluyendo una red cableada, una red inalámbrica, o ambas redes, tales como, por ejemplo, la Internet o una red de área local (LAN) se pueden emplear como la red 1003 que es un medio de comunicación, y hay varias actuaciones de transmisión de datos. Además, hay una preocupación de que un desempeño de la transmisión de datos puede variar en función de otras circunstancias de comunicación o similares.
Por lo tanto, antes de comenzar la transmisión de datos, el servidor de suministro 1002 puede realizar comunicación con un aparato terminal que es un destino de transmisión de los datos, a fin de obtener información con respecto a las prestaciones del aparato terminal tal como un desempeño del hardware del aparato terminal y un desempeño de una aplicación (software) ejecutado por el aparato terminal, y la información sobre las circunstancias de comunicación, tales como un ancho de banda disponible de la red 1003. Además, el servidor de suministro 1002 puede seleccionar una capa adecuada sobre la base de la información obtenida aquí.
Además, la extracción de una capa se puede realizar por el aparato terminal. Por ejemplo, la computadora personal 1004 puede decodificar los datos transmitidos escalables codificados (BL + EL) 1011 con el fin de mostrar una imagen de capa de base y mostrar una imagen capa de mejora. Además, por ejemplo, la computadora personal 1004 puede extraer los datos de la capa de base escalables codificados (BL) 1012 de los datos codificados escalables de transmisión (BL + EL) 1011 con el fin de almacenar los datos, para transmitir los datos a otros dispositivos, o para decodificar los datos para la pantalla de una imagen de capa base.
Por supuesto, el número de unidades de almacenamiento de datos codificados escalables 1001, el número de servidores de suministro 1002, el número de redes 1003, y el número de aparatos terminales son todos arbitrarios. Además, en la descripción anterior, se ha hecho la descripción de un ejemplo en el que el servidor de suministro 1002 transmite los datos al aparato terminal, pero un ejemplo de uso no se limita a ello. El sistema de transmisión de datos 1000 es aplicable a cualquier sistema siempre que el sistema seleccione y transmita una capa adecuada sobre la base de un desempeño de un aparato terminal, las circunstancias de comunicación, o similares cuando los datos codificados que se codifican evolutivamente se transmiten al aparato terminal.
Segundo sistema Se utiliza la codificación evolutiva, por ejemplo, para la transmisión utilizando una pluralidad de medios de comunicación como en un ejemplo ilustrado en la Figura 89.
En un sistema de transmisión de datos 1100 que se ilustra en la Figura 89, una estación de radiodifusión 1101 transmite datos escalables codificados de la capa de base (BL) 1121 mediante el uso de una emisión terrestre lili. Además, la estación emisora 1101 transmite (por ejemplo, empaqueta y transmite} capa de mejora de datos codificados escalables (EL) 1122 a través de cualquier red 1112 formada por una red cableada, una red inalámbrica, o ambas redes.
Un aparato terminal 1102 tiene una función de recepción de la emisión terrestre lili que se emite por la estación de radiodifusión 1101, y recibe la capa de base de datos escalables codificados (BL) 1121 que se transmite a través de la emisión terrestre lili. Además, el aparato terminal 1102 tiene además una función de comunicación para realizar la comunicación utilizando la red 1112, y recibe la capa de mejora de datos codificados escalables (EL) 1122 que se transmiten a través de la red 1112.
El aparato terminal 1102 puede descodificar la capa de base de datos codificados escalables (BL) 1121 que se adquieren a través de la emisión terrestre lili, por ejemplo, en respuesta a una instrucción de un usuario, a fin de obtener una imagen de capa base, para almacenar la imagen, y para transmitir la imagen a otros aparatos.
Además, por ejemplo, en respuesta a una instrucción de un usuario, el aparato terminal 1102 puede combinar la capa de base de datos codificados escaladles (BL) 1121 que se adquiere a través de la emisión terrestre lili con los datos codificados de capa que no es de base evolutiva (El) 1122 que se adquiere a través de la red 1112 a fin de obtener datos codificados escalables (BL + EL), y puede decodificar los datos con el fin de obtener una imagen de capa base, para almacenar la imagen, y para transmitir la imagen a otros aparatos.
Como se mencionó anteriormente, los datos codificados escalables pueden ser transmitidos a través de un medio de comunicación que es diferente para cada capa, por ejemplo. En este caso, una carga puede ser distribuida, y por lo tanto es posible minimizar la aparición de retraso o de desbordamiento.
Además, un medio de comunicación utilizado para la transmisión puede seleccionarse para cada capa según las circunstancias. Por ejemplo, la capa de base de datos codificados escalables (BL) 1121 tienen una cantidad relativamente grande de datos pueden ser transmitidos a través de un medio de comunicación que tiene un amplio ancho de banda, y la capa de mejora de datos codificados escalables (EL) 1122 que tiene una cantidad relativamente pequeña de datos puede ser transmitida a través de un medio de comunicación que tiene un ancho de banda estrecho. Además, por ejemplo, un medio de comunicación para la transmisión de la capa de mejora de datos codificados escalables (El) 1122 pueden ser cambiados entre la red 1112 y la emisión terrestre lili dependiendo de un ancho de banda disponible de la red de 1112. Por supuesto, este es también el mismo para datos de cualquier capa.
El control se realiza como se ha mencionado anteriormente, y por lo tanto es posible minimizar aún más un aumento en una carga en la transmisión de datos.
Por supuesto, el número de capas es arbitrario, y el número de medios de comunicación utilizados para la transmisión también es arbitrario. Además, el número de aparatos de terminal 1102 que sirven como un destino de transmisión de datos también es arbitrario. Además, en la descripción anterior, se ha realizado la descripción de la radiodifusión de la estación de radiodifusión 1101 como un ejemplo, pero un ejemplo de uso no se limita a ello. El sistema de transmisión de datos 1100 es aplicable a cualquier sistema, siempre que las divisiones del sistema codificado de datos se codifique de manera evolutiva en una pluralidad de elementos de datos en la unidad de capas y transmita los elementos de datos a través de una pluralidad de lineas.
Tercer sistema Se utiliza la codificación evolutiva, por ejemplo, para almacenar datos codificados como en un ejemplo ilustrado en la Figura 90.
En un sistema de imágenes 1200 ilustrado en la Figura 90, un aparato de formación de imágenes 1201 codifica evolutivamente datos de imágenes que se obtienen por imágenes de un sujeto 1211, y suministra datos resultantes a un dispositivo de almacenamiento de datos codificados escaladles 1202 como datos codificados escalables (BL + EL) 1.221.
El dispositivo de almacenamiento de datos codificados escalables 1202 almacena los datos codificados escalables (BL + EL) 1221 que se suministra desde el aparato de formación de imágenes 1201, con calidad basada en las circunstancias. Por ejemplo, en un caso del tiempo normal, el dispositivo de almacenamiento de datos codificados escalables 1202 extrae datos de capa de base de los datos codificados escalables (BL + EL) 1221, y almacena los datos mientras que la capa de base de datos codificados escalables (BL) 1222 tiene una pequeña cantidad de datos con baja calidad. En contraste, por ejemplo, en un caso del tiempo de notificación, el dispositivo de almacenamiento de datos codificados escalables 1202 almacena los datos codificados escalables (BL + EL) 1221 teniendo una gran cantidad de datos con alta calidad como tal.
En consecuencia, puesto que el dispositivo de almacenamiento de datos codificados escaladles 1202 puede preservar una imagen de alta calidad según sea necesario solamente, es posible minimizar un aumento en una cantidad de datos y reducir al mínimo una reducción en el valor de una imagen debido al deterioro de la calidad de imagen, y por lo tanto, mejorar la eficiencia en el uso de una zona de almacenamiento.
Por ejemplo, el aparato de formación de imágenes 1201 se supone que es una cámara de vigilancia. En un caso (un caso de el tiempo normal) donde un objetivo de control (por ejemplo, un intruso) no es reflejado en una imagen capturada, hay una alta probabilidad de que el contenido de la imagen capturada puede no ser importante, y por lo tanto se prioriza una reducción de una cantidad de datos, y los datos de imagen (datos codificados escalables) se almacenan con baja calidad. En contraste, en un caso (un caso de el tiempo de aviso) cuando se monitorea un objetivo se refleja en una imagen capturada como el sujeto 1211, hay una alta probabilidad de que el contenido de la imagen capturada puede ser importante, y por lo tanto la calidad de imagen se prioriza, y los datos de imagen (datos codificados escalables) se almacenan con alta calidad.
Además, se puede determinar el tiempo normal y el tiempo de notificación puede ser, por ejemplo, por el dispositivo de almacenamiento de datos codificado escalables 1202 analizan una imagen. Además, se pueden determinar el tiempo normal y el tiempo de aviso, por ejemplo, por el aparato de imagen 1201 y puede ser transmitido un resultado de la determinación al dispositivo de almacenamiento de datos codificado escalables 1202.
Además, un criterio de determinación del tiempo normal y el tiempo de aviso es arbitrario, y el contenido de una imagen capturada que se utiliza como un criterio de determinación es arbitrario. Por supuesto, las condiciones diferentes al contenido de una imagen capturada se pueden usar como un criterio de determinación. Por ejemplo, el tiempo normal y el tiempo de aviso se pueden cambiar sobre la base de la magnitud, una forma de onda, o similar de un sonido grabado, y pueden ser modificados, por ejemplo, para cada intervalo de tiempo predeterminado, o por una instrucción externa tal como una instrucción de un usuario.
Además, en la descripción anterior, se ha descrito un ejemplo de cambio de dos estados, incluyendo el tiempo normal y el tiempo de notificación, pero el número de estados es arbitrario y, por ejemplo, se pueden cambiar tres o más estados, tales como el tiempo normal, el tiempo de notificación ligero, el tiempo de notificación, el tiempo de notificación grande. Aquí, un número limite superior de estados modificados depende del número de capas de datos codificados escalables.
Además, el aparato de formación de imágenes 1201 puede determinar el número de capas evolutivas codificadas sobre la base de un estado. Por ejemplo, en un caso del tiempo normal, el aparato de formación de imágenes 1201 puede generar la capa de base evolutiva los datos codificados (BL) 1222 que tiene una pequeña cantidad de datos con baja calidad, y puede suministrar los datos al dispositivo de almacenamiento de datos codificados escalables 1202. Además, por ejemplo, en un caso del tiempo de aviso, el aparato de formación de imágenes 1201 puede generar los datos de la capa base y capa que no es de base evolutiva codificada (BL + EL) 1221 que tienen una gran cantidad de datos con alta calidad, y puede suministrar los datos al dispositivo de almacenamiento de datos codificados escalables 1202.
En la descripción anterior, se ha formulado la descripción de la cámara de supervisión como un ejemplo, pero el uso del sistema de formación de imágenes 1200 es arbitrario y no se limita a una cámara de vigilancia.
Duodécima Modalidad Otros ejemplos En la descripción anterior, se han descrito los ejemplos de aparatos o sistemas a los que se aplica la presente teenología, pero la tecnología actual no se limita a ello, y puede ser realizada por todas las configuraciones montadas en un dispositivo de formación del aparato o del sistema, por ejemplo, un procesador como la integración de sistemas a gran escala (LSI) o similar, un módulo usando una pluralidad de procesadores, una unidad de uso de una pluralidad de módulos, un conjunto en el que se añaden otras funciones a la unidad, y similares (una configuración de una porción de un aparato).
Ejemplo de configuración del aparato de video Con referencia a la Figura 91, se hará la descripción de un ejemplo en el que se realiza la tecnología actual por un conjunto. La Figura 91 ilustra un ejemplo de una configuración esquemática de un conjunto de video al que se aplica la presente tecnología.
El multi-funcionamiento de un aparato electrónico ha progresado recientemente, y por lo tanto hay muchos casos en los que, cuando se vende o se presenta una configuración parcial en el desarrollo o fabricación de la misma, no sólo se realiza una configuración que tiene una única función, sino también se implementa un conjunto que tiene una pluralidad de funciones a través de combinación de una pluralidad de configuraciones con funciones relacionadas.
Un conjunto de video 1300 ilustrado en la Figura 91 tiene una configuración multi-funcional, y es uno en el que un dispositivo que tiene una función con respecto a la codificación o decodificación (uno o ambos de la codificación o decodificación se puede utilizar) de una imagen se combina con un dispositivo que tiene otras funciones relacionadas con la función.
Como se ilustra en la Figura 91, el conjunto de video 1300 incluye un grupo de módulos tales como un módulo de video 1311, una memoria externa 1312, un módulo de gestión de potencia 1313, y un módulo de extremo frontal 1314, y dispositivos que tienen funciones relacionadas, tales como una conectividad 1321, una cámara 1322, y un sensor de 1323.
El módulo es un componente que tiene una función unificada mediante la recopilación de varias funciones de los componentes mutuamente relacionados. Una configuración física específica del módulo es arbitraria, y, por ejemplo, una pluralidad de procesadores que tienen cada función, elementos de circuitos electrónicos tales como resistencias y condensadores, otros dispositivos, y similares puede estar dispuesta sobre una placa de cableado y formada integralmente. Además, un módulo se puede combinar con otros módulos, procesadores, o similares, a fin de formar un nuevo módulo.
En un caso del ejemplo de la Figura 91, el módulo de video 1311 es una combinación de configuraciones que tienen funciones con respecto al proceso de imágenes, e incluye un procesador de aplicaciones, un procesador de video, un módem de banda ancha 1333, y un módulo de RF 1334.
El procesador es uno en el que las configuraciones que tienen funciones predeterminadas están integradas en un microcircuito semiconductor mediante el uso de un sistema en un microcircuito (SoC), y puede haber un procesador que se llama, por ejemplo, sistema de integración a gran escala (LSI). Las configuraciones que tienen funciones predeterminadas pueden ser circuitos lógicos (configuración de hardware), puede ser una CPU, una ROM, una RAM, y similares, y los programas (software de configuración) ejecutados mediante el uso de las configuraciones, y pueden ser una combinación de ambos los mismos. Por ejemplo, el proceso incluye un circuito lógico, una CPU, una ROM, una RAM, y similares, algunas funciones pueden ser realizadas por el circuito lógico (configuración de hardware), y otras funciones pueden ser realizadas por el programa (configuración de software) ejecutadas por la CPU.
El procesador de aplicaciones 1331 de la Figura 91 es un procesador que ejecuta una aplicación relacionada con el procesamiento de imágenes. La aplicación ejecutada por el procesador de aplicaciones 1331 puede llevar a cabo un proceso de cálculo a fin de realizar una función predeterminada, y también puede controlar elementos constitutivos dentro y fuera del módulo de video 1311, como el procesador de video 1332.
El procesador de video 1332 es un procesador que tiene una función relacionada con la codificación/decodificación (uno o ambos de los mismos) de una imagen.
El módem de banda ancha 1333 es un procesador (o un módulo) que lleva a cabo un proceso relacionado con (del mismo o ambos) comunicación por cable o inalámbrica de banda ancha que se realiza a través de una linea de banda ancha, tal como Internet o una linea telefónica pública. Por ejemplo, el módem de banda ancha 1333 modula digitalmente datos (señal digital) a transmitir, para su conversión en una señal analógica, o desmodula una señal recibida analógica para la conversión en los datos (señal digital). Por ejemplo, el módem de banda ancha 1333 puede modular/desmodular digitalmente cualquier información como datos de imagen procesados por el procesador de video 1332, una corriente en la que se codifica los datos de imagen, un programa de aplicación o datos de ajuste.
El módulo de RF 1334 es un módulo que realiza la conversión de frecuencia, modulación/demodulación, amplificación, filtración, y similares en una señal de frecuencia de radio (RF) que se transmite y se recibe a través de una antena. Por ejemplo, el módulo de RF 1334 realiza la conversión de frecuencia o similar en una señal de banda base generada por el módem de banda ancha 1333 a fin de generar una señal de RF. Además, por ejemplo, el módulo de RF 1334 realiza la conversión de frecuencia o similar sobre una señal de RF que es recibido a través del módulo extremo frontal 1314, a fin de generar una señal de banda base.
Además, en la Figura 91, como se indica por una linea de puntos 1341, el procesador de aplicaciones 1331 y el procesador de video 1332 puede estar formado integralmente con el fin de configurar un único procesador.
La memoria externa 1312 es un módulo que se proporciona fuera del módulo de video 1311 e incluye un dispositivo de almacenamiento utilizado por el módulo de video 1311. El dispositivo de almacenamiento de la memoria externa 1312 puede ser implementado por cualquier configuración física, pero se utiliza generalmente para almacenar una gran volumen de datos, tales como datos de imagen de unidades de trama, y por lo tanto se implementa preferiblemente por una gran capacidad de memoria de semiconductor que es relativamente económica, tal como una memoria de acceso aleatorio dinámico (DRAM).
El módulo de gestión de potencia 1313 gestiona y controla la potencia que se suministra al módulo de video 1311 (cada elemento constituyente en el módulo de video 1311).
El módulo de extremo frontal 1314 es un módulo que proporciona una función de extremo delantero (un circuito de un extremo de transmisión y recepción de un lado de la antena) para el módulo de RF 1334. Como se ilustra en la Figura 91, el módulo de extremo frontal 1314 incluye, por ejemplo, una porción de la antena 1351, un filtro 1352, y una porción de amplificación de 1353.
La porción de antena 1351 incluye elementos constitutivos de antena y periféricos que transmiten y reciben una señal inalámbrica. La porción de la antena 1351 transmite una señal que se suministra desde la porción de amplificación 1353 como una señal inalámbrica, y suministra la señal inalámbrica recibida al filtro 1352 como (señal RF) señal eléctrica. El filtro 1352 realiza un proceso de filtro en la señal recibida de RF que se recibe a través de la porción de antena 1351, y suministra una señal de RF procesada al módulo de RF 1334. La porción de amplificación 1353 amplifica la señal de RF suministrada desde el módulo de RF 1334, y materiales de construcción la señal amplificada a la porción de la antena 1351.
La conectividad 1321 es un módulo que tiene una función relacionada con la conexión a un dispositivo externo. Una configuración física de la conectividad 1321 es arbitraria. Por ejemplo, la conectividad 1321 incluye un elemento constituyente que tiene una función de comunicación que no sea una comunicación estándar soportada por el módem de banda ancha 1333, un terminal de entrada y de salida externa, y similares.
Por ejemplo, la conectividad 1321 puede incluir un módulo que tiene una función de comunicación conforme a un estándar de comunicación inalámbrica como Bluetooth (marca registrada) o IEEE 802.11 (por ejemplo, Wireless Fidelity (Wi-Fi, marca registrada), la comunicación de campo cercano (NFC), o Infrared Data Association (IrDA)), una antena que transmite y recibe una señal conforme a la norma, y similares. Además, por ejemplo, la conectividad 1321 puede incluir un módulo que tiene una función de comunicación conforme a un estándar de comunicaciones por cable como Colector en serie universal (USB) o Intefaz multimedia de alta definición (HDMI) (marca registrada), o un terminal conforme al estándar. Además, por ejemplo, la conectividad 1321 puede tener otras funciones de datos (señal) de transmisión en un terminal de entrada y salida analógica o similares.
Además, la conectividad 1321 puede incluir un dispositivo de un destino de transmisión de datos (señal). Por ejemplo, la conectividad 1321 puede incluir una unidad (incluyendo no sólo un medio de unidad extraible sino también un disco duro, una unidad de estado sólido (SSD), y una red de almacenamiento conectada (NSA)) que lleva a cabo la lectura o escritura de datos desde o hacia un medio de grabación tal como un disco magnético, un disco óptico, un disco magneto-óptico, o una memoria de semiconductores. Además, la conectividad 1321 puede incluir una imagen o un dispositivo de salida de sonido (un monitor, un altavoz, o similares).
La cámara 1322 es un módulo que tiene una función de capturar una imagen de un sujeto, y la adquisición de datos de imagen del sujeto. Los datos de imagen adquirida por la cámara 1322 que captura una imagen del sujeto se suministra a, por ejemplo, el procesador de video 1332, y se codifica.
El sensor 1323 es un módulo que tiene cualquier función de sensor, tal como un sensor de audio, un sensor ultrasónico, un sensor óptico, un sensor de iluminancia, un sensor de infrarrojos, un sensor de imagen, un sensor de rotación, un sensor de ángulo, un sensor de velocidad angular, un sensor de velocidad, un sensor de aceleración, un sensor de inclinación, un sensor magnético de identificación, un sensor de impacto, o un sensor de temperatura. Los datos detectados por el sensor 1323 se suministra a, por ejemplo, el procesador de aplicaciones 1331, y es utilizado por una aplicación o similares.
En la descripción anterior, una configuración que se describe como un módulo se puede realizar como un procesador, y, a la inversa, una configuración que se describe como un procesador puede ser realizado como un módulo.
En el conjunto de video 1300 que tiene la configuración descrita anteriormente, la presente descripción es aplicable al procesador de video 1332, como se describe más adelante. Por lo tanto, el video ajustado 1300 se puede implementar como un conjunto al que se aplica la presente teenologí .
Ejemplo de configuración del procesador de video La Figura 92 ilustra un ejemplo de una configuración esquemática del procesador de video 1332 (Figura 91) a la que se aplica la presente la tecnología.
En un caso del ejemplo de la Figura 92, el procesador de video 1332 tiene una función de recibir una señal de video y una señal de audio y codificación de las señales en un método predeterminado, y una función de decodificación de datos de video codificados y datos de audio para reproducir una señal de video y una señal de audio.
Como se ilustra en la Figura 92, el procesador de video 1332 incluye una porción de procesamiento de entrada de video 1401, una primera porción de ampliación/reducción de imagen 1402, una segunda porción de ampliación/reducción de imagen 1403, una porción de procesamiento de salida de video 1404, una memoria de trama 1405, y una porción de control de memoria 1406. Además, el procesador de video 1332 incluye un motor de codificación/decodificación 1407, reguladores de emisión elemental de video (ES) 1408A y 1408B, y reguladores de audio ES 1409A y 1409B. Además, el procesador de video 1332 incluye un codificador de audio 1410, un decodificador de audio 1411, un multiplexor (MUX) 1412, un desmultiplexor (DMUX) 1413, y un regulador de emisión 1414.
La porción de proceso de entrada de video 1|401 adquiere una señal de video que se introduce de, por ejemplo, la conectividad 1321 (Figura 91) o similares, y convierte la señal de video en los datos de imagen digital. La primera porción de ampliación/reducción de imagen 1402 lleva a cabo la conversión de formato o un proceso de ampliación o reducción de imagen en los datos de imágenes. La segunda porción de ampliación/reducción de imagen 1403 realiza un proceso de ampliación o reducción de imagen de acuerdo con un formato en un destino de un video que se produce vía la porción de proceso de salida de video 1404 en los datos de imagen, o lleva acabo la misma conversión de formación o proceso de ampliación o reducción de imagen como en la primera porción de ampliación/reducción de imagen 1402 en los primeros datos de imagen. La porción de proceso de salida de video 1404 lleva a cabo conversión de formato, conversión en una señal análoga, o similares, o los datos de imagen y produce una señal convertida para, por ejemplo, la conectividad 1321 (Figura 91) o similares como una señal de video reproducida.
La memoria de trama 1405 es una memoria de datos de imagen, compartida por la porción de procesamiento de entrada de video 1401, la primera porción de la ampliación/reducción de imagen 1402, la segunda porción de la ampliación/reducción de imagen 1403, la porción de procesamiento de salida de video 1404 y el motor envio/recepción 1407. La memoria de trama 1405 se implementa por una memoria de semiconductores tal como una DRAM.
La porción de control de memoria 1406 recibe una señal de sincronización desde el motor de codificación/decodificación 1407, y controla el acceso de escritura/lectura a la memoria de trama 1405 de acuerdo con una programación para el acceso a la memoria de trama 1405, escrita en una tabla de gestión de acceso 1406A. La tabla gestión de acceso 1406A se actualiza por la porción de control de la memoria 1406 de acuerdo con los procesos realizados por el motor de codificación/decodificación 1407, la primera porción de imagen de ampliación/reducción 1402, la segunda porción de ampliación/reducción de imagen 1403, y similares.
El motor de codificación/decodificación 1407 realiza un proceso de codificación en los datos de imagen, y un proceso de descodificación en un flujo de video que codifica datos de datos de imagen. Por ejemplo, los datos de imagen códigos de motor de codificación/decodificación 1407 leen de la memoria de trama 1405, y escribe secuencialmente los datos de imagen codificados a el regulador de video ES 1408A como una emisión de video. Además, por ejemplo, las emisiones de video se leen secuencialmente desde el regulador de video 1408A a fin de ser decodificado, y se escriben secuencialmente a la memoria de trama 1405 como datos de imagen. El motor de codificación/decodificación 1407 utiliza la memoria de trama 1405 como área de trabajo en la codificación o decodificación. Además, el motor de codificación/decodificación 1407 emite una señal de sincronización a la porción de control de la memoria 1406, por ejemplo, en una temporización para iniciar un proceso en cada macrobloque.
El regulador de video ES 1408A regula una emisión de video generada por el motor de codificación/decodificación 1407, y suministra la emisión de video regulada al multiplexor (MUX) 1412. El regulador de video ES 1408B regula un flujo de video suministrado desde el demultiplexor (DMUX) 1413, y suministra el regulador de emisión de video al motor de codificación/decodificación 1407.
El regulador ES de audio 1409D regula una emisión de audio generada por el codificador de audio 1410, y suministra la corriente de audio regulada al multiplexor (MUX) 1412. El regulador de audio ES 1409B regula una emisión de audio suministrada desde el demultiplexor (DMUX) 1413, y suministra la emisión de audio regulada al decodificador de audio 1411.
El codificador de audio 1410, por ejemplo, convierte una señal digital de audio que es introducida desde, por ejemplo, la conectividad 1321 (Figura 91) o similar, y los códigos de la señal de audio son convertidos en un método predeterminado, como un método de audio MPEG o Audiocode número 3 (AC3). El codificador de audio 1410 escribe secuencialmente una emisión de audio que codifica datos de la señal de audio a el regulador de audio 1409A ES. El decodificador de audio 1411 decodifica una emisión de audio suministrada desde el regulador de audio ES 1409B con el fin de realizar la conversión en una señal analógica, o similares, y suministra la análoga, por ejemplo, la conectividad 1321 (Fig. 91) o similares como una señal de audio reproducido.
El multiplexor (MUX) 1412 multiplexa la emisión de ideo y la emisión de audio. Un método de multiplexión (es decir, un formato de una emisión de bits generada a través de la multiplexión) es arbitraria. Además, durante al multiplexion, el multiplexor (MUX) 1412 puede agregar información de encabezado predeterminada a una emisión de bits. En otras palabras, el multiplexor (MUX) 1412 puede convertir un formato de la emisión a través de la multiplexion. Por ejemplo, el multiplexor (MUX) 1412 multiplexa la emisión de video y la emisión de audio de manera que lleva a cabo la conversión en una emisión de transporte que es una emisión de bits con un formato de transmisión. Además, por ejemplo, el multiplexor (MUX) multiplexa la emisión de video y la emisión de audio de manera que lleva a cabo la conversión en los datos (datos de archivo) con un formato de grabación de archivos.
El demultiplexor (DMUX) 1413 demultiplexa un flujo de bits en el que se multiplexan una emisión de video y una emisión de audio, en un método correspondiente a la multiplexación por el multiplexor (MUX) 1412. En otras palabras, el desmultiplexor (DMUX) 1413 extrae una emisión de video y una emisión de audio de una emisión de bits que se lee desde el regulador de emisión 1414 (que separa la emisión de video y la emisión de audio del mismo). Es decir, el desmultiplexor (DMUX) 1413 puede convertir un formato de la emisión a través de la (conversión inversa de la conversión en el multiplexor (MUX) 1412) desmultiplexación. Por ejemplo, el desmultiplexor (DMUX) 1413 puede adquirir una emisión de transporte que se suministra desde, por ejemplo, la conectividad 1321 o el módem de banda ancha 1333 (Figura 91), a través del regulador de emisión 1414, y desmultiplexa el flujo de transporte de manera que se realiza la conversión en una emisión de video y una emisión de audio. Además, por ejemplo, el desmultiplexor (DMUX) 1413 puede adquirir datos de archivo que se lee a partir de diversos medios de grabación, por ejemplo, la conectividad 1321 (Figura 91), a través del regulador de emisión 1414, y desmultiplexa la emisión de transporte con el fin de llevar a cabo la conversión en una secuencia de video y una emisión de audio.
El regulador de corriente 1414 regula un flujo de bits. Por ejemplo, el regulador de la secuencia 1414 regula una emisión de transporte suministrado desde el multiplexor (MUX) 1412, y suministra la emisión de transporte regulada, por ejemplo, la conectividad 1321 o el módem de banda ancha 1333 (Figura 91) con una temporización predeterminada, o sobre la base de una solicitud o similares desde un dispositivo externo.
Además, por ejemplo, el regulador de emisión 1414 regula datos de archivo suministrados del multiplexor (MUX) 1412, y suministra los datos de archivo regulados a, por ejemplo, la conectividad 1321 (Figura 91) con el fin de registrar los datos de archivo de varios medios de grabación en un tiempo predeterminado, o sobre la base de una solicitud o similar desde un dispositivo externo.
Además, el regulador de la secuencia 1414 amortigua un flujo de transporte que se adquiere a través de, por ejemplo, la conectividad 1321 o el módem de banda ancha 1333 (Fig. 91), y provee un flujo de transporte regulada al demultiplexor (DMUX) 1413 con una temporización predeterminada, o sobre la base de una solicitud o similar de un dispositivo externo.
Además, el regulador de la emisión 1414 regula datos de archivo que se leen de diversos medios de grabación en la conectividad 1321 (Figura 91) o similar, y suministra el flujo de transporte regulada al demultiplexor (DMUX) 1413 en un tiempo predeterminado, o en la base de una solicitud o similares desde un dispositivo externo.
A continuación, se describirá un ejemplo de una operación del procesador de video 1332 que tiene la configuración. Por ejemplo, una señal de video que es introducida en el procesador de video 1332 de la conectividad 1321 (Figura 91} o similar se convierte en datos de imagen digitales en un esquema predeterminado, tal como un Esquema Y/Cb/Cr 4:2: 2 por la porción de procesamiento de entrada de video 1401, y se escriben secuencialmente a la memoria de trama 1405. Los datos de imagen digital se lcyó a la primera porción de ampliación/reducción de imagen 1402 o la segunda porción de la ampliación/reducción de imagen 1403, y se somete a la conversión de formato y una ampliación o proceso de reducción en el esquema predeterminado tal como un esquema de Y/Co/Cr de 4:2:0 de manera que se escribirá de nuevo en la memoria de trama 1405. Los datos de imagen se codifican por el motor de codificación/decodificación 1407 y luego se escriben en el regulador de video ES 1408A como una emisión de video.
La emisión de video del regulador de video ES 1408A y la emisión de audio del regulador de audio ES 1409A se leen en el multiplexor (MUX) 1412 a fin de ser multiplexados y ser convertidos en una emisión de transporte, datos de archivo, o similares. La emisión de transporte generada por el multiplexor {MUX) 1412 se regula en el regulador de flujo 1414, y luego sale a una red externa a través de, por ejemplo, la conectividad 1321 o la banda ancha moderna 1333 {Figura 91). Además, los datos de archivo generados por el multiplexor {MUX) 1412 se regula en el regulador de emisión 1414, y entonces sale, por ejemplo, a la conectividad 1321 {Figura 91) de manera que se grabará en diversos medios de grabación.
Además, una emisión de transporte que se introduce en el procesador de video 1332 de una red externa a través de, por ejemplo, la conectividad 1321 o el módem de banda ancha 1333 (Fig.91) se regula en el regulador de flujo 1414, y luego se desmultiplexa por el desmultiplexor (DMUX) 1413. Además, por ejemplo, los datos de archivo que se leen de los distintos medios de grabación, por ejemplo, en la conectividad 1321 {Figura 91) y se introducen en el procesador de video 1332 se regula en el regulador de emisión 1414, y luego se desmultiplexan por el desmultiplexor {DMUX) 1413. En otras palabras, la emisión de transporte o los datos del archivo que se introducen en el procesador de video 1332 se separan en una secuencia de video y una emisión de audio por el desmultiplexor {DMUX) 1413.
La emisión de audio se suministra al decodificador de audio 1411 a través del regulador de audio ES 1409B con el fin de ser decodificado y se reproduce como una señal de audio. Además, la secuencia de video que se escribe en el regulador de video ES 14088 es entonces secuencialmente leída por el motor de codificación/decodificación 1407 de manera que se decodifica y es escrito en la memoria de trama 1405. Los datos de imagen decodificados se someten a un proceso de ampliación o reducción en la segunda porción de ampliación/reducción de imagen 1403 de manera que se escribe en la memoria de trama 1405. Además, los datos de imagen decodificada se lee a la porción de procesamiento de salida de video 1404 a fin de someterse a la conversión de formato en un esquema predeterminado, tal como un esquema de Y/Cb/Cr 4 : 2: 2 y además se someten a la conversión en una señal analógica, y por lo tanto se reproduce y sale una señal de video .
En un caso en el que se aplica la presente teenología al procesador de video 1332 que tiene la configuración, la presente descripción en relación con cada modalidad descrita anteriormente puede ser aplicada al motor de codificación/decodificación 1407. En otras palabras, por ejemplo, el motor de codificación/decodificación 1407 puede tener la función del dispositivo de codificación o el dispositivo de decodificación en relación con la primera modalidad. En consecuencia, el procesador de video 1332 puede lograr los mismos efectos que los efectos descritos con referencia a las Figuras 6 a 13.
Además, en el motor de codificación/decodificación 1407, la tecnología actual (es decir, la función del dispositivo de codificación de imágenes o el dispositivo de decodificación de imágenes en relación con cada modalidad descrita anteriormente) se puede realizar por hardware tal como un circuito lógico, puede ser realizada por software tal como un programa incorporado, y puede ser realizada por ambos de los mismos.
Otro ejemplo de configuración del procesador de video La Figura 93 ilustra otro ejemplo de configuración esquemática del procesador de video 1332 (Figura 91) a la que se aplica la presente tecnología. En un caso del ejemplo de la Figura 93, el procesador de video 1332 tiene una función de los datos de codificación y decodificación de video en un método predeterminado.
Más específicamente, como se ilustra en la Figura 93, el procesador de video 1332 incluye una porción de control 1511, una interfaz de pantalla 1512, un motor de pantalla 1513, un motor de procesamiento de imágenes 1514, y una memoria interna 1515. Además, el procesador de video 1332 incluye un motor de códec 1516, una interfaz de memoria 1517, un multiplexor/desmultiplexor (MUX DEMUX) 1518, una interfaz de red 1519, y una interfaz de video 1520.
La porción de control 1511 controla una operación de cada porción de procesamiento del procesador de video 1332, tal como la interfaz de pantalla 1512, el motor de pantalla 1513, el motor de procesamiento de imágenes 1514, y el códec motor de 1516.
Como se ilustra en la Figura 93, la porción de control 1511 incluye, por ejemplo, una CPU principal 1531, una CPU secundaria 1532, y un controlador de sistema 1533. La CPU principal 1531 ejecuta un programa o similar para controlar una operación de cada porción de procesamiento del procesador de video 1332. La CPU principal 1531 genera una señal de control de acuerdo con el programa o similar, y suministra la señal de control a cada porción de procesamiento (es decir, controla una operación de cada porción de procesamiento). La CPU secundaria 1532 asiste a la CPU principal 1531. Por ejemplo, la CPU secundaria 1532 ejecuta un proceso hijo, una sub-rutina, o similar de un programa ejecutado por la CPU principal 1531. El controlador del sistema 1533 controla las operaciones de la CPU principal 1531 y la CPU secundaria 1532 medíante la designación de un programa que es a ser ejecutado por la CPU principal 1531 y la CPU secundaria 1532.
Los datos de la imagen de la interfaz de pantalla 1512 produce, por ejemplo, la conectividad 1321 (Figura 91) bajo el control de la porción de control 1511. Por ejemplo, la interfaz de pantalla 1512 convierte los datos de imágenes digitales en una señal analógica y emite la señal analógica a un dispositivo monitor o similar de la conectividad 1321 (Figura 91), o saca los datos de imagen digitales al dispositivo de monitor tal como están.
El motor de pantalla 1513 realiza varios procesos de conversión tales como la conversión del formato, la conversión de tamaño, y la conversión intervalo de color en datos de imagen, a fin de ser adecuado para una especificación de hardware de un dispositivo de monitor o similares, que muestra una imagen, bajo el control de la porción de control 1511.
El motor de procesamiento de imagen 1514 lleva a cabo un proceso de imagen predeterminada tal como un proceso de filtro para mejorar la calidad de la imagen, en los datos de imagen, bajo el control de la porción de control 1511.
La memoria interna 1515 es una memoria que es compartida por el motor de pantalla 1513, el motor de procesamiento de imágenes 1514, y el motor códec 1516, y se proporciona en el procesador de video 1332. La memoria interna 1515 se utiliza para transmitir y recibir datos entre, por ejemplo, el motor de pantalla 1513, el motor de procesamiento de imágenes 1514, y el motor códec 1516. Por ejemplo, la memoria interna 1515 almacena los datos suministrados desde el motor de pantalla 1513, el motor de procesamiento de imágenes 1514, o el motor de códec 1516, y suministra los datos al motor de pantalla 1513, el motor de procesamiento de imágenes 1514, o el motor de códec 1516 según sea necesario (por ejemplo, en respuesta a una solicitud). La memoria interna 1515 puede ser realizada por cualquier dispositivo de almacenamiento, pero a menudo se utiliza generalmente para almacenar un pequeño volumen de datos, tales como datos de imagen de la unidad de bloque o un parámetro, y por lo tanto se implementa preferiblemente por una memoria de semiconductores que tiene una relativamente (por ejemplo, en comparación con la memoria externa 1312) de pequeña capacidad, pero tiene una alta velocidad de respuesta, tal como una memoria de acceso aleatorio estática (SRAM).
El motor de códec 1516 realiza un proceso de codificación o decodificación en relación de datos de imagen. Un método de codificación o decodificación soportado por el motor de códec 1516 es arbitrario, y el número del mismo puede ser uno, y puede ser plural. Por ejemplo, el motor de códec 1516 puede tener funciones de códec de una pluralidad de métodos de codificación/decodificación, y puede realizar la codificación de datos de imagen o decodificación de datos codificados en un método seleccionado de entre los métodos.
En el ejemplo ilustrado en la Figura 93, el motor de códec 1516 incluye, por ejemplo, MPEG-2 Video 1541, AVC/H.264 1542, HEVC/H.265 1543, HEVC/H.265 (Scalable) 1544, HEVC/H.265 (Multi-view ) 1545, y MPEG-DASH 1551, los bloques functionales de los procesos de relación con el códec.
[0554] El MPEG-2 Video 1541 es un bloque funcional que codifica o decodifica los datos de imagen en el método MPEG-2. El AVC/H.264 1542 es un bloque funcional que codifica o decodifica los datos de imagen en el método de AVC. El HEVC/H.265 1543 es un bloque funcional que codifica o decodifica los datos de imagen en el método HEVC. El HEVC/H.265 (Escalable) 1544 es un bloque funcional que codifica escalable o decodifica los datos de imagen en el método HEVC. HEVC/H.265 (múltiples vistas) 1545 es un bloque funcional que los múltiples vistas-códigos o múltiples vistas-decodifica los datos de imagen en el método HEVC.
El MPEG-DASH 1551 es un bloque funcional que transmite y recibe datos de la imagen en la Transmisión MPEG-Dynamic adaptable sobre el método (MPEG-DASH) HTTP. El MPEG-DASH es una téenica para realizar la transmisión de un video utilizando Protocolo de transferencia de hipertexto (HTTP), tiene una de las características en las que se selecciona de datos adecuado en la unidad de segmento de entre una pluralidad de elementos de datos codificados que se preparan con antelación y tienen resoluciones o similares diferentes entre sí, y se transmite. El MPEG-DASH 1551 realiza la generación de una emisión de ajuste a un estándar, control de la transmisión de la emisión, o similares, y utiliza el MPEG-2 Video 1541 o HEVC/H.265 (múltiples vistas) 1545 anteriormente descrito para codificación/decodificación de datos de imagen.
La interfaz de memoria 1517 es una interfaz para su uso en la memoria externa 1312. Los datos suministrados desde el motor de procesamiento de imagen 1514 o el motor códec 1516 se suministra a la memoria externa 1312 a través de la interfaz de memoria de 1517. Además, los datos leídos desde la memoria externa 1312 se suministran al procesador de video 1332 (el motor de procesamiento de imagen 1514 o el motor códec 1516) a través de la interfaz de memoria 1517.
El multiplexor/demultiplexor (MUX DEMUX) 1518 multiplexa o demultiplexa varios elementos de datos con respecto a una imagen, como una emisión de bits de datos codificados, datos de imagen, y una señal de video. Un método de multiplexación y demultiplexación es arbitrario. Por ejemplo, durante la multiplexación, el multiplexor/demultiplexor (MUX DEMUX) 1518 no sólo puede recopilar una pluralidad de elementos de datos en un solo elemento de datos, pero también puede añadir información de encabezado predeterminada o similar a los datos. Además, durante la demultiplexación, el multiplexor/demultiplexor (MUX DEMUX) 1518 no sólo se puede dividir un único elemento de datos en una pluralidad de una pluralidad de elementos de datos, sino también puede añadir información de encabezado predeterminado o similar para cada elemento de datos dividido. En otras palabras, el multiplexor/demultiplexor (MUX DEMUX) 1518 puede convertir un formato de datos a través de la multiplexación y demultiplexación. Por ejemplo, el multiplexor/demultiplexor (MUX DEMUX) 1518 multiplexa una cadena de bits con el fin de realizar la conversión en una emisión de transporte que es una cadena de bits con un formato de transmisión de datos (o datos de archivo) con un formato de archivo de grabación. Por supuesto, la conversión inversa de los mismos se puede realizar a través de demultiplexación.
La interfaz de red 1519 es una interfaz dedicada a, por ejemplo, la el modem de banda ancha 1333 o la conectividad 1321 (Figura 91). La interfaz de video 1520 es una interfaz dedicada a, por ejemplo, la conectividad de 1321 o la cámara 1322 (Figura 91).
A continuación, se describirá un ejemplo de una operación del procesador de video 1332. Por ejemplo, cuando se recibe una emisión de transporte desde una red externa a través de, por ejemplo, la conectividad 1321 o el módem de banda ancha 1333 (Figura 91), la emisión de transporte se suministra al multiplexor/desmultiplexor (MUX DEMUX) 1518 a través de la red interfaz 1519 de manera que se desmultiplexa, y luego se decodifica por el motor 1516. El códec de datos de imagen que se obtiene a través de la codificación en el motor de códec 1516 se somete a un proceso de imagen predeterminada mediante, por ejemplo, el motor de procesamiento de imagen 1514 a fin de someterse a conversión predeterminada, y luego se suministra a, por ejemplo, la conectividad 1321 (Figura 91) a través de la interfaz de pantalla 1512, y una imagen del mismo se muestra en un monitor. Además, por ejemplo, los datos de imagen obtenidos a través de la codificación en el motor de códec 1516 se decodifica de nuevo por el motor de códec 1516 con el fin de ser multiplexados por el desmultiplexor multiplexor (MUX DEMUX) 1518 y para ser convertido en datos de archivos, y es entonces la salida a, por ejemplo, la conectividad 1321 (Figura 91) a través de la interfaz de video 1520 asi como para ser grabado en diversos medios de grabación.
Además, por ejemplo, datos de archivos de datos codificados que se codifica datos de imagen y se lee de un soporte de grabación (no ilustrada) por la conectividad 1321 (Figura 91) se suministra al multiplexor/desmultiplexor (MUX DEMUX) 1518 a través del video interfaz 1520, y luego se decodifica por el motor de códec 1516. Los datos de imagen obtenidos a través de la decodificación en el motor de códec 1516 se somete a un proceso de imagen predeterminada por el motor de procesamiento de imagen 1514 a fin de someterse a la conversión predeterminada por el motor de pantalla 1513, y es entonces suministrado a, por ejemplo, la conectividad 1321 (Figura 91) a través de la interfaz de pantalla 1512, y una imagen del mismo se muestra en el monitor. Además, por ejemplo, los datos de imagen obtenidos a través de la decodificación en el motor de códec 1516 se codifican de nuevo por el motor de códec 1516 con el fin de ser multiplexados por el multiplexor/desmultiplexor (MUX DEMUX) 1518 y para ser convertido en una emisión de transporte, y es entonces la salida a, por ejemplo, la conectividad 1321 o el módem de banda ancha 1333 (Figura 91) a través de la interfaz de red 1519 de manera que se suministra a otros aparatos (no ilustrado).
Además, la transmisión y recepción de datos de imagen u otros datos entre las porciones de procesamiento respectivas del procesador de video 1332 se llevan a cabo mediante el uso de, por ejemplo, la memoria interna 1515 o la memoria externa 1312. Además, el módulo de gestión de potencia 1313 controla el suministro de poder para, por ejemplo, la porción de control 1511.
Si la presente teenología se aplica al procesador de video 1332 que tiene la configuración, la presente tecnología relacionada con cada modalidad descrita anteriormente se puede aplicar al motor códec 1516. En otras palabras, por ejemplo, el motor de códec 1516 puede incluir un bloque funcional para la modalidad del dispositivo de codificación o el dispositivo de decodificación en relación con la primera modalidad. Además, por ejemplo, si el motor códec 1516 incluye el bloque funcional descrito anteriormente, el procesador de video 1332 puede lograr los mismos efectos que los efectos descritos con referencia a las Figuras 6 a 13.
Además, en el motor de códec 1516, la tecnología actual (es decir, la función del dispositivo de codificación de imágenes o el dispositivo de decodificación de imagen en relación con cada modalidad descrita anteriormente) se puede realizar por hardware tal como un circuito lógico, puedan ser realizados por software tal como un programa incorporado, y puede ser realizada por ambos de los mismos.
Como se mencionó anteriormente, las dos configuraciones ejemplares de la procesador de video 1332 se han descrito, pero el procesador de video 1332 pueden tener cualquier configuración, y pueden tener configuraciones distintas de las dos configuraciones ejemplares. Además, el procesador de video 1332 puede estar configurado por un único microcircuito semiconductor, y puede ser configurado por una pluralidad de icrocircuitos semiconductores. Por ejemplo, en el que se puede usar una pluralidad de semiconductores se apilan una LSI apilada tridimensional. Además, el procesador de video 1332 puede ser implementado por una pluralidad de LSI.
Ejemplos de aplicación a aparatos El video ajusta 1300 se pueden incorporar en diversos aparatos que proceso de datos de imagen. Por ejemplo, el video ajustado 1300 se puede incorporar en el aparato de televisión 900 (Figura 84), el teléfono móvil 920 (Figura 85), la grabación/reproducción de aparato 940 (Figura 86), el aparato de formación de imágenes 960 (Figura 87), y similares. Fijó El video 1300 se incorpora dentro del aparato, y por lo tanto el aparato puede lograr los mismos efectos que los efectos descritos con referencia a las Figuras 6 a 13.
Además, el conjunto 1300 de video pueden incorporarse en, por ejemplo, los aparatos terminales tal como la computadora personal 1004, el aparato AV 1005, el dispositivo de tableta 1006, y el teléfono móvil 1007 del sistema de transmisión de datos 1000 de Figura 88, la estación de radiodifusión 1101 y el aparato terminal 1102 del sistema de transmisión de datos 1100 de la Figura 89, el aparato de formación de imágenes 1201 y el dispositivo de almacenamiento de datos escalable codificada 1202 del sistema de imagen 1200 de la Figura 90, y similares. Fijó El video 1300 se incorpora dentro del aparato, y por lo tanto el aparato puede lograr los mismos efectos que los efectos descritos con referencia a las Figuras 6 a 13.
Además, incluso si sólo algunas de las configuraciones de la de video anteriormente descritas ajustan 1300 incluyen el procesador de video 1332, las configuraciones pueden ser implementadas como configuraciones a la que se aplica la presente teenología. Por ejemplo, sólo el procesador de video 1332 puede implementarse como un procesador de video al que se aplica la presente tecnología. Además, por ejemplo, como se describió anteriormente, el procesador, el módulo de video 1311, o como la indicada por la linea de puntos 1341 pueden implementarse como un procesador, un módulo, o similar al que se aplica la presente teenología. Además, una combinación del módulo de video 1311, la memoria externa 1312, el módulo de gestión de potencia 1313, y el módulo de extremo frontal 1314 se puede implementar como la unidad de video 1361 a la que se aplica la presente tecnología. Cualquier configuración puede lograr los mismos efectos que los efectos descritos con referencia a las Figuras 6 a 13.
En otras palabras, cualquier configuración incluyendo el procesador de video 1332 puede ser incorporado en diversos aparatos que los datos de imagen en proceso de la misma manera que en el conjunto de video 1300. Por ejemplo, el procesador de video 1332, el procesador indicado por la línea de puntos 1341, el módulo de video 1311, o la unidad de video 1361 se pueden incorporar en el aparato de televisión 900 (Figura 84), el teléfono móvil 920 (Figura 85), la grabación/reproducción de aparato 940 (Figura 86), el aparato de formación de imágenes 960 (Figura 87), los aparatos terminales tales como la computadora personal 1004, el aparato AV 1005, el dispositivo de tableta 1006, y el teléfono móvil 1007 del sistema de transmisión de datos 1000 de la Figura 88, la estación de radiodifusión 1101 y el aparato terminal 1102 del sistema de transmisión de datos 1100 de la Figura 89, el aparato de formación de imágenes 1201 y el dispositivo de almacenamiento de datos escalable codificada 1202 del sistema de imagen 1200 de la Figura 90, y similares. Cualquiera de las configuraciones a las que la presente teenología se aplica se incorpora en el aparato, y por lo tanto el aparato puede lograr los mismos efectos que los efectos descritos con referencia a las Figuras 6 a 13 de la misma manera que en el video set 1300.
Además, en la presente especificación, se ha hecho la descripción de un ejemplo en el que varias piezas de información tales como información de conversión, información de conversión DR, y un índice de punto de inflexión aproximado se multiplexan en datos codificados, y se transmiten desde un lado de codificación a un lado de decodificación. Sin embargo, un método de transmisión de la información no se limita a este ejemplo. Por ejemplo, la información puede ser transmitida o grabada como datos separados asociados con datos codificados sin ser multiplexados en los datos codificados. Aquí, el término "asociado" indica que una imagen (que puede ser una porción de la imagen, tal como una rebanada o un bloque) incluido en que se haga una emisión de bits para ser vinculado a la información correspondiente a la imagen durante la decodificación. En otras palabras, la información puede ser transmitida en un camino de transmisión diferente de la de los datos codificados. Además, la información puede ser grabada en un medio de grabación (o un área de grabación diferente del mismo medio de grabación) diferente de la de los datos codificados. Además, la información y los datos codificados pueden estar asociados entre si en cualquier unidad, tal como una pluralidad de tramas, una sola trama, o una porción de una trama.
Además, en la presente memoria, el sistema indica un conjunto de una pluralidad de elementos constitutivos (dispositivos, módulos (componentes), o similares), y no importa si o no todos los elementos constitutivos se encuentran en la misma carcasa. Por lo tanto, una pluralidad de dispositivos que se almacenan en carcasas separadas y están conectados entre sí a través de una red, un solo dispositivo en el que una pluralidad de módulos se almacenan en una sola carcasa, son todo un sistema.
Los efectos descritos en la presente memoria descriptiva son sólo un ejemplo y no están limitados, y puede haber otros efectos.
Además, las modalidades de la presente descripción no se limitan a las modalidades descritas anteriormente, y pueden tener diversas modificaciones dentro del alcance sin alejarse del espíritu de la presente descripción.
Por ejemplo, la presente descripción puede tener una configuración computación en la nube en la que una sola función se distribuye a una pluralidad de dispositivos a través de una red y se procesa en cooperación entre ellos.
Además, cada etapa descrita en el diagrama de flujo anterior puede llevarse a cabo un único dispositivo, y también puede ser realizada por una pluralidad de dispositivos de una manera de distribución.
Además, en un caso en el que se incluye una pluralidad de procesos en un solo paso, la pluralidad de procesos incluidos en la etapa solo puede ser realizada por un único dispositivo, y también puede ser realizada por una pluralidad de dispositivos de una manera de distribución.
La presente descripción puede tener las siguientes configuraciones. (1) Un dispositivo de decodificación, que incluye: circuiteria configurada para recibir datos codificados e información de conversión, los datos codificados correspondientes a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen desde el primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados recibidos a fin de generar la imagen, en el que la conversión utiliza una función de inflexión. (2) El dispositivo de decodificación de acuerdo con (1), en la que utiliza la conversión de un punto de inflexión. (3) El dispositivo de decodificación de acuerdo con el (1) o (2) anterior, en el que la conversión utiliza la función de inflexión para asignar el intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico, y la inflexión función se define por el punto de inflexión. (4) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (3) anteriores, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es un objetivo función de inflexión en la primera información de intervalo dinámico y posterior a la conversión indicando un intervalo de luminancia en el segundo intervalo dinámico que corresponde a el intervalo de luminancia que es la función de inflexión objetivo en el primer intervalo dinámico. (5) El dispositivo de decodificación de acuerdo con cualquiera de las anteriores (1) a (4), en donde la información previa a conversión indica el intervalo de luminancia que es convertida por función de inflexión en una misma relación de conversión como un intervalo de conversión del primer intervalo dinámico. (6) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (5) anteriores, en donde la conversión utiliza la función de inflexión que está definida por una pluralidad de puntos de inflexión. (7) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (6) anteriores, en donde la información de conversión incluye una pluralidad de pares de la información previa a conversión y la información posterior a conversión. (8) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (7) anteriores, en donde la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico, y una pluralidad de segmentos adyacentes del primer intervalo dinámico de la luminancia se asignan a una pluralidad de segmentos adyacentes correspondiente del segundo intervalo dinámico de la luminancia basado en limites entre segmentos adyacentes definidos por una pluralidad de puntos de inflexión. (9) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (8) anteriores, en donde la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico en una primera relación de conversión a un punto definido por el punto de inflexión y en una segunda relación de conversión desde el punto definido por el punto de inflexión. (10) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (9) anteriores, en donde la fuñeión de inflexión se especifica mediante un mensaje de SEI. (11) El dispositivo de decodificación de acuerdo con cualquiera de (1) a (10) anteriores, en donde el mensaje SEI incluye una configuración de un ID de función de inflexión. (12) Un método de decodificación para causar que un dispositivo de decodificación lleve a cabo: la recepción de datos codificados e información de conversión, los datos codificados correspondientes a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados recibidos a fin de generar la imagen, en donde la conversión utiliza una función de inflexión. (13) El método de decodificación de acuerdo con (12) anterior, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es una función de inflexión objetivo en el primer intervalo dinámico y de información posterior a la conversión que indica un intervalo de luminancia en el segundo intervalo dinámico que corresponde al intervalo de luminancia que es la función de inflexión objetivo en el primer intervalo dinámico. (14) El método de decodificación de acuerdo con el (12) o (13) anterior, en donde la información previa a conversión indica el intervalo de luminancia que es convertida por función de inflexión en una misma relación de conversión como un intervalo de conversión del primer intervalo dinámico. (15) El método de decodificación de acuerdo con cualquiera de (12) a (14) anteriores, en donde la información de conversión incluye una pluralidad de pares de la información antes de la conversión y la información posterior a la conversión. (16) El método de decodificación de acuerdo con cualquiera de (12) a (15) anteriores, en donde la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico en una primera relación de conversión a un punto definido por el punto de inflexión y en una segunda relación de conversión del punto definido por el punto de inflexión. (17) Un dispositivo de codificación, que incluye: circuiteria configurada para configurar la información de conversión correspondiente a una conversión de intervalo dinámico de una luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico; y el código de la imagen que tiene de luminancia en el primer intervalo dinámico a fin de generar datos codificados, en el que la conversión utiliza una función de inflexión. (18) El dispositivo de codificación de acuerdo con (17) anterior, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es una función de inflexión objetivo en la primera información de intervalo dinámico y posterior a la conversión que indica un intervalo de luminancia en el segundo intervalo dinámico que corresponde al intervalo de luminancia que es la función de inflexión objetivo en el primer intervalo dinámico. (19) El dispositivo de codificación de acuerdo con (17) o (18) anterior, en donde la información previa a conversión indica el intervalo de luminancia que es convertida por función de inflexión en una misma relación de conversión como un intervalo de conversión del primer intervalo dinámico (20) El dispositivo de codificación de acuerdo con cualquiera de {17) a {19) anteriores, en donde la información de conversión incluye una pluralidad de pares de la información antes de la conversión y la información posterior a la conversión. (21) El dispositivo de codificación de acuerdo con cualquiera de (17) a (20) anteriores, en el que la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico en una primera relación de conversión a un punto definido por el punto de inflexión y en una segunda relación de conversión del punto definido por el punto de inflexión. (22) Un medio legible por computadora no transitorio que tiene almacenado en la misma los datos codificados e información de conversión, los datos codificados relativos a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico, en donde un dispositivo de decodificación decodifica los datos codificados, genera la imagen basada en los datos decodificados, y convierte el intervalo dinámico basado en la información de conversión que incluye un punto de inflexión. (23) El medio legible por computadora no transitorio de acuerdo con (22) anterior, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es un objetivo función de inflexión en la primera información de intervalo dinámico y posterior a la conversión que indica un intervalo de luminancia en el segundo intervalo dinámico que corresponde al intervalo de luminancia que es la función de inflexión objetivo en el primer intervalo dinámico. (24) El medio legible por computadora no transitorio de acuerdo con (22) o (23) anterior, en donde la información previa a conversión indica el intervalo de luminancia que es convertido por función de inflexión en una misma relación de conversión como un intervalo de conversión la primera intervalo dinámico. (25) El medio no transitoria legible por computadora de acuerdo con cualquiera de (22) a (24) anteriores, en donde la información de conversión incluye una pluralidad de pares de la información antes de la conversión y la información posterior a la conversión. (26) El medio legible por computadora no transitorio de acuerdo con cualquiera de (22) a (25) anteriores, en donde la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico en una primera relación de conversión a un punto definido por el punto de inflexión y en una segunda relación de conversión del punto definido por el punto de inflexión. (27) Un dispositivo de decodificación que incluye una unidad de extracción que extrae datos codificados e información de conversión a partir de una emisión codificada que incluye los datos codificados de una primera imagen que es una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión con respecto a la conversión de un intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y una unidad de decodificación que decodifica los datos codificados extraídos por la unidad de extracción a fin de generar la primera imagen. (28) El dispositivo de decodificación de acuerdo con (27) anterior, que incluye además una unidad de conversión que convierte la primera imagen que se genera por la unidad de decodificación en una segunda imagen que es la imagen que tiene de luminancia en el segundo intervalo dinámico sobre la base de la información de conversión extraídos por la unidad de extracción. (29) El dispositivo de decodificación de acuerdo con (27) o (28) anterior, en donde la conversión se realiza por la inflexión de conversión de la luminancia de la primera imagen. (30) El dispositivo de decodificación de acuerdo con la una cualquiera de (27) a (29) anteriores, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es una conversión de inflexión objetivo en el primer intervalo dinámico e información posterior a la conversión que indica un intervalo de luminancia en el segundo intervalo dinámico, lo que corresponde al intervalo. (31) El dispositivo de decodificación de acuerdo con la una cualquiera de (27) a (30) anteriores, en donde la información previa a conversión indica un intervalo de luminancia que es convertida por inflexión al mismo radio de conversión como un intervalo de conversión del primer intervalo dinámico, y en donde la información de conversión incluye una pluralidad de pares de la información previa a la conversión y la información posterior a la conversión. (32) El dispositivo de decodificación de acuerdo con la una cualquiera de (27) a (31) anteriores, que incluye además una unidad de selección que selecciona una pares de números predeterminados de entre la pluralidad de pares incluidos en la información de conversión que se extrae por la extracción unidad, en un orden en donde los pares se incluyen en la información de conversión. (33) El dispositivo de decodificación de acuerdo con la una cualquiera de (27) a (31) anteriores, que incluye además una unidad de selección que selecciona una pares de números predeterminados de entre la pluralidad de pares incluida en la información de conversión sobre la base de información de prioridad que indica un orden en el que la prioridad del par es mayor, en el que la unidad de extracción extrae la información de prioridad incluida en la emisión codificada. (34) El dispositivo de decodificación de acuerdo con la una cualquiera de (27) a {33) anteriores, que incluye además una unidad de transmisión que transmite el número predeterminado de pares seleccionados por la unidad de selección. (35) El dispositivo de decodificación de acuerdo con una cualquiera de (27) a (34) anteriores, en donde la información de conversión incluye al menos uno de un valor máximo de la luminancia de la primera imagen y un valor máximo de la luminancia de la segunda imagen. (36) El dispositivo de decodificación de acuerdo con una cualquiera de (27) a (35) anteriores, en donde la información de conversión incluye al menos uno de un valor esperado de brillo de una unidad de pantalla que muestra la primera imagen y un valor esperado de brillo de una unidad de pantalla que muestra la segunda imagen. (37) Un método de decodificación de causar un dispositivo de decodificación para realizar la extracción de datos codificados e información de conversión a partir de una emisión codificada incluyendo los datos codificados de una primera imagen que es una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión que es información con respecto conversión de un intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados extraídos a fin de generar la primera imagen. (38) Un dispositivo de codificación que incluye una unidad de ajuste que ajusta información de conversión que es información con respecto a la conversión de un intervalo dinámico de luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico; una unidad de codificación que los códigos de una primera imagen que es la imagen que tiene de luminancia en el primer intervalo dinámico a fin de generar datos codificados; y una unidad de transmisión que transmite una emisión codificada que incluye la información de conversión fijado por la unidad de ajuste y los datos codificados de la primera imagen generada por la unidad de codificación. (39) El dispositivo de codificación de acuerdo con (38) anterior, en donde la conversión se realiza por la inflexión de conversión de la luminancia de la primera imagen. (40) El dispositivo de codificación de acuerdo con (38) o (39) anterior, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es un objetivo de conversión de inflexión en el primer intervalo dinámico e información posterior a la conversión que indica un intervalo de luminancia en el segundo intervalo dinámico, lo que corresponde al intervalo. (41) El dispositivo de codificación de acuerdo con una cualquiera de (38) a (40) anteriores, en donde la información previa a conversión indica un intervalo de luminancia que es convertida por inflexión al mismo ratio de conversión como un intervalo de conversión del primer intervalo dinámico, y en donde la información de conversión incluye una pluralidad de pares de información previa a la conversión y la información posterior a la conversión. (42) El dispositivo de codificación de acuerdo con una cualquiera de (38) a (41) anteriores, en donde la información de conversión incluye la pluralidad de pares de información antes de la conversión e información posterior a la conversión en un orden en el que una de las prioridades es (43) El dispositivo de codificación de acuerdo con una cualquiera de (38) a (42) anteriores, en donde la unidad de transmisión transmite información de prioridad que indica un orden en el que la prioridad del par es mayor. (44) El dispositivo de codificación de acuerdo con una cualquiera de (38) a (43) anteriores, en donde la información de conversión incluye al menos uno de un valor máximo de la luminancia de la primera imagen y un valor máximo de la luminancia de la segunda imagen. (45) El dispositivo de codificación de acuerdo con una cualquiera de (38) a (44) anteriores, en donde la información de conversión incluye al menos uno de un valor esperado de brillo de una unidad de pantalla que muestra la primera imagen y valor de brillo esperado de una unidad de pantalla que muestra la segunda imagen. (46) Un método de codificación para causar que un dispositivo de codificación lleve a cabo el ajuste de información de conversión que es información con respecto a la conversión de un intervalo dinámico de luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico; codificación de una primera imagen que es la imagen que tiene de luminancia en el primer intervalo dinámico a fin de generar datos codificados; y transmitir una emisión codificada que incluye la información de conversión fija y los datos codificados generados de la primera imagen.
Se deberá entender por los expertos en la téenica que pueden ocurrir diversas modificaciones, combinaciones, sub-combinaciones y alteraciones dependiendo de los requisitos de diseño y otros factores en cuanto a que están dentro del alcance de las reivindicaciones adjuntas o los equivalentes de las mismas.
Lista de signos de referencia 10 dispositivo de codificación 11 unidad de ajuste 12 unidad de codificación 13 Unidad de transmisión 14 unidad de conversión 50 dispositivo de decodificación 52 unidad de extracción 53 unidad de decodificación 54 unidad de conversión 70 dispositivo de codificación 71 unidad de ajuste 72 unidad de codificación 90 dispositivo de decodificación 91 unidad de extracción 92 unidad de decodificación 93 unidad de conversión 110 sistema de decodificación 111 dispositivo de decodificación 112 dispositivo de pantalla 121 unidad de selección 122 unidad de transmisión

Claims (14)

REIVINDICACIONES
1.- Un dispositivo de decodificación que comprende: circuitería configurada para recibir datos codificados e información de conversión, los datos codificados correspondientes a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados recibidos a fin de generar la imagen, en donde la conversión utiliza una función de inflexión, y la información de conversión incluye la información de persistencia de conversión que indica si la información de conversión se aplica o no a una pluralidad de imágenes continuas.
2.- El dispositivo de decodificación de acuerdo con la reivindicación 1, en donde la conversión utiliza un punto de inflexión.
3.- El dispositivo de decodificación de acuerdo con la reivindicación 2, en donde la conversión utiliza la función de inflexión para asignar el intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico, y la función de inflexión se define por el punto inflexión.
4.- El dispositivo de decodificación de acuerdo con la reivindicación 3, en donde la información de conversión incluye información previa a conversión que indica un intervalo de luminancia que es una función de inflexión objetivo en la primera información de intervalo dinámico y posterior a conversión que indica un intervalo de luminancia en el segundo intervalo dinámico que corresponde al intervalo de luminancia que es la función de inflexión objetivo en el primer intervalo dinámico.
5.- El dispositivo de decodificación de acuerdo con la reivindicación 4, en donde la conversión previa a información indica el intervalo de luminancia que es convertida por la función de inflexión en una misma relación de conversión como un intervalo de conversión del primer intervalo dinámico.
6.- El dispositivo de decodificación de acuerdo con la reivindicación 1, en el que la conversión utiliza la función de inflexión que está definida por una pluralidad de puntos de inflexión.
7.- El dispositivo de decodificación de acuerdo con la reivindicación 6, en donde la información de conversión incluye una pluralidad de pares de la información previa a conversión y la información posterior a la conversión.
8.- El dispositivo de decodificación de acuerdo con la reivindicación 1, en donde la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico, y una pluralidad de segmentos adyacentes del primer intervalo dinámico de la luminancia se asignan a una pluralidad de segmentos adyacentes correspondiente al segundo intervalo dinámico de la luminancia sobre la base de limites entre segmentos adyacentes definidas por una pluralidad de puntos de inflexión.
9.- El dispositivo de decodificación de acuerdo con la reivindicación 3, en donde la conversión utiliza la función de inflexión mediante la asignación del intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en el segundo intervalo dinámico en una primera relación de conversión a un punto definido por el punto de inflexión y en una segunda relación de conversión del punto definido por el punto de inflexión.
10.- El dispositivo de decodificación de acuerdo con la reivindicación 1, en donde la función de inflexión se especifica mediante un mensaje de SEI.
11.- El dispositivo de decodificación de acuerdo con la reivindicación 10, en donde el mensaje de SEI incluye un ajuste de knee_function__id.
12.- Un método de decodificación que causa que un dispositivo de decodificación lleve a cabo: la recepción de datos codificados e información de conversión, los datos codificados correspondientes a una imagen que tiene de luminancia en un primer intervalo dinámico y la información de conversión correspondiente a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico; y decodificar los datos codificados recibidos a fin de generar la imagen, en donde la conversión utiliza una función de inflexión, y la información de conversión incluye la información de persistencia de conversión que indica si la información de conversión se aplica o no a una pluralidad de imágenes continuas.
13.- Un dispositivo de codificación que comprende: circuitería configurada para información de conversión conjunto perteneciente a una conversión de intervalo dinámico de una luminancia de una imagen de un primer intervalo dinámico en un segundo intervalo dinámico; y codificar la imagen que tiene luminancia en el primer intervalo dinámico de manera que genera datos codificados, en donde la conversión utiliza una función de inflexión, y la información de conversión incluye la información de persistencia de conversión que indica si la información de conversión o no se aplica a una pluralidad de imágenes continuas.
14.- Un medio legible por computadora no transitorio que tiene almacenado en el mismo datos codificados e información de conversión, los datos codificados que pertenecen a una imagen que tienen luminancia en un primer intervalo dinámico y la información de conversión que pertenece a una conversión de intervalo dinámico de la luminancia de la imagen del primer intervalo dinámico en un segundo intervalo dinámico, en donde un dispositivo de decodificación decodifica los datos codificados, genera la imagen basada en los datos decodificados, y convierte el intervalo dinámico basado en la información de conversión que incluye un punto de inflexión, y la información de conversión incluye además, la información de persistencia de conversión que indica si la información de conversión se aplica o no a una pluralidad de imágenes continuas.
MX2015006472A 2013-10-15 2014-10-07 Dispositivo de decodificacion y metodo de decodificacion, y dispositivo de codificacion y metodo de codificacion. MX351317B (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013215060 2013-10-15
JP2013272945 2013-12-27
JP2014042174A JP6202330B2 (ja) 2013-10-15 2014-03-04 復号装置および復号方法、並びに符号化装置および符号化方法
PCT/JP2014/005108 WO2015056424A1 (en) 2013-10-15 2014-10-07 Decoding device and decoding method, and coding device and coding method

Publications (2)

Publication Number Publication Date
MX2015006472A true MX2015006472A (es) 2015-08-14
MX351317B MX351317B (es) 2017-09-25

Family

ID=51794939

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2015006472A MX351317B (es) 2013-10-15 2014-10-07 Dispositivo de decodificacion y metodo de decodificacion, y dispositivo de codificacion y metodo de codificacion.

Country Status (14)

Country Link
US (4) US9253497B2 (es)
EP (1) EP3044963B1 (es)
JP (1) JP6202330B2 (es)
KR (1) KR102268787B1 (es)
CN (1) CN104813666B (es)
AU (2) AU2014335620A1 (es)
CA (1) CA2891890A1 (es)
MX (1) MX351317B (es)
MY (1) MY178715A (es)
PH (1) PH12015501135A1 (es)
RU (1) RU2679236C2 (es)
SG (1) SG11201503910SA (es)
WO (1) WO2015056424A1 (es)
ZA (1) ZA201503653B (es)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9641894B2 (en) * 2012-09-12 2017-05-02 Koninklijke Philips N.V. Making HDR viewing a content owner agreed process
JP6202330B2 (ja) * 2013-10-15 2017-09-27 ソニー株式会社 復号装置および復号方法、並びに符号化装置および符号化方法
KR20160145003A (ko) 2014-04-22 2016-12-19 소니 주식회사 부호화 장치, 부호화 방법, 송신 장치, 송신 방법, 수신 장치, 수신 방법 및 프로그램
EP3678359A1 (en) * 2014-05-16 2020-07-08 Panasonic Intellectual Property Management Co., Ltd. Converting method and converting apparatus
WO2015190045A1 (ja) 2014-06-10 2015-12-17 パナソニックIpマネジメント株式会社 変換方法および変換装置
CN106134172B (zh) 2014-06-10 2019-10-01 松下知识产权经营株式会社 显示系统、显示方法及显示装置
JP6566320B2 (ja) * 2014-06-27 2019-08-28 パナソニックIpマネジメント株式会社 データ出力装置及びデータ出力方法
CN109151253B (zh) * 2014-09-22 2020-12-18 松下知识产权经营株式会社 显示装置、显示方法以及再现显示系统
TWI685837B (zh) * 2014-10-23 2020-02-21 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式產品、以及記錄媒體
CN110971887B (zh) * 2014-11-04 2021-11-02 松下电器(美国)知识产权公司 再现方法、再现装置以及记录介质
JP2020022179A (ja) * 2014-11-04 2020-02-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生方法、プログラムおよび再生装置
HUE056171T2 (hu) * 2014-12-29 2022-01-28 Sony Group Corp Adókészülék, adási eljárás, vevõkészülék és vételi eljárás
EP3051821A1 (en) * 2015-01-30 2016-08-03 Thomson Licensing Method and apparatus for encoding and decoding high dynamic range (HDR) videos
KR102423434B1 (ko) * 2015-02-17 2022-07-22 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR102310241B1 (ko) 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
JP6731722B2 (ja) * 2015-05-12 2020-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
JP6663214B2 (ja) * 2015-05-26 2020-03-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
US11245939B2 (en) * 2015-06-26 2022-02-08 Samsung Electronics Co., Ltd. Generating and transmitting metadata for virtual reality
EP3113495A1 (en) * 2015-06-30 2017-01-04 Thomson Licensing Methods and devices for encoding and decoding a hdr color picture
WO2017022513A1 (ja) 2015-07-31 2017-02-09 ソニー株式会社 映像信号処理装置および映像信号処理方法、ならびに表示装置
US10885614B2 (en) 2015-08-19 2021-01-05 Samsung Electronics Co., Ltd. Electronic device performing image conversion, and method thereof
KR102509504B1 (ko) * 2015-08-24 2023-03-13 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 코딩 및 디코딩 방법과 대응하는 디바이스
KR102377807B1 (ko) * 2015-08-28 2022-03-22 애리스 엔터프라이지즈 엘엘씨 높은 동적 범위 및 넓은 컬러 영역 시퀀스들의 코딩에서의 컬러 볼륨 변환들
ES2809710T3 (es) * 2015-08-31 2021-03-05 Lg Electronics Inc Aparato de visualización de imágenes
EP3142002A1 (en) * 2015-09-09 2017-03-15 Red.Com, Inc. Motion video output for multiple displays
CN107950031B (zh) * 2015-09-11 2021-02-19 松下知识产权经营株式会社 影像接收方法以及影像接收装置
JP6986670B2 (ja) 2015-09-11 2021-12-22 パナソニックIpマネジメント株式会社 映像受信方法及び映像受信装置
JP6820507B2 (ja) * 2015-09-14 2021-01-27 パナソニックIpマネジメント株式会社 映像受信方法、映像送信方法、映像受信装置及び映像送信装置
US9767543B2 (en) * 2015-09-22 2017-09-19 Samsung Electronics Co., Ltd. Method and apparatus for enhancing images via white pop-out
JP6830190B2 (ja) * 2015-10-07 2021-02-17 パナソニックIpマネジメント株式会社 映像送信方法、映像受信方法、映像送信装置及び映像受信装置
WO2017101137A1 (zh) 2015-12-15 2017-06-22 华为技术有限公司 一种高动态范围图像的处理方法、装置及终端设备
JP6559803B2 (ja) * 2015-12-25 2019-08-14 シャープ株式会社 表示装置、表示装置の制御方法、制御プログラム、および記録媒体
CN109074775B (zh) * 2016-01-29 2022-02-08 巴科股份有限公司 数字图像处理链和处理块以及包括它们的显示器
JP6460014B2 (ja) * 2016-03-04 2019-01-30 ソニー株式会社 信号処理装置、信号処理方法およびカメラシステム
EP3220645A1 (en) * 2016-03-18 2017-09-20 Thomson Licensing A method and a device for encoding a high dynamic range picture, corresponding decoding method and decoding device
CN107395950B (zh) 2016-05-16 2021-11-09 西安电子科技大学 媒体数据处理方法和装置及系统
US10368099B2 (en) * 2016-08-09 2019-07-30 Qualcomm Incorporated Color remapping information SEI message signaling for display adaptation
TWI631505B (zh) * 2016-08-26 2018-08-01 晨星半導體股份有限公司 應用於播放裝置的影像處理方法及相關的電路
US10334277B2 (en) * 2016-09-02 2019-06-25 Qualcomm Incorporated Signaling target display parameters of color remapping information supplemental enhancement information messages
JP6822121B2 (ja) * 2016-12-19 2021-01-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP6822123B2 (ja) 2016-12-19 2021-01-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP6822122B2 (ja) * 2016-12-19 2021-01-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
EP3598733B1 (en) * 2017-03-15 2021-10-20 Sony Group Corporation Imaging device and video signal processing method
CN108737877B (zh) * 2017-04-21 2020-06-02 华为技术有限公司 图像处理的方法、装置和终端设备
CN107277399B (zh) 2017-06-09 2020-10-20 深圳Tcl新技术有限公司 电视终端及hdr图像转为sdr的方法和计算机可读存储介质
JP7323685B2 (ja) 2017-07-13 2023-08-08 日本放送協会 映像復号装置及びプログラム
JP7118604B2 (ja) * 2017-07-13 2022-08-16 日本放送協会 映像符号化装置、映像復号装置及びプログラム
US10778978B2 (en) * 2017-08-21 2020-09-15 Qualcomm Incorporated System and method of cross-component dynamic range adjustment (CC-DRA) in video coding
CN111183651A (zh) * 2017-10-12 2020-05-19 索尼公司 图像处理设备、图像处理方法、发送设备、发送方法和接收设备
US10572976B2 (en) * 2017-10-18 2020-02-25 International Business Machines Corporation Enhancing observation resolution using continuous learning
TWI808970B (zh) * 2018-04-30 2023-07-21 圓剛科技股份有限公司 影像訊號轉換裝置
EP3780636A4 (en) * 2018-06-25 2021-02-17 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR PROCESSING VIDEO RECORDINGS WITH HIGH DYNAMICS, INCLUDING SUBTITLES
CN109146822A (zh) * 2018-09-05 2019-01-04 成都索贝数码科技股份有限公司 一种利用sdr显示设备模拟hdr监视器的方法
JP2020064102A (ja) * 2018-10-15 2020-04-23 キヤノン株式会社 表示装置および表示方法
CN110430431B (zh) * 2019-06-25 2021-10-22 浙江大华技术股份有限公司 视频解码方法、芯片、装置、计算机设备和存储介质
JP7369574B2 (ja) * 2019-09-19 2023-10-26 日本放送協会 映像変換装置及びそのプログラム
JP6822536B2 (ja) * 2019-10-15 2021-01-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP4133717A4 (en) * 2020-05-20 2023-11-15 Polycom Communications Technology (Beijing) Co. Ltd. ADJUSTING EXPOSURE DURING CHANGE OF VIEW
CN116391199A (zh) * 2020-10-19 2023-07-04 高通股份有限公司 通过使层属性优先化来处理图像数据
US11657778B2 (en) 2021-09-10 2023-05-23 Dell Products L.P. On demand display source presentation at a partial display area
CN114245027B (zh) * 2021-11-29 2024-03-22 图腾视界(广州)数字科技有限公司 一种视频数据混合处理方法、系统、电子设备和存储介质
US11888552B1 (en) 2022-09-06 2024-01-30 Apple Inc. Imbalance compensation for uplink (UL)—multiple-input and multiple-output (MIMO) transmissions
CN115393228B (zh) * 2022-10-27 2023-03-24 摩尔线程智能科技(北京)有限责任公司 图像处理方法、装置以及图形处理设备
CN116170581B (zh) * 2023-02-17 2024-01-23 厦门瑞为信息技术有限公司 一种基于目标感知的视频信息编解码方法和电子设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3776570B2 (ja) * 1997-08-18 2006-05-17 富士写真フイルム株式会社 画像処理装置およびその処理方法
RU2199827C2 (ru) * 2000-08-24 2003-02-27 Московское конструкторское бюро "Электрон" Способ расширения динамического диапазона передаваемых градаций яркости и/или освещенности в телевизионной системе
KR100747530B1 (ko) * 2004-12-13 2007-08-08 엘지전자 주식회사 Pvr 시스템 및 그 방송 재생 방법
JP4530277B2 (ja) * 2005-02-25 2010-08-25 株式会社リコー 画像再生装置、画像再生方法、プログラムおよび記録媒体
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
WO2008061567A1 (en) * 2006-11-24 2008-05-29 Robert Bosch Gmbh Process, apparatus and computer program for enhancing detail visibility in an input image
JP4992507B2 (ja) * 2007-03-28 2012-08-08 ソニー株式会社 撮像装置、映像信号処理装置及び映像信号処理方法
US8144214B2 (en) * 2007-04-18 2012-03-27 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and storage medium
ATE484155T1 (de) 2007-06-29 2010-10-15 Fraunhofer Ges Forschung Skalierbare videocodierung, die pixelwert- verfeinerungsskalierbarkeit unterstützt
US8330768B2 (en) * 2007-07-27 2012-12-11 Sharp Laboratories Of America, Inc. Apparatus and method for rendering high dynamic range images for standard dynamic range display
JP5275122B2 (ja) * 2008-05-30 2013-08-28 パナソニック株式会社 ダイナミックレンジ圧縮装置、ダイナミックレンジ圧縮方法、プログラム、集積回路および撮像装置
US8098931B2 (en) * 2008-12-09 2012-01-17 Himax Technologies Limited Method for adaptively selecting filters to interpolate video data
RU2504011C2 (ru) * 2009-03-13 2014-01-10 Долби Лабораторис Лайсэнзин Корпорейшн Многоуровневое сжатие видеоизображения с расширенным динамическим диапазоном, визуальным динамическим диапазоном и широкой цветовой гаммой
TWI559779B (zh) * 2010-08-25 2016-11-21 杜比實驗室特許公司 擴展影像動態範圍
WO2012142285A2 (en) * 2011-04-12 2012-10-18 Dolby Laboratories Licensing Corporation Quality assessment for images that have extended dynamic ranges or wide color gamuts
US9036042B2 (en) * 2011-04-15 2015-05-19 Dolby Laboratories Licensing Corporation Encoding, decoding, and representing high dynamic range images
EP2745507A1 (en) * 2011-09-27 2014-06-25 Koninklijke Philips N.V. Apparatus and method for dynamic range transforming of images
US9350899B2 (en) * 2012-09-14 2016-05-24 Qualcomm Incorporated Methods and device for efficient resampling and resizing of digital images
EP2959672B1 (en) * 2013-02-21 2019-12-04 Koninklijke Philips N.V. Improved hdr image encoding and decoding methods and devices
JP6202330B2 (ja) * 2013-10-15 2017-09-27 ソニー株式会社 復号装置および復号方法、並びに符号化装置および符号化方法
JP6421504B2 (ja) * 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
JP2016058848A (ja) * 2014-09-08 2016-04-21 ソニー株式会社 画像処理装置及び画像処理方法
WO2016038950A1 (ja) * 2014-09-11 2016-03-17 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20190110059A1 (en) 2019-04-11
US9253497B2 (en) 2016-02-02
WO2015056424A1 (en) 2015-04-23
AU2019201098B2 (en) 2021-04-15
CN104813666B (zh) 2020-04-28
EP3044963B1 (en) 2021-12-22
CN104813666A (zh) 2015-07-29
JP6202330B2 (ja) 2017-09-27
RU2015119470A (ru) 2016-12-10
JP2015144404A (ja) 2015-08-06
KR102268787B1 (ko) 2021-06-25
KR20160070720A (ko) 2016-06-20
US10595034B2 (en) 2020-03-17
AU2014335620A1 (en) 2015-06-11
AU2019201098A1 (en) 2019-03-07
US20160112715A1 (en) 2016-04-21
US9826248B2 (en) 2017-11-21
SG11201503910SA (en) 2015-07-30
RU2015119470A3 (es) 2018-07-06
BR112015011910A2 (pt) 2017-07-11
PH12015501135B1 (en) 2015-08-03
PH12015501135A1 (en) 2015-08-03
ZA201503653B (en) 2021-09-29
US10187651B2 (en) 2019-01-22
EP3044963A1 (en) 2016-07-20
MX351317B (es) 2017-09-25
US20150103919A1 (en) 2015-04-16
CA2891890A1 (en) 2015-04-23
RU2679236C2 (ru) 2019-02-06
MY178715A (en) 2020-10-20
US20160255360A1 (en) 2016-09-01

Similar Documents

Publication Publication Date Title
US10595034B2 (en) Decoding device and decoding method, and coding device and coding method
US11695941B2 (en) Image processing device and method
US20150010059A1 (en) Image processing device and method
US10779009B2 (en) Image decoding device and method
US20200288123A1 (en) Image processing apparatus and image processing method
US10595021B2 (en) Image processing device and method
TWI713355B (zh) 解碼裝置、解碼方法、顯示裝置、及顯示方法
US20190132590A1 (en) Image processing device and method
US11423578B2 (en) Encoding device, encoding method, decoding device, and decoding method
BR112015011910B1 (pt) Dispositivo e método de decodificação, dispositivo de codificação, e, mídia legível por computador

Legal Events

Date Code Title Description
FG Grant or registration