ES2748463T3 - Aparato de decodificación de vídeo - Google Patents
Aparato de decodificación de vídeo Download PDFInfo
- Publication number
- ES2748463T3 ES2748463T3 ES13777676T ES13777676T ES2748463T3 ES 2748463 T3 ES2748463 T3 ES 2748463T3 ES 13777676 T ES13777676 T ES 13777676T ES 13777676 T ES13777676 T ES 13777676T ES 2748463 T3 ES2748463 T3 ES 2748463T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- layer
- information
- reference image
- flag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Control Of El Displays (AREA)
Abstract
Un aparato de decodificación de vídeo, que comprende: un módulo de decodificación para decodificar una primera imagen; un módulo de análisis sintáctico para analizar sintácticamente un encabezamiento de porción de una segunda imagen que es la imagen siguiente a la primera imagen decodificada; y una memoria intermedia de imágenes decodificadas (DPB, por sus siglas en inglés) para almacenar la primera imagen decodificada, en donde el encabezamiento de porción de la segunda imagen incluye información de imagen de referencia que indica si la primera imagen decodificada es una imagen de referencia, en donde la primera imagen decodificada se marca como imagen de referencia en la DPB y luego se determina si la primera imagen decodificada marcada como imagen de referencia es una imagen de referencia o una imagen no de referencia sobre la base de la información de imagen de referencia, y la primera imagen decodificada marcada como imagen de referencia se marca como imagen no de referencia en caso de que se determine que la primera imagen decodificada es una imagen no de referencia sobre la base de la información de imagen de referencia incluida en el encabezamiento de porción de la segunda imagen, en donde el módulo de análisis sintáctico analiza sintácticamente un encabezamiento de unidad de capa de abstracción de red (NAL, por sus siglas en inglés) de una unidad de NAL para la primera imagen, y el encabezamiento de unidad de NAL no comprende información de etiqueta que indique si la unidad de NAL es una imagen no de referencia o una imagen de referencia.
Description
DESCRIPCIÓN
Aparato de decodificación de vídeo
Campo técnico
La presente invención se refiere al procesamiento de codificación y decodificación de vídeo y, más en particular, a un método y un aparato para decodificar información de vídeo dentro de un tren de bits.
Antecedentes de la técnica
R. SJOBERG ET AL, “Overview of HEVC high-level syntax and reference picture management”, IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, 1 de enero de 2012 (2012-01-01), páginas 1-1, XP055045360, ISSN: 1051-8215, doi: 10.1109/TCSVT.2012.2223052 divulga la proporción creciente de tráfico de vídeo en las redes de telecomunicación, poniendo énfasis en la tecnología de compresión de vídeo eficaz. La codificación de vídeo de alta eficiencia (HEVC, por sus siglas en inglés) es el próximo estándar de codificación de vídeo, que proporciona considerables reducciones de la velocidad de transmisión binaria en comparación con sus predecesores. En el proceso de estandarización de la HEVC, las tecnologías tales como la subdivisión de imagen, la gestión de imagen de referencia y los conjuntos de parámetros se clasifican como “sintaxis de alto nivel”. El diseño de la sintaxis de alto nivel afecta a la interfaz para sistemas y la elasticidad a los errores y proporciona nuevas funcionalidades. Este documento presenta una visión de conjunto de la sintaxis de alto nivel de la HEVC, incluyendo encabezamientos de unidad de capa de abstracción de red, conjuntos de parámetros, esquemas de subdivisión de imagen, gestión de imagen de referencia, y mensajes de información de mejora suplementaria.
El documento KR 2008 0007086 A divulga un método y un aparato para decodificar/codificar señales de vídeo proporcionado para realizar la codificación más eficazmente cuando se codifican por separado una imagen ancla y una imagen no ancla según una información de identificación de imagen ancla porque las dependencias intervista entre la imagen ancla y la imagen no ancla son diferentes entre sí. Un método de decodificación de señal de vídeo comprende las siguientes etapas: obtener información de etiqueta que indica si una señal de vídeo es un tren de bits codificado de vídeo multivista; si es así, obtener información de identificación que indica si una imagen codificada de una NAL (capa de abstracción de red) actual es una imagen ancla o no; y decodificar información sobre un vídeo multivista según la información de identificación.
Según se extiende y se ofrece a escala nacional y a escala mundial la radiodifusión de alta definición (HD, por sus siglas en inglés), muchos usuarios se están acostumbrando al vídeo de alta resolución y alta SNR (relación señalruido). Por consiguiente, muchas organizaciones han realizado numerosos intentos de desarrollar los dispositivos de vídeo de próxima generación. Además, dado que hay un interés creciente en la ultra alta definición (u Hd , por sus siglas en inglés) con una resolución 4 veces mayor que la HDTV junto con la HDTV, existe la necesidad de una tecnología en la que se comprima y se procese un vídeo con una mayor resolución y una mayor SNR.
Para comprimir un vídeo, pueden utilizarse una tecnología de interpredicción, en la que un valor de un píxel incluido en una imagen actual se predice a partir de imágenes anteriores y/o posteriores en el tiempo, una tecnología de intrapredicción, en la que un valor de un píxel incluido en una imagen actual se predice utilizando información sobre un píxel incluido en la imagen actual, una tecnología de codificación entrópica, en la que se asigna un código corto a un símbolo que tiene una alta frecuencia de aparición y se asigna un código largo a un símbolo que tiene una baja frecuencia de aparición, etc.
La tecnología de compresión de vídeo incluye tecnología en la que se proporciona un ancho de banda de red específico en el entorno de funcionamiento limitado del hardware sin tener en cuenta un entorno de red flexible. Sin embargo, para comprimir datos de vídeo aplicados a un entorno de red que incluya un ancho de banda que varíe con frecuencia, es necesaria una nueva tecnología de compresión. Con este fin puede utilizarse un método de codificación/decodificación de vídeo escalable.
Divulgación
Problema técnico
Un objetivo de la presente invención es proporcionar un método y un aparato para describir información de extracción y escalabilidad dentro de trenes de bits en capas.
Otro objetivo de la presente invención es proporcionar un método y un aparato para representar información de escalabilidad sobre el uso de diversos trenes de bits de una manera flexible.
Otro objetivo más de la presente invención es proporcionar un método y un aparato para proporcionar información de extracción y escalabilidad dentro de un tren de bits en capas, de manera que la información de extracción y escalabilidad pueda transformarse de forma adaptativa en un nivel de paquete.
Solución técnica
La invención se expone en la reivindicación independiente adjunta; los ejemplos adicionales denominados realizaciones en la descripción son ejemplos ilustrativos.
Efectos ventajosos
De acuerdo con una realización de la presente invención, pueden proporcionarse un método y un aparato para describir información de extracción y escalabilidad dentro de trenes de bits en capas.
De acuerdo con una realización de la presente invención, pueden proporcionarse un método y un aparato para representar información de escalabilidad sobre el uso de diversos trenes de bits de una manera flexible.
De acuerdo con otra realización de la presente invención, pueden proporcionarse un método y un aparato para proporcionar información de extracción y escalabilidad dentro de trenes de bits en capas, de manera que la información de extracción y escalabilidad pueda transformarse de forma adaptativa en un nivel de paquete.
Descripción de los dibujos
La Figura 1 es un diagrama de bloques que muestra un ejemplo de una estructura de un aparato de codificación de vídeo según una realización ejemplar;
la Figura 2 es un diagrama de bloques que muestra un ejemplo de una estructura de un aparato de decodificación de vídeo según una realización ejemplar;
la Figura 3 es un diagrama conceptual que muestra esquemáticamente una realización ejemplar de una estructura de codificación de vídeo escalable (SVC, por sus siglas en inglés) que utiliza múltiples capas a la que puede aplicarse la presente invención;
la Figura 4 es un diagrama de flujo de control que ilustra un método de codificación de información de vídeo de acuerdo con la presente invención; y
la Figura 5 es un diagrama de flujo de control que ilustra un método de decodificación de información de vídeo de acuerdo con la presente invención.
Modo para la invención
Se describen en detalle con referencia a los dibujos adjuntos algunas realizaciones ejemplares de la presente invención. Sin embargo, al describir las realizaciones de esta especificación, se omitirá una descripción detallada de funciones y constituciones muy conocidas si se considera que hará innecesariamente impreciso lo esencial de la presente invención.
En esta especificación, cuando se diga que un elemento está 'conectado' o 'acoplado' al otro elemento, puede significar que dicho elemento puede estar directamente conectado o acoplado al otro elemento o que un tercer elemento puede estar 'conectado' o 'acoplado' entre los dos elementos. Además, en esta especificación, cuando se diga que un elemento específico está 'incluido', puede significar que no estén excluidos elementos que no sean el elemento específico y que pueden estar incluidos elementos adicionales en las realizaciones ejemplares de la presente invención o el alcance técnico de la presente invención.
Pueden utilizarse términos, tales como el primer y el segundo, para describir diversos elementos, pero los elementos no están restringidos por los términos. Los términos se utilizan sólo para distinguir un elemento de otro elemento. Por ejemplo, un primer elemento puede denominarse segundo elemento sin apartarse del alcance de la presente invención. Asimismo, un segundo elemento puede denominarse primer elemento.
Además, las unidades de elemento descritas en las realizaciones ejemplares de la presente invención se muestran independientemente para indicar una diferencia y funciones características, y esto no significa que cada una de las unidades de elemento esté formada por una parte de hardware separado o una parte de software. Es decir que las unidades de elemento están dispuestas e incluidas para mayor comodidad de descripción, y al menos dos de las unidades de elemento pueden formar una unidad de elemento, o un elemento puede dividirse en una pluralidad de unidades de elemento y la pluralidad de unidades de elemento dividido pueden realizar funciones. En el alcance de la presente invención se incluye también una realización en la que los elementos estén integrados o realizaciones de las que se hayan separado algunos elementos, a no ser que éstas se aparten de la esencia de la presente invención.
Además, en la presente invención, algunos elementos no son elementos esenciales para realizar funciones esenciales, sino que pueden ser elementos opcionales para mejorar sólo el rendimiento. La presente invención puede implementarse utilizando sólo elementos esenciales para implementar la esencia de la presente invención que no sean elementos utilizados para mejorar sólo el rendimiento, y en el alcance de la presente invención se incluye una estructura que incluya sólo elementos esenciales que no sean elementos opcionales utilizados para mejorar sólo el rendimiento.
La Figura 1 es un diagrama de bloques que muestra un ejemplo de una estructura de un aparato de codificación de vídeo según una realización ejemplar. Un método o aparato de codificación/decodificación de vídeo escalable puede implementarse mediante una ampliación de un método o aparato de codificación/decodificación de vídeo común que no proporcione escalabilidad. El diagrama de bloques de la Figura 1 muestra una realización ejemplar de un aparato de codificación de vídeo que puede convertirse en una base para un aparato de codificación de vídeo escalable.
Remitiéndonos a la Figura 1, el aparato 100 de codificación de vídeo incluye un módulo 111 de predicción de movimiento, un módulo 112 de compensación de movimiento, un módulo 120 de intrapredicción, un conmutador 115, un substractor 125, un módulo 130 de transformación, un módulo 140 de cuantificación, un módulo 150 de codificación entrópica, un módulo 160 de descuantificación, un módulo 170 de transformación inversa, un sumador 175, un filtro 180 y una memoria intermedia 190 de imágenes de referencia.
El aparato 100 de codificación de vídeo puede realizar una codificación en una imagen de entrada en intramodo o intermodo y dar salida a un tren de bits como resultado de la codificación. En esta especificación, intrapredicción tiene el mismo significado que predicción intraimagen, e interpredicción tiene el mismo significado que predicción interimagen. En el caso del intramodo, el conmutador 115 puede conmutar a intramodo. En el caso del intermodo, el conmutador 115 puede conmutar a intermodo. El aparato 100 de codificación de vídeo puede generar un bloque predicho para el bloque de entrada de una imagen de entrada y luego codificar el remanente entre el bloque de entrada y el bloque predicho.
En el caso del intramodo, el módulo 120 de intrapredicción puede generar el bloque predicho realizando una predicción espacial utilizando valores de píxel de bloques cercanos, a un bloque actual, que ya estén codificados.
En el caso del intermodo, el módulo 111 de predicción de movimiento puede obtener un vector de movimiento buscando en una imagen de referencia, almacenada en la memoria intermedia 190 de imágenes de referencia, una zona que sea la más coincidente con el bloque de entrada en un proceso de estimación de movimiento. El módulo 112 de compensación de movimiento puede generar el bloque predicho realizando una compensación de movimiento utilizando el vector de movimiento y la imagen de referencia almacenada en la memoria intermedia 190 de imágenes de referencia.
El substractor 125 puede generar un bloque remanente sobre la base del remanente entre el bloque de entrada y el bloque predicho generado. El módulo 130 de transformación puede realizar una transformación en el bloque remanente y dar salida a un coeficiente de transformación según el bloque transformado. Además, el módulo 140 de cuantificación puede dar salida a un coeficiente cuantificado, cuantificando el coeficiente de transformación recibido utilizando un parámetro de cuantificación y/o una matriz de cuantificación.
El módulo 150 de codificación entrópica puede realizar una codificación entrópica en símbolos según una distribución de probabilidad sobre la base de valores calculados por el módulo 140 de cuantificación o valores de parámetro de codificación calculados en un proceso de codificación y dar salida a un tren de bits como resultado de la codificación entrópica. El método de codificación entrópica es un método para recibir símbolos que tienen diversos valores y representar los símbolos en forma de una cadena de números binarios decodificables eliminando al mismo tiempo la redundancia estadística de los símbolos.
Aquí, el símbolo se refiere a un elemento de sintaxis y un parámetro de codificación que se ha de codificar o decodificar, un valor de una señal remanente, etc. El parámetro de codificación es un parámetro necesario para la codificación y decodificación. El parámetro de codificación puede incluir no sólo información codificada mediante un codificador y luego comunicada a un decodificador junto con un elemento de sintaxis, sino también información que puede inducirse en un proceso de codificación o decodificación. El parámetro de codificación significa información necesaria para codificar o decodificar vídeo. El parámetro de codificación puede incluir, por ejemplo, un valor o estadísticas de modo intrapredicción/interpredicción, un vector de movimiento, un índice de imagen de referencia, un patrón de bloque de codificación, información sobre si está presente o no una señal remanente, un coeficiente de transformación, un coeficiente de transformación cuantificado, un parámetro de cuantificación, un tamaño de bloque, e información de división de bloque.
Además, la señal remanente puede significar una diferencia entre la señal original y una señal predicha. Además, la señal remanente puede significar una señal obtenida transformando una diferencia entre la señal original y una señal predicha o una señal obtenida transformando y cuantificando una diferencia entre la señal original y una señal predicha. La señal remanente puede denominarse bloque remanente en una unidad de bloque.
Si se utiliza codificación entrópica, el tamaño de un tren de bits para un símbolo que se haya de codificar puede reducirse, porque el símbolo se representa asignando un número pequeño de bits a un símbolo que tenga una alta frecuencia de aparición y un número grande de bits a un símbolo que tenga una baja frecuencia de aparición. Por consiguiente, mediante la codificación entrópica es posible mejorar el rendimiento de compresión de la codificación de vídeo.
Para la codificación entrópica pueden utilizarse métodos tales como Golomb exponencial, codificación de longitud variable adaptativa según el contexto (CAVLC, por sus siglas en inglés) y codificación aritmética binaria adaptativa
según el contexto (CABAC, por sus siglas en inglés). Por ejemplo, en el módulo 150 de codificación entrópica puede estar almacenada una tabla para realizar una codificación entrópica, tal como una tabla de codificación/código de longitud variable (VLC, por sus siglas en inglés), y el módulo 150 de codificación entrópica puede realizar una codificación entrópica utilizando la tabla VLC almacenada. Además, el módulo 150 de codificación entrópica puede obtener un método de binarización para un símbolo objetivo y un modelo de probabilidad para un b/n/símbolo objetivo y realizar una codificación entrópica utilizando el método de binarización o el modelo de probabilidad obtenido.
El coeficiente cuantificado se descuantifica mediante el módulo 160 de descuantificación y luego se transforma inversamente mediante el módulo 170 de transformación inversa. El coeficiente descuantificado e inversamente transformado puede sumarse al bloque predicho a través del sumador 175, generando así un bloque reconstruido.
El bloque reconstruido experimenta el filtro 180. El filtro 180 puede aplicar al bloque reconstruido o a la imagen reconstruida uno o más de los siguientes: un filtro de desbloqueo, una compensación adaptativa de muestra (SAO, por sus siglas en inglés) y un filtro de bucle adaptativo (ALF, por sus siglas en inglés). El bloque reconstruido que ha experimentado el filtro 180 puede almacenarse en la memoria intermedia 190 de imágenes de referencia.
La Figura 2 es un diagrama de bloques que muestra un ejemplo de una estructura de un aparato de decodificación de vídeo según una realización ejemplar. Como se ha descrito anteriormente con referencia a la Figura 1, un método o aparato de codificación/decodificación de vídeo escalable puede implementarse mediante una ampliación de un método o aparato de codificación/decodificación común que no proporcione escalabilidad. El diagrama de bloques de la Figura 2 muestra una realización ejemplar de un aparato de decodificación de vídeo que puede convertirse en una base para un aparato de decodificación de vídeo escalable.
Remitiéndonos a la Figura 2, el aparato 200 de decodificación de vídeo incluye un módulo 210 de decodificación entrópica, un módulo 220 de cuantificación inversa, un módulo 230 de transformación inversa, un módulo 240 de intrapredicción, un módulo 250 de compensación de movimiento, un filtro 260 y una memoria intermedia 270 de imágenes de referencia.
El aparato 200 de decodificación de vídeo puede recibir un tren de bits que haya salido de un codificador, realizar una decodificación del tren de bits en un intramodo o intermodo y dar salida a una imagen reconstruida, es decir una imagen reconstruida. En el caso del intramodo, un conmutador puede conmutar a intramodo. En el caso del intermodo, el conmutador puede conmutar a intermodo. El aparato 200 de decodificación de vídeo puede obtener un bloque remanente reconstruido del tren de bits recibido, generar un bloque predicho y luego generar un bloque reconstruido, es decir un bloque reconstruido sumando el bloque remanente reconstruido al bloque predicho.
El módulo 210 de decodificación entrópica puede generar símbolos que incluyen un símbolo que tiene forma de un coeficiente cuantificado, realizando una decodificación entrópica en el tren de bits recibido según una distribución de probabilidad. El método de decodificación entrópica es un método para recibir una cadena de números binarios y generar cada símbolo utilizando la cadena de números binarios. El método de decodificación entrópica es similar al método de codificación entrópica descrito anteriormente.
El coeficiente cuantificado se descuantifica mediante el módulo 220 de cuantificación inversa y se transforma inversamente mediante el módulo 230 de transformación inversa. Como resultado de la descuantificación/transformación inversa del coeficiente cuantificado puede generarse un bloque remanente.
En el caso del intramodo, el módulo 240 de intrapredicción puede generar un bloque predicho realizando una predicción espacial utilizando valores de píxel de bloques ya decodificados cercanos al bloque actual. En el caso del intermodo, el módulo 250 de compensación de movimiento puede generar un bloque predicho realizando una compensación de movimiento utilizando un vector de movimiento y una imagen de referencia almacenada en la memoria intermedia 270 de imágenes de referencia.
El bloque remanente y el bloque predicho se suman mediante un sumador 255. El bloque sumado experimenta el filtro 260. El filtro 260 puede aplicar al bloque reconstruido o a la imagen reconstruida al menos uno de los siguientes: un filtro de desbloqueo, una SAO y un ALF. El filtro 260 da salida a una imagen reconstruida, es decir una imagen reconstruida. La imagen reconstruida puede almacenarse en la memoria intermedia 270 de imágenes de referencia y puede utilizarse para una predicción intertrama.
De entre el módulo 210 de decodificación entrópica, el módulo 220 de cuantificación inversa, el módulo 230 de transformación inversa, el módulo 240 de intrapredicción, el módulo 250 de compensación de movimiento, el filtro 260 y la memoria intermedia 270 de imágenes de referencia incluidos en el aparato 200 de decodificación de vídeo, los elementos directamente relacionados con la decodificación de vídeo, por ejemplo el módulo 210 de decodificación entrópica, el módulo 220 de cuantificación inversa, el módulo 230 de transformación inversa, el módulo 240 de intrapredicción, el módulo 250 de compensación de movimiento y el filtro 260, pueden representarse como un módulo de decodificación con el fin de distinguirlos de otros elementos.
Además, el aparato 200 de decodificación de vídeo puede incluir adicionalmente un módulo de análisis sintáctico (no mostrado) para analizar sintácticamente información relacionada con vídeo codificado incluida en un tren de bits. El
módulo de análisis sintáctico puede incluir el módulo 210 de decodificación entrópica, o el módulo de análisis sintáctico puede estar incluido en el módulo 210 de decodificación entrópica. El módulo de análisis sintáctico puede representarse como uno de los elementos del módulo de decodificación.
La Figura 3 es un diagrama conceptual que muestra esquemáticamente una realización ejemplar de una estructura de codificación de vídeo escalable (SVC) que utiliza múltiples capas a la que puede aplicarse la presente invención. En la Figura 3, las siglas GOP (Group of Picture) indican un grupo de imágenes.
Para enviar datos de vídeo es necesario un medio de transmisión, y un medio de transmisión tiene un rendimiento diferente dependiendo de diversos entornos de red. Para aplicaciones a los diversos medios de transmisión o entornos de red, puede emplearse un método de codificación de vídeo escalable (SVC).
El método SVC es un método de codificación para mejorar el rendimiento de codificación/decodificación eliminando la redundancia entre capas utilizando información de textura, información de movimiento, una señal remanente, etc. entre las capas. El método SVC puede proporcionar diversas escalabilidades desde los puntos de vista espacial, temporal y de relación señal-ruido (SNR) dependiendo de las condiciones circundantes, tales como una velocidad de transmisión de bits, una tasa de errores de transmisión y los recursos del sistema.
La SVC puede realizarse utilizando una estructura multicapa, de manera que pueda proporcionarse un tren de bits aplicable a diversas condiciones de red. Por ejemplo, una estructura de SVC puede incluir una capa base cuyos datos de vídeo puedan comprimirse y procesarse utilizando un método de codificación de vídeo común y puede incluir una capa de mejora cuyos datos de vídeo puedan comprimirse y procesarse utilizando tanto información de codificación de la capa base como un método de codificación de vídeo común.
Aquí, una capa significa un conjunto de imágenes y trenes de bits clasificados sobre la base de una resolución espacial (por ejemplo un tamaño de imagen), una resolución temporal (por ejemplo orden de codificación, orden de salida de las imágenes y una frecuencia de imagen), SNR y complejidad. Además, la capa base puede significar una capa de referencia, y la capa de mejora puede significar una capa de mejora. Además, múltiples capas pueden tener dependencia entre sí.
Remitiéndonos a la Figura 3, por ejemplo, una capa base puede estar definida por una definición estándar (SD, por sus siglas en inglés), una frecuencia de imagen de 15 Hz y una velocidad de transmisión de bits de 1 Mbps. Una primera capa de mejora puede estar definida por una alta definición (HD), una frecuencia de imagen de 30 Hz y una velocidad de transmisión de bits de 3,9 Mbps. Una segunda capa de mejora puede estar definida por una ultra alta definición (UHD) 4K, una frecuencia de imagen de 60 Hz y una velocidad de transmisión de bits de 27,2 Mbps. Un formato, una frecuencia de imagen, una velocidad de transmisión de bits, etc. son sólo realizaciones ejemplares y pueden estar determinados de un modo diferente si es necesario. Además, el número de capas utilizado no está limitado a la presente realización ejemplar y puede estar determinado de un modo diferente según las circunstancias.
Por ejemplo, si un ancho de banda de transmisión es de 4 Mbps, la frecuencia de imagen de la primera capa HD de mejora puede reducirse a menos de 15 Hz. El método SVC puede proporcionar escalabilidades temporales, espaciales y de SNR según el método descrito anteriormente en relación con la realización ejemplar de la Figura 3.
SVC tiene el mismo significado que codificación de vídeo escalable desde el punto de vista de la codificación y tiene el mismo significado que decodificación de vídeo escalable desde el punto de vista de la decodificación.
Como se ha descrito anteriormente, la escalabilidad se ha convertido actualmente en una importante función de un formato de vídeo debido a las redes de comunicación heterogéneas y a una diversidad de terminales. La SVC, es decir un estándar de ampliación de la codificación de vídeo avanzada (AVC, por sus siglas en inglés), se desarrolló para generar un tren de bits que tuviera una amplia gama de velocidades de transmisión de bits, manteniendo al mismo tiempo el máximo grado de eficacia de compresión. Para satisfacer las características y los cambios de diversos dispositivos y redes, un tren de bits SVC puede extraerse fácilmente de diversas formas. Es decir que el estándar SVC proporciona escalabilidad espacial, temporal y de SNR.
Entretanto, un tren de bits que incluye múltiples capas consta de unidades de capa de abstracción de red (NAL) que permiten el transporte adaptativo de vídeo a través de una red con conmutación de paquetes. Como en una multicapa, una relación entre una pluralidad de vistas en una codificación de vídeo multivista que incluya una pluralidad de vídeos multivista dentro de un tren de bits es similar a una relación entre capas espaciales en vídeo que soporte múltiples capas.
Para transformar un tren de bits eficazmente y eficientemente en todos los nodos en una ruta de distribución de contenido, la información de escalabilidad sobre el tren de bits es muy importante. En un estándar actual para la codificación de vídeo para una sola capa (es decir codificación de vídeo de alta eficiencia), en un encabezamiento de unidad de NAL (denominada en lo que sigue 'NALU') están presentes dos campos relacionados con la información de capa, es decir tem poraljd y reserved_one_5bits. El campo 'temporaljd', que tiene una longitud de 3 bits, indica la capa temporal de un tren de bits de vídeo, y el campo 'reserved_one_5bits' corresponde a un área para indicar otra información de capa subsiguiente.
La capa temporal significa la capa de un tren de bits temporalmente escalable que incluye una NALU de capa de codificación de vídeo (VCL, por sus siglas en inglés), y la capa temporal tiene un valor tem poraljd específico.
La presente invención se refiere a un método para describir eficazmente información de extracción e información de escalabilidad sobre una imagen dentro de un tren de bits que soporta múltiples capas y señalizar la información de extracción y la información de escalabilidad, y a un aparato para implementar el método.
En la presente invención, un tren de bits está dividido en dos tipos: un tipo base que soporta sólo escalabilidad temporal y un tipo ampliado capaz de tener escalabilidad que soporta espacial/SNR/multivista.
El primer tipo de tren de bits se refiere a un tren de bits que soporta un vídeo de una sola capa, y el segundo tipo del mismo se refiere a una capa de mejora en una codificación de vídeo en capas basada en HEVC. A continuación, se propone un método mejorado para representar información de escalabilidad sobre los dos tipos de tren de bits. De acuerdo con la presente invención, en el tipo ampliado, puede utilizarse 'reserved_one_5bits' de 5 bits como layer_id indicativo del identificador de una capa escalable.
Eliminación de nal_ref_flag del encabezamiento NALU
nal_ref_flag se utiliza para indicar una imagen no de referencia. Esta información indica una prioridad aproximada entre una imagen no de referencia y una imagen de referencia, pero el uso de nal_ref_flag está algo limitado.
Una imagen de referencia significa una imagen que incluye muestras que pueden utilizarse para una predicción interimagen cuando se decodifican imágenes subsiguientes en el orden de decodificación.
Una imagen no de referencia significa una imagen que incluye muestras no utilizadas para la predicción interimagen cuando se decodifican imágenes subsiguientes en el orden de decodificación.
nal_ref_flag es un indicativo de etiqueta de información que indica si una NALU correspondiente es una imagen no de referencia o una imagen de referencia en la totalidad del tren de bits en el momento de la codificación.
Cuando un valor de nal_ref_flag es 1, una NALU significa que incluye un conjunto de parámetros de secuencia (SPS, por sus siglas en inglés), un conjunto de parámetros de imagen (PPS, por sus siglas en inglés), un conjunto de parámetros de adaptación (APS, por sus siglas en inglés), o la porción (slice) de una imagen de referencia. Cuando un valor de nal_ref_flag es 0, una NALU significa que incluye una porción que incluye parte o la totalidad de la imagen no de referencia.
Aquí, una NALU en la que un valor de nal_ref_flag sea 1 puede incluir la porción de una imagen de referencia. nal_ref_flag tiene un valor de 1 para las NALU de un conjunto de parámetros de vídeo (VPS, por sus siglas en inglés), un conjunto de parámetros de secuencia (SPS) o un conjunto de parámetros de imagen (PPS). Si un valor de nal_ref_flag es 0 en una de las NALU de VCL de una imagen específica, nal_ref_flag tiene un valor de 0 para todas las NALU de VCL de la imagen.
Entretanto, si se extraen todas las imágenes de no referencia, en particular imágenes de no referencia correspondientes principalmente a la capa temporal superior, el nal_ref_flag de todas las imágenes restantes después de la extracción adopta el valor 1.
Sin embargo, algunas imágenes de un tren de bits transformado de manera adaptativa, es decir imágenes correspondientes a la capa temporal superior en los trenes de bits restantes, pasan a ser imágenes de no referencia aunque un valor de nal_ref_flag sea 1.
En otras palabras, otro elemento de sintaxis (por ejemplo temporal_id) de un encabezamiento de NALU puede ser más eficaz a la hora de soportar una transformación adaptativa (o extracción). Es decir que un tren de bits que incluya una capa temporal deseada puede extraerse utilizando el número total de capas temporales que incluyan un tren de bits y un valor de temporal_id de un encabezamiento de NALU.
Además, nal_ref_flag también puede utilizarse para indicar si una imagen correspondiente se utilizará o no posteriormente como imagen de referencia a la hora de decodificar (reconstruir) una imagen formada por una NALU que incluya nal_ref_flag y luego almacenar la imagen decodificada en una memoria, tal como una memoria intermedia de imágenes decodificadas (DPB, por sus siglas en inglés). Si el valor de nal_ref_flag es 1, indica que una imagen correspondiente se utilizará posteriormente como imagen de referencia. Si el valor de nal_ref_flag es 0, indica que una imagen correspondiente no se utilizará posteriormente como imagen de referencia.
Una imagen decodificada puede indicarse como una imagen de referencia a la hora de almacenar la imagen decodificada en la DPB sin determinar si una NALU correspondiente es o no una imagen de no referencia o una imagen de referencia sobre la base de nal_ref_flag. En este caso, aunque la imagen decodificada sea una imagen de no referencia, pero esté indicada como una imagen de referencia, no hay problema alguno porque la imagen correspondiente no se incluirá en la lista de imágenes de referencia entregada en el encabezamiento de porción de
una imagen siguiente a la hora de decodificar la imagen siguiente a la imagen correspondiente en el orden de decodificación.
Es decir que el que una imagen previamente decodificada sea o no una imagen de referencia o una imagen de no referencia se indica sobre la base de la lista de imágenes de referencia incluida en el encabezamiento de porción de una imagen siguiente, a la hora de decodificar la imagen siguiente. Por consiguiente, no hay problema alguno en determinar si una imagen decodificada es o no una imagen de referencia o una imagen de no referencia, aunque la imagen decodificada se indique como la imagen de referencia sin tener en cuenta nal_ref_flag.
La presente invención propone que se borre nal_ref_flag de un encabezamiento de NALU o que se cambie la semántica de nal_ref_flag. Una realización relacionada con el borrado de nal_ref_flag es como se indica a continuación.
Realización 1
La etiqueta 'nal_ref_flag' se cambia a slice_ref_flag, y la posición de la etiqueta se mueve de un encabezamiento de NALU a un encabezamiento de porción. La sintaxis del encabezamiento de porción puede modificarse como en la Tabla 1.
Tabla 1
En la Tabla 1, cuando un valor de slice_ref_flag es 1, indica que una porción es parte de una imagen de referencia. Cuando un valor de slice_ref_flag es 0, indica que la porción es parte de una imagen de no referencia.
Realización 2
La etiqueta 'nal_ref_flag' se cambia a au_ref_flag, y la posición de la etiqueta se mueve de un encabezamiento de NALU a un delimitador de unidad de acceso. La sintaxis del delimitador de unidad de acceso puede ser la misma que en la Tabla 2.
Tabla 2
En la Tabla 2, cuando un valor de au_ref_flag es 1, indica que una unidad de acceso incluye una imagen de referencia. Cuando un valor de au_ref_flag es 0, indica que una unidad de acceso incluye una imagen de no referencia.
Realización 3
No se mueve nal_ref_flag a otra sintaxis, pero se borra nal_ref_flag de un encabezamiento de NALU.
Si se borra nal_ref_flag, es decir la información de etiqueta de 1 bit que indica si una imagen es una imagen no de referencia o una imagen de referencia en la totalidad del tren de bits a la hora de decodificar la imagen, puede realizarse una determinación de si una imagen es o no una imagen de referencia a través de nal_ref_flag a través de otro proceso. Después de decodificar una imagen recibida, la imagen decodificada se indica incondicionalmente como una imagen de referencia en una memoria intermedia de imágenes decodificadas (DPB). Es decir que puede no determinarse si una imagen decodificada es o no una imagen de referencia, pero la imagen decodificada puede indicarse como una imagen de referencia.
Después, se analiza sintácticamente el encabezamiento de porción de una imagen siguiente a la imagen decodificada, y el que la imagen decodificada sea una imagen de referencia o una imagen no de referencia puede indicarse sobre la base de información de imagen de referencia incluida en el encabezamiento de porción.
Realización 4
Puede borrarse nal_ref_flag de un encabezamiento de NALU y puede utilizarse temporal_id para indicar que la NALU es una imagen no de referencia. Para indicar una imagen no de referencia, temporal_id puede ser '7', un número máximo de capas temporales-1 (es decir max_temporal_layers_minus1) incluido en un tren de bits, o un valor prefijado distinto de '0'.
Realización 5
Puede borrarse nal_ref_flag de un encabezamiento de NALU y puede utilizarse reserved_one_5bits como elemento priority_id para indicar que la NALU es una imagen no de referencia. priority_id es un identificador que indica una prioridad de la NALU correspondiente y se utiliza para proporcionar una función de extracción de tren de bits sobre la base de una prioridad, sin tener en cuenta un espacial, un temporal o una SNR diferente.
Es decir que si temporal_id = Ta es el identificador de la capa temporal superior, se utiliza temporal_id = Ta y la NALU, es decir priority_id = 31 (u otro valor específico), para indicar que la NALU es la NALU de una imagen no de referencia.
1 bit utilizado para señalizar nal_ref_flag puede utilizarse como una de las siguientes cosas.
(1) Dicho 1 bit puede utilizarse para indicar nal_unit_type. nal_unit_type puede convertirse en una señal de 7 bits y puede duplicarse el número de tipos de NALU.
(2) Dicho 1 bit puede utilizarse para indicar temporal_id. temporal_id puede convertirse en una señal de 4 bits y puede duplicarse un número máximo de capas temporales.
(3) Dicho 1 bit puede utilizarse para indicar layer_id. layer_id significa el identificador de la capa escalable de un tren de bits en capas y puede señalizarse mediante un elemento de sintaxis reserved_one_5bits. 1 bit utilizado para señalizar nal_ref_flag puede sumarse a 5 bits de reserved_one_5bits utilizados para identificar una capa escalable y, por lo tanto, layer_id puede convertirse en una señal de 6 bits. Si se utilizan 6 bits, pueden identificarse 64 capas escalables.
(4) Dicho 1 bit puede utilizarse como una etiqueta que informe de si reserved_one_5bits indica o no prioridad.
(5) Dicho 1 bit puede utilizarse como reserved_bit.
Si no se borra nal_ref_flag de un encabezamiento de NALU, la semántica de nal_ref_flag puede modificarse de la siguiente manera.
Cuando el valor de nal_ref_flag es 0, indica que una NALU incluye sólo la porción de una imagen no de referencia. Cuando el valor de nal_ref_flag es 1, indica que una NALU puede incluir la porción de una imagen de referencia o de una imagen no de referencia.
Señalización de activación de conjunto de parámetros de vídeo (VPS)
Un VPS incluye la información más básica para decodificar vídeo y puede incluir contenidos presentes en el SPS existente.
El VPS puede incluir información sobre una subcapa que indique una capa temporal que soporta escalabilidad temporal e información sobre múltiples capas que soporten una escalabilidad espacial, de calidad y de vista. Es decir que el VPS puede incluir información multicapa, es decir sintaxis para una ampliación de HEVC.
A. Conjunto de parámetros de vídeo
Las sintaxis para un VPS son iguales que en la Tabla 3. Tabla 3
En la Tabla 3, la mayoría de las sintaxis tienen la misma semántica que las sintaxis de SPS aplicadas a un tren de bits que incluye una sola capa, y las partes adicionales son como se indica a continuación.
- video_parameter_set_id significa el identificador de un VPS y puede hacerse referencia a video_parameter_set_id en un conjunto de parámetros de secuencia (SPS), información de mejora suplementaria (SEI, por sus siglas en inglés) o delimitadores de unidad de acceso.
- Cuando el valor de priority_id_flag es 1, indica que reserved_one_5bits puede utilizarse idénticamente con priorityjd de un estándar SVC. Cuando el valor de priority_id_flag es 0, significa que reserved_one_5bits puede utilizarse como layer_id.
- Cuando el valor de extension_info_flag es 0, indica que un tren de bits cumple un estándar de una sola capa de HEVC. Cuando el valor de extension_info_flag es 1, indica una capa de mejora para soportar escalabilidad (es decir cuando se soporta una ampliación de HEVC) y se proporciona información relacionada con una capa.
B. Modificación de conjunto de parámetros de secuencia (SPS)
Como en la Tabla 4, parte de una sintaxis existente puede incorporarse a un VPS y puede borrarse de un SPS. Entretanto, puede añadirse al SPS un elemento de sintaxis vps_id. Una sintaxis de SPS a la que se le haya añadido vps_id es igual que en la Tabla 4. En la Tabla 4, una sintaxis borrada se indica mediante una línea que pasa por el centro de la sintaxis.
vps_id indica un identificador para identificar un VPS al que puede hacerse referencia en el SPS y puede tener un margen de 0 a X.
Tabla 4
C. Señalización de activación para VPS
Un encabezamiento de porción incluye información de índice sobre un conjunto de parámetros de imagen (PPS) al que se refiere una porción correspondiente, y un PPS incluye información de índice sobre un conjunto de parámetros de secuencia (SPS) al que se refiere una imagen correspondiente. El SPS incluye información sobre un conjunto de parámetros de vídeo (VPS) al que se refiere una secuencia correspondiente. Como se ha descrito anteriormente, cuando se analiza sintácticamente información sobre un conjunto de parámetros y, luego, se hace referencia a información sobre el conjunto de parámetros analizado sintácticamente, se denomina activación.
Para utilizar información sobre un conjunto de parámetros específico, es decir para activar el conjunto de parámetros, es necesario analizar sintácticamente de forma gradual el conjunto de parámetros a partir de un encabezamiento de porción. Esto significa que es necesario analizar todos los encabezamientos de porción y un PPS relacionado para saber qué SPS se activa.
Cuando se extrae parte de una subcapa (es decir capa temporal) de un tren de bits que incluye una sola capa, un extractor necesita analizar (o analizar sintácticamente) un encabezamiento de NALU y una pluralidad de conjuntos de parámetros.
Si en un VPS o un SPS está incluida información para la extracción de una NALU, el extractor necesita analizar sintácticamente de forma secuencial un conjunto de parámetros mayor a partir de un encabezamiento de porción. Esto significa que el extractor necesita entender todos los elementos de sintaxis de los conjuntos de parámetros y el encabezamiento de porción.
Por otra parte, sin un proceso de análisis sintáctico complicado incluso en un proceso de decodificación de vídeo, puede buscarse vps_id o sps_id y pueden activarse sólo los conjuntos de parámetros necesarios. En este caso, si un VPS o un SPS incluye información de índice de parámetro que se haya de activar, puede reducirse un procedimiento de análisis sintáctico para un encabezamiento de porción complicado y un PPS relacionado.
Entretanto, sólo algunos de los elementos de las sintaxis pueden incluir datos necesarios para extraer un tren de bits. Sin embargo, analizar todos los elementos de sintaxis puede convertirse en una gran carga en un extractor. Para solucionar este problema, se propone el método siguiente.
En la presente invención, la activación de un conjunto de parámetros significa que se realiza una señalización de manera que un extractor pueda saber qué conjunto de parámetros se activa sin analizar un encabezamiento de porción y un conjunto de parámetros de imagen (PPS) relacionado.
De acuerdo con la presente invención, puede señalizarse adicionalmente qué VPS, SPS o PPS está activo, de manera que se reduzca una carga en un extractor que necesite analizar todos los encabezamientos de porción y un PPS relacionado.
Un VPS puede actualizarse. Puede utilizarse uno de los siguientes tres métodos, de manera que un extractor pueda estar al corriente de un VPS activo y un SPS o PPS relacionado sin analizar un encabezamiento de porción.
(1) vps_id, sps_id y pps_id pueden incluirse en un delimitador de unidad de acceso. vps_id, sps_id y pps_id indican los identificadores de los VPS, SPS y PPS respectivos utilizados para NALU de una a U relacionada.
Para indicar si los identificadores están o no presentes en el delimitador de unidad de acceso se utilizan vps_id_present_flag, sps_id_present_flag y pps_id_present_flag. La sintaxis de un delimitador de unidad de acceso propuesto es la misma que en la Tabla 5.
Tabla 5
(1-1) En otro método, se excluyen sps_id y pps_id y puede incluirse sólo vps_id en un delimitador de unidad de acceso como en la Tabla 6.
Tabla 6
(2) Otro método para la señalización de activación de un VPS es utilizar un nuevo mensaje de SEI 'parameter_set_reference'. El mensaje de SEI incluye una sintaxis para informar de si están o no presentes vps_id, sps_id y pps_id indicativos de los identificadores de un VPS, un SPS y un PPS utilizados para NALU dentro de una AU relacionada.
Para indicar si los identificadores están o no presentes, puede utilizarse una sintaxis de vps_id_present_flag, sps_id_present_flag y pps_id_present_flag, y una sintaxis de SEI es igual que en la Tabla 7.
Tabla 7
(2-1) Además, puede informarse de la activación de un VPS y un SPS excluyendo pps_id e incluyendo sps_id y vps_id en un mensaje de SEI como en la Tabla 8. sps_id y vps_id en un mensaje de SEI pueden incluir sps_id y vps_id a los que se refiera la NALU de capa de codificación de vídeo de una unidad de acceso asociada con el mensaje de SEI. Por consiguiente, sps_id y vps_id pueden indicar información sobre un conjunto de parámetros que tenga una posibilidad de activación.
Tabla 8
En la Tabla 8, vps_id indica video_parameter_set_id de un VPS ahora activado. Un valor de vps_id puede tener un valor de 0~15.
Si sps_id_present_flag tiene un valor de 1, indica que sequence_parameter_set_id de un SPS ahora activado está incluido en un mensaje de SEI correspondiente. Si sps_id_present_flag tiene un valor de 0, indica que sequence_parameter_set_id de un SPS ahora activado no está incluido en un mensaje de SEI correspondiente.
sps_id indica sequence_parameter_set_id de un SPS ahora activado. sps_id puede tener un valor de 0~31, de forma más limitada un valor de 0~15.
Cuando el valor de psr_extension_flag es 0, indica que un elemento de sintaxis de ampliación de mensaje de SEI de referencia de conjunto de parámetros no está incluido en un mensaje de SEI de referencia de conjunto de parámetros. Cuando el valor de psr_extension_flag es 1, indica que un elemento de sintaxis de ampliación de mensaje de SEI de referencia de conjunto de parámetros que incluye un mensaje de SEI de referencia de conjunto de parámetros está ampliado y es utilizado.
psr_extension_length indica la longitud de psr_extension_data. psr_extension_length puede tener un valor que oscila entre 0 y 256, y psr_extension_data_byte puede tener cualquier valor.
(2-2) Además, en un mensaje de SEI pueden incluirse uno o más sps_id y vps_id distintos de pps_id, que luego pueden señalizarse como en la Tabla 9.
Tabla 9
En la Tabla 9, vps_id indica video_parameter_set_id de un VPS activo. vps_id puede tener un valor de 0~15.
num_reference_sps indica el número de SPS que se refieren a vps_id activos.
sps_id(i) indica sequence_parameter_set_id de un SPS activo, y sps_id puede tener un valor de 0~31, de forma más limitada un valor de 0~15.
(2-3) Además, en un mensaje de SEI pueden incluirse sólo vps_id distintos de sps_id y pps_id, que luego pueden señalizarse como en la Tabla 10.
Tabla 10
(3) Otro método para la señalización de activación de un VPS es incluir información, que informe de vps_id, sps_id y pps_id, en un mensaje de SEI de periodo de almacenamiento en la memoria intermedia. La Tabla 11 muestra una sintaxis que incluye vps_id_present_flag, sps_id_present_flag y pps_id_present_flag que indican si están o no presentes vps_id, sps_id y pps_id.
Tabla 11
(3-1) Además, como se indica en la Tabla 12, la activación de un VPS puede señalizarse incluyendo sólo vps_id distintos de sps_id y pps_id en el mensaje de SEI de periodo de almacenamiento en la memoria intermedia.
Tabla 12
(4) Otro método para la señalización de activación de un conjunto de parámetros es incluir información, que informe de vps_id, sps_id y pps_id, en un mensaje de SEI de punto de recuperación. La Tabla 13 muestra una sintaxis que incluye vps_id_present_flag, sps_id_present_flag y pps_id_present_flag que indican si están o no presentes vps_id, sps_id y pps_id.
Tabla 13
(4-1) Además, como se indica en la Tabla 14, puede haber un método para informar de vps_id, sps_id y pps_id incluyendo sólo vps_id distintos de sps_id y pps_id en el mensaje de SEI de punto de recuperación.
Tabla 14
Los mensajes para entregar vps_id o sps_id pueden incluirse en una unidad de acceso de punto de acceso aleatorio interno (IRAp , por sus siglas en inglés).
Si se incluye en una unidad de acceso y se utiliza cualquiera de los métodos de señalización de información anteriormente descritos, un extractor puede identificar valores vps_id, sps_id y pps_id a través del método de señalización anteriormente descrito para extraer un tren de bits y puede gestionar uno o más vps/sps/pps.
Además, un aparato de decodificación o un módulo de decodificación para realizar una decodificación puede identificar valores vps_id, sps_id y pps_id a través del método de señalización anteriormente descrito y, con el método de señalización, activando los conjuntos de parámetros, puede decodificar las AU asociadas.
Representación de un tren de bits en un tipo ampliado
A continuación se proponen extension_info() de VPS y un nuevo mensaje de SEI para describir y señalizar información sobre una capa escalable si está incluido un tren de bits que soporte una ampliación de capa. Para representar un tren de bits en el tipo ampliado, puede señalizarse la siguiente información.
layer_id señaliza si entrega o no un valor de prioridad de una capa.
Aquí, una capa espacial (identificada mediante un valor dependency_id), una capa de SNR (identificada mediante un valor quality_id), vistas (identificadas mediante un valor view_id), etc. pueden señalizarse en respuesta a cada valor layer_id, y una capa temporal puede identificarse mediante temporaljd de un encabezamiento de NALU.
Además, la zona de vídeo relacionada con layer_id puede señalizarse mediante region_id.
Además, pueden señalizarse una información de dependencia, una información de velocidad de transmisión de bits para cada capa escalable y una información de calidad para cada capa escalable.
La sintaxis de extension_info es igual que en la Tabla 15.
Tabla 15
La semántica de la sintaxis de la Tabla 15 es como se indica a continuación.
- num_frame_sizes_minus1 plus 1 indica una cantidad máxima de información de tamaño (por ejemplo pic_width_in_luma_samples[i], pic_height_in_luma_samples[i], pic_cropping_flag[i], pic_cropping_flag[i], pic_crop_left_offset[i], pic_crop_right_offsetv[i], pic_crop_top_offset[i] y pic_crop_bottom_offset[i]) de otros tipos de imágenes incluidas en una secuencia de vídeo codificada. El valor de num_frame_sizes_minus1 puede ser 0~X. Otros tipos de imágenes pueden incluir imágenes que tengan resoluciones diferentes.
- num_rep_formats_minus1 plus 1 indica un número máximo de tipos diferentes de profundidades de bits y formatos de crominancia (por ejemplo bit_depth_luma_minus8[i], bit_depth_chroma_minus8[i] y valores[i] de chroma_format_idc) incluidos en una secuencia de vídeo codificada. El valor de num_rep_formats_minus1 puede estar en un intervalo de 0~X.
- pic_width_in_luma_samples[i], pic_height_in_luma_samples[i], pic_cropping_flag[i], pic_cropping_flag[i], pic_crop_left_offset[i], pic_crop_right_offsetv[i], pic_crop_top_offset[i] y pic_crop_bottom_offset[i] indican valores de orden i de pic_width_in_luma_samples, pic_height_in_luma_samples, pic_cropping_flag, pic_cropping_flag,
pic_crop_left_offset, pic_crop_right_offsetv, pic_crop_top_offset, pic_crop_bottom_offset de una secuencia de vídeo codificada.
- bit_depth_luma_minus8[i], bit_depth_chroma_minus8[i] y chroma_format_idc[i] indican valores de orden i de bit_depth_luma_minus8, bit_depth_chroma_minus8 y chroma_format_idc de una secuencia de vídeo codificada. - num_layers_minus1 indica el número de capas escalables disponibles en un tren de bits.
- Cuando el valor de dependency_id_flag es 1, indica que están presentes uno o más valores dependency_id relacionados con un valor layer_id.
- Cuando el valor de quality_id_flag es 1, indica que están presentes uno o más valores quality_id relacionados con un valor layer_id.
- Cuando el valor de view_id_flag es 1, indica que están presentes uno o más valores view_id relacionados con un valor layer_id.
- Cuando el valor de region_id_flag es 1, indica que están presentes uno o más valores region_id relacionados con un valor layer_id.
- Cuando el valor de layer_dependency_info_flag es 1, indica que se proporciona información de dependencia de una capa escalable.
- frame_size_idx[i] indica un índice para un conjunto de tamaños de trama aplicado a una capa que tiene un valor layer_id de i. frame_size_idx[i] tiene un valor que oscila entre 0 y X.
- rep_format_idx[i] indica un índice para un conjunto de una profundidad de bits y un formato de crominancia aplicado a una capa que tiene un valor layer_id de i. rep_format_idx[i] tiene un valor que oscila entre 0 y X.
- Cuando el valor de one_dependency_id_flag[i] es 1, indica que hay sólo un dependency_id asociado con una capa cuyo layer_id es i. Cuando el valor de one_dependency_id_flag[i] es 0, indica que hay dos o más dependency_id asociados con una capa cuyo layer_id es i.
- dependency_id[i] indica un valor de dependency_id asociado con una capa cuyo layer_id es i.
- dependency_id_min[i] y dependency_id_max[i] indican un valor dependency_id mínimo y un valor dependency_id máximo asociados con una capa cuyo layer_id es il, respectivamente.
- Cuando el valor de one_quality_id_flag[i] es 1, indica que hay sólo un quality_id asociado con una capa cuyo layer_id es i. Cuando el valor de one_quality_id_flag[i] es 0, indica que hay dos o más valores quality_id asociados con una capa cuyo layer_id es i.
- quality_id[i] indica un valor de quality id asociado con una capa cuyo layer_id es i.
- quality_id_min[i] y quality_id_max[i] indican un valor quality_id mínimo y un valor quality_id máximo asociados con una capa cuyo layer_id es I, respectivamente.
- Cuando el valor de one_view_id_flag[i] es 1, indica que hay un view_id asociado con una capa cuyo layer_id es i. Cuando el valor de one_view_id_flag[i] es 0, indica que hay dos o más valores view_id asociados con una capa cuyo layer_id es i.
- view_id[i] indica un valor de view_id asociado con una capa cuyo layer_id es i.
- Cuando el valor de depth_flag[i] es 1, indica que una capa escalable cuyo layer_id es i incluye información de profundidad de un tren de bits de vídeo 3-D.
- view_id_min[i] y view_id_max[i] indican un valor view_id mínimo y un valor view_id máximo asociados con una capa cuyo layer_id es i.
- num_regions_minus1 plus1 indica el número de zonas asociadas con una capa cuyo layer_id es i.
- region_id[j] indica el identificador de una zona j asociada con una capa cuyo layer_id es i.
- num_directly_dependent_layers[i] indica el número de capas escalables (es decir el número de capas necesarias para generar una señal predicha cuando se realiza una decodificación) con las que una capa escalable i actual está directamente asociada.
- directly_dependent_layer_id_delta_minus1[i][j] plus 1 indica una diferencia entre layer_id[i], es decir una capa escalable actual, y el identificador de capa de una capa escalable de orden j con la que la capa escalable actual está
directamente asociada. El identificador de capa de la capa escalable de orden j con la que la capa escalable actual está directamente asociada es igual que (layer_id[i]-directly_dependent_layerj d_delta_iT iinus1[i][j] - 1).
Una sintaxis de extension_info() según otra realización es igual que en la Tabla 16.
Tabla 16
Como se muestra en la Tabla 16, pic_width_in_luma_samples[i] y pic_height_in_luma_samples[i], bit_depth_luma_minus8[i], bit_depth_chroma_minus8[i] y chroma_format_idc[i] pueden señalizarse a través de información sobre diferentes formatos de representación.
De acuerdo con otra realización, pic_width_in_luma_samples[i], pic_height_in_luma_samples[i], bit_depth_luma_minus8[i], bit_depth_chroma_minus8[i] y chroma_format_idc[i] pueden señalizarse a través de información sobre imágenes diferentes, es decir imágenes que tienen resoluciones diferentes.
Una sintaxis para un mensaje de SEI de activación para la señalización de una velocidad de transmisión de bits e información de calidad es igual que en la Tabla 17.
Tabla 17
La semántica de la sintaxis de la Tabla 17 es como se indica a continuación.
- num_layers_minus1 indica el número de capas escalables que pueden proporcionarse en un tren de bits.
- Cuando el valor de bit rate_info_flag es 1, indica que se proporciona información de la velocidad de transmisión de bits para capa escalable.
- Cuando el valor de quality_info_flag es 1, indica que se proporciona información de un valor de calidad de cada capa escalable.
- Cuando el valor de quality_type_flag es 1, indica que se proporciona información de un tipo de calidad para cada capa escalable.
- max_bit rate[i] indica una velocidad máxima de transmisión de bits de una capa escalable cuyo valor layer_id es i, y average_ bit rate[i] indica una velocidad media de transmisión de bits de una capa escalable cuyo valor layer_id es i. - quality_value[i] indica un valor de calidad de una capa escalable i.
- quality_type_uri[QualityTypeUrildx] indica un identificador universal de recursos (URI, por sus siglas en inglés) que tiene QualityTypeUrildx bytes de una cadena terminada en 0 nulo codificada en caracteres UTF-8 y que indica la inclusión de una expresión para el tipo de valores de calidad.
A continuación se propone una idea para mejorar un conjunto de parámetros de vídeo (VPS) con el fin de extraer eficazmente un tren de bits.
Referenciación de capas
Un método que indique una relación entre layer_id y un ID de dimensión de escalabilidad en un tren de datos que soporte múltiples capas puede incluir el primer método y el segundo método. El primer método informa de un método de mapeo entre layer_id y el ID de dimensión de escalabilidad. El segundo método parte o une los bits de layer_id y luego informa de qué tipo de dimensión está presente en el bit partido o unido.
En un tren de bits que soporte múltiples capas, un tipo de dimensión puede significar el tipo de escalabilidad, tal como la escalabilidad espacial y la escalabilidad de calidad, y un ID de dimensión puede significar un índice de una capa para un tipo de dimensión específico.
En un tren de bits que soporte múltiples capas, en general, una capa específica (para ayudar a entenderlo, por ejemplo en el caso en que se soporte la escalabilidad temporal en un tren de bits de una sola capa, una capa temporal (subcapa) 3) puede referirse directamente a la siguiente capa inferior (por ejemplo una capa temporal (subcapa)) en una dimensión específica.
Por ejemplo, en el caso de que se soporte la escalabilidad espacial, significa que una capa espacial 2 se refiere directamente a la siguiente capa espacial inferior 1.
Por consiguiente, para indicar el caso anterior, se propone que se describa en primer lugar una dimensión que tenga una dependencia directa por defecto.
Después, se describe detalladamente una dependencia específica en un bucle de descripción para una capa escalable.
A continuación se propone una idea para señalizar una referenciación de capas utilizando los dos métodos. Una sintaxis mejorada para vps_extension es igual que en las Tablas 18 a 21.
Tabla 18
La Tabla 18 muestra una sintaxis que mapea layer_id a un ID de dimensión de escalabilidad utilizando el primer método. La semántica de la sintaxis de la Tabla 18 es como se indica a continuación.
- Cuando el valor de all_default_dependency_flag es 1, indica que todas las dimensiones de capa tienen dependencia por defecto. Es decir, significa que, en una dimensión específica i, una capa que tiene 'dimension_id[i] = n' se refiere directamente a otra capa que tiene dimension_id[i] = n-1 por defecto.
Cuando el valor de all_default_dependency_flag es 0, indica que todas las dimensiones de capa pueden no tener dependencia por defecto. Cuando el valor de all_default_dependency_flag es 0, se señaliza el 'num_default_dim_minus1' siguiente.
- num_default_dim_minus1 indica el número de dimensiones que tienen dependencia por defecto.
- dimension[j] especifica el tipo de una dimensión de capa que tiene dependencia por defecto. Es decir que se señaliza información sobre el tipo de dimensión de capa que tiene dependencia por defecto, mientras se aumenta el número de dimensiones que tienen dependencia por defecto una a una. En una dimensión correspondiente, una capa superior (por ejemplo dimension_id = n) se referirá directamente a la siguiente capa inferior (por ejemplo dimension_id = n-1). - Cuando el valor de specific_dependency_flag[i] es 1, significa que hay referencias/dependencias directas descritas detalladamente para una capa correspondiente. Por consiguiente, cuando el valor de specific_dependency_flag[i] es 1, se señalizan el número de capas y el ID de las capas a las que se refiere directamente una capa correspondiente. Que una capa C se refiera directamente a una capa B significa que un decodificador necesita utilizar información (decodificada o no decodificada) de la capa B para decodificar la capa C. Si la capa B utiliza directamente información de una capa A, no se considera que la capa C se refiera directamente a la capa A.
Tabla 19
La Tabla 19 muestra una sintaxis en la que los bits de layer_id están asignados a un tipo de dimensión de escalabilidad y la longitud de un tipo de dimensión asignado se señaliza utilizando el segundo método. num_dimensions_minus1 descrito en la Tabla 19 indica el número de dimensiones de capa que están presentes en un encabezamiento de NALU. Es decir que se comprueba el número de dimensiones de capa presentes en el encabezamiento de NALU y se comprueban un tipo de capa presente en cada dimensión de capa correspondiente y el número de bits asignados al tipo de dimensión.
La sintaxis 'all_default_dependency_flag, num_default_dim_minus1, dimension[j] y specific_dependency_flag[i]' para la referenciación de capas descrita en la Tabla 19 tiene la misma semántica que la sintaxis descrita en la Tabla 18. Las Tablas 20 y 21 describen sintaxis alternativas a las Tablas 18 y 19. La Tabla 20 muestra una sintaxis alternativa que indica dependencia por defecto cuando se utiliza el primer método, y la Tabla 21 muestra una sintaxis alternativa que indica dependencia por defecto cuando se utiliza el segundo método.
Tabla 20
Tabla 21
Entre las sintaxis de las Tablas 20 y 21 se omite la descripción de las sintaxis descritas en las Tablas 18 y 19.
Una nueva sintaxis 'default_dependency_flag[i]' en las Tablas 20 y 21 indica si un tipo i de dimensión utiliza o no dependencia por defecto. En una dimensión correspondiente, una capa superior (por ejemplo dimension_id[i]=n) se refiere directamente a una capa situada justo debajo (por ejemplo dimension_id[i]=n-1).
Es decir que después de que num_dimensions_minus1 y dimension_type[i] designen un tipo de dimensión específico, se señaliza si el tipo de dimensión específico utiliza o no dependencia por defecto. Si no se señaliza, esto indica que se señaliza información de una capa a la que se refiere directamente la capa correspondiente.
En la Tabla 22 figuran tipos de dimensión según la presente invención.
Tabla 22
De acuerdo con la presente invención, los tipos de dimensión 4 y 5, es decir los tipos indicativos de un ID de prioridad y un ID de zona, se han añadido en un tipo de dimensión existente.
dimension_type[i][j] puede tener un valor entre 0 y 5. Otros valores pueden definirse posteriormente, y un decodificador puede ignorar un valor de dimension_type[i][j] si dimension_type[i][j] no tiene un valor entre 0 y 5.
Si dimension_type tiene un valor de 4, el dimension_id correspondiente indica el ID de una capa de prioridad de un tren de bits en el estándar SVC.
Si dimension_type tiene un valor de 5, el dimension_id correspondiente indica el ID de una zona específica de un tren de bits. La zona específica puede ser uno o más segmentos espacio-temporales en el tren de bits.
La Figura 4 es un diagrama de flujo de control que ilustra un método de codificación de información de vídeo de acuerdo con la presente invención.
Remitiéndonos a la Figura 4, el aparato de codificación codifica una unidad de capa de abstracción de red (NAL) que incluye información relacionada con vídeo en la etapa S401.
El encabezamiento de NALU de la NALU no incluye información que indique si la NALU incluye o no una porción que incluya al menos parte o la totalidad de la imagen no de referencia.
Entretanto, el encabezamiento de NALU incluye información de ID de capa para identificar una capa escalable en un tren de datos que soporte una capa escalable.
Aquí puede utilizarse para señalizar la información de ID de capa un bit utilizado para señalizar información que indique si una NALU, excepto el encabezamiento de NALU, incluye o no una porción que incluya al menos parte o la totalidad de la imagen no de referencia.
Además, la NALU puede incluir información sobre diversos conjuntos de parámetros necesarios para decodificar vídeo.
El aparato de codificación puede codificar un mensaje de información de mejora suplementaria (SEI), que incluya información sobre conjuntos de parámetros activos, como una NALU independiente.
La información sobre los conjuntos de parámetros activos puede incluir información sobre qué VPS activo está indexado y/o información sobre qué SPS activo está indexado.
Además, la información sobre conjuntos de parámetros activos puede incluir información sobre qué VPS activo está indexado, información sobre el número de SPS que se refieren al VPS activo e información sobre que SPS están indexados.
El aparato de decodificación puede utilizar la información sobre los conjuntos de parámetros para extraer una subcapa que proporcione escalabilidad temporal.
Además, el aparato de decodificación o un módulo de decodificación para realizar una decodificación puede utilizar la información sobre los conjuntos de parámetros a la hora de activar conjuntos de parámetros necesarios para decodificar una NALU de capa de codificación de vídeo.
El aparato de codificación envía la NALU, que incluye la información relacionada con el vídeo codificado, en forma de un tren de bits en la etapa S402.
La Figura 5 es un diagrama de flujo de control que ilustra un método de decodificación de información de vídeo de acuerdo con la presente invención
Remitiéndonos a la Figura 5, el aparato de decodificación recibe una NALU, que incluye información relacionada con un vídeo codificado, a través de un tren de bits en la etapa S501.
El aparato de decodificación analiza sintácticamente el encabezamiento y la carga útil de NAL de la NALU en la etapa S502. El análisis sintáctico de la información de vídeo puede realizarse mediante un módulo de decodificación entrópica o un módulo de análisis sintáctico adicional.
A través del análisis sintáctico, el aparato de decodificación puede obtener diversos datos incluidos en el encabezamiento y la carga útil de NAL de la NALU.
El encabezamiento de NALU puede incluir información de ID de capa para identificar una capa escalable en el tren de bits que soporta la capa escalable y puede no incluir información de etiqueta de 1 bit que indique si la NALU es una imagen no de referencia o una imagen de referencia en la totalidad del tren de bits a la hora de codificar los datos de vídeo.
Aquí puede utilizarse para señalizar la información de ID de capa un bit utilizado para señalizar información que indique si una NALU, excepto el encabezamiento de NALU, incluye o no una porción que incluya al menos parte o la totalidad de la imagen no de referencia.
Además, a través del análisis sintáctico, el aparato de decodificación puede obtener información sobre conjuntos de parámetros incluida en un mensaje de SEI. La información de los conjuntos de parámetros obtenida es necesaria para decodificar una NALU asociada con un mensaje de SEI.
La información sobre conjuntos de parámetros activos puede incluir información sobre qué VPS activo está indexado y/o información sobre qué SPS activo está indexado.
Además, la información sobre los conjuntos de parámetros activos puede incluir información sobre qué VPS activo está indexado, información indicativa del número de SPS que se refieren al VPS activo e información sobre que SPS están indexados.
El aparato de decodificación puede utilizar estos datos sobre conjuntos de parámetros para extraer una subcapa que proporcione escalabilidad temporal.
Además, los datos sobre conjuntos de parámetros pueden utilizarse a la hora de decodificar un tren de bits o en una negociación de sesión (por ejemplo una negociación de sesión en el momento de una transmisión en continuo (streaming) en una red IP).
En las realizaciones anteriormente mencionadas, aunque los métodos se han descrito sobre la base de los diagramas de flujo en forma de una serie de etapas o bloques, la presente invención no está limitada a la secuencia de las etapas, y algunas de las etapas pueden realizarse en un orden diferente del de otras etapas o pueden realizarse simultáneamente a otras etapas. Además, los expertos en la técnica entenderán que las etapas mostradas en el diagrama de flujo no son exclusivas y las etapas pueden incluir etapas adicionales o que una o más etapas del diagrama de flujo pueden borrarse sin afectar al alcance de la presente invención.
Claims (1)
1. Un aparato de decodificación de vídeo, que comprende:
un módulo de decodificación para decodificar una primera imagen;
un módulo de análisis sintáctico para analizar sintácticamente un encabezamiento de porción de una segunda imagen que es la imagen siguiente a la primera imagen decodificada; y
una memoria intermedia de imágenes decodificadas (DPB, por sus siglas en inglés) para almacenar la primera imagen decodificada,
en donde el encabezamiento de porción de la segunda imagen incluye información de imagen de referencia que indica si la primera imagen decodificada es una imagen de referencia,
en donde la primera imagen decodificada se marca como imagen de referencia en la DPB y luego se determina si la primera imagen decodificada marcada como imagen de referencia es una imagen de referencia o una imagen no de referencia sobre la base de la información de imagen de referencia, y la primera imagen decodificada marcada como imagen de referencia se marca como imagen no de referencia en caso de que se determine que la primera imagen decodificada es una imagen no de referencia sobre la base de la información de imagen de referencia incluida en el encabezamiento de porción de la segunda imagen,
en donde el módulo de análisis sintáctico analiza sintácticamente un encabezamiento de unidad de capa de abstracción de red (NAL, por sus siglas en inglés) de una unidad de NAL para la primera imagen, y el encabezamiento de unidad de NAL no comprende información de etiqueta que indique si la unidad de NAL es una imagen no de referencia o una imagen de referencia.
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120038870 | 2012-04-16 | ||
KR20120066606 | 2012-06-21 | ||
KR20120067925 | 2012-06-25 | ||
KR20120071933 | 2012-07-02 | ||
KR20120077012 | 2012-07-16 | ||
KR1020120108925A KR20130116782A (ko) | 2012-04-16 | 2012-09-28 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
KR1020120112598A KR20130116783A (ko) | 2012-04-16 | 2012-10-10 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
PCT/KR2013/003204 WO2013157826A1 (ko) | 2012-04-16 | 2013-04-16 | 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2748463T3 true ES2748463T3 (es) | 2020-03-16 |
Family
ID=49635785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13777676T Active ES2748463T3 (es) | 2012-04-16 | 2013-04-16 | Aparato de decodificación de vídeo |
Country Status (16)
Country | Link |
---|---|
US (10) | US10595026B2 (es) |
EP (7) | EP3340630B1 (es) |
JP (30) | JP5933815B2 (es) |
KR (24) | KR20130116782A (es) |
CN (12) | CN108769710B (es) |
CY (1) | CY1122257T1 (es) |
DK (1) | DK2840788T3 (es) |
ES (1) | ES2748463T3 (es) |
HR (1) | HRP20191726T1 (es) |
HU (1) | HUE045980T2 (es) |
LT (1) | LT2840788T (es) |
PL (2) | PL3340630T3 (es) |
PT (1) | PT2840788T (es) |
RS (1) | RS59596B1 (es) |
SI (1) | SI2840788T1 (es) |
WO (2) | WO2013157826A1 (es) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130116782A (ko) * | 2012-04-16 | 2013-10-24 | 한국전자통신연구원 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
CN104620585A (zh) * | 2012-09-09 | 2015-05-13 | Lg电子株式会社 | 图像解码方法和使用其的装置 |
US10805605B2 (en) * | 2012-12-21 | 2020-10-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-layer video stream encoding and decoding |
US10129550B2 (en) * | 2013-02-01 | 2018-11-13 | Qualcomm Incorporated | Inter-layer syntax prediction control |
CN109451320B (zh) * | 2013-06-05 | 2023-06-02 | 太阳专利托管公司 | 图像编码方法、图像解码方法、图像编码装置以及图像解码装置 |
WO2015054634A2 (en) * | 2013-10-11 | 2015-04-16 | Vid Scale, Inc. | High level syntax for hevc extensions |
KR102248848B1 (ko) | 2013-10-26 | 2021-05-06 | 삼성전자주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
KR20150064676A (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
KR20150064678A (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
JP6474815B2 (ja) | 2013-12-16 | 2019-02-27 | エルジー エレクトロニクス インコーポレイティド | トリックプレイサービス提供のための信号送受信装置及び信号送受信方法 |
KR102266902B1 (ko) * | 2014-01-13 | 2021-06-18 | 삼성전자주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
JP5886341B2 (ja) | 2014-03-07 | 2016-03-16 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
JP6150134B2 (ja) | 2014-03-24 | 2017-06-21 | ソニー株式会社 | 画像符号化装置および方法、画像復号装置および方法、プログラム、並びに記録媒体 |
WO2016098056A1 (en) | 2014-12-18 | 2016-06-23 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
EP3313079B1 (en) * | 2015-06-18 | 2021-09-01 | LG Electronics Inc. | Image filtering method in image coding system |
KR102602690B1 (ko) * | 2015-10-08 | 2023-11-16 | 한국전자통신연구원 | 화질에 기반한 적응적 부호화 및 복호화를 위한 방법 및 장치 |
WO2018037985A1 (ja) * | 2016-08-22 | 2018-03-01 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
JP6350638B2 (ja) * | 2016-11-16 | 2018-07-04 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
US10692262B2 (en) | 2017-01-12 | 2020-06-23 | Electronics And Telecommunications Research Institute | Apparatus and method for processing information of multiple cameras |
US11496761B2 (en) * | 2018-06-30 | 2022-11-08 | Sharp Kabushiki Kaisha | Systems and methods for signaling picture types of pictures included in coded video |
US10904545B2 (en) * | 2018-12-26 | 2021-01-26 | Tencent America LLC | Method for syntax controlled decoded picture buffer management |
EP3939318A1 (en) * | 2019-03-11 | 2022-01-19 | VID SCALE, Inc. | Sub-picture bitstream extraction and reposition |
WO2020184673A1 (ja) * | 2019-03-12 | 2020-09-17 | ソニー株式会社 | 画像復号装置、画像復号方法、画像符号化装置、および画像符号化方法 |
US11310560B2 (en) | 2019-05-17 | 2022-04-19 | Samsung Electronics Co., Ltd. | Bitstream merger and extractor |
WO2020235552A1 (en) * | 2019-05-19 | 2020-11-26 | Sharp Kabushiki Kaisha | Systems and methods for signaling picture property information in video coding |
WO2020242229A1 (ko) * | 2019-05-28 | 2020-12-03 | 삼성전자주식회사 | 작은 크기의 인트라 블록을 방지하기 위한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
CN113950842A (zh) * | 2019-06-20 | 2022-01-18 | 索尼半导体解决方案公司 | 图像处理装置和方法 |
US11032548B2 (en) * | 2019-06-24 | 2021-06-08 | Tencent America LLC | Signaling for reference picture resampling |
US11457242B2 (en) * | 2019-06-24 | 2022-09-27 | Qualcomm Incorporated | Gradual random access (GRA) signalling in video coding |
KR20220027207A (ko) | 2019-07-08 | 2022-03-07 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 코딩에서의 혼합된 nal 유닛 픽처 제약 조건 |
CN110446047A (zh) * | 2019-08-16 | 2019-11-12 | 苏州浪潮智能科技有限公司 | 视频码流的解码方法及装置 |
CA3156854C (en) * | 2019-10-07 | 2024-05-21 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods |
CN114503587A (zh) * | 2019-10-07 | 2022-05-13 | Lg电子株式会社 | 点云数据发送装置、点云数据发送方法、点云数据接收装置和点云数据接收方法 |
JP7526268B2 (ja) * | 2019-12-23 | 2024-07-31 | エルジー エレクトロニクス インコーポレイティド | Nalユニット関連情報に基づく映像又はビデオコーディング |
CN115104316A (zh) | 2019-12-23 | 2022-09-23 | Lg电子株式会社 | 用于切片或图片的基于nal单元类型的图像或视频编码 |
WO2021132962A1 (ko) | 2019-12-23 | 2021-07-01 | 엘지전자 주식회사 | Nal 유닛 타입 기반 영상 또는 비디오 코딩 |
CN116743997A (zh) * | 2019-12-27 | 2023-09-12 | 阿里巴巴(中国)有限公司 | 用信号通知子图像划分信息的方法和装置 |
WO2021137590A1 (ko) | 2020-01-02 | 2021-07-08 | 엘지전자 주식회사 | Ph nal 유닛 코딩 관련 영상 디코딩 방법 및 그 장치 |
AU2020418309B2 (en) * | 2020-01-02 | 2024-04-04 | Lg Electronics Inc. | Image decoding method and apparatus for coding image information including picture header |
CN115280781A (zh) * | 2020-01-02 | 2022-11-01 | Lg电子株式会社 | 图像解码方法及其装置 |
BR112022013931A2 (pt) * | 2020-01-14 | 2022-10-04 | Lg Electronics Inc | Método e dispositivo de codificação/decodificação de imagem para sinalizar informação relacionada à subimagem e cabeçalho de imagem e método para transmissão de fluxo de bits |
WO2021188451A1 (en) * | 2020-03-16 | 2021-09-23 | Bytedance Inc. | Random access point access unit in scalable video coding |
CN115299070A (zh) * | 2020-03-17 | 2022-11-04 | 华为技术有限公司 | 编码器、解码器及对应的方法 |
CN113453006B (zh) * | 2020-03-25 | 2024-04-16 | 腾讯美国有限责任公司 | 一种图片封装方法、设备以及存储介质 |
EP4124032A4 (en) * | 2020-04-12 | 2023-05-31 | LG Electronics, Inc. | POINT CLOUD DATA TRANSMITTING DEVICE, POINT CLOUD DATA TRANSMITTING METHOD, POINT CLOUD DATA RECEIVING DEVICE, AND POINT CLOUD DATA RECEIVING METHOD |
CN115552903A (zh) * | 2020-05-12 | 2022-12-30 | Lg电子株式会社 | 处理图像/视频编码系统中的单层比特流内的参数集的参考的方法和装置 |
US11223841B2 (en) | 2020-05-29 | 2022-01-11 | Samsung Electronics Co., Ltd. | Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding on image |
KR102421720B1 (ko) * | 2020-05-29 | 2022-07-18 | 삼성전자주식회사 | 영상의 ai 부호화 및 ai 복호화를 위한 장치, 및 방법 |
WO2021251611A1 (en) | 2020-06-11 | 2021-12-16 | Samsung Electronics Co., Ltd. | Apparatus and method for performing artificial intelligence encoding and decoding on image by using low-complexity neural network |
BR112023019239A2 (pt) * | 2021-04-02 | 2023-10-17 | Qualcomm Inc | Mensagem de informação de aprimoramento suplemental de métricas de qualidade e orientação de imagem para codificação de vídeo |
US11895336B2 (en) | 2021-04-02 | 2024-02-06 | Qualcomm Incorporated | Picture orientation and quality metrics supplemental enhancement information message for video coding |
WO2024167266A1 (ko) * | 2023-02-09 | 2024-08-15 | 삼성전자 주식회사 | 전자 장치 및 전자 장치에서 스케일러블 코덱을 처리하는 방법 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1578136A3 (en) * | 1998-01-27 | 2005-10-19 | AT&T Corp. | Method and apparatus for encoding video shape and texture information |
US6895048B2 (en) * | 1998-03-20 | 2005-05-17 | International Business Machines Corporation | Adaptive encoding of a sequence of still frames or partially still frames within motion video |
EP1500002A1 (en) * | 2002-04-29 | 2005-01-26 | Sony Electronics Inc. | Supporting advanced coding formats in media files |
US8752197B2 (en) * | 2002-06-18 | 2014-06-10 | International Business Machines Corporation | Application independent system, method, and architecture for privacy protection, enhancement, control, and accountability in imaging service systems |
CN100423581C (zh) * | 2002-12-30 | 2008-10-01 | Nxp股份有限公司 | 动态图形的编码/解码方法及其设备 |
JP4479160B2 (ja) * | 2003-03-11 | 2010-06-09 | チッソ株式会社 | シルセスキオキサン誘導体を用いて得られる重合体 |
KR100596706B1 (ko) | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
WO2005055608A1 (en) | 2003-12-01 | 2005-06-16 | Samsung Electronics Co., Ltd. | Method and apparatus for scalable video encoding and decoding |
US7415069B2 (en) * | 2003-12-09 | 2008-08-19 | Lsi Corporation | Method for activation and deactivation of infrequently changing sequence and picture parameter sets |
US7586924B2 (en) * | 2004-02-27 | 2009-09-08 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for coding an information signal into a data stream, converting the data stream and decoding the data stream |
KR101132062B1 (ko) * | 2004-06-02 | 2012-04-02 | 파나소닉 주식회사 | 화상 부호화 장치 및 화상 복호화 장치 |
JP4575129B2 (ja) * | 2004-12-02 | 2010-11-04 | ソニー株式会社 | データ処理装置およびデータ処理方法、並びにプログラムおよびプログラム記録媒体 |
KR20060068254A (ko) * | 2004-12-16 | 2006-06-21 | 엘지전자 주식회사 | 비디오 부호화 방법, 복호화 방법 그리고, 복호화 장치 |
JP2006203661A (ja) * | 2005-01-21 | 2006-08-03 | Toshiba Corp | 動画像符号化装置、動画像復号装置及び符号化ストリーム生成方法 |
JP2006211274A (ja) * | 2005-01-27 | 2006-08-10 | Toshiba Corp | 記録媒体、この記録媒体を再生する方法並びにその再生装置及び記録媒体に映像データを記録する記録装置並びにその記録方法 |
EP1869888B1 (en) * | 2005-04-13 | 2016-07-06 | Nokia Technologies Oy | Method, device and system for effectively coding and decoding of video data |
CN101120593A (zh) | 2005-04-13 | 2008-02-06 | 诺基亚公司 | 可扩展性信息的编码、存储和信号发送 |
EP1897377A4 (en) | 2005-05-26 | 2010-12-22 | Lg Electronics Inc | METHOD FOR PROVIDING AND USING INTERLOCK PREDICTION INFORMATION FOR VIDEO SIGNAL |
KR100878811B1 (ko) | 2005-05-26 | 2009-01-14 | 엘지전자 주식회사 | 비디오 신호의 디코딩 방법 및 이의 장치 |
EP1773063A1 (en) * | 2005-06-14 | 2007-04-11 | Thomson Licensing | Method and apparatus for encoding video data, and method and apparatus for decoding video data |
FR2888424A1 (fr) * | 2005-07-07 | 2007-01-12 | Thomson Licensing Sas | Dispositif et procede de codage et de decodage de donnees video et train de donnees |
EP1949701A1 (en) * | 2005-10-11 | 2008-07-30 | Nokia Corporation | Efficient decoded picture buffer management for scalable video coding |
US20100158133A1 (en) * | 2005-10-12 | 2010-06-24 | Peng Yin | Method and Apparatus for Using High-Level Syntax in Scalable Video Encoding and Decoding |
MY159176A (en) * | 2005-10-19 | 2016-12-30 | Thomson Licensing | Multi-view video coding using scalable video coding |
KR100763196B1 (ko) | 2005-10-19 | 2007-10-04 | 삼성전자주식회사 | 어떤 계층의 플래그를 계층간의 연관성을 이용하여부호화하는 방법, 상기 부호화된 플래그를 복호화하는방법, 및 장치 |
KR100889745B1 (ko) | 2006-01-09 | 2009-03-24 | 한국전자통신연구원 | 날 유닛 타입 표시방법 및 그에 따른 비트스트림 전달장치및 리던던트 슬라이스 부호화 장치 |
JP4731343B2 (ja) * | 2006-02-06 | 2011-07-20 | 富士通東芝モバイルコミュニケーションズ株式会社 | 復号装置 |
EP1827023A1 (en) * | 2006-02-27 | 2007-08-29 | THOMSON Licensing | Method and apparatus for packet loss detection and virtual packet generation at SVC decoders |
US8767836B2 (en) * | 2006-03-27 | 2014-07-01 | Nokia Corporation | Picture delimiter in scalable video coding |
MX2008011652A (es) * | 2006-03-29 | 2008-09-22 | Thomson Licensing | Metodos y aparatos para usarse en un sistema de codificacion de video de multiples vistas. |
CN101455084A (zh) * | 2006-03-30 | 2009-06-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
EP2039168A2 (en) * | 2006-07-05 | 2009-03-25 | Thomson Licensing | Methods and apparatus for multi-view video encoding and decoding |
KR20080007086A (ko) * | 2006-07-14 | 2008-01-17 | 엘지전자 주식회사 | 비디오 신호의 디코딩/인코딩 방법 및 장치 |
US8532178B2 (en) | 2006-08-25 | 2013-09-10 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction |
CN102158697B (zh) | 2006-09-07 | 2013-10-09 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
CN101395925B (zh) * | 2006-09-07 | 2013-01-02 | Lg电子株式会社 | 用于解码/编码视频信号的方法及装置 |
JP5087627B2 (ja) * | 2006-09-28 | 2012-12-05 | トムソン ライセンシング | 効果的なレート制御および拡張したビデオ符号化品質のためのρ領域フレームレベルビット割り当てのための方法 |
BRPI0718206B1 (pt) * | 2006-10-16 | 2020-10-27 | Nokia Technologies Oy | método para codificar uma pluralidade de visões de uma cena; método de codificação de uma sequência de bits de vídeo codificada e aparelho |
BRPI0719536A2 (pt) * | 2006-10-16 | 2014-01-14 | Thomson Licensing | Método para utilização de uma unidade de camada genérica na rede de trabalho sinalizando uma reposição instantânea de decodificação durante uma operação em vídeo. |
BRPI0718421A2 (pt) * | 2006-10-24 | 2013-11-12 | Thomson Licensing | Gerenciamento de quadro para codificação de vídeo de multivistas |
KR100896289B1 (ko) * | 2006-11-17 | 2009-05-07 | 엘지전자 주식회사 | 비디오 신호의 디코딩/인코딩 방법 및 장치 |
JP5157140B2 (ja) * | 2006-11-29 | 2013-03-06 | ソニー株式会社 | 記録装置、記録方法、情報処理装置、情報処理方法、撮像装置およびビデオシステム |
US10291863B2 (en) * | 2006-12-21 | 2019-05-14 | InterDigital VC Holdings Inc. | Method for indicating coding order in multi-view video coded content |
MY162367A (en) | 2007-01-05 | 2017-06-15 | Thomson Licensing | Hypothetical reference decoder for scalable video coding |
CN101543018B (zh) | 2007-01-12 | 2012-12-26 | 庆熙大学校产学协力团 | 网络提取层单元的分组格式、使用该格式的视频编解码算法和装置以及使用该格式进行IPv6标签交换的QoS控制算法和装置 |
JP5023739B2 (ja) | 2007-02-28 | 2012-09-12 | ソニー株式会社 | 画像情報符号化装置及び符号化方法 |
CN101641954B (zh) * | 2007-03-23 | 2011-09-14 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
JP5686594B2 (ja) * | 2007-04-12 | 2015-03-18 | トムソン ライセンシングThomson Licensing | スケーラブル・ビデオ符号化のためのビデオ・ユーザビリティ情報(vui)用の方法及び装置 |
US20100142613A1 (en) | 2007-04-18 | 2010-06-10 | Lihua Zhu | Method for encoding video data in a scalable manner |
MX2010000684A (es) | 2007-08-24 | 2010-03-30 | Lg Electronics Inc | Sistema de difusion digital y metodo para procesar datos en el sistema de difusion digital. |
BRPI0817420A2 (pt) | 2007-10-05 | 2013-06-18 | Thomson Licensing | mÉtodos e aparelho para incorporar informaÇço de usabilidade de vÍdeo (vui) em um sistema de codificaÇço de vÍdeo de méltiplas visualizaÇÕes (mvc) |
KR101345287B1 (ko) * | 2007-10-12 | 2013-12-27 | 삼성전자주식회사 | 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치 |
EP2304940A4 (en) | 2008-07-22 | 2011-07-06 | Thomson Licensing | METHODS OF ERROR DISSIMULATION DUE TO ENHANCEMENT LAYER PACKET LOSS IN SCALEABLE VIDEO ENCODING DECODING (SVC) |
JP2012504925A (ja) * | 2008-10-06 | 2012-02-23 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号の処理方法及び装置 |
US20100226227A1 (en) * | 2009-03-09 | 2010-09-09 | Chih-Ching Yu | Methods and apparatuses of processing readback signal generated from reading optical storage medium |
JP5332773B2 (ja) * | 2009-03-18 | 2013-11-06 | ソニー株式会社 | 画像処理装置および方法 |
US8566393B2 (en) | 2009-08-10 | 2013-10-22 | Seawell Networks Inc. | Methods and systems for scalable video chunking |
KR101124723B1 (ko) | 2009-08-21 | 2012-03-23 | 에스케이플래닛 주식회사 | 해상도 시그널링을 이용한 스케일러블 비디오 재생 시스템 및 방법 |
US8976871B2 (en) * | 2009-09-16 | 2015-03-10 | Qualcomm Incorporated | Media extractor tracks for file format track selection |
EP2495973B1 (en) * | 2009-10-30 | 2019-02-27 | Sun Patent Trust | Decoding method, decoder apparatus, encoding method, and encoder apparatus |
EP2346261A1 (en) * | 2009-11-18 | 2011-07-20 | Tektronix International Sales GmbH | Method and apparatus for multiplexing H.264 elementary streams without timing information coded |
CN102103651B (zh) | 2009-12-21 | 2012-11-14 | 中国移动通信集团公司 | 一种一卡通系统的实现方法和系统以及一种智能卡 |
US9185439B2 (en) | 2010-07-15 | 2015-11-10 | Qualcomm Incorporated | Signaling data for multiplexing video components |
KR20120015260A (ko) | 2010-07-20 | 2012-02-21 | 한국전자통신연구원 | 스케일러빌리티 및 뷰 정보를 제공하는 스트리밍 서비스를 위한 방법 및 장치 |
KR20120038870A (ko) | 2010-10-14 | 2012-04-24 | 정태길 | 클라우드 컴퓨팅 기반의 모바일 오피스 프린팅 부가 서비스 방법 |
KR101158244B1 (ko) | 2010-12-14 | 2012-07-20 | 주식회사 동호 | 하천 친환경 생태 조성 구조체 및 시스템 |
JP2012142551A (ja) | 2010-12-16 | 2012-07-26 | Nisshin:Kk | 加熱処理方法およびその装置 |
KR101740425B1 (ko) | 2010-12-23 | 2017-05-26 | 에스케이텔레콤 주식회사 | 중계기 및 상기 중계기의 신호 중계 방법 |
KR101214465B1 (ko) | 2010-12-30 | 2012-12-21 | 주식회사 신한엘리베이타 | 가볍고 방수성이 우수한 방수발판부재가 구비된 에스컬레이터 장치 |
JP5738434B2 (ja) * | 2011-01-14 | 2015-06-24 | ヴィディオ・インコーポレーテッド | 改善されたnalユニットヘッダ |
US20120230409A1 (en) | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
JP5833682B2 (ja) * | 2011-03-10 | 2015-12-16 | ヴィディオ・インコーポレーテッド | スケーラブルなビデオ符号化のための依存性パラメータセット |
JP5708124B2 (ja) | 2011-03-25 | 2015-04-30 | 三菱電機株式会社 | 半導体装置 |
MX2013014857A (es) | 2011-06-30 | 2014-03-26 | Ericsson Telefon Ab L M | Señalizacion de imagenes de referencia. |
RU2014105292A (ru) | 2011-07-13 | 2015-08-20 | Телефонактиеболагет Л М Эрикссон (Пабл) | Кодер, декодер и способы их работы для управления опорными изображениями |
US9237356B2 (en) | 2011-09-23 | 2016-01-12 | Qualcomm Incorporated | Reference picture list construction for video coding |
US9473752B2 (en) * | 2011-11-30 | 2016-10-18 | Qualcomm Incorporated | Activation of parameter sets for multiview video coding (MVC) compatible three-dimensional video coding (3DVC) |
US9451252B2 (en) * | 2012-01-14 | 2016-09-20 | Qualcomm Incorporated | Coding parameter sets and NAL unit headers for video coding |
DK3481068T3 (da) | 2012-04-13 | 2020-11-16 | Ge Video Compression Llc | Billedkodning med lav forsinkelse |
KR20130116782A (ko) | 2012-04-16 | 2013-10-24 | 한국전자통신연구원 | 계층적 비디오 부호화에서의 계층정보 표현방식 |
US9554146B2 (en) * | 2012-09-21 | 2017-01-24 | Qualcomm Incorporated | Indication and activation of parameter sets for video coding |
ES2648970T3 (es) * | 2012-12-21 | 2018-01-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Codificación y decodificación de flujo de video multicapa |
CN105122816A (zh) | 2013-04-05 | 2015-12-02 | 夏普株式会社 | 层间参考图像集的解码和参考图像列表构建 |
US20140307803A1 (en) | 2013-04-08 | 2014-10-16 | Qualcomm Incorporated | Non-entropy encoded layer dependency information |
-
2012
- 2012-09-28 KR KR1020120108925A patent/KR20130116782A/ko unknown
- 2012-10-10 KR KR1020120112598A patent/KR20130116783A/ko unknown
-
2013
- 2013-04-16 PL PL18150626T patent/PL3340630T3/pl unknown
- 2013-04-16 KR KR1020130041862A patent/KR101378861B1/ko active IP Right Grant
- 2013-04-16 EP EP18150626.2A patent/EP3340630B1/en not_active Revoked
- 2013-04-16 CN CN201810384124.2A patent/CN108769710B/zh active Active
- 2013-04-16 PT PT137776761T patent/PT2840788T/pt unknown
- 2013-04-16 EP EP13777635.7A patent/EP2840787A4/en not_active Ceased
- 2013-04-16 CN CN201380025824.8A patent/CN104303503B/zh active Active
- 2013-04-16 WO PCT/KR2013/003204 patent/WO2013157826A1/ko active Application Filing
- 2013-04-16 EP EP21177418.7A patent/EP3893511A1/en active Pending
- 2013-04-16 EP EP13777676.1A patent/EP2840788B1/en active Active
- 2013-04-16 CN CN201810384111.5A patent/CN108769705B/zh active Active
- 2013-04-16 EP EP19183291.4A patent/EP3570546A1/en active Pending
- 2013-04-16 WO PCT/KR2013/003206 patent/WO2013157828A1/ko active Application Filing
- 2013-04-16 EP EP21167414.8A patent/EP3866472A1/en active Pending
- 2013-04-16 CN CN201810384113.4A patent/CN108769707B/zh active Active
- 2013-04-16 EP EP16163783.0A patent/EP3086556A1/en not_active Ceased
- 2013-04-16 CN CN201810384265.4A patent/CN108769712B/zh active Active
- 2013-04-16 CN CN201810384705.6A patent/CN108769687B/zh active Active
- 2013-04-16 CN CN201810384264.XA patent/CN108769711B/zh active Active
- 2013-04-16 RS RS20191215A patent/RS59596B1/sr unknown
- 2013-04-16 DK DK13777676.1T patent/DK2840788T3/da active
- 2013-04-16 US US14/391,151 patent/US10595026B2/en active Active
- 2013-04-16 PL PL13777676T patent/PL2840788T3/pl unknown
- 2013-04-16 US US14/391,061 patent/US10602160B2/en active Active
- 2013-04-16 HU HUE13777676A patent/HUE045980T2/hu unknown
- 2013-04-16 KR KR1020130041863A patent/KR101953703B1/ko active IP Right Grant
- 2013-04-16 CN CN201810384112.XA patent/CN108769706B/zh active Active
- 2013-04-16 CN CN201810384114.9A patent/CN108769708B/zh active Active
- 2013-04-16 JP JP2015506892A patent/JP5933815B2/ja active Active
- 2013-04-16 CN CN201810384281.3A patent/CN108769713B/zh active Active
- 2013-04-16 SI SI201331581T patent/SI2840788T1/sl unknown
- 2013-04-16 CN CN201810384123.8A patent/CN108769709B/zh active Active
- 2013-04-16 CN CN201810384148.8A patent/CN108769686B/zh active Active
- 2013-04-16 LT LT13777676T patent/LT2840788T/lt unknown
- 2013-04-16 ES ES13777676T patent/ES2748463T3/es active Active
- 2013-10-22 KR KR1020130125869A patent/KR101640583B1/ko active IP Right Grant
-
2014
- 2014-05-07 KR KR20140054447A patent/KR101488494B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054446A patent/KR101488495B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054448A patent/KR101488493B1/ko active IP Right Grant
- 2014-05-07 KR KR20140054445A patent/KR101488496B1/ko active IP Right Grant
- 2014-05-07 KR KR1020140054449A patent/KR101673291B1/ko active IP Right Grant
-
2016
- 2016-02-22 JP JP2016031335A patent/JP6186026B2/ja active Active
- 2016-05-02 JP JP2016092745A patent/JP6163229B2/ja active Active
- 2016-05-02 JP JP2016092752A patent/JP6224163B2/ja active Active
- 2016-05-02 JP JP2016092743A patent/JP6224162B2/ja active Active
- 2016-05-02 JP JP2016092749A patent/JP6163230B2/ja active Active
- 2016-07-12 KR KR1020160088203A patent/KR101719344B1/ko active IP Right Grant
- 2016-07-12 KR KR1020160088205A patent/KR101739748B1/ko active IP Right Grant
- 2016-07-12 KR KR1020160088204A patent/KR101719345B1/ko active IP Right Grant
-
2017
- 2017-02-02 KR KR1020170015044A patent/KR101843566B1/ko active IP Right Grant
- 2017-07-28 JP JP2017146933A patent/JP6549189B2/ja active Active
- 2017-09-28 KR KR1020170126210A patent/KR101843565B1/ko active IP Right Grant
-
2018
- 2018-03-23 KR KR1020180034089A patent/KR101904242B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034113A patent/KR101904237B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034128A patent/KR101904264B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034040A patent/KR101904258B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034107A patent/KR101904234B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034120A patent/KR101904247B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034131A patent/KR101931719B1/ko active IP Right Grant
- 2018-03-23 KR KR1020180034057A patent/KR101904255B1/ko active IP Right Grant
- 2018-04-26 JP JP2018085588A patent/JP6556904B2/ja active Active
- 2018-04-26 JP JP2018085608A patent/JP6556905B2/ja active Active
- 2018-04-26 JP JP2018085624A patent/JP6556906B2/ja active Active
- 2018-04-26 JP JP2018085634A patent/JP6556907B2/ja active Active
- 2018-04-26 JP JP2018085564A patent/JP6556903B2/ja active Active
- 2018-04-27 JP JP2018087416A patent/JP6549282B2/ja active Active
- 2018-04-27 JP JP2018087426A patent/JP6549283B2/ja active Active
- 2018-04-27 JP JP2018087408A patent/JP6553246B2/ja active Active
- 2018-04-27 JP JP2018087395A patent/JP6553245B2/ja active Active
-
2019
- 2019-02-25 KR KR1020190021762A patent/KR102062329B1/ko active IP Right Grant
- 2019-06-28 JP JP2019122109A patent/JP6871312B2/ja active Active
- 2019-06-28 JP JP2019122072A patent/JP6841869B2/ja active Active
- 2019-09-24 HR HRP20191726TT patent/HRP20191726T1/hr unknown
- 2019-09-27 CY CY20191101019T patent/CY1122257T1/el unknown
-
2020
- 2020-01-31 US US16/778,313 patent/US10958918B2/en active Active
- 2020-02-07 US US16/784,714 patent/US10958919B2/en active Active
-
2021
- 2021-01-08 US US17/144,409 patent/US11483578B2/en active Active
- 2021-02-12 US US17/174,843 patent/US11490100B2/en active Active
- 2021-02-18 JP JP2021024625A patent/JP7041294B2/ja active Active
- 2021-04-15 JP JP2021069283A patent/JP7123210B2/ja active Active
-
2022
- 2022-03-10 JP JP2022037465A patent/JP7305831B2/ja active Active
- 2022-08-09 JP JP2022127432A patent/JP7367144B2/ja active Active
- 2022-08-09 JP JP2022127436A patent/JP7367145B2/ja active Active
- 2022-08-09 JP JP2022127407A patent/JP7367143B2/ja active Active
- 2022-08-09 JP JP2022127399A patent/JP7367142B2/ja active Active
- 2022-08-09 JP JP2022127390A patent/JP7367141B2/ja active Active
- 2022-08-10 JP JP2022128503A patent/JP7431290B2/ja active Active
- 2022-08-10 JP JP2022128498A patent/JP7432668B2/ja active Active
- 2022-09-22 US US17/950,248 patent/US12028538B2/en active Active
- 2022-09-23 US US17/951,797 patent/US11949890B2/en active Active
-
2023
- 2023-10-17 JP JP2023179054A patent/JP2023179726A/ja active Pending
-
2024
- 2024-01-19 US US18/417,415 patent/US20240155140A1/en active Pending
- 2024-02-02 JP JP2024015010A patent/JP2024050775A/ja active Pending
- 2024-02-27 US US18/588,746 patent/US20240205428A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2748463T3 (es) | Aparato de decodificación de vídeo |