ES2682102T3 - Codificación y descodificación de intra-predicción en un modo plano - Google Patents

Codificación y descodificación de intra-predicción en un modo plano Download PDF

Info

Publication number
ES2682102T3
ES2682102T3 ES15187580.4T ES15187580T ES2682102T3 ES 2682102 T3 ES2682102 T3 ES 2682102T3 ES 15187580 T ES15187580 T ES 15187580T ES 2682102 T3 ES2682102 T3 ES 2682102T3
Authority
ES
Spain
Prior art keywords
prediction
pixel
target
pixels
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15187580.4T
Other languages
English (en)
Inventor
Frank Jan Bossen
Sandeep Kanumuri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2682102T3 publication Critical patent/ES2682102T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Método de codificación de vídeo para predecir valores de píxel de cada píxel objetivo en un bloque objetivo en un modo plano, comprendiendo el método etapas ejecutables por ordenador ejecutadas mediante un procesador de un codificador de vídeo para implementar: calcular un primer valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de píxeles de límite horizontal respectivos, en la misma posición horizontal que los píxeles objetivo respectivos, en la parte exterior superior del bloque objetivo y un valor de píxel de uno de los píxeles de límite vertical en la parte exterior izquierda del bloque objetivo; calcular un segundo valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de los píxeles de límite vertical respectivos, en la misma posición vertical que los píxeles objetivo respectivos, y un valor de píxel de uno de los píxeles de límite horizontal en la parte exterior superior del bloque objetivo; y realizar una operación aritmética entera usando una operación de desplazamiento hacia la derecha para la suma del primer valor de predicción y el segundo valor de predicción de cada píxel objetivo para obtener cada valor de píxel de predicción en un bloque de predicción, en el que la operación aritmética entera usa el operador ">>" que representa la operación de desplazamiento hacia la derecha.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Codificación y descodificación de intra-predicción en un modo plano Solicitudes relacionadas
El presente documento de patente reivindica el beneficio de la fecha de presentación en 35 U.S.C. §119(e) de las solicitudes de patente estadounidenses provisionales n.os 61/425 670, presentada el 21 de diciembre de 2010 y 61/449 528 presentada el 4 de marzo de 2011.
Antecedentes de la invención
1. Campo de la invención
La presente invención se refiere a una codificación de vídeo y en particular a predicción intra-trama mejorada con codificación de modo de predicción plana de baja complejidad.
2. Descripción de la técnica relacionada
El vídeo digital requiere una gran cantidad de datos para representar todas y cada una de las tramas de una secuencia de vídeo digital (por ejemplo, serie de tramas) de una manera sin comprimir. Para la mayoría de las aplicaciones no resulta viable transmitir vídeo digital sin comprimir a través de redes informáticas debido a limitaciones del ancho de banda. Además, el vídeo digital sin comprimir requiere una gran cantidad de espacio de almacenamiento. Normalmente, el vídeo digital se codifica de manera que se reduzcan los requisitos de almacenamiento y se reduzcan los requisitos de ancho de banda.
Una técnica para codificar vídeo digital es la predicción inter-trama, o inter-predicción. La inter-predicción aprovecha redundancias temporales entre diferentes tramas. Las tramas de vídeo temporalmente adyacentes incluyen normalmente bloques de píxeles, que permanecen sustancialmente iguales. Durante el procedimiento de codificación, un vector de movimiento interrelaciona el movimiento de un bloque de píxeles en una trama con un bloque de píxeles similares en otra trama. Por consiguiente, no se requiere que el sistema codifique el bloque de píxeles dos veces, sino que en vez de eso codifica el bloque de píxeles una vez y proporciona un vector de movimiento para predecir el otro bloque de píxeles.
Otra técnica para codificar vídeo digital es la predicción intra-trama o intra-predicción. La intra-predicción codifica una trama o una parte de la misma sin referencia a píxeles en otras tramas. La intra-predicción aprovecha redundancias espaciales entre bloques de píxeles dentro de una trama. Dado que bloques de píxeles espacialmente adyacentes tienen generalmente atributos similares, la eficacia del procedimiento de codificación se mejora haciendo referencia a la correlación espacial entre bloques adyacentes. Esta correlación puede aprovecharse mediante predicción de un bloque objetivo basándose en modos de predicción usados en bloques adyacentes.
Normalmente, un codificador comprende un predictor de píxeles, que comprende un inter-predictor, un intra-predictor y un selector de modo. El inter-predictor realiza la predicción para una imagen recibida, basándose en una trama de referencia de movimiento compensado. El intra-predictor realiza la predicción para la imagen recibida basándose en partes ya procesadas de la imagen o trama actual. El intra-predictor comprende además una pluralidad de modos de intra-predicción diferentes y realiza la predicción en los modos de predicción respectivos. Las salidas del inter- predictor y el intra-predictor se suministran al selector de modo.
El selector de modo determina qué método de codificación va a usarse, la codificación inter-predicción o la codificación intra-predicción, y, cuando va a usarse la codificación intra-predicción, determina qué modo de la codificación intra-predicción va a usarse de entre la pluralidad de modos de intra-predicción. En el proceso de determinación, el selector de modo usa funciones de coste para analizar qué método de codificación o qué modo proporciona el resultado más eficiente con respecto a costes de procesamiento y eficiencia de codificación.
Los modos de intra-predicción comprenden un modo DC y modos direccionales. El modo DC representa adecuadamente un bloque cuyos valores de píxel son constantes a través del bloque. Los modos direccionales son adecuados para representar un bloque que tiene un diseño a rayas en una dirección determinada. Existe otro diseño de imagen en el que la imagen se suaviza y sus valores de píxel cambian gradualmente en un bloque. El modo DC y los modos direccionales no son adecuados para predecir pequeños cambios graduales en el contenido de imagen y pueden crear artefactos de bloqueo molestos especialmente a tasas de bits de bajas a medias. Esto es debido a que cuando se codifican bloques con valores de píxel que cambian gradualmente, los coeficientes de AC de los bloques tienden a cuantificarse a cero, mientras que los coeficientes DC tienen valores no nulos.
Con el fin de hacer frente a este problema, los modos de intra-predicción en la norma H.264/AVC incluyen de manera adicional un modo plano para representar un bloque con una imagen suavizada cuyos valores de píxel cambian gradualmente con un gradiente plano pequeño. En el modo plano de la norma H.264/AVC, se estima y
5
10
15
20
25
30
35
40
45
50
55
60
65
señala un gradiente plano en un flujo de bits a un descodificador.
Sumario de la invención
La presente invención se define mediante las reivindicaciones adjuntas.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que muestra una arquitectura de hardware a modo de ejemplo en la que puede implementarse la presente invención.
La figura 2 es un diagrama de bloques que muestra una vista general de un codificador de vídeo al que puede aplicarse la presente invención.
La figura 3 es un diagrama de bloques que muestra una vista general de un descodificador de vídeo al que puede aplicarse la presente invención.
La figura 4 es un diagrama de bloques que muestra los módulos funcionales de un codificador según una realización de la presente invención.
La figura 5 es un diagrama de flujo que muestra un proceso de codificación realizado por el codificador de vídeo según una realización de la presente invención.
La figura 6 es un diagrama de bloques que muestra los módulos funcionales de un descodificador según una realización de la presente invención.
La figura 7 es un diagrama que muestra un proceso de descodificación realizado por el descodificador de vídeo según una realización de la presente invención.
La figura 8 es una representación esquemática de un bloque objetivo que contiene píxeles de 8x8 P(i, j) y píxeles de referencia usados para predecir los píxeles P(i, j).
La figura 9 es una representación esquemática que muestra el proceso de generación de píxeles de predicción según la codificación de modo plano propuesta en el documento JCT-VC A119.
La figura 10 es una representación esquemática que muestra el proceso de generación de píxeles de predicción según la codificación de modo plano de la presente invención.
La figura 11 es otra representación esquemática que muestra el proceso de generación de píxeles de predicción según la codificación de modo plano de la presente invención.
La figura 12 es un diagrama de flujo que muestra el proceso de conmutación entre un conjunto primario de núcleo de transformación y un conjunto secundario de núcleo de transformación.
Descripción detallada de los dibujos y las realizaciones preferidas en el presente documento
La figura 1 muestra una arquitectura de hardware a modo de ejemplo de un ordenador 100 en el que puede implementarse la presente invención. Obsérvese que la arquitectura de hardware mostrada en la figura 1 puede ser común tanto en un codificador de vídeo como en un descodificador de vídeo que implementan las realizaciones de la presente invención. El ordenador 100 incluye un procesador 101, memoria 102, dispositivo de almacenamiento 105 y uno o más dispositivos 106 de entrada y/o salida (I/O) (o periféricos) que están acoplados en comunicación a través de una interfaz local 107. La interfaz local 107 puede ser, por ejemplo, pero no se limita a, uno o más buses u otras conexiones por cable o inalámbricas, tal como se conoce en la técnica.
El procesador 101 es un dispositivo de hardware para ejecutar software, particularmente el almacenado en la memoria 102. El procesador 101 puede ser cualquier procesador fabricado a medida o comercialmente disponible, una unidad de procesamiento central (CPU), un procesador auxiliar entre varios procesadores asociados con el ordenador 100, un microprocesador basado en semiconductor (en forma de un microchip o conjunto de chips) o generalmente cualquier dispositivo para ejecutar instrucciones de software.
La memoria 102 comprende un medio legible por ordenador que puede incluir cualquiera de o una combinación de elementos de memoria volátil (por ejemplo, memoria de acceso aleatorio (RAM, tal como DRAM, SRAM, SDRAM, etc.)) y elementos de memoria no volátil (por ejemplo, ROM, disco duro, cinta, CD-ROM, etc.). Además, la memoria 102 puede incorporar medios de almacenamiento electrónicos, magnéticos, ópticos y/o de otros tipos. Un medio legible por ordenador puede ser cualquier medio que puede almacenar, comunicar, propagar o transportar el programa para su uso por o en conexión con el sistema, aparato o dispositivo de ejecución de instrucciones.
5
10
15
20
25
30
35
40
45
50
55
60
65
Obsérvese que la memoria 102 puede tener una arquitectura distribuida, en la que diversos componentes están situados alejados unos de otros, pero a los que puede acceder el procesador 101.
El software 103 en la memoria 102 puede incluir uno o más programas separados, cada uno de los cuales contiene una lista ordenada de instrucciones ejecutable para implementar funciones lógicas del ordenador 100, tal como se describe a continuación. En el ejemplo de la figura 1, el software 103 en la memoria 102 define la funcionalidad de codificación de vídeo o descodificación de vídeo del ordenador 100 según la presente invención. Además, aunque no se requiere, es posible que la memoria 102 contenga un sistema operativo 104 (O/S). El sistema operativo 104 controla esencialmente la ejecución de programas informáticos y proporciona planificación, control de entrada-salida, gestión de archivos y datos, gestión de memoria y control de comunicación y servicios relacionados.
El dispositivo de almacenamiento 105 del ordenador 100 puede ser uno de muchos tipos diferentes de dispositivo de almacenamiento, incluyendo un dispositivo de almacenamiento estacionario o dispositivo de almacenamiento portátil. Como ejemplo, el dispositivo de almacenamiento 105 puede ser una cinta magnética, disco, memoria flash, memoria volátil o un dispositivo de almacenamiento diferente. Además, el dispositivo de almacenamiento 105 puede ser una tarjeta de memoria digital segura o cualquier otro dispositivo de almacenamiento 105 extraíble.
Los dispositivos de I/O 106 pueden incluir dispositivos de entrada, por ejemplo, pero sin limitarse a, una pantalla táctil, un teclado, ratón, escáner, micrófono u otro dispositivo de entrada. Además, los dispositivos de I/O 106 también pueden incluir dispositivos de salida, por ejemplo, pero sin limitarse a, una pantalla u otros dispositivos de salida. Los dispositivos de I/O 106 pueden incluir además dispositivos que se comunican a través tanto de entradas como de salidas, por ejemplo, pero sin limitarse a, un modulador/desmodulador (módem; para acceder a otro dispositivo, sistema o red), un transceptor de radiofrecuencia (RF), inalámbrico u otro, una interfaz telefónica, un puente, un enrutador u otros dispositivos que funcionan como entrada y como salida.
Tal como conocen bien los expertos habituales en la técnica, la compresión de vídeo se logra eliminando información redundante en una secuencia de vídeo. Existen muchas normas diferentes de codificación de vídeo, entre los ejemplos de las cuales incluyen MPEG-1, MPEG-2, MPEG-4, H.261, H.263 y H.264/AVC. Debe observarse que la presente invención no pretende limitarse en cuanto a la aplicación de cualquier norma de codificación de vídeo específica. Sin embargo, la siguiente descripción de la presente invención se proporciona usando el ejemplo de la norma H.264/AVC, que se incorpora al presente documento como referencia. H.264/AVC es la norma de codificación de vídeo más reciente y logra una mejora de rendimiento significativa con respecto a las normas de codificación anteriores tales como mPeG-1, MPEG-2, H.261 y H.263.
En H.264/AVC, cada trama o imagen de un vídeo puede descomponerse en varios segmentos. Los segmentos se dividen entonces en bloques de 16X16 píxeles denominados macrobloques, que después pueden dividirse adicionalmente en bloques de 8X16, 16x8, 8X8, 4X8, 8x4, hasta 4X4 píxeles. Hay cinco tipos de segmentos soportados por H.264/AVC. En los segmentos I, todos los macrobloques se codifican usando intra-predicción. En los segmentos P, los macrobloques pueden codificarse usando intra o inter-predicción. Los segmentos P solo permiten usar una señal de predicción compensada por movimiento (MCP) por macrobloque. En los segmentos B, pueden codificarse macrobloques usando intra o inter-predicción. Pueden usarse dos señales de MCP por predicción. Los segmentos SP permiten conmutar segmentos P entre diferentes flujos de vídeo de manera eficaz. Un segmento SI es una coincidencia exacta para un segmento SP para acceso aleatorio o recuperación de error, mientras que solo se usa intra-predicción.
La figura 2 muestra una vista general de un codificador de vídeo al que puede aplicarse la presente invención. Los bloques mostrados en la figura representan módulos funcionales realizados por el procesador 101 que ejecuta el software 103 en la memoria 102. Se alimenta una imagen de trama de vídeo 200 a un codificador de vídeo 201. El codificador de vídeo trata la imagen 200 en unidades de macrobloques 200A. Cada macrobloque contiene varios píxeles de imagen 200. En cada macrobloque se realiza una transformación en coeficientes de transformación seguida por una cuantificación en niveles de coeficientes de transformación. Además, se usa intra-predicción o interpredicción, para no realizar las etapas de codificación directamente en los datos de píxel sino en las diferencias de los mismos con respecto a valores de píxel predichos, logrando así valores pequeños que se comprimen más fácilmente.
Para cada segmento, el codificador 201 genera varios elementos de sintaxis, que forman una versión codificada de los macrobloques del segmento respectivo. Todos los elementos de datos residuales en los elementos de sintaxis, que están relacionados con la codificación de coeficientes de transformación, tales como los niveles de coeficientes de transformación o un mapa de significación que indica niveles de coeficientes de transformación omitidos, se denominan elementos de sintaxis de datos residuales. Además de estos elementos de sintaxis de datos residuales, los elementos de sintaxis generados por el codificador 201 contienen elementos de sintaxis de información de control que contienen información de control sobre cómo se ha codificado cada macrobloque y cómo tiene que descodificarse, respectivamente. En otras palabras, los elementos de sintaxis pueden dividirse en dos categorías. La primera categoría, los elementos de sintaxis de información de control, contiene los elementos relacionados con un tipo de macrobloque, tipo de sub-macrobloque e información sobre modos de predicción de tipos tanto espacial como temporal, así como información de control basada en segmento y basada en macrobloque, por ejemplo. En la
5
10
15
20
25
30
35
40
45
50
55
60
65
segunda categoría, todos los elementos de datos residuales, tales como un mapa de significación que indica las ubicaciones de todos los coeficientes significativos dentro de un bloque de coeficientes de transformación cuantificados y los valores de los coeficientes significativos, que se indican en unidades de niveles correspondientes a las etapas de cuantificación, se combinan y se convierten en elementos de sintaxis de datos residuales.
El codificador 201 comprende un codificador de entropía que codifica elementos de sintaxis y genera contraseñas aritméticas para cada segmento. Cuando se generan las contraseñas aritméticas para un segmento, el codificador de entropía aprovecha dependencias estadísticas entre los valores de datos de elementos de sintaxis en el flujo de bits de la señal de vídeo. El codificador 201 emite una señal de vídeo codificada para un segmento de imagen 200 a un descodificador de vídeo 301 mostrado en la figura 3.
La figura 3 muestra una vista general de un descodificador de vídeo al que puede aplicarse la presente invención. Asimismo, los bloques mostrados en la figura representan módulos funcionales realizados por el procesador 101 que ejecuta el software 103 en la memoria 102. El descodificador de vídeo 301 recibe la señal de vídeo codificada y en primer lugar realiza la descodificación de entropía de la señal de vuelta a los elementos de sintaxis. El descodificador 301 usa los elementos de sintaxis para reconstruir, macrobloque por macrobloque y después segmento por segmento, las muestras 300A de imagen de píxeles en la imagen 300.
La figura 4 muestra los módulos funcionales del codificador de vídeo 201. Estos módulos funcionales se realizan mediante el procesador 101 que ejecuta el software 103 en la memoria 102. Una imagen de vídeo de entrada es una trama o un campo de una imagen de vídeo natural (sin comprimir) definida por puntos de muestra que representan componentes de colores originales, tales como crominancia (“croma”) y luminancia (“luma”) (otras componentes son posibles, por ejemplo, tono, saturación y valor). La imagen de vídeo de entrada se divide en macrobloques 400 que representan cada uno un área de imagen cuadrada que consiste en 16X16 píxeles de la componente luma del color de la imagen. La imagen de vídeo de entrada también se reparte en macrobloques que representan cada uno 8X8 píxeles de cada una de las dos componentes de croma del color de la imagen. En el funcionamiento de codificador general, los macrobloques introducidos pueden predecirse de manera temporal o espacial usando inter o intra- predicción. Sin embargo, con el propósito de discusión, se supone que los macrobloques 400 son todos macrobloques de tipo segmento I y se someten únicamente a intra-predicción.
La intra-predicción se logra en un módulo de intra-predicción 401, cuyo funcionamiento se comentará con detalle a continuación. El módulo de intra-predicción 401 genera un bloque de predicción 402 a partir de píxeles de límite horizontal y vertical de bloques adyacentes, que se han codificado, reconstruido y almacenado anteriormente en una memoria de trama 403. Un residuo 404 del bloque de predicción 402, que es la diferencia entre un bloque objetivo
400 y el bloque de predicción 402, se transforma por un módulo 405 y después se cuantifica usando un cuantificador
406. El módulo de transformación 405 transforma el residuo 404 en un bloque de coeficientes de transformación
407. Entonces se someten los coeficientes de transformación 407 cuantificados a codificación de entropía en un módulo de codificación de entropía 408 y se transmiten (junto con otra información relacionada con la intra- predicción) como una señal de vídeo codificada 409.
El codificador de vídeo 201 contiene funcionalidad de descodificación para realizar la intra-predicción en bloques objetivo. La funcionalidad de descodificación comprende un cuantificador 410 y un módulo de transformación inversa 411 que realiza la cuantificación inversa y la transformación inversa en los coeficientes de transformación 406 cuantificados para producir el residuo de predicción 410 descodificado, que se añade al bloque de predicción 402. La suma del residuo de predicción 410 descodificado y el bloque de predicción 402 es un bloque 413 reconstruido, que se almacena en la memoria de trama 403 y se leerá de la misma y será usado por el módulo de intra-predicción
401 para generar un bloque de predicción 402 para descodificar un siguiente bloque objetivo 400. Un filtro de desbloqueo puede colocarse de manera opcional o bien en la entrada o bien en la salida de la memoria de trama 403 para eliminar los artefactos de bloqueo de las imágenes reconstruidas.
La figura 5 es un diagrama de flujo que muestra procedimientos realizados por el codificador de vídeo 401. Según la norma H.264/AVC, la intra-predicción implica predecir cada píxel del bloque objetivo 400 en una pluralidad de modos de predicción, usando interpolaciones de píxeles de límite (“píxeles de referencia”) de bloques adyacentes anteriormente codificados y reconstruidos. Los modos de predicción se identifican mediante números enteros positivos 0, 1, 2..., cada uno asociado con una instrucción o un algoritmo diferente para predecir píxeles específicos en el bloque objetivo 400. El módulo de intra-predicción 401 ejecuta una intra-predicción en los modos de predicción respectivos y genera diferentes bloques de predicción. En un algoritmo de búsqueda completa (“FS”), cada uno de los bloques de predicción generados se compara con el bloque objetivo 400 para encontrar el modo de predicción óptimo, lo cual minimiza el residuo de predicción 404 o produce un residuo de predicción 404 menor entre los modos de predicción. La identificación del modo de predicción óptimo se comprime y se envía al descodificador 301 con otros elementos de sintaxis de información de control.
Cada modo de predicción puede describirse mediante una dirección general de predicción tal como se describe verbalmente (es decir, horizontal hacia arriba, vertical y diagonal hacia abajo y a la izquierda). Una dirección de predicción puede describirse gráficamente mediante una dirección angular. El ángulo correspondiente a un modo de predicción tiene una relación general con respecto a la dirección desde la ubicación promedio ponderada de los
5
10
15
20
25
30
35
40
45
50
55
píxeles de referencia usados para predecir un píxel objetivo en la ubicación de píxel objetivo. En el modo de predicción DC, el bloque de predicción 402 se genera de tal manera que cada píxel en el bloque de predicción 402 se establece uniformemente al valor medio de los píxeles de referencia.
Volviendo a la figura 5, el módulo de intra-predicción 401 emite el bloque de predicción 402, que se resta del bloque objetivo 400 para obtener el residuo 404 (etapa 503). El módulo de transformación 405 transforma el residuo 404 en un bloque de coeficientes de transformación (etapa 504). El cuantificador 406 cuantifica los coeficientes de transformación en coeficientes de transformación cuantificados. El modo de codificación de entropía 408 realiza la codificación de entropía de los coeficientes de transformación cuantificados (etapa 506), que se envían junto con la identificación comprimida del modo de predicción óptimo. El cuantificador inverso 410 cuantifica de manera inversa los coeficientes de transformación cuantificados (etapa 507). El módulo de transformación inversa 411 realiza la transformación inversa para obtener el residuo de predicción descodificado 412 (etapa 508), que se añade con el bloque de predicción 402 para convertirse en el bloque 413 reconstruido (etapa 509).
La figura 6 muestra los módulos funcionales del descodificador de vídeo 301. Estos módulos funcionales se realizan mediante el procesador 101 ejecutando el software 103 en la memoria 102. La señal de vídeo codificada del codificador 201 es recibida en primer lugar por un descodificador de entropía 600 y se realiza la descodificación de entropía de vuelta a los coeficientes de transformación cuantificados 601. Los coeficientes de transformación cuantificados 601 se cuantifican de manera inversa mediante un cuantificador inverso 602 y se transforman de manera inversa mediante un módulo de transformación inversa 603 para generar un residuo de predicción 604. A un módulo de intra-predicción 605 se le notifica el modo de predicción seleccionado por el codificador 201. Según el modo de predicción seleccionado, el módulo de intra-predicción 605 realiza un proceso de intra-predicción similar al que se realizó en la etapa 503 de la figura 5 para generar un bloque de predicción 606, usando píxeles de límite de bloques adyacentes previamente reconstruidos y almacenados en una memoria de trama 607. El bloque de predicción 606 se añade al residuo de predicción 604 para reconstruir un bloque 608 de señal de vídeo descodificada. El bloque 608 reconstruido se almacena en la memoria de trama 607 para su uso en la predicción de un próximo bloque.
La figura 7 es un diagrama de flujo que muestra los procesos realizados por el descodificador de vídeo 301. El descodificador de vídeo 301 descodifica la identificación del modo de predicción óptimo señalado desde el codificador de vídeo 201 (etapa 701). Usando el modo de predicción descodificado, el módulo de intra-predicción 605 genera el bloque de predicción 606, usando píxeles de límite de bloques adyacentes previamente reconstruidos y almacenados en una memoria de trama 607 (etapa 702). El descodificador aritmético 600 descodifica la señal de vídeo codificada del codificador 201 de vuelta a los coeficientes de transformación cuantificados 601 (etapa 703). El cuantificador inverso 602 cuantifica de manera inversa los coeficientes de transformación cuantificados a los coeficientes de transformación (etapa 704). El módulo de transformación inversa 603 transforma de manera inversa los coeficientes de transformación en el residuo de predicción 604 (etapa 705), que se añade con el bloque de predicción 606 para reconstruir el bloque 608 de señal de vídeo descodificada (etapa 706).
El proceso de codificación realizado por el codificador de vídeo 201 puede explicarse adicionalmente con referencia a la figura 8. La figura 8 es una representación esquemática de un bloque objetivo que contiene píxeles de 8x8 P(i,j) y píxeles de referencia usados para predecir los píxeles P(i,j). En la figura 8, los píxeles de referencia consisten en 17 píxeles horizontales y 17 píxeles verticales, en la que el píxel de la parte superior izquierda es común tanto para límites horizontales como verticales. Por tanto, 32 píxeles diferentes están disponibles para generar píxeles de predicción para el bloque objetivo. Obsérvese que aunque la figura 8 muestra un bloque de 8x8 que va a predecirse, la siguiente explicación se generaliza para convertirse en aplicable para diversos números de píxeles en configuraciones diferentes. Por ejemplo, un bloque que va a predecirse puede comprender una matriz 4x4 de píxeles. Un bloque de predicción también puede comprender una matriz 8 x 8 de píxeles, una matriz 16 x 16 de píxeles, o matrices de píxeles más grandes. Otras configuraciones píxel, incluyendo tanto matrices cuadradas como rectangulares, también pueden constituir un bloque de predicción.
Suponiendo que un bloque de píxeles ({P(i,j) : 1 < i,j < N}) experimente la codificación intra-predicción que usa píxeles de referencia horizontales y verticales (í P(ffi)'()<i< 2N} u {/*((),/): 0 < j < 2N}) Donde P0 (i,j) indica los valores de píxel originales del bloque objetivo, Pp (i,j) indica los valores de píxel predichos, Pr (i,j) indica los valores de residuo, Pq (i,j) indica los valores de residuo comprimidos y Pc (i,j) indica los valores comprimidos para los píxeles P(i,j), las siguientes ecuaciones definen su relación:
PR(i,j) = P0(i,j) - Pp(i,j),\f\ < ij < N
PT(l\ N,\: N) = Qf(H**Pr{ 1:77,1: N)*(HF )T)
PQ(1: N,l: N) = H? *Q,(PT( 1: AM : N)) *(H?f
Pc(pj) = P0(i,j) + Pp(U Í), VI Í U £ N
5
10
15
20
25
30
35
40
45
50
55
F , es una matriz N x N que representa el núcleo de transformación hacia delante. ' es una matriz N x N que representa el núcleo de transformación inversa. Pt (1 : N, 1: N) representa las señales de residuo cuantificadas y transformadas en un flujo de bits. Qf ( ) representa la operación cuantificación y Qi ( ) representa la operación cuantificación inversa.
Los valores de píxel predichos Pp (i,j) se determinan mediante un modo de intra-predicción realizado con los píxeles de referencia {P(i,0):0<i<2N}^ {P(0,j):0< j <2N\. H.264/ AVC soporta predicción Intra_4x4, predicción Intra_8x8 y predicción Intra_16x16. La predicción Intra_4x4 se realiza en nueve modos de predicción, incluyendo un modo de predicción vertical, un modo de predicción horizontal, un modo de predicción DC y seis modos de predicción angular. La predicción Intra_8x8 se realiza en los nueve modos de predicción tal como se realiza en predicción Intra_4x4. La predicción Intra_16x 16 se realiza en cuatro modos de predicción, incluyendo un modo de predicción vertical, un modo de predicción horizontal, un modo de predicción DC y un modo de predicción plana. Por ejemplo, los valores de píxel predichos Pp (i.j) obtenidos en el modo de predicción DC, el modo de predicción vertical y el modo de predicción horizontal están definidos tal como sigue:
Modo de predicción DC:
2>c(*.0) + ¿>c(0,*)
PP O', j) = —-------------------, VI < i, j<N
Modo de predicción vertical:
Pp(í,j) = Pc(0,j),yi<iJ<N
Modo de predicción horizontal:
imagen1
Recientemente, la propuesta n.° JCT-VC A119 se presentó al Joint Collaborative Team on Video Coding (JCT-VC), la cual se incorpora en el presente documento como referencia. La propuesta n.° JCT-VC A119 propone una operación de modo plano de baja complejidad que usa una combinación de operaciones de interpolación lineal y bilineal para predecir valores de píxel que cambian gradualmente con un gradiente plano pequeño. El proceso de modo plano propuesto se muestra esquemáticamente en la figura 9. El proceso comienza con la identificación del valor Pp (N,N) del píxel de la parte inferior derecha en un bloque que va a predecirse. Entonces, se realizan interpolaciones lineales entre el valor Pp (N,N) y el valor de píxel de referencia Pc (n,0) para obtener valores de píxel predichos Pp (N,j) de la fila inferior en el bloque. Del mismo modo, se realizan interpolaciones lineales entre el valor Pp (N,N) y el valor de píxel de referencia Pc (0,N) para obtener valores de píxel predichos Pp (i,N) de la columna más a la derecha en el bloque. Tras esto, se realizan interpolaciones bilineales de entre los valores de píxel predichos Pp (N,j) y Pp (i,N) y los valores de píxel de referencia Pc (i,0) y Pc (0,j) para obtener el resto de los valores de píxel Pp (ij) en el bloque. El proceso de modo plano propuesto puede expresarse mediante las siguientes ecuaciones:
Columna derecha:
- (*-QxW)+/*WV))V1 < < (JV _ 1}
Fila inferior:
PANJ) = (N ~ X Pc(N’0) + '• - ^ , VI < J < (N 1>
' N
Resto de los píxeles:
imagen2
Existen dos problemas a resolver que pueden encontrarse en el proceso de modo plano propuesto en el documento JCT-VC A119. En el proceso propuesto, el valor Pp (N,N) del píxel de la parte inferior derecha está señalado en un flujo de bits al descodificador y usado para descodificar el bloque objetivo en el descodificador. En otras palabras, el descodificador necesita el valor del píxel de la parte inferior derecha para realizar la predicción en el modo plano propuesto. Además, en el proceso propuesto, el residuo no se obtiene en el modo plano y, por tanto, no se señala al descodificador. La omisión de la señalización residual puede contribuir a la reducción de datos de vídeo codificados
5
10
15
20
25
30
35
40
45
50
55
que van a transmitirse, pero limita la aplicación del modo plano a codificación de vídeo de baja tasa de bits.
El modo plano según la presente invención está diseñado para resolver los problemas anteriormente mencionados asociados al proceso de modo plano propuesto en el documento JCT-VC A119. Según una realización de la presente invención, el valor Pp (N,N) del píxel de la parte inferior derecha se obtiene a partir de los píxeles de referencia. Por tanto, no es necesario señalar el valor de píxel Pp (N,N) del píxel de la parte inferior derecha al descodificador. En otra realización de la presente invención, el bloque de predicción formado en el modo plano se usa para obtener un residuo, que se transforma y cuantifica para señalarse al descodificador. La aplicación de transformación de coseno discreta convencional (DCT) y la cuantificación con un parámetro de cuantificación medio o grueso tiende a dar coeficientes de AC nulos y coeficientes de DC no nulos a partir de residuos obtenidos en el modo plano. Para evitar esto, una realización de la presente invención usa un núcleo de transformación secundario, en lugar del núcleo de transformación primario, para transformar un residuo obtenido en el modo plano. Además, otra realización realiza cuantificación adaptativa en el modo plano en la que el parámetro de cuantificación cambia de manera adaptativa según la actividad espacial en el bloque objetivo.
En una realización de la presente invención, el valor Pp (N,N) del píxel de la parte inferior derecha se calcula a partir de los píxeles de referencia. El valor Pp (N,N) se calcula según uno de los tres métodos siguientes:
Método 1:
PF (N, N) = ((Pc (W,0) + Pc(0, N))»1),
en la que el operador “>>” representa una operación de desplazamiento hacia la derecha con o sin redondeo.
Método 2:
PP(N,N) = wh x Pc(iV,0) + w„ x Pc(0, Ar),
en la que wh y wv son pesos determinados, usando Pc (0,1 : N) y Pc (1 : N,0). Por ejemplo, wh y wv se calculan de la siguiente manera:
vaHPc(l:Ar,0))
W ( —
var(Pc (1: JV,0) + var(Pc (0,1: N))
. var(Pc(0,l: N))
vt%, ■—■
var(Pc (1: Nfi) + var(Pc(0,l: N j)
en la que el operador “var( )” representa una operación para calcular una varianza.
Método 3:
Pp (N, N) = ((P/ (Nfi) + P¿ (0, N))»1),
en la que pc «W = /(Pc(0,0),Pc(0,l)v..,Pc(0,2iV)) y
(^>0) /(■/c(0,0),Pc(l,0),..„Pc(2Aí,0)). y f(xll,xl,.,.,x2v) representa una operación aritmética. En una realización
r, \ 2-JCy “i" -fy4|
y — fíx~ " T ■
de la presente invención, la operación aritmética se define como 4 . En
otra realización de la presente invención, la operación aritmética se define simplemente como
y = f(xa,x],...,x2N) = x2x
. Obsérvese que en la presente invención, el valor Pp (N,N) del píxel de la parte inferior derecha no se señala al descodificador. En cambio, el descodificador calcula el valor Pp (N,N) según el método adoptado por el codificador, que puede estar predeterminado, o la identificación del cual puede señalarse al descodificador.
La figura 10 es una vista esquemática que muestra el proceso de predicción de valores de píxel realizado en el modo plano según la realización de la presente invención, en el que está implementado el método 1 anterior. El proceso comienza con calcular el valor Pp (N,N) del píxel de la parte inferior derecha en un bloque usando el método 1. Después de que se calcula el valor Pp (N,N), se realizan interpolaciones lineales entre el valor Pp (N,N) y el valor de píxel de referencia Pc (N,0) para obtener valores de píxel predichos Pp (N,j) de la fila inferior en el bloque. Del mismo modo, se realizan interpolaciones lineales entre el valor Pp (N,N) y el valor de píxel de referencia Pc (0,N) para obtener valores de píxel predichos Pp (i,N) de la columna más a la derecha en el bloque. Tras esto, se realizan interpolaciones bilineales de entre los valores de píxel predichos Pp (N,j) y Pp (i,N) y los valores de píxel de
5
10
15
20
25
30
35
referencia Pe (i,0) y Pe (0,j) para obtener el resto de los valores de píxel Pp (i,j) en el bloque. Tal como se muestra mediante las siguientes ecuaciones y la figura 11, el método 1 puede simplificar la operación de predicción de los valores de píxel Pp (i,j) en un bloque objetivo:
imagen3
en los que
Pr(U) =
(N - j) x PrQ',0) + j x Pc (Q, N) N
y
imagen4
si se necesita exactitud relativa.
Las ecuaciones anteriores requieren divisiones por el valor N para calcular los valores de píxel Pp (i,j) en el bloque. Las operaciones de división pueden evitarse usando una operación aritmética entera tal como sigue:
imagen5
en los que
imagen6
y
imagen7
Si la exactitud entera es suficiente, los valores de píxel Pp (i,j) pueden expresarse mediante
Pp(ij) = ((PrUj)+p;(ij)y»i), vi < i,j< n
En \osquep£V-j) = í(N-J)*pc(W) + jxPc<P.N))» Qog2N)y p;a,j) = «AT - i) X Pc(0J) + i X PC(N,0))» (lofe N)
El método 1 puede modificarse tal como sigue:
PpUJ) = <(Pp(¡J) + VI <ij < N
pkf _ (N-j)xPc(i,Q) + jxP/(0,N) p f >J) pj
p , (N - i) x Pc(Q,j) + i x P¿ (JV.O)
Pcf(0,N) = f(Pc(0fi),Pc(0,l),...>Pc(0,2N))
P/(N,Q) = f(Pcm),Pc(m^Pc(2N,0)),
en el que J J(xo*x¡,...,x2N ^representa una operación aritmética. En una realización de la presente invención, la
Vv-i +2xiV +JfjV^
operación aritmética se define como invención, la operación aritmética se define simplemente como
4 En otra realización de la presente
y = f(xo, *.....x2 x) = x2x
El método 1 puede modificarse tal como sigue:
5
10
15
20
25
30
35
40
45
imagen8
F [l (N - i) x /> .(0, j) + i x P¿(N, j)
pK,J N
P¿ W) = g(/,/>c(0.0),Pc(01l),...,^(0,2^))
P¿(NJ) = gü.PcW).Pcm....Pc(W,0)),
en el que A ) representa una función que puede definirse mediante una de las cuatro ecuaciones
siguientes:
Ecuación 1:
y = g(i,x0,x].....x2N) = x,N
Ecuación 2:
y = g(i,x o.Xi,...^) = xlN+0
Ecuación 3:
y = g(i,x0,xl7...,x2í¡) =
(N - i) x xN + i x x2h N
Ecuación 4:
} g(i,x0,xl,...,x2W) *(*'+/): en |a qUe 'V(jv+iies un va|or futrado de *Vv+0 cuando se aplica un filtro sobre la
r i feU
matriz lAo-A.—AbvJ. En una realización de la presente invención, el filtro puede ser un filtro de tres pasos 4 .
En las realizaciones anteriores, se asume que los píxeles de referencia y horizontales
están todos disponibles
referencia pueden no estar disponibles si el bloque objetivo está ubicado en un límite de segmento o trama. Si los píxeles de referencia verticales i P(ífi) '■ 0 — l — 27V \ no están disponibles para la predicción, pero los píxeles de
referencia horizontales {^(0» j): 0 — J — 2A }están disponibles, la asignación = íc(0,l), VI < ; < 2iVse
realiza para generar los píxeles de referencia verticales para la predicción. Si los píxeles de referencia horizontales
< 2JV}no están disponibles para la predicción pero los píxeles de referencia verticales {P(hj): 0 < j < 2N} están disponibles, la asignación de =í¿(l,0),Vl <i < 2Nse realiza para generar
los píxeles de referencia horizontales para la predicción. Si ni los píxeles de referencia verticales ni los píxeles de referencia horizontales están disponibles para la predicción, la asignación de
í] (./,0) = Pt.(0, /) = í I - 1 A... 1!). v 1 s / s _.Vse realiza para generar tanto píxeles de referencia verticales
como horizontales. En la ecuación, Nb representa la profundidad de bits usada para representar los valores de píxel.
En una realización de la presente invención, tal como los bloques de predicción generados en los otros modos de predicción, un bloque de predicción generado en el modo plano se usa para obtener un residuo : 'v ’1: ^)que se transforma mediante el módulo de transformación 405 y se cuantifica mediante el cuantificador 406. El residuo
transformado y cuantificado (' : A .1: V ) se señaliza en un flujo de bits al descodificador. Además, el residuo transformado y cuantificado ^rO : N,l: N) se transforma y se cuantifica de manera inversa mediante el módulo de
transformación inversa 410 y el cuantificador inverso 411 para convertirse en un residuo comprimido ^ ^ ,
que se almacena en la memoria de trama 403 para su uso en la predicción de bloques objetivo posteriores.
El residuo transformado y cuantificado completo ^rO : 2V,1: N) puede señalarse en un flujo de bits al descodificador.
De manera alternativa, solo una parte del residuo PT(i‘K,l:K) pUede señalarse en un flujo de bits al descodificador. K es más pequeño que N (K < N) y se establece a un valor predeterminado, por ejemplo, 1. El valor
5
10
15
20
25
30
35
40
45
50
55
60
de K puede señalarse en un flujo de bits al descodificador. Si el descodificador recibe solo una parte del residuo descodifica la parte del residuo y establece 0 para la parte restante del residuo. Aunque solo una parte del residuo se señaliza al descodificador, el residuo completo ^5-0:N,l: N)se transforma y cuantifica de
manera inversa para obtener un residuo comprimido : ^,1 : N) con e| fin de predecir bloques objetivo posteriores.
Además, en otra realización de la presente invención, el parámetro de cuantificación se cambia de manera adaptativa para cuantificar un residuo generado en el modo plano. El modo plano se aplica a un bloque con una imagen suavizada cuyos valores de píxel cambian gradualmente con un gradiente plano pequeño. Un residuo a partir de un bloque suavizado de este tipo tiende a cuantificarse a cero con un parámetro de cuantificación medio o grueso. Para garantizar que la cuantificación produce coeficientes no nulos, en la realización de la presente invención, el parámetro de cuantificación se conmuta a un parámetro de cuantificación más fino cuando se cuantifica un residuo generado en el modo plano. El parámetro de cuantificación (QPplano) usado para cuantificar un residuo generado en el modo plano puede definirse con un parámetro de cuantificación de base (QPbase). Qbase puede establecerse a un valor predeterminado que representa un parámetro de cuantificación más fino. Si QPbaseP no es conocido para el descodificador, puede señalarse en un flujo de bits al descodificador, o más específicamente señalarse en el encabezado de segmento o en el parámetro de imagen establecido, tal como se define en el documento H.264/AVC.
En una realización de la presente invención, QPplano se establece simplemente a QPbaseP ( QPplano = QPbaseP ). QPplano puede definirse con una suma de QPbaseP y QPn (QPplano = QPbaseP + QPn), donde QPn se determina, usando una tabla de consulta que indica valores de QPn en relación con valores de N. QPplano puede definirse de manera alternativa como QPplano = QPbaseP + QPdiff (N). QPdiff (N) es una función del valor N y se señaliza en un flujo de bits al descodificador, o más específicamente se señala en el encabezado de segmento o en el parámetro de imagen establecido, tal como se define en el documento H.264/AVC. El descodificador determina QPdiff (N) a partir del flujo de bits para cada uno de los valores N soportados en su esquema de códec de vídeo.
En otra realización de la presente invención, añadiendo un parámetro de cuantificación diferencial (QPdelta), QPbaseP se modifica como QPbaseP = QPbaseP + QPdelta. QPdelta es un parámetro de cuantificación determinado a partir de una actividad espacial en un bloque o grupo de bloques para ajustar QPbaseP de manera adaptativa a la actividad espacial. QPdelta está señalado en un flujo de bits al descodificador. Como QPdelta se determina a partir de una actividad espacial en un bloque, puede volverse nulo dependiendo del contenido de imagen en el bloque y no afecta a QPbaseP para el modo de predicción plana.
Además, en otra realización de la presente invención, QPplano se determina con un parámetro de cuantificación normal QPnormal, que se usa para cuantificar residuos generados en modos de predicción distintos del modo plano. En una realización de este tipo, QPplano se determina según una de las siguientes cinco maneras:
imagen9
1 QP plano. = QP normal
2. QPplano = QPnormal + QPn, donde QPn se determina a partir de una tabla de consulta que indica valores de QPn en relación a valores de N.
3. QPplano = QPnormal + QPdiff (N), donde QPdiff (N) es una función del valor N y se señaliza en un flujo de bits al descodificador.
4. QPplano = QPnormal + QPdelta, donde QPdelta es un parámetro de cuantificación determinado a partir de una actividad espacial en un bloque o grupo de bloques para ajustar de manera adaptativa QPnormal y está señalado en un flujo de bits al descodificador.
5. QPPlano = QP normal + QPN + QP delta
En otra realización de la presente invención, el módulo de transformación 405 y el módulo de transformación inversa
410 usan un conjunto secundario de núcleos de transformación hacia delante e inversa an^ G, ) para |a transformación hacia delante e inversa de un residuo generado en el modo plano, en lugar de usar el conjunto
primario de núcleos de transformación hacia delante e inversa (H¡‘ an(l ). El conjunto primario de núcleos de transformación se usa para transformar residuos generados en modos de predicción distintos del modo plano y adecuados para bloques en los que existe energía de alta frecuencia. Por otra parte, los bloques que van a someterse al modo de predicción plano tienen actividades espaciales bajas en los mismos y necesitan núcleos de transformación adaptados para bloques con imágenes suavizadas. En esta realización, el módulo de transformación 405 y el módulo de transformación inversa 410 se conmutan entre el conjunto primario de núcleos de transformación y el conjunto secundario de núcleos de transformación, tal como se muestra en la figura 12, y usan el conjunto primario de núcleo de transformación al transformar residuos generados en modos de predicción distintos del modo
5
10
15
20
25
30
35
40
45
50
55
plano, mientras que usan el conjunto secundario de núcleo de transformación al transformar residuos generados en el modo de predicción plana. Sin embargo, obsérvese que el conjunto secundario de núcleo de transformación no se limita a transformar residuos generados en el modo de predicción plano y puede usarse para transformar residuos generados en modos de predicción distintos del modo plano.
El conjunto secundario de núcleo de transformación hacia delante ) puede ser una aproximación de punto fijo obtenida a partir de una de las siguientes opciones:
Opción 1 (tipo-7 DST):
©í 0', j) = k, xsen(*2; —1 —^), VI < i, j < N ' ' 2N + 1
Opción 2 (tipo-4 DST):
imagen10
Opción 3 (tipo-2 DCT, conocida normalmente como DCT):
GNFdJ) = kt X < ij < N
Opción 4:
( J-f1N 'i
si los núcleos de transformación de tamaño 2Nx2N \nF > son
soportados por el códec de vídeo. De lo contrario,
imagen11
. Por tanto, en la opción 4, si los tamaños de transformación más pequeño y más grande soportados en un código de vídeo son 4x4 y 32x32, el conjunto secundario de núcleo de transformación para un tamaño 4x4 se obtiene a partir del conjunto primario de núcleo de transformación para un tamaño 8x8. Del mismo modo, el conjunto secundario de núcleo de transformación para un tamaño 8x8 se obtiene a partir del conjunto primario de núcleo de transformación para un tamaño 16x16, y el conjunto secundario de núcleo de transformación para un tamaño 16x 16 se obtiene a partir del conjunto primario de núcleo de transformación para un tamaño 32x32. Sin embargo, debido a la limitación de tamaño en la que el tamaño más grande soportado es 32x32, el conjunto secundario de núcleo de transformación para un tamaño 32x32 se obtiene a partir del conjunto primario de núcleo de transformación para un tamaño 32x32.
imagen12
£(Cf(í,/»2 N
El factor de escala k¡ puede definirse para satisfacer 1 .El factor de escala k¡ puede usarse para
ajustar el parámetro de cuantificación tal como se usa en el documento H.264/AVC. El conjunto secundario de
núcleo de transformación inversa 1 puede obtenerse, usando el núcleo de transformación hacia delante a
J"~'Í N a-'-!' ,V T V KI
partir de ©■ *©■ 1 , donde I representa la matriz de identificación de tamaño NxN.
Si el conjunto primario de núcleo de transformación satisface la propiedad
es preferible el conjunto secundario de núcleo de transformación definido en la opción 4. La opción 4 es ventajosa porque el conjunto secundario de núcleo de transformación no necesita almacenarse de manera independiente al conjunto primario de núcleo de transformación debido a que el conjunto secundario puede obtenerse a partir del conjunto primario. Si el conjunto primario de núcleo
i V i
de transformación para un tamaño 2Nx2N v ? > es una aproximación de tipo-2 DCT, se satisface la propiedad anterior, y el conjunto secundario de núcleo de transformación para un tamaño NxN (©:) puede ser una aproximación de tipo-4 DST. Si el conjunto primario de núcleo de transformación no satisface la propiedad anterior, es preferible el conjunto secundario de núcleo de transformación definido en la opción 1.
El modo de predicción plano puede seleccionarse de una de dos maneras. En la primera manera, un bloque de predicción generado en el modo de predicción plano se evalúa la eficiencia de codificación, junto con los bloques de predicción generados en los otros modos de predicción. Si el bloque de predicción generado en el modo plano muestra la mejor eficiencia de codificación de entre los bloques de predicción, se selecciona el modo plano. Alternativamente, se evalúa solo la eficiencia de codificación del modo plano. El modo de predicción plano es
imagen13
preferible para un área en la que una imagen se suaviza y su gradiente plano es pequeño. Por consiguiente, el contenido de un bloque objetivo se analiza para ver la cantidad de energía de alta frecuencia en el bloque y de las discontinuidades de imagen a lo largo de los bordes del bloque. Si la cantidad de energía de alta frecuencia sobrepasa un umbral, y no se encuentran discontinuidades importantes a lo largo de los bordes del bloque, se 5 selecciona el modo plano. De lo contrario, se evalúan bloques de predicción generados en los otros modos de predicción para seleccionar un modo. En ambos casos, se señala una selección del modo de predicción plano en un flujo de bits al descodificador.
Aunque sin duda se le ocurrirán muchas alteraciones y modificaciones de la presente invención a un experto 10 habitual en la técnica tras haber leído la descripción anterior, debe entenderse que no se pretende de ninguna manera que ninguna realización particular mostrada y descrita a modo de ilustración se considere limitativa. Por tanto, no se pretende que referencias a detalles de diversas realizaciones limiten el alcance de las reivindicaciones, que en sí mismas solo mencionan aquellas características que se consideran esenciales para la invención.
15

Claims (3)

10
15
20
2.
25 3.
30
35
40
4.
45
50 5.
55
60
REIVINDICACIONES
Método de codificación de vídeo para predecir valores de píxel de cada píxel objetivo en un bloque objetivo en un modo plano, comprendiendo el método etapas ejecutables por ordenador ejecutadas mediante un procesador de un codificador de vídeo para implementar:
calcular un primer valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de píxeles de límite horizontal respectivos, en la misma posición horizontal que los píxeles objetivo respectivos, en la parte exterior superior del bloque objetivo y un valor de píxel de uno de los píxeles de límite vertical en la parte exterior izquierda del bloque objetivo;
calcular un segundo valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de los píxeles de límite vertical respectivos, en la misma posición vertical que los píxeles objetivo respectivos, y un valor de píxel de uno de los píxeles de límite horizontal en la parte exterior superior del bloque objetivo; y
realizar una operación aritmética entera usando una operación de desplazamiento hacia la derecha para la suma del primer valor de predicción y el segundo valor de predicción de cada píxel objetivo para obtener cada valor de píxel de predicción en un bloque de predicción, en el que la operación aritmética entera usa el operador “>>” que representa la operación de desplazamiento hacia la derecha.
Método según la reivindicación 1, que comprende además señalar un residuo entre el bloque de predicción y el bloque objetivo.
Método de descodificación de vídeo para predecir valores de píxel de cada píxel objetivo en un bloque objetivo en un modo plano, comprendiendo el método etapas ejecutables por ordenador ejecutadas mediante un procesador de un descodificador de vídeo para implementar:
calcular un primer valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de píxeles de límite horizontal respectivos, en la misma posición horizontal que los píxeles objetivo respectivos, en la parte exterior superior del bloque objetivo y un valor de píxel de uno de los píxeles de límite vertical en la parte exterior izquierda del bloque objetivo;
calcular un segundo valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de los píxeles de límite vertical respectivos, en la misma posición vertical que los píxeles objetivo respectivos, y un valor de píxel de uno de los píxeles de límite horizontal en la parte exterior superior del bloque objetivo; y
realizar una operación aritmética entera usando una operación de desplazamiento hacia la derecha para la suma del primer valor de predicción y el segundo valor de predicción de cada píxel objetivo para obtener cada valor de píxel de predicción en un bloque de predicción, en el que la operación aritmética entera usa el operador “>>” que representa la operación de desplazamiento hacia la derecha.
Método según la reivindicación 3, que comprende además:
descodificar un residuo señalado desde un codificador que se generó en el modo plano en un codificador; y
añadir el residuo descodificado al bloque de predicción para reconstruir datos de imágenes.
Codificador de vídeo que predice valores de píxel de cada píxel objetivo en un bloque objetivo en un modo plano, que comprende un procesador de un sistema informático y una memoria que almacena programas ejecutables por el procesador para:
calcular un primer valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de píxeles de límite horizontal respectivos, en la misma posición horizontal que los píxeles objetivo respectivos, en la parte exterior superior del bloque objetivo y un valor de píxel de uno de los píxeles de límite verticales en la parte exterior izquierda del bloque objetivo;
calcular un segundo valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de los píxeles de límite vertical respectivos, en la misma posición vertical que los píxeles objetivo respectivos, y un valor de píxel de uno de los píxeles de límite horizontal en la parte exterior superior del bloque objetivo; y
realizar una operación aritmética entera usando una operación de desplazamiento hacia la derecha para la suma del primer valor de predicción y el segundo valor de predicción de cada píxel objetivo para obtener
5
10
15
20
25
30
cada valor de píxel de predicción en un bloque de predicción, en el que la operación aritmética entera usa el operador “>>” que representa la operación de desplazamiento hacia la derecha.
Codificador de vídeo según la reivindicación 5, en el que el procesador señala un residuo entre el bloque de predicción y el bloque objetivo.
Descodificador de vídeo que predice valores de píxel de cada píxel objetivo en un bloque objetivo en un modo plano, que comprende un procesador de un sistema informático y una memoria que almacena programas ejecutables por el procesador para:
calcular un primer valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de píxeles de límite horizontal respectivos, en la misma posición horizontal que los píxeles objetivo respectivos, en la parte exterior superior del bloque objetivo y un valor de píxel de uno de los píxeles de límite verticales en la parte exterior izquierda del bloque objetivo;
calcular un segundo valor de predicción de cada píxel objetivo usando interpolación lineal entre valores de píxel de píxeles de límite vertical respectivos, en la misma posición vertical que los píxeles objetivo respectivos, y un valor de píxel de uno de los píxeles de límite horizontal en la parte exterior superior del bloque objetivo; y
realizar una operación aritmética entera usando una operación de desplazamiento hacia la derecha para la suma del primer valor de predicción y el segundo valor de predicción de cada píxel objetivo para obtener cada valor de píxel de predicción en un bloque de predicción, en el que la operación aritmética entera usa el operador “>>” que representa la operación de desplazamiento hacia la derecha.
Descodificador de vídeo según la reivindicación 7, en el que el procesador además:
descodifica un residuo señalado desde un codificador; y
añade el residuo descodificado al bloque de predicción,
ES15187580.4T 2010-12-21 2011-12-21 Codificación y descodificación de intra-predicción en un modo plano Active ES2682102T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201061425670P 2010-12-21 2010-12-21
US201061425670P 2010-12-21
US201161449528P 2011-03-04 2011-03-04
US201161449528P 2011-03-04

Publications (1)

Publication Number Publication Date
ES2682102T3 true ES2682102T3 (es) 2018-09-18

Family

ID=46314437

Family Applications (9)

Application Number Title Priority Date Filing Date
ES15187580.4T Active ES2682102T3 (es) 2010-12-21 2011-12-21 Codificación y descodificación de intra-predicción en un modo plano
ES18167922T Active ES2752723T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES18167909T Active ES2750325T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES18167935T Active ES2770312T3 (es) 2010-12-21 2011-12-21 Codificación intra-predicción mejorada usando representaciones planas
ES11851099.9T Active ES2627907T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES15190603.9T Active ES2681838T3 (es) 2010-12-21 2011-12-21 Codificación y descodificación de intra-predicción en un modo plano
ES18167958T Active ES2773887T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES18167914T Active ES2767966T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción bajo representaciones planas
ES18167918T Active ES2767926T3 (es) 2010-12-21 2011-12-21 Codificación y descodificación de intra-predicción mejoradas usando representaciones planas

Family Applications After (8)

Application Number Title Priority Date Filing Date
ES18167922T Active ES2752723T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES18167909T Active ES2750325T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES18167935T Active ES2770312T3 (es) 2010-12-21 2011-12-21 Codificación intra-predicción mejorada usando representaciones planas
ES11851099.9T Active ES2627907T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES15190603.9T Active ES2681838T3 (es) 2010-12-21 2011-12-21 Codificación y descodificación de intra-predicción en un modo plano
ES18167958T Active ES2773887T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción mejorada usando representaciones planas
ES18167914T Active ES2767966T3 (es) 2010-12-21 2011-12-21 Codificación de intra-predicción bajo representaciones planas
ES18167918T Active ES2767926T3 (es) 2010-12-21 2011-12-21 Codificación y descodificación de intra-predicción mejoradas usando representaciones planas

Country Status (16)

Country Link
US (8) US10863195B2 (es)
EP (9) EP2996334B1 (es)
JP (9) JP5625124B2 (es)
KR (9) KR101839466B1 (es)
CN (8) CN104811713B (es)
AU (1) AU2011349244C1 (es)
BR (1) BR112013016043B1 (es)
CA (8) CA3029042C (es)
ES (9) ES2682102T3 (es)
MX (7) MX351231B (es)
PL (9) PL2993903T3 (es)
PT (9) PT3373579T (es)
RU (9) RU2600536C2 (es)
SG (1) SG191267A1 (es)
TR (2) TR201811262T4 (es)
WO (1) WO2012088211A1 (es)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI3962081T3 (fi) * 2010-05-25 2024-03-25 Lg Electronics Inc Uusi planaarinen ennustustila
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
US9462272B2 (en) * 2010-12-13 2016-10-04 Electronics And Telecommunications Research Institute Intra prediction method and apparatus
WO2012081895A1 (ko) * 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
ES2682102T3 (es) * 2010-12-21 2018-09-18 Ntt Docomo, Inc. Codificación y descodificación de intra-predicción en un modo plano
WO2012115420A2 (ko) * 2011-02-23 2012-08-30 엘지전자 주식회사 필터링을 이용한 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
EP2705668A1 (en) 2011-07-12 2014-03-12 Huawei Technologies Co., Ltd Pixel-based intra prediction for coding in hevc
US10645398B2 (en) 2011-10-25 2020-05-05 Texas Instruments Incorporated Sample-based angular intra-prediction in video coding
WO2014003421A1 (ko) * 2012-06-25 2014-01-03 한양대학교 산학협력단 비디오 부호화 및 복호화를 위한 방법
KR101307257B1 (ko) * 2012-06-28 2013-09-12 숭실대학교산학협력단 영상의 인트라 예측 장치
US9420289B2 (en) 2012-07-09 2016-08-16 Qualcomm Incorporated Most probable mode order extension for difference domain intra prediction
WO2015056941A1 (ko) * 2013-10-14 2015-04-23 한국전자통신연구원 다계층 기반의 영상 부호화/복호화 방법 및 장치
CN105723712B (zh) 2013-10-14 2019-06-28 韩国电子通信研究院 基于多层的图像编码/解码方法和设备
KR20150043226A (ko) * 2013-10-14 2015-04-22 삼성전자주식회사 깊이 인트라 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US10038904B2 (en) * 2013-10-25 2018-07-31 Mediatek Inc. Method and apparatus for controlling transmission of compressed picture according to transmission synchronization events
WO2016200235A1 (ko) * 2015-06-11 2016-12-15 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP3340632B1 (en) * 2015-08-19 2021-08-11 LG Electronics Inc. Method and device for processing video signals
US10904526B2 (en) * 2016-03-28 2021-01-26 Kt Corporation Method and apparatus for processing video signal
US10917660B2 (en) 2017-01-13 2021-02-09 Vid Scale, Inc. Prediction approaches for intra planar coding
WO2018174457A1 (ko) * 2017-03-22 2018-09-27 엘지전자(주) 영상 처리 방법 및 이를 위한 장치
WO2019009749A1 (en) * 2017-07-05 2019-01-10 Huawei Technologies Co., Ltd APPARATUS AND METHOD FOR INTRA DIRECTIONAL PREDICTION USING AN ADJUSTMENT PLAN AND A PLURALITY OF PRIMARY REFERENCE SAMPLES AND A PLURALITY OF SECONDARY REFERENCE SAMPLES
CN115022632A (zh) 2017-10-18 2022-09-06 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
EP4376412A3 (en) * 2017-12-15 2024-07-17 LG Electronics Inc. Image coding method on basis of transformation and device therefor
WO2019155866A1 (ja) 2018-02-06 2019-08-15 日本碍子株式会社 ガスセンサ
EP3759915A1 (en) 2018-03-22 2021-01-06 Huawei Technologies Co., Ltd. Apparatus and method for coding an image
WO2019212230A1 (ko) * 2018-05-03 2019-11-07 엘지전자 주식회사 영상 코딩 시스템에서 블록 사이즈에 따른 변환을 사용하는 영상 디코딩 방법 및 그 장치
US10687081B2 (en) 2018-06-29 2020-06-16 Tencent America LLC Method, apparatus and medium for decoding or encoding
CN112889281B (zh) * 2018-11-26 2022-11-18 华为技术有限公司 对图像中的块进行帧内预测的方法、设备和存储介质
CN112640461A (zh) * 2019-06-25 2021-04-09 Oppo广东移动通信有限公司 映射方法、编码器、解码器以及计算机存储介质
US11485874B2 (en) 2019-06-27 2022-11-01 Prc-Desoto International, Inc. Addition polymer for electrodepositable coating compositions
US11274167B2 (en) * 2019-06-27 2022-03-15 Prc-Desoto International, Inc. Carbamate functional monomers and polymers and use thereof
US11313048B2 (en) 2019-06-27 2022-04-26 Prc-Desoto International, Inc. Addition polymer for electrodepositable coating compositions
EP4315854A1 (en) * 2021-03-31 2024-02-07 Telefonaktiebolaget LM Ericsson (publ) Smooth surface prediction
US12108031B2 (en) 2021-04-16 2024-10-01 Tencent America LLC Harmonized design among multiple reference line intra prediction, transform partitioning and transform kernels

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5631318A (en) 1979-08-22 1981-03-30 Matsushita Electric Works Ltd Leakage breaker
JPH0595538A (ja) 1991-10-02 1993-04-16 Toshiba Corp 画像符号化装置
US6061474A (en) * 1995-06-22 2000-05-09 Canonkabushiki Kaisha Image processing apparatus and method
RU2201654C2 (ru) * 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
US6950469B2 (en) * 2001-09-17 2005-09-27 Nokia Corporation Method for sub-pixel value interpolation
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US20050129130A1 (en) * 2003-12-10 2005-06-16 Microsoft Corporation Color space coding framework
US8422546B2 (en) * 2005-05-25 2013-04-16 Microsoft Corporation Adaptive video encoding using a perceptual model
RU2406254C2 (ru) * 2006-03-29 2010-12-10 Квэлкомм Инкорпорейтед Видеообработка с масштабируемостью
BRPI0621935A2 (pt) * 2006-07-28 2016-09-13 Toshiba Kk Toshiba Corp método e aparelho para codificar e decodificar imagem
TW200808067A (en) 2006-07-31 2008-02-01 Univ Nat Cheng Kung Prediction module
RU2407221C1 (ru) * 2006-10-10 2010-12-20 Ниппон Телеграф Энд Телефон Корпорейшн Способ и устройство управления кодированием с внутренним предсказанием, программа для них и запоминающий носитель, который хранит программу
FR2908007A1 (fr) 2006-10-31 2008-05-02 Thomson Licensing Sas Procede de codage d'une sequence d'images
JP4831372B2 (ja) * 2006-11-24 2011-12-07 日本電気株式会社 符号化および復号装置、符号化および復号方法ならびにプログラム
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
RU2496252C2 (ru) * 2007-06-29 2013-10-20 Шарп Кабусики Кайся Устройство кодирования изображения, способ кодирования изображения, устройство декодирования изображения, способ декодирования изображения, программа и запоминающий носитель
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5187062B2 (ja) * 2008-08-15 2013-04-24 富士通株式会社 動画像符号化装置および動画像符号化方法
EP2173101A3 (en) * 2008-10-06 2010-08-18 LG Electronics Inc. A method and an apparatus for decoding a video signal
KR101647376B1 (ko) * 2009-03-30 2016-08-10 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2010131903A2 (en) * 2009-05-12 2010-11-18 Lg Electronics Inc. Method and apparatus for processing a video signal
US8995776B2 (en) 2010-06-17 2015-03-31 Sharp Kabushiki Kaisha Image filter device, decoding apparatus, encoding apparatus, and data structure
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
ES2682102T3 (es) * 2010-12-21 2018-09-18 Ntt Docomo, Inc. Codificación y descodificación de intra-predicción en un modo plano

Also Published As

Publication number Publication date
JP6242438B2 (ja) 2017-12-06
CN104796714B (zh) 2018-03-27
CA3029043C (en) 2020-06-30
BR112013016043B1 (pt) 2019-10-08
JP2018186581A (ja) 2018-11-22
US10205963B2 (en) 2019-02-12
PT3373582T (pt) 2020-02-14
KR20160085376A (ko) 2016-07-15
JP6397555B2 (ja) 2018-09-26
AU2011349244B2 (en) 2015-05-07
US10841611B2 (en) 2020-11-17
EP2993903A1 (en) 2016-03-09
CA2900863A1 (en) 2012-06-28
CN104811713B (zh) 2018-01-02
JP2020018024A (ja) 2020-01-30
PT3370421T (pt) 2020-02-28
US20190052898A1 (en) 2019-02-14
US10771812B2 (en) 2020-09-08
KR20130128441A (ko) 2013-11-26
EP3373582B1 (en) 2020-01-22
KR101838123B1 (ko) 2018-03-13
KR101838124B1 (ko) 2018-03-13
RU2600536C2 (ru) 2016-10-20
CN103270700A (zh) 2013-08-28
US10897630B2 (en) 2021-01-19
JP2016184970A (ja) 2016-10-20
CN104811713A (zh) 2015-07-29
CA2822391C (en) 2016-08-02
KR101839466B1 (ko) 2018-03-16
JP2020018023A (ja) 2020-01-30
KR20180030244A (ko) 2018-03-21
MX337948B (es) 2016-03-29
MX2019003465A (es) 2022-06-22
US20190075318A1 (en) 2019-03-07
EP3373581A1 (en) 2018-09-12
ES2773887T3 (es) 2020-07-15
AU2011349244A8 (en) 2013-07-04
EP2993903B1 (en) 2018-06-20
US10856008B2 (en) 2020-12-01
EP2656507B1 (en) 2017-05-24
WO2012088211A1 (en) 2012-06-28
JP6953497B2 (ja) 2021-10-27
PT2996334T (pt) 2018-09-28
ES2750325T3 (es) 2020-03-25
PL2993903T3 (pl) 2018-09-28
EP2996334B1 (en) 2018-07-11
RU2694012C1 (ru) 2019-07-08
CN104811714A (zh) 2015-07-29
EP3373579A1 (en) 2018-09-12
JP6851450B2 (ja) 2021-03-31
TR201811262T4 (tr) 2018-08-27
EP3370420B1 (en) 2019-10-02
PL3370420T3 (pl) 2020-03-31
JP6615290B2 (ja) 2019-12-04
KR20180028564A (ko) 2018-03-16
KR20160086972A (ko) 2016-07-20
MX2013007169A (es) 2013-08-01
CA3029042C (en) 2021-06-15
ES2767926T3 (es) 2020-06-19
EP3373580A1 (en) 2018-09-12
BR112013016043A2 (pt) 2018-11-06
PL3373579T3 (pl) 2019-12-31
TR201809780T4 (tr) 2018-07-23
CA3029038C (en) 2020-07-07
CA3029043A1 (en) 2012-06-28
CA3029045A1 (en) 2012-06-28
PT3373581T (pt) 2020-01-27
JP5732582B2 (ja) 2015-06-10
CN104796715A (zh) 2015-07-22
US20190052900A1 (en) 2019-02-14
PT3373580T (pt) 2020-01-21
JP5625124B2 (ja) 2014-11-12
PL3373582T3 (pl) 2020-07-13
ES2767966T3 (es) 2020-06-19
KR101961783B1 (ko) 2019-03-25
KR20180029108A (ko) 2018-03-19
PT3370420T (pt) 2019-10-31
CN104796714A (zh) 2015-07-22
AU2011349244C1 (en) 2016-02-18
RU2696318C1 (ru) 2019-08-01
MX2019003463A (es) 2022-06-22
PL2996334T3 (pl) 2018-11-30
JP5960316B2 (ja) 2016-08-02
CA3029046A1 (en) 2012-06-28
ES2681838T3 (es) 2018-09-17
EP3373580B1 (en) 2019-12-11
KR20190033654A (ko) 2019-03-29
US20190052902A1 (en) 2019-02-14
EP2656507A1 (en) 2013-10-30
CN104796716B (zh) 2017-12-29
CA3029038A1 (en) 2012-06-28
RU2013133861A (ru) 2015-01-27
RU2643504C1 (ru) 2018-02-01
CA3029047A1 (en) 2012-06-28
EP2996334A1 (en) 2016-03-16
CA2900863C (en) 2019-02-26
CN104796715B (zh) 2018-03-27
CN104811715B (zh) 2018-02-23
US10834423B2 (en) 2020-11-10
US10805632B2 (en) 2020-10-13
CN104811702B (zh) 2018-04-20
MX2019003464A (es) 2022-06-22
KR101949720B1 (ko) 2019-02-19
PT2656507T (pt) 2017-06-15
KR101962284B1 (ko) 2019-03-26
RU2015129679A (ru) 2015-11-27
KR101640873B1 (ko) 2016-07-19
JP2015149763A (ja) 2015-08-20
CN103270700B (zh) 2015-05-06
US20190052901A1 (en) 2019-02-14
KR101838122B1 (ko) 2018-03-13
US20190052899A1 (en) 2019-02-14
SG191267A1 (en) 2013-07-31
CA3029046C (en) 2020-07-14
AU2011349244A1 (en) 2013-06-20
EP3370420A1 (en) 2018-09-05
ES2770312T3 (es) 2020-07-01
US20140341281A1 (en) 2014-11-20
MX351231B (es) 2017-10-06
PL3370421T3 (pl) 2020-06-01
EP3370421B1 (en) 2020-01-22
MX363570B (es) 2019-03-27
CA3029047C (en) 2020-07-21
CA3029045C (en) 2021-06-15
PL3373580T3 (pl) 2020-05-18
ES2627907T3 (es) 2017-08-01
KR20160086974A (ko) 2016-07-20
JP2014241643A (ja) 2014-12-25
PL3373581T3 (pl) 2020-05-18
RU2694144C1 (ru) 2019-07-09
RU2562762C2 (ru) 2015-09-10
JP2018019445A (ja) 2018-02-01
CA3029042A1 (en) 2012-06-28
CN104811714B (zh) 2018-06-29
RU2713610C1 (ru) 2020-02-05
RU2694013C1 (ru) 2019-07-08
PT3373579T (pt) 2019-10-25
PT2993903T (pt) 2018-07-25
US20170026661A1 (en) 2017-01-26
RU2673011C1 (ru) 2018-11-21
EP3373582A1 (en) 2018-09-12
CN104811702A (zh) 2015-07-29
CA2822391A1 (en) 2012-06-28
ES2752723T3 (es) 2020-04-06
KR20160085922A (ko) 2016-07-18
PL2656507T3 (pl) 2017-08-31
US10863195B2 (en) 2020-12-08
EP3373581B1 (en) 2019-12-18
EP3370421A1 (en) 2018-09-05
CN104811715A (zh) 2015-07-29
JP2020018022A (ja) 2020-01-30
KR102062568B1 (ko) 2020-01-06
CN104796716A (zh) 2015-07-22
JP2014504107A (ja) 2014-02-13
EP3373579B1 (en) 2019-09-11
EP2656507A4 (en) 2015-07-08

Similar Documents

Publication Publication Date Title
ES2682102T3 (es) Codificación y descodificación de intra-predicción en un modo plano
JP6931690B2 (ja) コンテンツをエンコードする方法及び計算装置
JP6479237B2 (ja) ビデオ符号化のための簡素化されたイントラ予測
CN113424536B (zh) 用于视频编解码的方法和装置
JP6022586B2 (ja) ビデオコーディングのための隣接するビデオユニットの利用可能性の検出
TW200803530A (en) Residual prediction mode in scalable video coding
JP7541599B2 (ja) 復号化方法、復号化デバイス、復号化側機器、電子機器及び不揮発性記憶媒体
AU2019210554B2 (en) Enhanced intra-prediction coding using planar representations
WO2023044917A1 (zh) 帧内预测的方法、编码器、解码器和编解码系统
WO2023044916A1 (zh) 帧内预测的方法、编码器、解码器和编解码系统
WO2023044918A1 (zh) 帧内预测的方法、编码器、解码器和编解码系统
WO2024104503A1 (zh) 图像编解码
AU2015203228B2 (en) Enhanced intra-prediction coding using planar representations