ES2718426T3 - Dispositivo de codificación de imágenes en movimiento, dispositivo de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento - Google Patents
Dispositivo de codificación de imágenes en movimiento, dispositivo de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento Download PDFInfo
- Publication number
- ES2718426T3 ES2718426T3 ES11848087T ES11848087T ES2718426T3 ES 2718426 T3 ES2718426 T3 ES 2718426T3 ES 11848087 T ES11848087 T ES 11848087T ES 11848087 T ES11848087 T ES 11848087T ES 2718426 T3 ES2718426 T3 ES 2718426T3
- Authority
- ES
- Spain
- Prior art keywords
- coding
- prediction
- partition
- intra prediction
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 128
- 238000005192 partition Methods 0.000 claims description 231
- 230000008569 process Effects 0.000 claims description 98
- 230000004927 fusion Effects 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 description 63
- 238000011002 quantification Methods 0.000 description 27
- 238000013139 quantization Methods 0.000 description 18
- 230000002441 reversible effect Effects 0.000 description 18
- 239000013598 vector Substances 0.000 description 17
- 238000012545 processing Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000010187 selection method Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 235000007119 Ananas comosus Nutrition 0.000 description 1
- 244000099147 Ananas comosus Species 0.000 description 1
- 101100126329 Mus musculus Islr2 gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
DESCRIPCIÓN
Dispositivo de codificación de imágenes en movimiento, dispositivo de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento
Campo de la invención
La presente invención se relaciona con un dispositivo de codificación de imágenes en movimiento para y un método de codificación de imágenes en movimiento para codificar una imagen en movimiento con un alto grado de eficiencia, y un dispositivo de decodificación de imágenes en movimiento para y un método de decodificación de imágenes en movimiento para decodificar una imagen en movimiento codificada con un alto grado de eficiencia.
Antecedentes de la invención
Por ejemplo, en un modo de predicción intra para luminancia en un método de codificación AVC/H.264 (ISO/IEC 14496-10|ITU-T H.264) que es un método estándar internacional, un modo de predicción puede ser seleccionado entre una pluralidad de modos de predicción para cada bloque (por ejemplo, refiérase a la referencia 1 de no patente). La Fig. 14 es un dibujo explicativo que muestra modos de predicción en el caso de un tamaño de bloque de 4x4 pixeles para luminancia. En el caso de un tamaño de bloque de 4x4 píxeles para luminancia, nueve modos de predicción intra (un modo 0, un modo 1, ..., y un modo 8) son definidos.
En el ejemplo mostrado en la Fig. 14, cada círculo blanco muestra un píxel en un bloque a ser codificado. Cada círculo negro muestra un píxel que es usado para la predicción, y que existe en un bloque adyacente ya codificado. El modo 2 es en el que una predicción promedio es llevada a cabo de tal forma que cada píxel en el bloque a ser codificado es predicho mediante el uso del promedio de los píxeles adyacentes que existen en los bloques superior e izquierdo. Cada uno de los otros modos que no son el modo 2 son en los que una predicción direccional es llevada a cabo. Particularmente, el modo 0 es en el que una predicción vertical es llevada a cabo de tal forma que los píxeles adyacentes en el bloque superior son replicados de manera repetida para crear filas plurales de píxeles a lo largo de una dirección vertical para generar una imagen de predicción. Por ejemplo, el modo 0 es seleccionado cuando el bloque a ser codificado es un patrón rallado vertical. El modo 1 es en el que una predicción horizontal es llevada a cabo de tal modo que píxeles adyacentes en el bloque de la izquierda son replicados de manera repetida para crear columnas plurales de píxeles a lo largo de una dirección horizontal para generar una imagen de predicción. Además, en cada uno de los modos 3 a 8, los píxeles de interpolación que corren en una dirección predeterminada (esto es, una dirección mostrada por las flechas) son generados mediante el uso de los píxeles adyacentes en el bloque superior o el bloque izquierdo para generar una imagen de predicción.
El tamaño de bloque para luminancia al cual una predicción intra es aplicado puede ser seleccionado desde 4x4 píxeles, 8x8 píxeles, y 16x16 píxeles. En el caso en que el tamaño de bloque para luminancia sea 8x8 píxeles, nueve modos de predicción intra son definidos, como en el caso en que el tamaño de bloque para luminancia es de 4x4 píxeles. En contraste con esto, en el caso en que el tamaño de bloque para luminancia sea 16x16 píxeles, cuatro modos de predicción intra que son llamados predicciones planas son definidos además de un modo de predicción promedio, un modo de predicción vertical, y un modo de predicción horizontal. Un modo de predicción plano es un modo en el cual los píxeles creados al llevar a cabo una interpolación en una dirección diagonal en los píxeles adyacentes en el bloque superior y los píxeles adyacentes en el bloque izquierdo son proporcionados como valores predichos.
Aunque en un modo de predicción direccional en el caso en el cual el tamaño de bloque para luminancia es de 4x4 píxeles u 8x8 píxeles, porque los valores predichos son generados a lo largo de una dirección predeterminada según el modo (por ejemplo, una dirección de 45 grados), la eficiencia de predicción aumenta y la cantidad de código puede ser reducida cuando la dirección de una frontera (borde) de un objeto en el bloque coincide con la dirección mostrada por el modo de predicción, la eficiencia de predicción disminuye cuando la dirección de un borde de un objeto en el bloque no coincide con la dirección mostrada por el modo de predicción. En contraste con esto, porque un aumento en el número de modos de predicción direccionales seleccionables causa un aumento en la probabilidad de que la dirección de un borde coincida con la dirección mostrada por un modo de predicción, puede asumirse que la eficiencia de predicción aumenta.
M. Winken (Fraunhofer HHI) et al describe en el documento “Video coding technology proposal by Fraunhofer HHI”, 1. JCT-VC MEETING; 15-4-2010 - 23-4-2010; DRESDEN; (JOINTCOLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC/JTC1/SC29/WG11 AND ITU-TSG.16); URL: HTTP://WFTP3.ITU.INT/AV-ARCH/JCTVC-SITE/,, (20100416), ISSN 0000-0049, XP030007558 una generalización de conceptos en H.264/AVC.
En el documento “Test Model under Consideration for High-Efficiency Video Coding”, 92. MPEG MEETING; 19-4 2010 -23-4-2010; DRESDEN; (MOTION PICTUREEXPERT GRUOP OR ISO/IEC JTC1/SC29/WG11), (20100728), no. N11280, ISSN 0000-0029, XP030017777 un Modelo de Prueba es descrito que pretende proporcionar una alta eficiencia de codificación y un punto de baja complejidad.
Documento relacionado con la técnica
Referencia de no patente
Referencia de no patente 1: estándares MPEG-4 AVC (ISO/IEC 14496-10)/H.ITU-T 264
Compendio de la invención
Problemas para resolver por la invención
Porque el dispositivo de codificación de imágenes convencional es construido como anteriormente, un aumento en el número de modos de predicción direccionales seleccionables aumenta la probabilidad de que la dirección de un borde coincida con la dirección mostrada por un modo de predicción, y por lo tanto la eficiencia de predicción puede ser mejorada. Un problema es, sin embargo, que porque el número de opciones de imágenes de predicción similar aumenta aun si el número de predicciones direccionales seleccionables es aumentado, una mejora en la eficiencia de codificación está acorde con un aumento en la cantidad de cálculo que es causado por el aumento en el número de predicciones direccionales seleccionables no es proporcionado, y el aumento en el número de predicciones direccionables seleccionables tiene una contribución limitada a mejorar la eficiencia de codificación.
La presente invención está hecha para solucionar el problema mencionado anteriormente, y es por lo tanto un objeto de la presente invención proporcionar un dispositivo de codificación de imágenes en movimiento y un método de codificación de imágenes en movimiento capaz de aumentar el grado de mejora en la eficiencia de codificación que es causado por un aumento en el número de modos de predicción direccional con una pequeña cantidad de cálculo y una pequeña cantidad de código. Es otro objeto de la presente invención proporcionar un dispositivo de decodificación de imágenes en movimiento y un método de decodificación de imágenes en movimiento capaz de decodificar correctamente datos codificados en los cuales una mejora en la eficiencia de codificación es proporcionada para adquirir una imagen en movimiento.
Medios para resolver el problema
La invención es expuesta en las reivindicaciones anexas a este documento.
Breve descripción de los dibujos
La Fig. 1 es un diagrama de bloques que muestra un dispositivo de codificación de imágenes en movimiento según la Realización 1 de la presente invención;
La Fig. 2 es un diagrama de flujo que muestra el procesamiento llevado a cabo por el dispositivo de codificación de imágenes en movimiento según la Realización 1 de la presente invención;
La Fig. 3 es un dibujo explicativo que muestra un estado en el cual cada bloque de codificación que tiene un tamaño máximo es jerárquicamente dividido en una pluralidad de bloques de codificación;
La Fig. 4(a) es un dibujo explicativo que muestra una distribución de particiones en las cuales un bloque a codificar es dividido, y la Fig. 4(b) es un dibujo explicativo que muestra un estado en el cual un modo de codificación m(Bn) es asignado a cada una de las particiones después de que una división de capa jerárquica sea realizada mediante el uso de un gráfico de árbol cuaternario;
La Fig. 5 es un dibujo explicativo que muestra un ejemplo de un parámetro de predicción intra (modo de predicción intra) que puede ser seleccionado para cada partición Pin perteneciente a un bloque de codificación Bn;
La Fig. 6 es un dibujo explicativo que muestra un ejemplo de píxeles que son usados cuando se genera un valor predicho de cada píxel en una partición Pin en el caso de lin = min = 4;
La Fig. 7 es un dibujo explicativo que muestra una relación entre una partición Piny una partición de capa superior P¡n-1; La Fig. 8 es un dibujo explicativo que muestra una partición Pin perteneciente a un bloque de codificación Bn;
La Fig. 9 es un dibujo explicativo que muestra un ejemplo de un parámetro de predicción intra (modo de predicción intra) que puede ser seleccionado para cada partición Pin perteneciente a un bloque de codificación Bn;
La Fig. 10 es un diagrama de bloques que muestra un dispositivo de decodificación de imágenes en movimiento según la Realización 1 de la presente invención;
La Fig. 11 es un diagrama de flujo que muestra el procesamiento llevado a cabo por el dispositivo de decodificación de imágenes en movimiento según la Realización 1 de la presente invención;
La Fig. 12 es un dibujo explicativo que muestra datos codificados de cada partición;
La Fig. 13 es un dibujo explicativo que muestra una partición adyacente; y
La Fig. 14 es un dibujo explicativo que muestra modos de predicción intra en el caso de un tamaño de bloque de 4x4 para luminancia.
Realizaciones de la invención
En adelante, para explicar esta invención en mayor detalle, las realizaciones preferidas de la presente invención serán descritas con referencia a los dibujos que acompañan.
Realización 1.
La Fig. 1 es un diagrama de bloques que muestra un dispositivo de codificación de imágenes en movimiento según la Realización 1 de la presente invención. En referencia a la Fig. 1, una parte 1 de control de codificación lleva a cabo un proceso de determinación de un tamaño máximo de cada uno de los bloques de codificación que es una unidad a ser procesada en un momento cuando un proceso de predicción intra (proceso de predicción intra trama) o un proceso de predicción de movimiento compensado (proceso de predicción inter trama) es llevado a cabo, y también determinar un límite superior del número de capas jerárquicas en una jerarquía en la cual cada uno de los bloques de codificación que tiene el tamaño máximo es dividido jerárquicamente en bloques. La parte 1 de control de codificación también lleva a cabo un proceso de selección de un modo de codificación adecuado para cada uno de los bloques de codificación en los cuales cada bloque de codificación que tiene el tamaño máximo es dividido jerárquicamente a partir de uno o más modos de codificación disponibles (uno o más modos de codificación intra y uno o más modos de codificación inter). La parte 1 de control de codificación además lleva a cabo un proceso de determinación de un parámetro de cuantificación y un tamaño de bloque de transformación que son usados cuando una imagen de diferencia es comprimida para cada bloque de codificación, y también determina un parámetro de predicción intra o un parámetro de predicción inter que es usado cuando un proceso de predicción es llevado a cabo para cada bloque de codificación. El parámetro de cuantificación y el tamaño de bloque de transformación están incluidos en los parámetros de codificación de diferencia de predicción, y estos parámetros de codificación del error de predicción son sacados a una parte 7 de transformación/cuantificación, una parte 8 de cuantificación inversa/transformación inversa, una parte 13 de codificación de longitud variable, etcétera. La parte 1 de control de codificación construye una unidad de control de codificación.
Una parte 2 de división de bloques lleva a cabo un proceso de, cuando recibe una señal de video que muestra una imagen introducida (imagen actual), división de la imagen introducida en bloques de codificación cada uno que tiene el tamaño máximo determinado por la parte 1 de control de codificación, y también de división de cada uno de los bloques de codificación en bloques jerárquicamente hasta que el número de capas jerárquicas alcanza el límite superior en el número de capas jerárquicas que es determinado por la parte 1 de control de codificación. La parte 2 de división de bloques construye una unidad de división de bloques. Un conmutador 3 de selección lleva a cabo un proceso de, cuando el modo de codificación seleccionado por la parte 1 de control de codificación para un bloque de codificación, que es generado a través de la división por la parte 2 de división de bloques, es un modo de codificación intra, sacar el bloque de codificación a una parte 4 de predicción intra, y, cuando el modo de codificación seleccionado por la parte 1 de control de codificación para el bloque de codificación, que es generado a través de la división por la parte 2 de división de bloques, es un modo de codificación inter, saca el bloque de codificación a una parte 5 de predicción de movimiento compensado.
La parte 4 de predicción intra lleva a cabo un proceso de, cuando recibe el bloque de codificación, que es generado a través de la división por la parte 2 de división de bloques, desde el conmutador 3 de selección, llevar a cabo un proceso de predicción intra basado en el parámetro de predicción intra sacado allí desde la parte de control de codificación en el bloque de codificación para generar una imagen de predicción mediante el uso de pixeles ya codificados que están almacenados en una memoria 10 para predicción intra y que son adyacentes al bloque de codificación o pixeles ya codificados que son adyacentes a un bloque de codificación de capa superior al cual el bloque de codificación pertenece. La parte 5 de predicción de movimiento compensado lleva a cabo un proceso de, cuando un modo de codificación inter es seleccionado por la parte 1 de control de codificación como un modo de codificación correspondiente al bloque de codificación, que es generado a través de la división por la parte 2 de división de bloques, realizar un proceso de predicción de movimiento compensado en el bloque de codificación para generar una imagen de predicción mediante el uso de una o más tramas de imágenes de referencia almacenadas en una memoria 12 de tramas de predicción de movimiento compensado en la base del parámetro de predicción inter sacado allí desde la parte 1 de control de codificación. Una unidad de generación de imágenes de predicción está compuesta del conmutador 3 de selección, la parte 4 de predicción intra, y la parte 5 de predicción de movimiento compensado.
Una parte 6 de resta lleva a cabo un proceso de restar la imagen de predicción generada por la parte 4 de predicción intra o la parte 5 de predicción de movimiento compensado desde el bloque de codificación, que es generado a través de la división por la parte 2 de división de bloques, para generar una imagen de diferencia (= bloque de codificación - imagen de predicción). La parte 6 de resta construye una unidad de generación de imágenes de diferencia. La parte 7 de transformación/cuantificación lleva a cabo un proceso de realización de un proceso de transformación ortogonal (por ejemplo, una DCT (transformada de coseno discreta) o un proceso de transformación ortogonal, tal como una transformada de KL, en la cual las bases son designadas para una secuencia de aprendizaje específica por adelantado) en la imagen de diferencia generada por la parte 6 de resta en unidades de un bloque que tiene un tamaño de bloque de transformación incluido en los parámetros de codificación de diferencia
de predicción sacados desde la parte 1 de control de codificación, y también cuantificar los coeficientes de transformación de la imagen de diferencia mediante el uso de un parámetro de cuantificación incluido en los parámetros de codificación de diferencia de predicción para sacar los coeficientes de transformación cuantificados de este modo como datos comprimidos de la imagen de diferencia. La parte 7 de transformación/cuantificación construye una unidad de compresión de imagen.
La parte 8 de cuantificación inversa/transformación inversa lleva a cabo un proceso de cuantificar inversamente los datos comprimidos sacados allí desde la parte 7 de transformación/cuantificación mediante el uso del parámetro de cuantificación incluido en los parámetros de codificación de diferencia de predicción sacados desde la parte 1 de control de codificación, y realizar un proceso de transformación inversa (por ejemplo, una DCT (transformada de coseno discreto inversa) o un proceso de transformación inversa tal como una transformada de KL inversa) en los datos comprimidos cuantificados a la inversa de este modo para sacar los datos comprimidos en los cuales la parte de cuantificación inversa/transformación inversa ha llevado a cabo el proceso de transformación inversa como una señal de diferencia de predicción decodificada local.
Una parte 9 de suma lleva a cabo un proceso de sumar la señal de diferencia de predicción decodificada local sacada allí desde la parte 8 de cuantificación inversa/transformación inversa y la señal de predicción que muestra la imagen de predicción generada por la parte 4 de predicción intra o la parte 5 de predicción de movimiento compensado para generar una señal de imagen decodificada local que muestra una imagen decodificada local. La memoria 10 para la predicción intra es un medio de grabación, tal como una RAM, para almacenar la imagen decodificada local mostrada por la señal de imagen decodificada local generada por la parte 9 de suma como una imagen que la parte 4 de predicción intra usará cuando realice el proceso de predicción intra la próxima vez.
Una parte 11 de filtro de bucle lleva a cabo un proceso de compensación para una distorsión de codificación incluida en la señal de imagen decodificada local generada por la parte 9 de suma, y saca la imagen decodificada local mostrada por la señal de imagen decodificada local en la cual la parte de filtro de bucle ha llevado a cabo la compensación de distorsión de codificación a la memoria 12 de tramas de predicción de movimiento compensado con una imagen de referencia. La memoria 12 de tramas de predicción de movimiento compensado es un medio de grabación, tal como una RAM, para almacenar la imagen decodificada local en la cual la parte 11 de filtro de bucle ha llevado a cabo el proceso de filtrado como una imagen de referencia que la parte 5 de predicción de movimiento compensado usará cuando realice el proceso de predicción de movimiento compensado la próxima vez.
La parte 13 de codificación de longitud variable lleva a cabo un proceso de codificar con longitud variable los datos comprimidos sacados allí desde la parte 7 de transformación/cuantificación, el modo de codificación y los parámetros de codificación de diferencia de predicción que son sacados allí desde la parte 1 de control de codificación, y el parámetro de predicción intra sacado allí desde la parte 4 de predicción intra o el parámetro de predicción inter sacado allí desde la parte 5 de predicción de movimiento compensado para generar un flujo de bits en el cual los datos codificados de los datos comprimidos, datos codificados del modo de codificación, datos codificados de los parámetros de codificación de diferencia de predicción, y datos codificados del parámetro de predicción intra o el parámetro de predicción inter son multiplexados. La parte 13 de codificación de longitud variable construye una unidad de codificación de longitud variable.
En el ejemplo de la Fig. 1, la parte 1 de control de codificación, la parte 2 de división de bloques, el conmutador 3 de selección, la parte 4 de predicción intra, la parte 5 de predicción de movimiento compensado, la parte 6 de resta, la parte 7 de transformación/cuantificación, la parte 8 de cuantificación inversa/transformación inversa, la parte 9 de suma, la parte 11 de filtro de bucle, y la parte 13 de codificación de longitud variable, que son los componentes del dispositivo de codificación de imágenes en movimiento, pueden consistir en piezas de hardware para uso exclusivo (por ejemplo, circuitos integrados en cada uno de los cuales se monta una CPU, un microordenador de chip, o similar), respectivamente. Como una alternativa, el dispositivo de codificación de imágenes en movimiento puede consistir en un ordenador, y parte o todo de un programa en el cual los procesos llevados a cabo por la parte 1 de control de codificación, la parte 2 de división de bloques, el conmutador 3 de selección, la parte 4 de predicción intra, la parte 5 de predicción de movimiento compensado, la parte 6 de resta, la parte 7 de transformación/cuantificación, la parte 8 de cuantificación inversa/transformación inversa, la parte 9 de suma, la parte 11 de filtro de bucle, y la parte 13 de codificación de longitud variable son descritos pueden ser almacenados en una memoria del ordenador y se puede hacer que la CPU del ordenador ejecute el programa almacenado en la memoria. La Fig. 2 es un diagrama de flujo que muestra el procesamiento llevado a cabo por el dispositivo de codificación de imágenes en movimiento según la Realización 1 de la presente invención.
La Fig. 10 es un diagrama de bloques que muestra un dispositivo de decodificación de imágenes en movimiento según la Realización 1 de la presente invención. En referencia a la Fig. 10, una parte 21 de decodificación de longitud variable lleva a cabo un proceso de especificación del tamaño máximo de cada bloque de codificación que es una unidad a ser procesada en un momento en que un proceso de predicción intra o un proceso de predicción de movimiento compensado es llevado a cabo, y el número de capas jerárquicas en la jerarquía en la cual cada uno de los bloques de codificación que tiene el tamaño máximo es dividido de manera jerárquica en bloques para especificar los datos codificados asociados con cada uno de los bloques de codificación que tiene el tamaño máximo y los datos codificados asociados con cada uno de los bloques de codificación en los cuales cada uno de los bloques de codificación que tiene el tamaño máximo es dividido de manera jerárquica a partir de los datos
codificados multiplexados en el flujo de bits, y decodifica con longitud variable los datos codificados asociados con cada uno de los bloques de codificación para adquirir los datos comprimidos, el modo de codificación, los parámetros de codificación de diferencia de predicción, y el parámetro de predicción intra o el parámetro de predicción inter, que están asociados con cada uno de los bloques de codificación, y saca los datos comprimidos y los parámetros de codificación de diferencia de predicción a una parte 25 de cuantificación inversa/transformación inversa, y también saca el modo de codificación, y el parámetro de predicción intra o el parámetro de predicción inter a un conmutador 22 de selección. La parte 21 de decodificación de longitud variable construye una unidad de decodificación de longitud variable.
El conmutador 22 de selección lleva a cabo un proceso de, cuando el modo de codificación asociado con el bloque de codificación, que es sacado desde la parte 21 de decodificación de longitud variable, es un modo de codificación intra, sacar el parámetro de predicción intra sacado allí desde la parte 21 de decodificación de longitud variable a una parte 23 de predicción intra, y, cuando el modo de codificación es un modo de codificación inter, saca el parámetro de predicción inter sacado allí desde la parte 21 de decodificación de longitud variable a una parte 24 de compensación de movimiento.
La parte 23 de predicción intra lleva a cabo un proceso de realización de un proceso de predicción intra trama en el bloque de codificación para generar una imagen de predicción mediante el uso de bien píxeles ya decodificados que son almacenados en una memoria 27 para predicción intra y que son adyacentes al bloque de codificación o bien píxeles ya decodificados que son adyacentes a un bloque de codificación de una capa superior a la cual el bloque de codificación pertenece en la base del parámetro de predicción intra sacado allí desde el conmutador 22 de selección. La parte 24 de compensación de movimiento lleva a cabo un proceso de realización de un proceso de predicción de movimiento compensado en el bloque de codificación para generar una imagen de predicción mediante el uso de una o más tramas de imágenes de referencia almacenadas en una memoria 29 de tramas de predicción de movimiento compensado en la base del parámetro de predicción inter sacado allí desde el conmutador 22 de selección. Una unidad de generación de imágenes de predicción se compone del conmutador 22 de selección, la parte 23 de predicción intra, y la parte 24 de compensación de movimiento.
La parte 25 de cuantificación inversa/transformación inversa lleva a cabo un proceso de cuantificar de manera inversa los datos comprimidos asociados con el bloque de codificación, que son sacados allí desde la parte 21 de decodificación de longitud variable, mediante el uso del parámetro de cuantificación incluido en los parámetros de codificación de diferencia de predicción sacados allí desde la parte 21 de decodificación de longitud variable, y realizar un proceso de transformación inversa (por ejemplo, una DCT (transformada de coseno discreto inversa) o un proceso de transformación inversa tal como una transformada de KL inversa) en los datos comprimidos inversamente cuantificados de este modo en unidades de un bloque que tiene el tamaño de bloque de transformación incluido en los parámetros de codificación de diferencia de predicción, y saca los datos comprimidos en los cuales la parte de cuantificación inversa/transformación inversa ha llevado a cabo el proceso de transformación inversa como una señal de diferencia de predicción de decodificación (señal que muestra una imagen de diferencia comprimida previamente). La parte 26 de cuantificación inversa/transformación inversa construye una unidad de generación de imágenes de diferencia.
Una parte 26 de suma lleva a cabo un proceso de sumar la señal de diferencia de predicción decodificada sacada allí desde la parte 25 de cuantificación inversa/transformación inversa y la señal de predicción que muestra la imagen de predicción generada por la parte 23 de predicción intra o la parte 24 de compensación de movimiento para generar una señal de imagen decodificada que muestra una imagen decodificada. La parte 26 de suma construye una unidad de generación de imágenes decodificadas. La memoria 27 para predicción intra es un medio de grabación, tal como una RAM, para almacenar la imagen decodificada mostrada por la señal de imagen decodificada generara por la parte 26 de suma como una imagen que la parte 23 de predicción intra usará cuando realice el proceso de predicción intra la próxima vez.
Una parte 58 de filtro de bucle lleva a cabo un proceso de compensación para una distorsión de codificación incluida en la señal de imagen decodificada generada por la parte 26 de suma, y saca la imagen decodificada mostrada por la señal de imagen decodificada en la cual la parte de filtro de bucle ha llevado a cabo la compensación de distorsión de codificación a la memoria 29 de tramas de predicción de movimiento compensado como una imagen de referencia y también saca la imagen decodificada para sacar el dispositivo de decodificación de imágenes en movimiento como una imagen reproducida. La memoria 29 de tramas de predicción de movimiento compensado es un medio de grabación, como una RAM, para almacenar la imagen decodificada en la cual la parte 28 de filtro de bucle ha llevado a cabo el proceso de filtrado como una imagen de referencia que la parte 24 de compensación de movimiento usará cuando realice el proceso de predicción de movimiento compensado la próxima vez.
En el ejemplo de la Fig. 10, la parte 21 de decodificación de longitud variable, el conmutador 22 de selección, la parte 23 de predicción intra, la parte 24 de compensación de movimiento, la parte 25 de cuantificación inversa/transformación inversa, la parte 26 de suma, y la parte 28 de filtro de bucle, que son los componentes del dispositivo de decodificación de imágenes en movimiento, pueden consistir en piezas de hardware para uso exclusivo (por ejemplo, circuitos integrados en cada uno de los cuales se monta una CPU, un microordenador de chip, o similar), respectivamente. Como una alternativa, el dispositivo de decodificación de imágenes en movimiento puede consistir en un ordenador, y parte o todo de un programa en el cual los procesos llevados a cabo por la parte
21 de decodificación de longitud variable, el conmutador 22 de selección, la parte 23 de predicción intra, la parte 24 de compensación de movimiento, la parte 25 de cuantificación inversa/transformación inversa, la parte 26 de suma, y la parte 28 de filtro de bucle son descritos pueden ser almacenados en una memoria del ordenador y se puede hacer que la CPU del ordenador ejecute el programa almacenado en la memoria. La Fig. 11 es un diagrama de flujo que muestra el procesamiento llevado a cabo por el dispositivo de decodificación de imágenes en movimiento según la Realización 1 de la presente invención.
El dispositivo de codificación de imágenes en movimiento según esta Realización 1 se caracteriza por que el dispositivo de codificación de imágenes en movimiento se adapta a sí mismo a un cambio local de una señal de video en direcciones de espacio y tiempo para dividir la señal de video en regiones de tamaños varios, y lleva a cabo codificación adaptativa intra trama e inter trama. En general, una señal de video tiene una característica de su complejidad que varia de manera local en el espacio y el tiempo. Puede haber un caso en el cual un patrón que tiene una señal uniforme característica en un área de imagen relativamente grande, tal como una imagen del cielo o una imagen de una pared, o un patrón que tiene un patrón de textura complicado en un área de imagen pequeña, tal como una imagen de una persona o una imagen que incluye una textura fina, también coexistan en una cierta trama de video desde el punto de vista del espacio.
También desde el punto de vista del tiempo, un área de imagen relativamente grande, tal como una imagen del cielo o una imagen de una pared, tiene un cambio local pequeño en una dirección del tiempo en su patrón, mientras que una imagen de una persona u objeto en movimiento tiene un cambio temporal más grande porque su contorno tiene un movimiento de un cuerpo rígido y un movimiento de un cuerpo no rígido con respecto al tiempo. Aunque un proceso de generar una señal de diferencia de predicción que tiene potencia de señal pequeña y entropía pequeña mediante el uso de predicción temporal y espacial, de este modo reduciendo la cantidad de código total, es llevado a cabo en el proceso de codificación, la cantidad de código de parámetros usados para la predicción puede reducirse siempre que los parámetros puedan ser aplicados de manera uniforme a una región de señal de imagen tan grande como sea posible. Por otro lado, porque la cantidad de errores que ocurren en la predicción aumenta cuando el mismo parámetro de predicción es aplicado a un área de imagen grande en un patrón de señal de imagen que tiene un cambio en tiempo y espacio grande, la cantidad de código de la señal de diferencia de predicción no puede reducirse. Por lo tanto, es deseable reducir el tamaño de una región que está sujeta al proceso de predicción cuando se realiza el proceso de predicción en un área de imagen que tiene un cambio grande en el tiempo y el espacio, de este modo reduciendo la potencia eléctrica y entropía de la señal de diferencia de predicción, aunque el volumen de datos del parámetro de predicción que es usado para el proceso de predicción sea aumentado. Para llevar a cabo un proceso de codificación que es adaptado para tal las características típicas de una señal de video, el dispositivo de codificación de imágenes en movimiento según esta Realización 1 adopta una estructura de dividir de manera jerárquica cada región que tiene un tamaño de bloque máximo predeterminado de la señal de video en bloques, y adaptar el proceso de predicción y el proceso de codificación de codificar una diferencia de predicción para cada uno de los bloques en los cuales cada región es dividida.
Una señal de video que ha de ser procesada por el dispositivo de codificación de imágenes en movimiento según esta Realización 1 puede ser una señal de video arbitraria en la cual cada trama de video consiste en una serie de muestras (píxeles) digitales en dos dimensiones, horizontal y vertical, tal como una señal YUV que consiste en una señal de luminancia y dos señales de diferencia de color, una señal de imagen de video en un espacio de color arbitrario, tal como una señal RGB, sacada desde un sensor de imágenes digital, una señal de imagen monocromática, o una señal de imagen en infrarrojos. La graduación de cada píxel puede ser un píxel de 8-bits, 10-bits, o 12-bits. En la explicación a continuación, la señal de video introducida es una señal YUV a menos que se especifique lo contrario. Se asume además que las dos componentes U y V de diferencia de color son señales que tienen un formato 4:2:0 que son submuestreados con respecto a la componente Y de luminancia. Una unidad de datos a ser procesada que se corresponde con cada trama de la señal de video es referida como una “foto”. En esta Realización 1, una “foto” es explicada como una señal de trama de video en la cual se ha llevado a cabo un escaneado progresivo. Cuando la señal de video es una señal entrelazada, una “foto” puede ser una señal de imagen de campo que es una unidad que construye una trama de video.
A continuación, la operación del dispositivo de codificación de imágenes en movimiento y la operación del dispositivo de decodificación de imágenes en movimiento será explicadas.
Primero, el procesamiento llevado a cabo por el dispositivo de codificación de imágenes en movimiento mostrado en la Fig. 1 será explicado. Primero, la parte 1 de control de codificación determina un tamaño máximo de cada uno de los bloques de codificación que es una unidad a ser procesada en un momento cuando un proceso de predicción intra (proceso de predicción intra trama) o un proceso de predicción de movimiento compensado (proceso de predicción inter trama) es llevado a cabo, y también determina un limite superior en el número de capas jerárquicas en una jerarquía en la cual cada uno de los bloques de codificación que tienen el tamaño máximo es dividido de manera jerárquica en bloques (paso ST1 de la Fig. 2).
Como un método de determinación del tamaño máximo de cada uno de los bloques de codificación, por ejemplo, se considera un método de determinación de un tamaño máximo para todas las fotos según la resolución de la imagen introducida. Además puede considerarse un método de cuantificación de una variación en la complejidad de un movimiento local de la imagen introducida como un parámetro y entonces determina un tamaño pequeño para una
foto que tiene una movimiento grande y vigoroso mientras determina un tamaño grande para una imagen que tiene un movimiento pequeño. Como un método para determinar el límite superior en el número de capas jerárquicas, por ejemplo, se puede considerar un método para aumentar la profundidad de la jerarquía, esto es, el número de capas jerárquicas para hacer posible detectar un movimiento más fino al tener la imagen introducida un movimiento más grande y más vigoroso, o disminuir la profundidad de la jerarquía, esto es, el número de capas jerárquicas al tener una imagen introducida un movimiento más pequeño.
La parte 1 de control de codificación también selecciona un modo de codificación correspondiente a cada uno de los bloques de codificación en los cuales cada bloque de codificación que tiene el tamaño máximo es dividido de manera jerárquica desde uno o más modos de codificación disponibles (M modos de codificación intra y N modos de codificación inter) (paso ST2). Los M modos de codificación intra que son preparados por adelantado serán mencionados a continuación. Cuando cada uno de los bloques de codificación en los cuales la imagen introducida es dividida de manera jerárquica por la unidad 2 de división de bloques que será mencionada a continuación es además dividida en particiones, la parte de control de codificación puede seleccionar un modo de codificación correspondiente a cada una de las particiones. En adelante, se hará una explicación en esta Realización 1 mediante la asunción de que cada uno de los bloques de codificación es además dividido en particiones. Aunque una explicación detallada de un método de selección para seleccionar un modo de codificación para usar en la parte 1 de control de codificación será omitido porque el método de selección es una técnica conocida, existe un método para llevar a cabo un proceso de codificación en cada bloque de codificación mediante el uso de un modo de codificación disponible arbitrario para examinar la eficiencia de codificación y seleccionar un modo de codificación que tenga el nivel más alto de eficiencia de codificación de entre una pluralidad de modos de codificación disponibles, por ejemplo.
La parte 1 de control de codificación además determina un parámetro de cuantificación y un tamaño de bloque de transformación que son usados cuando una imagen de diferencia es comprimida para cada partición perteneciente a cada bloque de codificación, y también determina un parámetro de predicción intra o un parámetro de predicción inter que es usado cuando un proceso de predicción es llevado a cabo. La parte 1 de control de codificación saca parámetros de codificación de diferencia de predicción que incluye el parámetro de cuantificación y el tamaño de bloque de transformación a la parte 7 de transformación/cuantificación, la parte 8 de cuantificación inversa/transformación inversa, y la parte 13 de codificación de longitud variable. La parte de control de codificación también saca los parámetros de codificación de diferencia de predicción a la parte 4 de predicción intra según sea necesario.
Cuando recibe la señal de video que muestra la imagen introducida, la parte 2 de división de bloques divide la imagen introducida en bloques de codificación que cada uno tiene el tamaño máximo determinado por la parte 1 de control de codificación, y también divide cada uno de los bloques de codificación en bloques de manera jerárquica hasta que el número de capas jerárquicas alcanza el límite superior en el número de capas jerárquicas que es determinado por la parte 1 de control de codificación. La parte de división de bloques además divide cada uno de los bloques de codificación en particiones (paso ST3). La Fig. 3 es un dibujo explicativo que muestra un estado en el cual cada bloque de codificación que tiene el tamaño máximo es dividido de manera jerárquica en una pluralidad de bloques de codificación. En el ejemplo de la Fig. 3, cada bloque de codificación que tiene el tamaño máximo es un bloque B0 de codificación en la capa jerárquica 0, y su componente de luminancia tiene un tamaño de (L0, M0). Además, en el ejemplo de la Fig. 3, al llevar a cabo la división jerárquica con este bloque B0 de codificación que tiene el tamaño máximo que se establece como un punto de inicio hasta que la profundidad de la jerarquía alcanza una profundidad predeterminada que es establecida por separado según una estructura de árbol cuaternario, los bloques B0 de codificación pueden ser adquiridos.
En la profundidad de n, cada bloque Bn de codificación es un área de imagen que tiene un tamaño de (Ln, Mn). Aunque Ln puede ser el mismo que o diferir de Mn, el caso de Ln=Mn es mostrado en el ejemplo de la Fig. 3. En adelante, el tamaño de cada bloque Bn de codificación está definido como el tamaño de (Ln, Mn) en la componente de luminancia del bloque Bn de codificación.
Porque la parte 2 de división de bloques lleva a cabo una división de árbol cuaternario, (Ln+1, Mn+1)= (Ln/2, Mn/2) siempre se establece. En el caso de una señal de imagen de video de color (formato 4:4:4) en la cual todas las componentes de color tienen el mismo número de muestra, tal como una señal RGB, todos los componentes de color tienen un tamaño (Ln, Mn), mientras que en el caso en que se maneje un formato 4:2:0, un componente de diferencia de color correspondiente tiene un tamaño de bloque de codificación de (Ln/2, Mn/2). En adelante, un modo de codificación seleccionable para cada bloque Bn de codificación en la n-ésima capa jerárquica es expresado como m(Bn).
En el caso de una señal de video de color que consiste en una pluralidad de componentes de color, el modo de codificación m(Bn) puede formarse de tal forma que un modo individual es usado para cada componente de color. En adelante, una explicación será hecha mediante la asunción de que el modo de codificación m(Bn) indica la componente de luminancia de cada bloque de codificación que tiene un formato 4:2:0 en una señal YUV a menos que se especifique lo contrario. El modo de codificación m(Bn) puede ser uno de uno o más modos de codificación intra (generalmente referido como “INTRA”) o uno o más modos de codificación inter (generalmente referido como “ INTER”), y la parte 1 de control de codificación selecciona, como el modo de codificación m(Bn), un modo de codificación con el grado más alto de eficiencia de codificación para cada bloque de codificación m(Bn) de entre todos los modos de codificación disponibles en la foto que está siendo procesada actualmente o un subconjunto de estos modos de codificación, como se mencionó anteriormente.
Cada bloque Bn de codificación es además dividido en una o más unidades de predicción (particiones) por la parte de división de bloques, como se muestra en la Fig. 3. En adelante, cada partición perteneciente a cada bloque Bnde codificación es expresada como Pin (i muestra un número de partición en la n-ésima capa jerárquica). La Fig. 8 es un dibujo explicativo que muestra una partición Pin perteneciente a un bloque Bn de codificación. Cómo la división de cada bloque Bn de codificación en particiones Pin pertenecientes al bloque Bn de codificación es llevada a cabo está incluido como información en el modo de codificación m(Bn). Mientras que el proceso de predicción es llevado a cabo en cada una de las particiones Pin según el modo de codificación m(Bn), un parámetro de predicción individual puede ser seleccionado para cada partición Pin.
La parte 1 de control de codificación produce tal estado de división de bloque como se muestra en, por ejemplo, la Fig. 4 para un bloque de codificación que tiene el tamaño máximo, y entonces determina bloques Bnde codificación. El sombreado mostrado en la Fig. 4(a) muestra una distribución de particiones en las cuales el bloque de codificación que tiene el tamaño máximo es dividido, y la Fig. 4(b) muestra una situación en la cual los modos de codificación m(Bn) son respectivamente asignados a las particiones generadas a través de la división de capas jerárquicas mediante el uso de una gráfica de árbol cuaternario. Cada nodo encerrado por □ mostrado en la Fig. 4(b) es un nodo (bloque Bn de codificación) al cual un modo m(Bn) es asignado.
Cuando la parte 1 de control de codificación selecciona un modo de codificación (m(Bn)eINTRA), el conmutador 3 de selección saca cada partición Pin perteneciente al bloque Bn de codificación que es generado a través de la división mediante la unidad 2 de división de bloques a la parte 4 de predicción intra, donde cuando la parte 1 de control de codificación selecciona un modo de codificación inter (m(Bn)eINTER), el conmutador 3 de selección saca cada partición Pin perteneciente al bloque Bnde codificación a la parte 5 de predicción de movimiento compensado.
Cuando recibe cada partición Pin perteneciente al bloque Bn de codificación desde el conmutador 3 de selección (paso ST4), la parte 4 de predicción intra lleva a cabo un proceso de predicción intra en cada partición Pin para generar una imagen (Pin) de predicción intra en la base del parámetro de predicción intra determinado por la parte 1 de control de codificación (paso ST5), como será descrito de manera más concreta a continuación. En adelante, en esta especificación, Pin denota una partición y (Pin) denota una imagen de predicción de la partición Pin.
Porque el dispositivo de codificación de imágenes en movimiento también necesita generar una imagen (Pin) de predicción intra, que es completamente la misma que la imagen de predicción intra, el parámetro de predicción intra usado para la generación de la imagen (Pin) de predicción intra son multiplexados en el flujo de bits por la parte 13 de codificación de longitud variable. El número de direcciones de predicción intra cada una de las cuales puede ser seleccionada como un parámetro de predicción intra puede configurarse de tal modo que para diferir según el tamaño del bloque objetivo a ser procesado. El número de direcciones de predicción intra seleccionable para una partición de tamaño grande puede ser disminuido porque la eficiencia de la predicción intra disminuye, mientras que el número de direcciones de predicción intra seleccionable para particiones de tamaño pequeño puede ser aumentado. Por ejemplo, 34 direcciones de predicción intra pueden ser proporcionadas para una partición de 4x4 píxeles y una partición de 8x8 píxeles, 17 direcciones de predicción intra pueden ser proporcionadas para una partición de 16x16 píxeles, y 9 direcciones de predicción intra pueden ser proporcionadas para una partición de 32x32 píxeles.
Cuando se recibe cada partición Pin perteneciente al bloque Bn de codificación desde el conmutador 3 de selección (paso ST4), la parte 5 de predicción de movimiento compensado lleva a cabo un proceso de predicción inter en cada partición Pin para generar una imagen (Pin) de predicción inter en la base de un parámetro de predicción inter determinado por la parte 1 de control de codificación (paso ST6). Más específicamente, la parte 5 de predicción de movimiento compensado lleva a cabo un proceso de predicción de movimiento compensado en cada partición Pin para generar una imagen (Pin) de predicción inter mediante el uso de una o más tramas de imágenes de referencia almacenadas en la memoria 12 de tramas de predicción de movimiento compensado en la base del parámetro de predicción inter sacado allí desde la parte 1 de control de codificación. Porque el dispositivo de decodificación de imágenes en movimiento también necesita generar una imagen (Pin) de predicción inter que es completamente la misma que la imagen de predicción inter, el parámetro de predicción inter usado para la generación de la imagen (Pin) de predicción inter son multiplexados en el flujo de bits por la parte 13 de codificación de longitud variable.
Cuando recibe la imagen (Pin) de predicción inter desde la parte 4 de predicción intra o la parte 5 de predicción de movimiento compensado, la parte 6 de resta resta la imagen (Pin) de predicción de la partición Pin perteneciente al bloque Bn de codificación que es generado a través de la división mediante la unidad 2 de división de bloques para generar una señal einde diferencia de predicción que muestra una imagen de diferencia (paso ST7). Cuando la parte 6 de resta genera la señal ein de diferencia de predicción, la parte 7 de transformación/cuantificación lleva a cabo un proceso de transformación (por ejemplo, una DCT (transformada de coseno discreto) o un proceso de transformación ortogonal, tal como una transformada de KL, en cuyo caso son diseñados para una secuencia de aprendizaje por adelantado) en la señal ein de diferencia de predicción en unidades de un bloque que tiene el tamaño de bloque de transformación incluido en los parámetros de codificación de diferencia de predicción sacados allí desde la parte 1 de control de codificación, y también cuantifica los coeficientes de transformación de la señal ein de diferencia de predicción, mediante el uso del parámetro de cuantificación incluido en los parámetros de codificación de diferencia de predicción y saca datos comprimidos de la imagen de diferencia que son los coeficientes de transformación cuantificados de este modo a la parte 8 de cuantificación inversa/transformación inversa y la parte 13
de codificación de longitud variable (paso ST8).
Cuando recibe los datos comprimidos de la imagen de diferencia desde la parte 7 de transformación/cuantificación, la parte 8 de cuantificación inversa/transformación inversa cuantifica inversamente los datos comprimidos de la imagen de diferencia mediante el uso del parámetro de cuantificación incluido en lo parámetros de codificación de diferencia de predicción sacados allí desde la parte 1 de control de codificación, realiza un proceso de transformación inversa (por ejemplo, una DCT inversa (transformada de coseno discreto inversa) o un proceso de transformación inversa, tal como una transformada de KL inversa) en los datos comprimidos cuantificados inversamente de este modo en unidades de un bloque que tiene el tamaño de bloque de transformación incluido en los parámetros de codificación de diferencia de predicción, y saca los datos comprimidos en los cuales la parte de cuantificación inversa/transformación inversa ha llevado a cabo el proceso de transformación inversa de la parte 9 de suma como una señal de diferencia de predicción de decodificada local (paso ST9).
Cuando recibe la señal de diferencia de predicción decodificada local desde la parte 8 de cuantificación inversa/transformación inversa, la parte 9 de suma suma la señal de diferencia de predicción decodificada local y la señal de predicción que muestra la imagen (Pin) de predicción generada por la parte 4 de predicción intra o la parte 5 de predicción de movimiento compensado para generar una señal de imagen decodificada local que muestra una imagen de partición decodificada local o una imagen de bloque de codificación decodificada local (referida como una imagen decodificada local desde aquí en adelante) que es un grupo de imágenes de partición decodificadas locales, y saca la señal de imagen decodificada local a la unidad 11 de filtro de bucle (paso ST10). Además, esta imagen decodificada local es almacenada en la memoria 10 para predicción intra para que pueda ser usada para predicción intra.
Cuando recibe la señal de imagen decodificada local desde la parte 9 de suma, la parte 11 de filtro de bucle compensa una distorsión de codificación incluida en la señal de imagen decodificada local, y almacena la imagen decodificada local mostrada por la señal de imagen decodificada local en la cual la parte de filtro de bucle ha llevado a cabo la compensación de distorsión de codificación en la memoria 12 de tramas de predicción de movimiento compensado como una imagen de referencia (paso ST11). La parte 11 de filtro de bucle puede llevar a cabo el proceso de filtrado para cada bloque de codificación que tiene el tamaño máximo de la señal de imagen decodificada local introducida a él o para cada bloque de codificación de la señal de imagen decodificada local. Como una alternativa, después de que las señales de imagen decodificada local correspondientes a todos los macrobloques de una pantalla son introducidas a él, la parte de filtro de bucle puede llevar a cabo el proceso de filtrado en todos los macrobloques de una pantalla a la vez.
El dispositivo de codificación de imágenes en movimiento lleva a cabo de manera repetida los procesos de los pasos ST4 a ST10 hasta que el dispositivo de codificación de imágenes en movimiento completa el procesamiento en cada partición Pin perteneciente a cada uno de los bloques Bn de codificación en los cuales la imagen introducida es dividida por la parte 2 de división de bloques (paso ST12). La parte 13 de codificación de longitud variable lleva a cabo un proceso de codificar con longitud variable los datos comprimidos sacados allí desde la parte 7 de transformación/cuantificación, el modo de codificación y los parámetros de codificación de diferencia de predicción que son sacados allí desde la parte 1 de control de codificación, y el parámetro de predicción intra sacado allí desde la parte 4 de predicción intra o el parámetro de predicción inter sacado allí desde la parte 5 de predicción de movimiento compensado para generar un flujo de bits en el cual los datos codificados de los datos comprimidos, datos codificados del modo de codificación, datos codificados de los parámetros de codificación de diferencia de predicción, y datos codificados del parámetro de predicción intra o del parámetro de predicción inter son multiplexados (paso ST13).
A continuación, el proceso llevado a cabo por la parte 4 de predicción intra será explicado de manera concreta. La Fig. 5 es un dibujo explicativo que muestra un ejemplo del parámetro de predicción intra (modo de predicción intra) que puede ser seleccionado para cada partición (Pin) perteneciente al bloque Bn de codificación. En el ejemplo de la Fig. 5, los vectores de dirección de predicción correspondientes a los modos de predicción intra son mostrados, y se diseña que un ángulo relativo entre los vectores de dirección de predicción se vuelve pequeño con el aumento en el número de modos de predicción intra seleccionables.
En adelante, un proceso intra para generar una señal de predicción intra de la señal de luminancia de una partición Pin en la base del parámetro de predicción intra (modo de predicción intra) para la señal de luminancia será explicado. Se asume que el tamaño de la partición Pin es linx min píxeles. En la Fig. 6 hay un dibujo explicativo que muestra un ejemplo de píxeles que son usados cuando se genera un valor predicho de cada píxel en la partición Pin en el caso de lin = min =4. Aunque los (2 x lin 1) píxeles en una partición superior ya codificada que es adyacente a la partición Pin y los (2 x min) píxeles en una partición izquierda ya codificada que es adyacente a la partición Pin son definidos como los píxeles usados para la predicción en el ejemplo de la Fig. 6, un número más pequeño de píxeles que los píxeles mostrados en la Fig. 6 pueden ser usados de manera alternativa para predicción. Aunque una fila o columna de píxeles que son adyacentes a la partición Pin son usados para la predicción en el ejemplo de la Fig. 6, dos filas o columnas de píxeles o tres o más filas o columnas de píxeles pueden ser usadas de manera alternativa para la predicción.
Cuando un valor de índice que indica el modo de predicción intra para la partición Pin es 2 (predicción promedio), la parte 4 de predicción intra genera una imagen de predicción mediante el uso del promedio de los píxeles adyacentes
en la partición superior y los píxeles adyacentes en la partición izquierda como el valor predicho de cada píxel en la partición Pin. Cuando el valor del índice que indica el modo de predicción intra es diferente a 2 (predicción promedio), la parte de predicción intra genera el valor de predicción de cada píxel en la partición Pin en la base de un vector vp = (dx, dy) de dirección de predicción mostrado por el valor de índice. Cuando las coordenadas relacionadas en la partición Pin (el píxel izquierdo superior de la partición es definido como el punto de origen) de cada píxel (píxel objetivo de predicción) para cada valor predicho generado son expresadas como (x, y), la posición de un píxel de referencia que es usado para predicción es el punto de intersección donde la siguiente L y una de las líneas de píxeles adyacentes intersectan entre sí.
donde k es un valor escalar positivo.
Cuando un píxel de referencia está ubicado en una posición de píxel entera, el píxel entero es definido como el valor predicho del píxel objetivo para predicción. En contraste, cuando un píxel de referencia no está ubicado en una posición de píxel entero, un píxel de interpolación que es generado a partir de un píxel entero adyacente al píxel de referencia es definido como el valor predicho del píxel objetivo para predicción. En el ejemplo de la Fig. 6, porque el píxel de referencia no es una posición de píxel entera, el promedio de los valores de dos píxeles que son adyacentes al píxel de referencia es determinado como el valor predicho del píxel objetivo para predicción. La parte de predicción intra puede usar no solo los dos píxeles adyacentes sino también dos o más píxeles para generar un píxel de interpolación y determinar el valor de este píxel de interpolación como el valor predicho.
Según el mismo procedimiento, la parte 4 de predicción intra genera píxeles de predicción para todos los píxeles de la señal de luminancia en la partición P¡ny saca una imagen (Pin) de predicción generada de este modo. El parámetro de predicción intra usado para la generación de la imagen (Pin) de predicción intra es sacado a la parte 13 de codificación de longitud variable para multiplexar el parámetro de predicción intra en el flujo de bits, como se mencionó anteriormente. Mientras que la imagen (Pin) de predicción intra para la señal de luminancia en la partición Pin es generada en el modo mencionado anteriormente, una imagen (Pjn-1) es generada para la señal de luminancia en una partición Pjn-1 (j: el número de partición de la partición de capa superior en la (n-1 )-ésima capa jerárquica a la cual la partición Pin pertenece) en una manera similar, como se muestra en la Fig. 7.
En esta realización, como se muestra en la Fig. 6, la parte de predicción intra es construida de tal modo que es capaz de seleccionar una parte correspondiente a la partición Pin , que es extraída desde la imagen (Pjn-1) para la partición Pjn-1 de capa superior, como un candidato para la imagen (Pin) de predicción intra para la señal de luminancia en la partición Pin , además de la que se genera a partir de los píxeles adyacentes de píxeles de referencia adyacentes a la partición Pin. Más específicamente, en un caso en el cual nueve direcciones del modo de predicción intra que incluyen una predicción promedio son proporcionados como los modos de predicción intra, como se muestra en la Fig. 9, nueve modos de predicción son además añadidos cuando una partición de capa superior existe.
Aunque una predicción intra es un medio de predecir un área desconocida en la pantalla a partir de un área conocida, la eficiencia de predicción puede mejorarse mediante la selección de una candidata para la imagen de predicción intra a partir de imágenes de predicción que tienen propiedades diferentes porque la señal de imagen tiene un gran cambio local en una dirección del espacio. Por lo tanto, en el caso en el que la parte de predicción intra es construida como anteriormente de tal forma que el número de direcciones en los modos de predicción intra es reducido, el grado de similitud entere imágenes de predicción generadas es reducido al compararlo con el caso en el que el número de modos de predicción intra es simplemente aumentado, y por lo tanto una candidata para la imagen de predicción intra puede ser seleccionada a partir de imágenes de predicción que tienen muchas variaciones. Por lo tanto, un aumento en el número de direcciones en los modos de predicción intra puede aumentar el grado de mejora en la eficiencia de codificación al compararlo con un aumento en el número de modos de predicción intra. Además, porque una imagen de predicción para una partición de capa inferior puede ser generada mediante la extracción de una parte de una imagen de predicción para una partición de capa superior mediante el uso del método según la presente invención, un aumento en el número de direcciones de predicción proporciona una ventaja de ser capaz de reducir la cantidad de cálculo al compararlo con el caso de un aumento en el número de modos de predicción.
La parte de predicción intra también lleva a cabo un proceso de predicción intra basado en el parámetro de predicción intra (modo de predicción intra) en cada una de las señales de diferencia de color de la partición Pin según el mismo procedimiento que el que según el cual la parte de predicción intra lleva a cabo el proceso de predicción intra en la señal de luminancia, y saca el parámetro de predicción intra usado para la generación de la imagen de predicción intra a la parte 13 de codificación de longitud variable.
La parte 13 de codificación de longitud variable codifica con longitud variable el parámetro de predicción intra sacado allí desde la parte 4 de predicción intra y multiplexa la palabra de código del parámetro de predicción intra en el flujo de bits, como se mencionó anteriormente. Cuando se codifica el parámetro de predicción intra, la unidad 13 de codificación de longitud variable puede seleccionar un vector de dirección de predicción representativo (vector
representativo de dirección de predicción) de entre los vectores de dirección de predicción de una pluralidad de predicciones direccionales, expresar el parámetro de predicción intra mediante el uso de un índice que indica el vector representativo de dirección de predicción (índice representativo de dirección de predicción) y un índice que indica la diferencia entre el vector de dirección de predicción y el vector representativo de dirección de predicción (índice diferencial de dirección de predicción), y lleva a cabo codificación Huffman, tal como codificación aritmética según un modelo de probabilidad, para cada uno de los índices, de este modo siendo capaz de reducir la cantidad de código.
A continuación, el procesamiento llevado a cabo por el dispositivo de codificación de imágenes en movimiento mostrado en la Fig. 10 será explicado. Cuando recibe el flujo de bits generado por el dispositivo de codificación de imágenes en movimiento mostrado en la Fig. 1, la parte 21 de decodificación de longitud variable lleva a cabo un proceso de decodificación de longitud variable en el flujo de bits para decodificar un tamaño de trama en unidades de una secuencia que consiste en una o más tramas de fotos o en unidades de una foto (paso ST21 de la Fig. 11). Después de decodificar el tamaño de trama, la parte 21 de decodificación de longitud variable determina el tamaño de bloque de codificación máximo determinado por el dispositivo de codificación de imágenes en movimiento mostrado en la Fig. 1 (el tamaño máximo de cada uno de los bloques de codificación que es una unidad a ser procesada en un momento cuando un proceso de predicción intra o un proceso de predicción de movimiento compensado es llevado a cabo), y el límite superior en el número de la jerarquía (el número de capas jerárquicas en la jerarquía en la cual cada bloque de codificación que tiene el tamaño máximo es dividido de manera jerárquica en bloques) según el mismo procedimiento que el que usa el dispositivo de codificación de imágenes en movimiento (paso ST22).
Por ejemplo, cuando el tamaño máximo de cada uno de los bloques de codificación es determinado para todas las fotos según la resolución de la imagen introducida en el dispositivo de codificación de imágenes en movimiento, la parte de decodificación de longitud variable determina el tamaño máximo de cada uno de los bloques de codificación en la base del tamaño de trama que la parte de decodificación de longitud variable ha decodificado previamente según el mismo procedimiento que el dispositivo de codificación de imágenes en movimiento mostrado en la Fig. 1 usa. Cuando tanto el tamaño máximo de cada uno de los bloques de codificación como el número de capas jerárquicas de los bloques de codificación son mutiplexados en el flujo de bits por el dispositivo de codificación de imágenes en movimiento, la parte de decodificación de longitud variable decodifica el flujo de bits para adquirir tanto el tamaño máximo de cada uno de los bloques de codificación como el número de capas jerárquicas de los bloques de codificación.
Después de determinar tanto el tamaño máximo de cada uno de los bloques de codificación como el número de capas jerárquicas de los bloques de codificación, la parte 21 de decodificación de longitud variable especifica los datos codificados asociados con cada bloque de codificación a partir de los datos codificados multiplexados en el flujo de bits mediante la toma del estado de la división jerárquica de la imagen introducida en los bloques de codificación con cada bloque de codificación que tiene el tamaño máximo siendo establecido como un punto de inicio, y decodifica los datos codificados para adquirir el modo de codificación asignado a cada uno de los bloques de codificación. La parte 21 de decodificación de longitud variable entonces se refiere a la información de división sobre la división en particiones Pin pertenecientes al bloque Bn de codificación incluido en el modo de codificación para especificar los datos codificados asociados con cada una de las particiones Pin a partir de los datos codificados multiplexados en el flujo de bits (paso ST23). La parte 21 de decodificación de longitud variable decodifica con longitud variable los datos codificados asociados con cada una de las particiones Pin para adquirir los datos comprimidos, los parámetros de codificación de diferencia de predicción, y el parámetro de predicción intra o el parámetro de predicción inter, y saca los datos comprimidos y los parámetros de codificación de diferencia de predicción a la parte 25 de cuantificación inversa/transformación inversa y también saca el modo de codificación y el parámetro de predicción intra o el parámetro de predicción inter al conmutador 22 de selección (paso ST24).
Por ejemplo, cuando el índice representativo de dirección de predicción y el índice diferencia de dirección de predicción son multiplexados en el flujo de bits, la parte de decodificación de longitud variable decodifica de entropía el índice representativo de dirección de predicción y el índice diferencial de dirección de predicción mediante el uso de, por ejemplo, métodos de decodificación aritmética según sus modelos de probabilidad respectivos, respectivamente, para especificar el parámetro de predicción intra entre el índice representativo de dirección de predicción y el índice diferencial de dirección de predicción. Como resultado, aun cuando la cantidad de código del parámetro de predicción intra es reducida en el dispositivo de codificación de imagen en movimiento, el dispositivo de decodificación de imágenes en movimiento puede decodificar el parámetro de predicción intra de manera correcta.
Cuando el modo de codificación de cada partición Pin perteneciente al bloque Bn de codificación sacado allí desde la parte 21 de decodificación de longitud variable es un modo de codificación intra, el conmutador 22 de selección saca el parámetro de predicción intra sacado allí desde la parte 21 de decodificación de longitud variable a la parte 23 de predicción intra, mientras que cuando el modo de codificación es un modo de codificación inter, el conmutador de selección saca el parámetro de predicción inter sacado allí desde la parte 21 de decodificación de longitud variable a la parte 24 de compensación de movimiento.
Cuando recibe el parámetro de predicción intra desde el conmutador 22 de selección (paso ST25), la parte 23 de predicción intra lleva a cabo un proceso de predicción en cada partición Pin para generar una imagen (Pin) de
predicción intra en la base del parámetro de predicción intra (paso ST26), como la parte 4 de predicción intra mostrada en la Fig. 1. Más específicamente, la parte 23 de predicción intra lleva a cabo un proceso de predicción intra trama en cada partición Pin para generar una imagen (Pin) de predicción mediante el uso de píxeles ya decodificados que son almacenados en la memoria 27 para predicción intra y que son adyacentes a la partición Pin o a los píxeles ya decodificados que son adyacentes a una partición Pjn-1 de capa superior a la cual la partición Pin pertenece en la base del parámetro de predicción intra.
Cuando recibe el parámetro de predicción inter desde el conmutador 22 de selección (paso ST25), la parte 24 de compensación de movimiento lleva a cabo un proceso de predicción inter en cada partición Pin para generar una imagen (Pin) de predicción inter en la base del parámetro de predicción inter, como la parte 5 de predicción de movimiento compensado mostrada en la Fig. 1 (paso ST27). Más específicamente, la parte 24 de compensación de movimiento lleva a cabo un proceso de predicción de movimiento compensado en cada partición Pin para generar una imagen (Pin) de predicción inter mediante el uso de una o más tramas de imágenes de referencia almacenadas en la memoria 29 de tramas de predicción de movimiento compensado en la base del parámetro de predicción inter.
Cuando recibe los parámetros de codificación de diferencia de predicción desde la parte 21 de decodificación de longitud variable, la parte 25 de cuantificación inversa/transformación inversa cuantifica a la inversa los datos comprimidos asociados con el bloque de codificación, que son sacados allí desde la parte 21 de decodificación de longitud variable, mediante el uso del parámetro de cuantificación incluido en los parámetros de codificación de diferencia de predicción, y lleva a cabo un proceso de transformación inversa (por ejemplo, una DCT (transformada de coseno discreta inversa) inversa o un proceso de transformación inverso tal como una transformada de KL inversa) en los datos comprimidos cuantificados a la inversa de este modo en unidades de un bloque que tiene el tamaño de bloque de transformación incluido en los parámetros de codificación de diferencia de predicción, y saca los datos comprimidos en los cuales la parte de cuantificación inversa/transformación inversa ha llevado a cabo el proceso de transformación inversa a la parte 26 de suma como una señal de diferencia de predicción decodificada (señal que muestra una imagen de diferencia comprimida previamente) (paso ST28).
La parte 26 de suma genera una señal de imagen decodificada que muestra una imagen de partición decodificada o una imagen decodificada que es un grupo de imágenes de partición decodificadas mediante la suma de la señal de diferencia de predicción decodificada y la señal de predicción que muestra la imagen (Pin) de predicción generada por la parte 23 de predicción intra o la parte 24 de predicción de movimiento compensado, y saca la señal de imagen decodificada a la parte 28 de filtro de bucle (paso ST29). Además, esta imagen decodificada es almacenada en la memoria 27 para predicción intra para que la imagen decodificada puede ser usada para predicción intra.
Cuando recibe la señal de imagen decodificada desde la parte 26 de suma, la parte 28 de filtro de bucle compensa para una distorsión de codificación incluida en la señal de imagen decodificada, y almacena la imagen decodificada mostrada por la señal de imagen decodificada en la cual la parte de filtro de bucle ha llevado a cabo la compensación de distorsión de codificación en la memoria 29 de tramas de predicción de movimiento compensado como una imagen de referencia y también saca la imagen decodificada como una imagen reproducida (paso ST30). La parte 28 de filtro de bucle puede llevar a cabo el proceso de filtrado para cada bloque de codificación que tiene el tamaño máximo de la señal de imagen decodificada introducida allí o cada bloque de codificación de la señal de imagen decodificada. Como una alternativa, después de las señales de imágenes decodificadas correspondientes a todos los macrobloques de una pantalla son introducidas, la parte de filtro de bucle puede llevar a cabo el proceso de filtrado en todos los macrobloques de la pantalla a la vez. Los procesos de los pasos ST23 a ST29 son llevados a cabo de manera repetida hasta que el procesamiento en cada partición Pin perteneciente a cada uno de los bloques Bnde codificación es completado (paso ST31).
Como se puede ver a partir de la descripción anterior, porque la parte 4 de predicción intra del dispositivo de codificación de imágenes en movimiento según esta Realización 1 está construida de tal modo que, cuando el modo de codificación seleccionado por la unidad 1 de control de codificación es un modo de predicción intra, lleva a cabo un proceso de predicción de intra trama mediante el uso de píxeles adyacentes a una partición Pin que es generada a través de la división mediante la unidad 2 de división de bloques o píxeles adyacentes a una partición Pjn-1 de capa superior a la cual la partición Pin pertenece para generar una imagen (Pin) de predicción, se proporciona una ventaja de ser capaz de aumentar el grado de mejora de la eficiencia de codificación con una cantidad pequeña de cálculo.
Además, porque la parte 23 de predicción intra del dispositivo de decodificación de imágenes en movimiento según esta Realización 1 está construida de tal forma que, cuando el modo de codificación decodificado con longitud variable por la parte 21 de decodificación de longitud variable es un modo de predicción intra, lleva a cabo un proceso de predicción intra trama mediante el uso de pixeles ya decodificados que son almacenados en la memoria 27 para predicción intra y que son adyacentes a una partición Pin o píxeles ya decodificados adyacentes a una partición Pjn-1 de capa superior a la cual la partición Pin pertenece para generar una imagen (Pin) de predicción, se proporciona una ventaja de ser capaz de decodificar de manera correcta los datos codificados en los cuales una mejora en la eficiencia de codificación es proporcionada para adquirir la imagen en movimiento.
Realización 2
Aunque el ejemplo en el cual la parte 13 de codificación de longitud variable del dispositivo de codificación de imágenes en movimiento codifica con longitud variable el parámetro de predicción intra para una partición a ser codificada es mostrada en la Realización 1 mostrada anteriormente, la parte de codificación de longitud variable puede codificar con longitud variable una bandera de fusión intra que indica si el parámetro de predicción intra para la partición a ser codificado es idéntico a aquel para una partición adyacente a la partición o no, y puede también codificar con longitud variable una dirección de fusión intra para especificar la partición adyacente cuando el parámetro de predicción intra para la partición a ser codificada es idéntico a aquel para la partición adyacente, de otro modo codifica con longitud variable el parámetro de predicción intra para la partición a ser codificada.
Además, aunque el ejemplo en el cual la parte 21 de decodificación de longitud variable del dispositivo de decodificación de imágenes en movimiento decodifica con longitud variable los datos codificados asociados con una partición a ser decodificada para adquirir el parámetro de predicción intra para la partición es mostrado en la Realización 1 mencionada anteriormente, la parte de decodificación de longitud variable puede decodificar con longitud variable los datos codificados asociados con la partición a ser decodificada para adquirir la bandera de fusión intra que indica si el parámetro de predicción intra para la partición a ser decodificada es idéntico a aquel para una partición adyacente a la partición o no, y puede también decodificar con longitud variable los datos codificados para adquirir la dirección de fusión intra para especificar la partición adyacente cuando el parámetro de predicción intra para la partición a ser decodificada es idéntico a aquel para la partición adyacente, de otro modo decodifica con longitud variable los datos codificados para adquirir el parámetro de predicción intra para la partición a ser codificada.
Porque un dispositivo de codificación de imágenes en movimiento y un dispositivo de decodificación de imágenes en movimiento según esta realización tienen las mismas estructuras que aquellas según la Realización 1 mencionada anteriormente excepto por los componentes correspondientes a la codificación y decodificación de un parámetro de predicción intra, solo la codificación y decodificación del parámetro de predicción intra será explicado en esta Realización 2.
Cuando se codifica con longitud variable el parámetro de predicción intra para una partición Pin a ser codificada (objetivo para ser procesado), una parte 13 de codificación de longitud variable del dispositivo de codificación de imágenes en movimiento según esta Realización 2 codifica con longitud variable una bandera de fusión intra que indica si el parámetro de predicción intra es idéntico a aquel para la partición adyacente a la partición Pin, como se muestra en la Fig. 12(A). Cuando la bandera de fusión intra indica que el parámetro de predicción intra es idéntico a aquel para una partición adyacente, la parte 13 de codificación de longitud variable también codifica con longitud variable una dirección de fusión intra que muestra cuál de las particiones adyacentes tiene el mismo parámetro de predicción intra que la partición a ser codificada. En contraste, cuando la bandera de fusión intra indica que el parámetro de predicción intra no es idéntico a aquel para ninguna partición adyacente, la parte de codificación de longitud variable codifica con longitud variable el parámetro de predicción intra para la partición Pin a ser codificada (en este caso, la parte de codificación de longitud variable lleva a cabo la misma codificación que la mostrada en la Realización 1 mencionada anteriormente), como se muestra en la Fig. 12(B).
Por ejemplo, cuando una partición adyacente a la izquierda de la partición a ser codificada y una partición adyacente en la parte superior de la partición a ser codificada son listadas como candidatas de particiones adyacentes, como se muestra en la Fig. 13(A), una bandera que indica si el parámetro de predicción intra para la partición a ser codificada es idéntico o no a aquel para la partición adyacente a la izquierda de la partición a ser codificada o a aquellos para la partición adyacente de la parte superior de la partición a ser codificada es proporcionada como la dirección de fusión intra. Como una alternativa, una partición adyacente a la izquierda de la partición a ser codificada, una partición adyacente en la parte superior izquierda de la partición a ser codificada, y una partición adyacente en la parte superior de la partición a ser codificada son listadas pueden ser listadas como candidatas a particiones adyacentes, y una bandera que indica cuál de las tres candidatas tiene el mismo parámetro de predicción intra que la partición a ser codificada puede ser proporcionada como la dirección de fusión intra, como se muestra en la Fig. 13(B). En un caso en el cual todas las particiones adyacentes cada una de las cuales pueden ser el objetivo para la codificación de bandera tienen el mismo parámetro de predicción intra, no es necesario codificar la dirección de fusión intra por rutina. Por lo tanto, la parte de codificación de longitud variable puede construirse de tal forma para no codificar la dirección de fusión intra en este caso, como se muestra en la Fig. 12(D). Además, la parte de codificación de longitud variable puede construirse de tal forma que, cuando hay dos o más particiones adyacentes en la parte superior o a la izquierda de la partición a ser codificada, escanear las particiones en una dirección alejada de un lado izquierdo superior de la partición a ser codificada, por ejemplo, y seleccionar la primera partición que ha sido codificada en un modo de predicción intra como la partición adyacente a la parte superior o izquierda de la partición a ser codificada.
Además, cuando el número NumN de direcciones de predicción intra seleccionables en la partición adyacente no es igual al número NumC de direcciones de predicción intra seleccionables en la partición a ser codificada, la parte de codificación de longitud variable puede construirse del siguiente modo. Más específicamente, cuando NumM<NumC, la parte de codificación de longitud variable trae una vector de dirección de predicción representativo, entre los vectores de dirección de predicción de una pluralidad de predicciones direccionales en la partición Pin a ser
codificada, en correspondencia con una de las direcciones de predicción intra seleccionables en la partición adyacente para determinar si el parámetro de predicción intra para la partición Pin a ser codificada coincide con aquel para la partición adyacente o no. En este caso, cuando se determina que el parámetro de predicción intra para la partición Pin a ser codificada coincide con aquellos para la partición adyacente, la parte de codificación de longitud variable codifica un parámetro residual de dirección de predicción intra que muestra cuál de la pluralidad de direcciones de predicción intra correspondientes ha sido seleccionada para la partición Pina ser codificada, como se muestra en la Fig. 12(C).
En contraste, cuando NumM>NumC, la parte de codificación de longitud variable trae un vector de dirección de predicción representativo, entre los vectores de dirección de predicción de una pluralidad de predicciones direccionales en la partición adyacente, en correspondencia con una de las direcciones de predicción intra seleccionables en la partición Pin a ser codificada para determinar si el parámetro de predicción intra para la partición Pin a ser codificada coincide con aquel para la partición adyacente o no. En este caso, la parte de codificación de longitud variable no tiene que codificar el parámetro residual de dirección de predicción intra. Porque se puede considerar que un modo de predicción intra tiene una dirección que depende de la textura de la imagen a ser codificada, un modo de predicción similar ocurre fácilmente de manera local. Por lo tanto, la parte de codificación de longitud variable puede codificar el parámetro de predicción intra con una cantidad más pequeña de información mediante la codificación del parámetro de predicción intra mediante el uso de la bandera de fusión intra y la dirección de fusión intra.
Cuando decodifica con longitud variable el parámetro de predicción intra en una partición Pin a ser decodificada (objetivo a ser procesado), una parte 21 de decodificación de longitud variable del dispositivo de decodificación de imágenes en movimiento según esta Realización 2 decodifica con longitud variable la bandera de fusión intra que indica si el parámetro de predicción intra es o no idéntico a aquel para una partición adyacente a la partición Pin , como se muestra en la Fig. 12(A). Además, cuando la bandera de fusión intra indica que el parámetro de predicción intra es idéntico a aquel para una partición adyacente, la parte 21 de decodificación de longitud variable decodifica con longitud variable la dirección de fusión intra que muestra cual de las particiones adyacentes tiene el mismo parámetro de predicción intra que la partición a ser decodificada. En contraste, cuando la bandera de fusión intra indica que el parámetro de predicción intra no es idéntico a aquel para una partición adyacente, la parte de decodificación de longitud variable decodifica con longitud variable el parámetro de predicción intra en la partición Pin a ser decodificada (en este caso, la parte de decodificación de longitud variable lleva a cabo la misma decodificación que la mostrada en la Realización 1 mencionada anteriormente), como se muestra en la Fig. 12(B).
Por ejemplo, cuando una partición adyacente a la izquierda de la partición a ser decodificada y una partición adyacente en la parte superior de la partición a ser decodificada son listadas como candidatas a particiones adyacentes, como se muestra en la Fig. 13(A), una bandera que indica si el parámetro de predicción intra para la partición a ser decodificada es idéntico o no a aquel para la partición adyacente a la izquierda de la partición a ser decodificada o a aquellos para la partición adyacente en la parte superior de la partición a ser decodificada es proporcionada como la dirección de fusión intra. Como una alternativa, una partición adyacente a la izquierda de la partición a ser decodificada, una partición adyacente en la parte superior izquierda de la partición a ser decodificada, y una partición adyacente a la parte superior de la partición a ser decodificada pueden ser listadas como candidatas a particiones adyacentes, y una bandera que indica cuál de las tres candidatas tiene el mismo parámetro de predicción intra que la partición a ser decodificada puede ser proporcionada como la dirección de fusión intra, como se muestra en la Fig. 13(B). En un caso en el que todas las particiones adyacentes cada una de las cuales puede ser objetivo para codificación de bandera tienen el mismo parámetro de predicción intra, no es necesario codificar la dirección de fusión intra por rutina. Por lo tanto, la parte de decodificación de longitud variable puede construirse de tal modo que no decodifique la dirección de fusión intra en este caso, como se muestra en la Fig. 12(D). Además, la parte de decodificación de longitud variable puede construirse de tal forma que, cuando hay dos o más particiones adyacentes en la parte superior o la izquierda de la partición a ser decodificada, escanea las particiones en una dirección alejada desde un lado superior izquierdo de la partición a ser decodificada, por ejemplo, y selecciona la primera partición que ha sido codificada en un modo de predicción intra como la partición adyacente en la parte superior o izquierda de la partición a ser decodificada.
Además, cuando el número NumM de direcciones de predicción intra seleccionables en la partición adyacente no es igual al número NumC de direcciones de predicción intra seleccionables en la partición a ser decodificada, la parte de decodificación de longitud variable puede ser construida de la siguiente manera. Más específicamente, cuando NumM<NumC, la parte de decodificación de longitud variable trae un vector de dirección de predicción representativo, entre los vectores de dirección de predicción de una pluralidad de predicciones direccionales en la partición Pin a ser decodificada, en correspondencia con una de las direcciones de predicción intra seleccionable en la partición adyacente para determinar si el parámetro de predicción intra para la partición Pin a ser decodificada coincide o no con aquel para la partición adyacente. En este caso, cuando se determina que el parámetro de predicción intra para la partición Pin a ser decodificada coincide con aquel para la partición adyacente, la parte de decodificación de longitud variable codifica un parámetro residual de dirección de predicción intra que muestra cuál de la pluralidad de direcciones de predicción intra correspondientes ha sido seleccionada para la partición Pin a ser decodificada, como se muestra en la Fig. 12(C).
En contraste, cuando NumM>NumC, la parte de decodificación de longitud variable trae un vector de dirección de
predicción representativo, entre los vectores de dirección de predicción de una pluralidad de predicciones direccionales en la partición adyacente, en correspondencia con una de las direcciones de predicción intra seleccionables en la partición Pin a ser decodificada para determinar si el parámetro de predicción intra para la partición Pin a ser decodificada coincide con aquel para la partición adyacente o no. En este caso, la parte de decodificación de longitud variable no tiene que decodificar el parámetro residual de dirección de predicción intra. Porque la parte de decodificación de longitud variable es construida de este modo, la parte de decodificación de longitud variable pude decodificar correctamente el parámetro de predicción intra que es codificado mediante el dispositivo de codificación de imágenes en movimiento según esta Realización 2. De rutina, la unidad de codificación de longitud variable y la unidad de decodificación de longitud variable según esta Realización 2 pueden también aplicarse a un caso en el cual la partición a ser procesada y la partición adyacente no están emplazadas en un modo de predicción, como se explicó en esta Realización 1, en cuya parte de una imagen de predicción intra en una capa jerárquica superior es extraído.
Aplicabilidad industrial
Como se mencionó anteriormente, porque el dispositivo de codificación de imágenes, el dispositivo de decodificación de imágenes, el método de codificación de imágenes, y el método de decodificación de imágenes según la presente invención son capaces de aumentar el grado de mejora en la eficiencia de codificación que es causada por un aumento en el número de predicciones direccionales con una pequeña cantidad de cálculo y una pequeña cantidad de código, el dispositivo de codificación de imágenes y el método de codificación de imágenes son adecuados para usar como un dispositivo de codificación de imágenes para y un método de codificación de imágenes de codificación una imagen en movimiento con un alto grado de eficiencia, etc., y el dispositivo de decodificación de imágenes y el método de decodificación de imágenes son adecuados para usar como un dispositivo de decodificación de imágenes para y un método de decodificación de imágenes de decodificar una imagen en movimiento codificada con un alto grado de eficiencia, etc.
1 parte de control de codificación (unidad de control de codificación), 2 parte de división de bloques (unidad de división de bloques), 3 conmutador de selección (unidad de generación de imágenes de predicción), 4 parte de predicción intra (unidad de generación de imágenes de predicción), 5 parte de predicción de movimiento compensado (unidad de generación de imágenes de predicción), 6 parte de resta (unidad de generación de imágenes de diferencia), 7 parte de transformación/cuantificación (unidad de comprensión de imágenes), 8 parte de cuantificación inversa/transformación inversa, 9 parte de suma, 10 memoria para predicción intra, 11 parte de filtro de bucle, 12 memoria de tramas de predicción de movimiento compensado, 13 parte de codificación de longitud variable (unidad de codificación de longitud variable), 21 parte de decodificación de longitud variable (unidad de decodificación de longitud variable), 22 interruptor de selección (unidad de generación de imágenes de predicción), 23 parte de predicción intra (unidad de generación de imágenes intra), 24 parte de compensación de movimiento (unidad de generación de imágenes de predicción), 25 parte de cuantificación inversa/transformación inversa (unidad de generación de imágenes de diferencia), 26 parte de suma (unidad de generación de imágenes decodificadas), 27 memoria para predicción intra, 28 parte de bucle de filtro, 29 memoria de tramas de predicción de movimiento compensado.
Claims (2)
1. Un dispositivo de codificación de imágenes que comprende:
una unidad (3, 4) de generación de imágenes de predicción intra para realizar un proceso de predicción para una partición a ser codificada por el modo de predicción intra para generar una imagen de predicción intra; y
una unidad (13) de codificación de longitud variable para realizar un proceso de codificación de longitud variable en un parámetro de predicción intra, que indica un modo de predicción intra específico usado para generar dicha imagen de predicción intra, y obtener datos codificados de dicho parámetro de predicción intra;
caracterizado por que dicha unidad (13) de codificación de longitud variable realiza codificación de longitud variable en una bandera de fusión intra que indica si un parámetro de predicción intra para dicha partición a ser codificada es o no idéntico a aquel para una partición adyacente ubicada adyacente a dicha partición; donde,
cuando hay dos o más particiones adyacentes en la parte superior o izquierda de dicha partición a ser codificada, dichas dos o más particiones son escaneadas y la primera partición a ser codificada en dicho modo de predicción intra es seleccionada como dicha partición adyacente, y
cuando dicha bandera de fusión intra indica que dicho parámetro de predicción intra para dicha partición a ser codificada es idéntico a aquel para dicha partición adyacente, dicha unidad de codificación de longitud variable realiza codificación de longitud variable en una bandera de dirección de fusión intra que identifica dicha partición adyacente.
2. Un método de codificación de imágenes que comprende:
un paso para realizar un proceso de predicción para una partición a ser codificada por el modo de predicción intra para generar una imagen de predicción intra; y
un paso para realizar un proceso de codificación de longitud variable en un parámetro de predicción intra, que indica un modo de predicción intra específico usado para generar dicha imagen de predicción intra, y obtener datos codificados de dicho parámetro de predicción intra;
caracterizado por que además comprende:
un paso para realizar un proceso de codificación de longitud variable en una bandera de fusión intra que indica si un parámetro de predicción intra para dicha partición a ser codificada es o no idéntico a aquel para una partición adyacente ubicada adyacente a dicha partición; donde, cuando hay dos o más particiones adyacentes en la parte superior o izquierda de dicha partición a ser codificada, dichas dos o más particiones adyacentes son escaneadas y la primera partición a ser codificada en dicho modo de predicción intra es seleccionada como dicha partición adyacente, y
un paso para realizar un proceso de codificación de longitud variable en una bandera de dirección de fusión intra cuando dicha bandera de fusión intra indica que dicho parámetro de predicción intra para dicha partición a ser codificada es idéntico a aquel para dicha partición adyacente, dicha bandera de dirección de fusión intra que identifica dicha partición adyacente.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281743 | 2010-12-17 | ||
PCT/JP2011/006116 WO2012081162A1 (ja) | 2010-12-17 | 2011-11-01 | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2718426T3 true ES2718426T3 (es) | 2019-07-01 |
Family
ID=46244282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES11848087T Active ES2718426T3 (es) | 2010-12-17 | 2011-11-01 | Dispositivo de codificación de imágenes en movimiento, dispositivo de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
Country Status (14)
Country | Link |
---|---|
US (8) | US10432956B2 (es) |
EP (4) | EP3493545B1 (es) |
JP (6) | JP5711266B2 (es) |
KR (1) | KR101538248B1 (es) |
CN (1) | CN103262539A (es) |
BR (1) | BR112013014258B1 (es) |
CA (5) | CA2937202C (es) |
ES (1) | ES2718426T3 (es) |
MX (2) | MX337875B (es) |
RU (5) | RU2602365C2 (es) |
SG (3) | SG10202101292WA (es) |
TR (1) | TR201904717T4 (es) |
TW (8) | TWI647952B (es) |
WO (1) | WO2012081162A1 (es) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG10202101292WA (en) * | 2010-12-17 | 2021-03-30 | Mitsubishi Electric Corp | Image coding device, image decoding device, image coding method, and image decoding method |
AU2012270960B2 (en) * | 2011-06-13 | 2017-02-16 | Sun Patent Trust | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus |
KR101897378B1 (ko) | 2013-12-10 | 2018-09-10 | 캐논 가부시끼가이샤 | 팔레트 코딩 모드에서 팔레트를 인코딩 또는 디코딩하기 위한 방법 및 장치 |
US10419774B2 (en) | 2013-12-10 | 2019-09-17 | Canon Kabushiki Kaisha | Palette mode in HEVC |
JP6886825B2 (ja) * | 2017-01-27 | 2021-06-16 | 日本放送協会 | 予測装置、符号化装置、復号装置、及びプログラム |
US20180332312A1 (en) * | 2017-05-09 | 2018-11-15 | Futurewei Technologies, Inc. | Devices And Methods For Video Processing |
CN108846874A (zh) * | 2018-06-27 | 2018-11-20 | 广州视源电子科技股份有限公司 | 信号发生器的图像生成方法和装置 |
WO2020059616A1 (ja) * | 2018-09-21 | 2020-03-26 | 日本放送協会 | 画像符号化装置、画像復号装置、及びプログラム |
CN112514378A (zh) * | 2018-09-28 | 2021-03-16 | Jvc建伍株式会社 | 图像解码装置、图像解码方法以及图像解码程序 |
CN113905240A (zh) * | 2020-06-22 | 2022-01-07 | 中兴通讯股份有限公司 | 视频编码方法及装置、服务器、存储介质 |
CN111950587B (zh) * | 2020-07-02 | 2024-04-16 | 北京大学深圳研究生院 | 帧内编码块划分处理方法和硬件装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3263807B2 (ja) * | 1996-09-09 | 2002-03-11 | ソニー株式会社 | 画像符号化装置および画像符号化方法 |
DE602004025517D1 (de) * | 2004-05-17 | 2010-03-25 | Nokia Corp | Audiocodierung mit verschiedenen codierungsrahmenlängen |
JP4359773B2 (ja) | 2004-06-22 | 2009-11-04 | ソニー株式会社 | 画像圧縮処理装置、画像圧縮処理方法および画像圧縮処理プログラム |
KR100679035B1 (ko) | 2005-01-04 | 2007-02-06 | 삼성전자주식회사 | 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더 |
JP4191729B2 (ja) * | 2005-01-04 | 2008-12-03 | 三星電子株式会社 | イントラblモードを考慮したデブロックフィルタリング方法、及び該方法を用いる多階層ビデオエンコーダ/デコーダ |
US20080165849A1 (en) * | 2005-07-22 | 2008-07-10 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
EP2001239B1 (en) | 2006-03-27 | 2017-09-13 | Sun Patent Trust | Picture coding apparatus and picture decoding apparatus |
US8619853B2 (en) | 2007-06-15 | 2013-12-31 | Qualcomm Incorporated | Separable directional transforms |
US8345968B2 (en) | 2007-06-28 | 2013-01-01 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method and image decoding method |
RU2496252C2 (ru) * | 2007-06-29 | 2013-10-20 | Шарп Кабусики Кайся | Устройство кодирования изображения, способ кодирования изображения, устройство декодирования изображения, способ декодирования изображения, программа и запоминающий носитель |
JP4650461B2 (ja) * | 2007-07-13 | 2011-03-16 | ソニー株式会社 | 符号化装置、符号化方法、プログラム、及び記録媒体 |
JP2009055542A (ja) * | 2007-08-29 | 2009-03-12 | Toshiba Corp | 動画像符号化装置および動画像符号化方法 |
WO2009051719A2 (en) * | 2007-10-16 | 2009-04-23 | Thomson Licensing | Methods and apparatus for video encoding and decoding geometically partitioned super blocks |
JP5137687B2 (ja) | 2008-05-23 | 2013-02-06 | キヤノン株式会社 | 復号装置及び復号方法、プログラム |
CN101779469A (zh) | 2008-06-27 | 2010-07-14 | 索尼公司 | 图像处理装置和图像处理方法 |
KR101517768B1 (ko) * | 2008-07-02 | 2015-05-06 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US20110170793A1 (en) | 2008-09-24 | 2011-07-14 | Kazushi Sato | Image processing apparatus and method |
JP2010116869A (ja) * | 2008-11-13 | 2010-05-27 | Yamaha Motor Co Ltd | 車両用内燃機関 |
US20100166073A1 (en) * | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
EA024522B1 (ru) | 2009-04-08 | 2016-09-30 | Шарп Кабусики Кайся | Устройство и способ кодирования видеокадров и устройство и способ декодирования видеокадров |
JP5169978B2 (ja) | 2009-04-24 | 2013-03-27 | ソニー株式会社 | 画像処理装置および方法 |
US8588303B2 (en) * | 2010-03-31 | 2013-11-19 | Futurewei Technologies, Inc. | Multiple predictor sets for intra-frame coding |
SG10202101292WA (en) * | 2010-12-17 | 2021-03-30 | Mitsubishi Electric Corp | Image coding device, image decoding device, image coding method, and image decoding method |
-
2011
- 2011-11-01 SG SG10202101292WA patent/SG10202101292WA/en unknown
- 2011-11-01 ES ES11848087T patent/ES2718426T3/es active Active
- 2011-11-01 RU RU2015107004/08A patent/RU2602365C2/ru active
- 2011-11-01 RU RU2013132933/08A patent/RU2547617C2/ru active
- 2011-11-01 EP EP19152902.3A patent/EP3493545B1/en active Active
- 2011-11-01 WO PCT/JP2011/006116 patent/WO2012081162A1/ja active Application Filing
- 2011-11-01 CN CN2011800605992A patent/CN103262539A/zh active Pending
- 2011-11-01 CA CA2937202A patent/CA2937202C/en active Active
- 2011-11-01 US US13/991,041 patent/US10432956B2/en active Active
- 2011-11-01 MX MX2013006878A patent/MX337875B/es active IP Right Grant
- 2011-11-01 EP EP19152900.7A patent/EP3493543B1/en active Active
- 2011-11-01 SG SG10201706999WA patent/SG10201706999WA/en unknown
- 2011-11-01 SG SG10201509231QA patent/SG10201509231QA/en unknown
- 2011-11-01 BR BR112013014258-8A patent/BR112013014258B1/pt active IP Right Grant
- 2011-11-01 CA CA3207722A patent/CA3207722A1/en active Pending
- 2011-11-01 EP EP11848087.0A patent/EP2654300B1/en active Active
- 2011-11-01 CA CA2820014A patent/CA2820014C/en active Active
- 2011-11-01 JP JP2012548618A patent/JP5711266B2/ja active Active
- 2011-11-01 KR KR1020137018737A patent/KR101538248B1/ko active IP Right Grant
- 2011-11-01 CA CA3052608A patent/CA3052608C/en active Active
- 2011-11-01 TR TR2019/04717T patent/TR201904717T4/tr unknown
- 2011-11-01 EP EP19152901.5A patent/EP3493544B1/en active Active
- 2011-11-01 MX MX2016003712A patent/MX351072B/es unknown
- 2011-11-01 CA CA3123520A patent/CA3123520C/en active Active
- 2011-11-17 TW TW105138645A patent/TWI647952B/zh active
- 2011-11-17 TW TW104141491A patent/TWI566590B/zh active
- 2011-11-17 TW TW108121752A patent/TWI706671B/zh active
- 2011-11-17 TW TW110114542A patent/TWI740801B/zh active
- 2011-11-17 TW TW107117976A patent/TWI666925B/zh active
- 2011-11-17 TW TW109145509A patent/TWI728944B/zh active
- 2011-11-17 TW TW100141983A patent/TWI519141B/zh active
- 2011-11-17 TW TW109129541A patent/TWI718084B/zh active
-
2015
- 2015-03-05 JP JP2015043049A patent/JP5984984B2/ja active Active
-
2016
- 2016-08-02 JP JP2016151875A patent/JP6469048B2/ja active Active
- 2016-10-05 RU RU2016139117A patent/RU2628259C1/ru active
-
2017
- 2017-07-28 RU RU2017127113A patent/RU2649775C1/ru active
-
2018
- 2018-02-21 JP JP2018029028A patent/JP6789256B2/ja active Active
- 2018-03-23 RU RU2018110268A patent/RU2680194C1/ru active
-
2019
- 2019-06-19 JP JP2019113549A patent/JP6807987B2/ja active Active
- 2019-08-20 US US16/545,817 patent/US10827193B2/en active Active
- 2019-08-20 US US16/545,740 patent/US10820000B2/en active Active
- 2019-08-20 US US16/545,806 patent/US10820001B2/en active Active
-
2020
- 2020-09-24 US US17/031,275 patent/US11350120B2/en active Active
- 2020-12-08 JP JP2020203791A patent/JP7012809B2/ja active Active
-
2022
- 2022-05-16 US US17/745,062 patent/US11831893B2/en active Active
- 2022-05-16 US US17/745,040 patent/US11831892B2/en active Active
-
2023
- 2023-02-09 US US18/107,764 patent/US11831896B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2718426T3 (es) | Dispositivo de codificación de imágenes en movimiento, dispositivo de decodificación de imágenes en movimiento, método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento | |
RU2665237C1 (ru) | Устройство кодирования движущихся изображений, устройство декодирования движущихся изображений, способ кодирования движущихся изображений и способ декодирования движущихся изображений | |
ES2869204T3 (es) | Dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes, método de codificación de imágenes, método de decodificación de imágenes | |
BR112013006501B1 (pt) | Dispositivo de decodificação de imagem, e, dispositivo de codificação de imagem |