ES2834902T3 - Método de decodificación de imagen, y dispositivo de decodificación de imágenes - Google Patents

Método de decodificación de imagen, y dispositivo de decodificación de imágenes Download PDF

Info

Publication number
ES2834902T3
ES2834902T3 ES18169910T ES18169910T ES2834902T3 ES 2834902 T3 ES2834902 T3 ES 2834902T3 ES 18169910 T ES18169910 T ES 18169910T ES 18169910 T ES18169910 T ES 18169910T ES 2834902 T3 ES2834902 T3 ES 2834902T3
Authority
ES
Spain
Prior art keywords
information
unit
division
hierarchical
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18169910T
Other languages
English (en)
Inventor
Hisao Sasai
Takahiro Nishi
Youji Shibahara
Toshiyasu Sugio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Patent Trust Inc
Original Assignee
Sun Patent Trust Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Patent Trust Inc filed Critical Sun Patent Trust Inc
Application granted granted Critical
Publication of ES2834902T3 publication Critical patent/ES2834902T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Abstract

Un método de decodificación de imagen para decodificar una secuencia de código (140) que incluye una imagen codificada particionada en unidades de procesamiento y un encabezado de una unidad de procesamiento de un tamaño de una unidad más grande, el método de decodificación de imagen que comprende: información de la partición de decodificación (130, 131) incluida en la secuencia de códigos (140), representando la información de partición un patrón de partición; y determinar el patrón de partición a partir de la información de partición decodificada (130, 131), en el que la imagen se divide en unidades de procesamiento de un tamaño de una unidad más grande y jerárquicamente particionada en unidades de procesamiento en el orden a partir de la unidad más grande de las unidades de procesamiento en un formato jerárquico; incluyendo la partición jerárquica de la imagen, además, por unidad de procesamiento de un tamaño de la unidad más grande, el patrón de partición que especifica la partición jerárquica de la unidad de procesamiento de un tamaño de la unidad más grande en unidades de procesamiento, en el que caracterizado porque la información de la partición (130, 131) se decodifica del encabezado de la unidad de procesamiento de un tamaño de la unidad más grande, y la información de la partición (130, 131) incluye la información de profundidad jerárquica máxima utilizada que indica una profundidad jerárquica de una unidad de procesamiento más profunda de las unidades de procesamiento resultante de la partición jerárquica de la unidad de procesamiento de un tamaño de la unidad más grande.

Description

DESCRIPCIÓN
Método de decodificación de imagen, y dispositivo de decodificación de imágenes
La presente invención versa sobre métodos de decodificación de imágenes, dispositivos de decodificación de imágenes, y, en particular, sobre un método de decodificación de imágenes para codificar con compresión una señal de vídeo usando compensación de movimiento.
En métodos convencionales de codificación de imágenes representados por el estándar ITU-T denominado H.26x y el estándar ISO/IEC denominado MPEG-x, la pantalla es dividida en unidades predeterminadas, y codificada en unidades de división. Por ejemplo, H.264/MPEG-4 AVC (véase, por ejemplo, la BNP 1) procesa la pantalla (imagen) en unidades de 16 píxeles horizontales * 16 píxeles verticales que son denominadas macrobloques. Para la compensación de movimiento, el macrobloque es dividido en bloques rectangulares (4 píxeles horizontales * 4 píxeles verticales, como mínimo), y se lleva a cabo una compensación de movimiento usando un vector de movimiento diferente para cada uno de los bloques divididos.
[BNP 1] ISO/IEC 14496-10 “MPEG-4 Part 10 Advanced Video Coding”
El documento “Test model under consideration", 1. JCT-VG meeting 15-4-2010 - 23-4-2010 Dresde, JCTVC-A20518 de julio de 2010, versa sobre la división jerárquica de imágenes para la codificación de imágenes. Sugiere que se puede especificar una estructura jerárquica de múltiples niveles mediante un tamaño máximo dado de bloque de codificación, una profundidad jerárquica máxima dada y una serie de indicadores de división. La invención se define por las características de las reivindicaciones independientes. Cualquier referencia a "realización(es)" o "aspecto(s) de la invención" que no esté comprendida en el ámbito de aplicación de las reivindicaciones debe interpretarse como ejemplos ilustrativos para comprender la invención.
Sin embargo, en los anteriores métodos convencionales, se transmiten dos tipos de información — información indicativa del tipo macrobloque e información indicativa del tipo submacrobloque— como información relativa a la división en el macrobloque para transmitir una forma dividida. En la presente memoria, la información indicativa del tipo macrobloque indica que el tamaño de un macrobloque es cualquiera de, por ejemplo, 16 píxeles horizontales * 16 píxeles verticales, 16 píxeles horizontales * 8 píxeles verticales, 8 píxeles horizontales * 16 píxeles verticales, y 8 píxeles horizontales * 8 píxeles verticales. La información indicativa del tipo submacrobloque indica que, cuando el tipo macrobloque es de 8 píxeles horizontales * 8 píxeles verticales, el tamaño de un submacrobloque es cualquiera de 8 píxeles horizontales * 8 píxeles verticales, 8 píxeles horizontales * 4 píxeles verticales, 4 píxeles horizontales * 8 píxeles verticales, y 4 píxeles horizontales * 4 píxeles verticales.
En el método de transmisión de la información de división descrito anteriormente, un mayor número de tipos de tamaño de bloque requiere el envío jerárquico de las formas divididas. Así, surge el problema de que la información de división no puede ser transmitida eficazmente.
La presente invención soluciona el anterior problema y tiene el objeto de proporcionar un método de decodificación de vídeo que puedan decodificar eficazmente la información de división cuando la pantalla está dividida en diversos bloques y decodificar los bloques.
Para lograr el anterior objeto, un método de codificación de imágenes es un método de codificación de imágenes para dividir una imagen en unidades de procesamiento, y codificar la imagen dividida para generar una secuencia de código, incluyendo el método de codificación de imágenes: determinar un patrón de división para dividir jerárquicamente la imagen en el orden que parte de la mayor unidad de las unidades de procesamiento en un formato jerárquico; generar información de división indicativa del patrón de división; y codificar la información de división; incluyendo la información de división información de la máxima profundidad jerárquica usada indicativa de la máxima profundidad jerárquica usada, que es la profundidad jerárquica de la unidad de procesamiento más profunda de las unidades de procesamiento incluidas en el patrón de división.
Según la anterior configuración, el método de codificación de imágenes puede reducir la cantidad de codificación usada para dividir la pantalla en diversos bloques y codificar los bloques y, así, puede codificar eficazmente la información de división.
Además, la información de división también puede incluir información de la mínima profundidad jerárquica usada indicativa de una mínima profundidad jerárquica usada, que es la profundidad jerárquica de la unidad de procesamiento más superficial de las unidades de procesamiento incluidas en el patrón de división.
Además, cuando se genera la información de división, la información de división que incluye la información de la mínima profundidad jerárquica usada puede ser generada cuando la máxima profundidad jerárquica usada es la menor unidad de procesamiento de las unidades de procesamiento.
Según la anterior configuración, el método de codificación de imágenes puede reducir una mayor cantidad de codificación.
Además, cuando se genera la información de división, cuando puede definirse, para cada una de las unidades de procesamiento, utilizando la máxima profundidad jerárquica usada, si la unidad de procesamiento ha de ser dividida adicionalmente, la información indicativa del patrón de división de la unidad de procesamiento puede ser eliminada de la información de división, y, cuando se codifica la información de división, puede ser codificada la información de división de la que se ha eliminado la información.
Según la anterior configuración, el método de codificación de imágenes puede reducir una mayor cantidad de codificación.
Además, cuando se genera la información de división, cuando puede definirse, para cada una de las unidades de procesamiento, utilizando la mínima profundidad jerárquica usada, si la unidad de procesamiento ha de ser dividida adicionalmente, la información indicativa del patrón de división de la unidad de procesamiento puede ser eliminada de la información de división, y, cuando se codifica la información de división, puede ser codificada la información de división de la que se ha eliminado la información.
Según la anterior configuración, el método de codificación de imágenes puede reducir una mayor cantidad de codificación.
Además, un método ejemplar de codificación de imágenes también puede incluir la estimación de un patrón de división predicho, que es un valor predicho del patrón de división de la unidad de procesamiento actual, usando un patrón de división de una unidad de procesamiento codificada, en el que, cuando se determina el patrón de división, el patrón de división de la unidad de procesamiento actual puede ser determinado usando el patrón de división predicho.
Según la anterior configuración, el método de codificación de imágenes puede reducir una mayor cantidad de codificación.
Además, el método de codificación de imágenes también puede incluir el cálculo de una diferencia entre el patrón de división y el patrón de división predicho, en el que, cuando se codifica la información de división, la información de división que incluye la diferencia puede ser codificada.
Según la anterior configuración, el método de codificación de imágenes puede reducir una mayor cantidad de codificación.
Además, al estimar el patrón de partición predicho, el patrón de partición de la unidad de procesamiento actual puede estimarse utilizando un patrón de partición de una unidad de procesamiento adyacente a la unidad de procesamiento actual y en una misma trama que la unidad de procesamiento actual.
Además, cuando se estima el patrón de división predicho, el patrón de división de la unidad de procesamiento actual puede ser estimado usando un patrón de división de una unidad de procesamiento incluida en otra trama temporal.
Además, un método de decodificación de imágenes según una realización de la presente invención es un método de decodificación de imágenes para decodificar una secuencia de código generada por el método de codificación de imágenes, incluyendo el método de decodificación de imágenes: decodificar la información de división incluida en la secuencia de código; y determinar el patrón de división a partir de la información de división decodificada.
Según la anterior configuración, el método de decodificación de imágenes según una realización de la presente invención puede decodificar eficazmente la información de división.
Debería hacerse notar que la presente invención puede ser implementada no solo como tal método de decodificación de imágenes, sino también como un un dispositivo de decodificación de imágenes que tienen etapas y unidades características incluidas en el método de codificación de imágenes y el método de decodificación de imágenes, respectivamente, o como un programa para hacer que un ordenador ejecute tales etapas características. Además, tal programa puede ser distribuido, naturalmente, almacenándolo en un soporte de almacenamiento no transitorio legible por ordenador, tal como un CD-ROM, y a través de un soporte de transmisión, tal como Internet.
Además, la presente invención puede ser implementada como un circuito integrado de semiconductores (LSI) que logre parte de la funcionalidad total de tal dispositivo de codificación de imágenes y tal dispositivo de decodificación de imágenes, o como tal dispositivo de codificación de imágenes y tal dispositivo de decodificación de imágenes.
Por lo anterior, la presente invención puede proporcionar el método de codificación de vídeo o el método de decodificación de vídeo que puede codificar o decodificar eficazmente la información de división cuando la pantalla es dividida en diversos bloques y codificar o decodificar los bloques.
[FIG. 1] La FIG. 1 es un diagrama de bloques de un dispositivo de codificación de imágenes según una realización 1 de la presente invención.
[FIG. 2A] La FIG. 2A es una vista esquemática que ilustra una jerarquía de bloques según la realización 1 de la presente invención.
[FIG. 2B] La FIG. 2B es una vista esquemática que muestra un ejemplo de la jerarquía de bloques según la realización 1 de la presente invención.
[FIG. 2C] La FIG. 2C es una vista esquemática que muestra un ejemplo de una jerarquía de bloques según la realización 1 de la presente invención.
[FIG. 3A] La FIG. 3A es una vista esquemática que muestra un ejemplo de un patrón de división de bloques según la realización 1 de la presente invención.
[FIG. 3B] La FIG. 3B es una vista esquemática que muestra un ejemplo de información de división de bloques según la realización 1 de la presente invención.
[FIG. 3C] La FIG. 3C es una vista esquemática que muestra un ejemplo de la información de división de bloques según la realización 1 de la presente invención.
[FIG. 4] La FIG. 4 es un diagrama de flujo que ilustra la operación de una unidad de control de división.
[FIG. 5] La FIG. 5 es un diagrama de flujo que ilustra la operación de una unidad de descripción de la información de división.
[FIG. 6A] La FIG. 6A es una vista esquemática que muestra un ejemplo de patrón de división y de información de división según la realización 1 de la presente invención.
[FIG. 6B] La FIG. 6B es una vista esquemática que muestra un ejemplo de patrón de división y de información de división según la realización 1 de la presente invención.
[FIG. 6C] La FIG. 6C es una vista esquemática que muestra un ejemplo de patrón de división y de información de división según la realización 1 de la presente invención.
[FIG. 7] La FIG. 7 es un diagrama de bloques de un dispositivo de decodificación de imágenes según una realización 2 de la presente invención.
[FIG. 8] La FIG. 8 es un diagrama de flujo que ilustra operaciones de una unidad de control de división y una unidad de reconstrucción de la información de división según la realización 2 de la presente invención.
[FIG. 9A] La FIG. 9A es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9B] La FIG. 9B es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9C] La FIG. 9C es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9D] La FIG. 9D es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9E] La FIG. 9E es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9F] La FIG. 9F es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9G] La FIG. 9G es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9H] La FIG. 9H es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9I] La FIG. 9I es una vista esquemática que muestra un ejemplo de predicción de un patrón de división. [FIG. 9J] La FIG. 9J es una vista esquemática que muestra un ejemplo de predicción de un patrón de división. [FIG. 9K] La FIG. 9K es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 9L] La FIG. 9L es una vista esquemática que muestra un ejemplo de predicción de un patrón de división.
[FIG. 10] La FIG. 10 es un diagrama de flujo que muestra un procedimiento para predecir un método de división que usa información de división en bloques circundantes.
[FIG. 11A] La FIG. 11A es una vista esquemática que ilustra un método de predicción en el cual una unidad de descripción de la información de división y la unidad de reconstrucción de la información de división usan información de división de una trama codificada.
[FIG. 11B] La FIG. 11B es una vista esquemática que ilustra un método en el cual la unidad de descripción de la información de división y la unidad de reconstrucción de la información de división usan información de división de una trama codificada.
[FIG. 12A] La FIG. 12A es un diagrama de flujo que ilustra la operación de la unidad de descripción de la información de división.
[FIG. 12B] La FIG. 12B es un diagrama de flujo que ilustra la operación de la unidad de reconstrucción de la información de división.
[FIG. 13] La FIG. 13 es una vista esquemática que muestra una estructura de datos de información de división según una realización 4 de la presente invención.
[FIG. 14A] La FIG. 14A es una vista esquemática que muestra un ejemplo de un patrón de división usando varias formas de bloque según una realización 5 de la presente invención.
[FIG. 14B] La FIG. 14B es una vista esquemática que muestra un ejemplo de información de división según la realización 5 de la presente invención cuando se usan varias formas de bloque.
[FIG. 14C] La FIG. 14C es una vista esquemática que muestra un ejemplo de la información de división según la realización 5 de la presente invención cuando se usan varias formas de bloque.
[FIG. 15A] La FIG. 15A es una vista esquemática que ilustra un método según la realización 5 de la presente invención para reducir la cantidad de información redundante de división.
[FIG. 15B] La FIG. 15B es una vista esquemática que ilustra el método según la realización 5 de la presente invención para reducir la cantidad de información redundante de división.
[FIG. 15C] La FIG. 15C es una vista esquemática que ilustra el método según la realización 5 de la presente invención para reducir la cantidad de información redundante de división.
[FIG. 16] La FIG. 16 muestra una configuración general de un sistema proveedor de contenidos para implementar servicios de distribución de contenidos.
[FIG. 17] La FIG. 17 muestra una configuración general de un sistema de radiodifusión digital.
[FIG. 18] La FIG. 18 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de un televisor.
[FIG. 19] La FIG. 19 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad reproductora/grabadora de información que lee información de un soporte de grabación, que es un disco óptico, y la escribe en el mismo.
[FIG. 20] La FIG. 20 shows un ejemplo de una configuración de un soporte de grabación que es un disco óptico.
[FIG. 21A] La FIG. 21A muestra un ejemplo de un teléfono móvil.
[FIG. 21B] La FIG. 21B es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono móvil.
[FIG. 22] La FIG. 22 ilustra una estructura de datos multiplexados.
[FIG. 23] La FIG. 23 muestra esquemáticamente cómo es multiplexada cada secuencia en datos multiplexados.
[FIG. 24] La FIG. 24 muestra con mayor detalle cómo se almacena una secuencia de vídeo en una secuencia de paquetes PES.
[f iG. 25] La FIG.25 muestra una estructura de paquetes TS y de paquetes fuente en los datos multiplexados.
[FIG. 26] La FIG.26 muestra una estructura de datos de una PMT.
[FIG. 27] La FIG.27 muestra una estructura interna de información de datos multiplexados.
[FIG. 28] La FIG.28 muestra una estructura interna de información de atributos de secuencia.
[FIG. 29] La FIG. 29 muestra etapas para identificar datos de vídeo.
[FIG. 30] La FIG. 30 muestra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento según cada una de las realizaciones.
[FIG. 31] La FIG. 31 muestra una configuración para conmutar entre frecuencias de excitación.
[FIG. 32] La FIG. 32 muestra etapas para identificar datos de vídeo y conmutar entre frecuencias de excitación.
[FIG. 33] La FIG. 33 muestra un ejemplo de una tabla de consulta en la que se asocian estándares de datos de vídeo con frecuencias de excitación.
[FIG. 34A] La FIG. 34A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señales.
[FIG. 34B] La FIG. 34B es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señales.
En lo que sigue, se describirán realizaciones de la presente invención con referencia a los dibujos adjuntos. debería hacerse notar que cada una de las realizaciones descritas a continuación es meramente una ilustración preferente de la presente invención. Los valores, las formas, los materiales, los componentes, la disposición o una forma de conexión entre los componentes, las etapas y el orden de las etapas son meramente ilustrativos, y no se pretende que limiten la presente invención. La presente invención está limitada únicamente por el alcance de las reivindicaciones adjuntas.
Así, entre los componentes de las siguientes realizaciones, los componentes no definidos en las reivindicaciones independientes que indican el concepto de nivel superior de la presente invención no son necesarios para lograr la presente invención, pero serán descritos como componentes para las realizaciones preferentes.
(Realización 1)
La FIG. 1 es un diagrama de bloques de un dispositivo 100 de codificación de imágenes que usa un método de codificación de imágenes según una realización 1 de la presente invención. El dispositivo 100 de codificación de imágenes mostrado en la FIG. 1 divide una señal 120 de imagen de entrada en unidades (bloques) de procesamiento y codifica la imagen dividida para generar una secuencia 140 de código.
El dispositivo 100 de codificación de imágenes incluye una unidad diferencial 101, una unidad 102 de transformada, una unidad 103 de cuantificación, una unidad 104 de cuantificación inversa, una unidad 105 de transformada inversa, un sumador 106, una unidad predictora 107, una unidad 108 de control de la codificación, una unidad codificadora 109 de longitud variable, una unidad divisoria 110, una unidad 111 de control de división y una unidad 112 de descripción de la información de división. Debería hacerse notar que la unidad divisoria 110 y la unidad predictora 107 pueden incluir cada una una memoria en la misma.
La señal 120 de imagen de entrada es suministrada a la unidad divisoria 110. La unidad divisoria 110 divide la señal 120 de imagen de entrada en función de una señal 129 de control de división, para generar señales 121 de imagen dividida, y envía las señales 121 de imagen dividida generadas a la unidad diferencial 101 y a la unidad predictora 107.
La unidad 111 de control de división determina un patrón de división que indica cómo ha de ser dividida la imagen por la unidad divisoria 110. En la presente memoria, las unidades (bloques) de procesamiento se encuentran en un formato jerárquico, y la unidad 111 de control de división determina el patrón de división en el cual la señal 120 de imagen de entrada es dividida jerárquicamente en el orden que parte de la mayor unidad de las unidades de procesamiento.
Se describirán, con referencia a las FIGURAS 2A, 2B, y 2C y a las FIGURAS 3A, 3B y 3C, ejemplos del patrón de división determinado por la unidad 111 de control de división.
Según se muestra en las FIGURAS 2A a 2C, el patrón de división determinado por la unidad 111 de control de división está representado por la profundidad jerárquica (Profundidad). Según se muestra en la FIG. 2A, un bloque no dividido puede ser representado como Profundidad = 0, los bloques obtenidos dividiendo el bloque no dividido en cuatro pueden ser representados como Profundidad = 1, y los siguientes bloques pueden ser representados de la misma manera. La FIG. 2B muestra un ejemplo de tamaños de bloque y profundidades jerárquicas cuando el mayor tamaño de bloque es 64 píxeles horizontales * 64 píxeles verticales. La FIG. 2C muestra un ejemplo de tamaños de bloque y profundidades jerárquicas cuando el mayor tamaño de bloque es 128 píxeles horizontales * 128 píxeles verticales.
El patrón de división será descrito con mayor detalle con referencia a las FIGURAS 3A a 3C.
De manera similar al caso mostrado en la FIG. 2B, la FIG. 3A muestra un ejemplo en el que el mayor tamaño de bloque es 64 píxeles horizontales * 64 píxeles verticales y el menor tamaño de bloque es 8 píxeles horizontales * 8 píxeles verticales. El bloque es dividido por un método en el cual, a su vez, se especifica lo siguiente: si el mayor tamaño de bloque ha de ser dividido; y, en tal caso, si los bloques obtenidos dividiendo el mayor bloque han de ser divididos adicionalmente. El patrón de división de bloques puede ser representado por una jerarquía (Tipo_Dn) para cada profundidad jerárquica. Aquí, se supone que n es un valor de profundidad jerárquica (Profundidad).
La FIG. 3B muestra un ejemplo en el que el patrón de división mostrado en la FIG. 3A está representado por información del modo de división jerárquica. Aquí, en aras de la simplicidad, hay dos tipos de la información del modo de división jerárquica, que incluyen un tipo que indica que el bloque no está dividido (Tipo_Dn = 0) y un tipo que indica que el bloque está dividido en cuatro (Tipo_Dn = 1). Debería hacerse notar que, en lo sucesivo, las profundidades jerárquicas representadas por Profundidad = 0, 1, 2 y 3 serán descritas como profundidades jerárquicas 0, 1, 2 y 3, respectivamente.
En primer lugar, se divide el mayor bloque y, así, tiene Tipo_D0 = 1. En la profundidad jerárquica 1 (Profundidad = 1) para el siguiente tamaño de bloque, la información del modo de división jerárquica es representada como sigue: en zigzag de arriba abajo, bloque no dividido (Tipo_D1 = 0); bloque dividido (Tipo_D1 = 1); bloque no dividido (Tipo_D1 = 0); y bloque dividido (Tipo_D1 = 1). Aquí, la información del modo de división jerárquica sobre la siguiente profundidad jerárquica 2 (Profundidad = 2) es innecesaria para los bloques no divididos. A continuación, se usa la misma representación también para la profundidad jerárquica 2 (Profundidad = 2) para un tamaño de bloque que es dividido adicionalmente. Específicamente, los cuatro bloques en la profundidad jerárquica 2 (Profundidad = 2) obtenidos dividiendo el bloque de profundidad jerárquica 1 que es el primer bloque que tiene Tipo_D1 = 1 están todos sin dividir (Tipo_D2 = 0). En cuanto a los cuatro bloques obtenidos dividiendo el último bloque que tiene Tipo_D1 = 1, el primer bloque puede ser representado como dividido (Tipo_D2 = 1), y los tres bloque restantes pueden ser representados como no divididos (Tipo_D2 = 0).
La FIG. 3C muestra un ejemplo en el que se simplifica y se representa colectivamente la representación de la FIG.
3B. En otras palabras, la FIG. 3C muestra un ejemplo en el que la información del modo de división jerárquica para cada tamaño de bloque es representada colectivamente como información (tipo) del modo de división. Debería hacerse notar que, en este ejemplo, la información del modo de división es, de forma similar a la información del modo de división jerárquica, información binaria, una versión de la cual indica que un bloque está dividido (1) y la versión de la cual indica que un bloque no está dividido (0). Así, el contenido de la información del patrón de división mostrado en la FIG. 3A es de 13 bits. La unidad 111 de control de división envía entonces la información 130 de división indicativa del patrón de división mostrado en la FIG. 3C a la unidad 112 de descripción de la información de división.
A continuación, se describirá con referencia a la FIG. 4 la operación de la unidad 111 de control de división para determinar el patrón de división definido más arriba.
La información de coste (coste de la codificación) requerida para la determinación del patrón de división es calculada, por ejemplo, como sigue.
La unidad divisoria 110 divide la señal 120 de imagen de entrada a un tamaño de interés para el cálculo de costes, para generar las señales 121 de imagen dividida, y envía a la unidad predictora 107 las señales 121 de imagen dividida generadas.
La unidad predictora 107 genera una señal 128 de imagen predicha basada en una señal 127 de imagen decodificada que ha sido codificada y decodificada y en un modo de predicción obtenido de la unidad 108 de control de la codificación. Aquí, la unidad 108 de control de la codificación especifica, para la unidad predictora 107, un modo de predicción entre al menos un modo de predicción candidato que está predeterminado. Ejemplos del modo de predicción candidato incluyen un modo en el cual píxeles predichos son generados extrapolando píxeles adyacentes en la pantalla en una dirección predeterminada y un modo en el cual píxeles predichos son generados usando píxeles que tienen una correlación elevada con otra trama codificada y decodificada.
Además, la unidad predictora 107 calcula el coste de codificación, que es una suma ponderada de la información de predicción y de la información de correlación. Aquí, la información de predicción es información requerida para la generación de la señal 128 de imagen predicha, tal como información direccional para extrapolar píxeles adyacentes en la pantalla e información de la posición relativa (información del vector de movimiento) con otra trama. La información de correlación indica el grado de correlación entre la señal 121 de imagen dividida y la señal 128 de imagen predicha, y es, por ejemplo, una suma de diferencias absolutas entre la señal 121 de imagen dividida y la señal 128 de imagen predicha. La unidad predictora 107 calcula como coste de codificación, por ejemplo, un valor indicado en lo que sigue (Ecuación 1) que es denominado función de coste.
Además, la unidad predictora 107 calcula los costes de codificación y envía a la unidad diferencial 101 una señal 128 de imagen predicha que ha sido predicha en un modo de predicción que produce un costo menor de todos los modos de predicción candidatos. La unidad predictora 107 envía el modo de predicción, la información de predicción, y el coste de codificación que existen en ese momento a la unidad 108 de control de la codificación. La unidad 108 de control de la codificación envía el coste de codificación anteriormente descrito a la unidad 111 de control de división, y envía a la unidad codificadora 109 de longitud variable una señal 132 de control de la codificación que incluye el modo de predicción y la información de predicción.
Por ejemplo, como la anterior función de coste RD se usará una función J de coste de Lagrange indicada por la Ecuación 1
[Ecuación 1]
J = D Á-R (Ec. 1)
en la que R es la cantidad de codificación que se usa para codificar una imagen diferencial (información 124 de coeficientes de transformada cuantificados), el modo de predicción y la información de predicción, D es una cantidad de distorsión de codificación, y A es el multiplicador de Lagrange calculado según un parámetro de cuantificación QP que se usa para codificar. La unidad 108 de control de la codificación selecciona un modo de predicción que produzca la menor función de coste J como modo de predicción para su uso para la codificación.
Debería hacerse notar que pueden usarse valores de sustitución para los valores de R y D. Por ejemplo, como cantidad de codificación R puede usarse meramente la información del modo de predicción, y como cantidad de distorsión de codificación puede usarse una suma de la diferencia absoluta entre la señal 121 de imagen dividida y la señal 128 de imagen predicha.
La FIG. 4 es un diagrama de flujo que muestra la operación de la unidad 111 de control de división.
Aquí, en aras de la simplicidad, se muestra un ejemplo en el que el mayor tamaño de bloque es 64 píxeles horizontales x 64 píxeles verticales, el menor tamaño de bloque es 8 píxeles horizontales * 8 píxeles verticales, y la información del modo de división indica dos tipos, que incluyen un tipo que indica que un bloque está dividido (1) y un tipo que indica que un bloque no está dividido (0), según se muestra en la FIG. 2B y la FIG. 3B.
La unidad 111 de control de división obtiene los costes de codificación de las señales 121 de imagen dividida obtenidas por la unidad divisoria 110 dividiendo la señal 120 de imagen de entrada en bloques de 64 píxeles horizontales * 64 píxeles verticales. La unidad 111 de control de división establece entonces valores de los costes de codificación obtenidos como valores de coste (Coste_D0) de los bloques de 64 píxeles horizontales * 64 píxeles verticales (profundidad jerárquica 0) (etapa S401).
A continuación, la unidad 111 de control de división repone (pone a 0) “Coste_total_D1”, que indica un coste de codificación total para la siguiente profundidad jerárquica 1 (Profundidad = 1) (etapa S402).
Acto seguido, la unidad 111 de control de división lleva a cabo una iteración (el procesamiento efectuado entre las etapas S403 y S424) en los cuatro bloques (cuatro bloques en este ejemplo) a la profundidad jerárquica 1 (Profundidad = 1) obtenidos dividiendo el bloque de 64 píxeles horizontales * 64 píxeles verticales. En otras palabras, la unidad 111 de control de división repite las etapas S403 a S424 de procesamiento, poniendo secuencialmente un contador Bucle_D1 a 0, 1,2 y 3.
A continuación, la unidad 111 de control de división obtiene el coste de codificación de una señal de 32 píxeles horizontales * 32 píxeles verticales obtenida dividiendo adicionalmente el bloque a la profundidad jerárquica 0. La unidad 111 de control de división establece entonces el coste de codificación obtenido como el valor de coste (Coste_D1 [Bucle_D1]) del bloque de 32 píxeles horizontales * 32 píxeles verticales situado en una posición indicada por el contador Bucle_D1 (etapa S404). Debería hacerse notar que el orden de procesamiento cuando el contador Bucle_Dn = 0 a 3 puede ser igual cuando se codifica y se decodifica. Un ejemplo del orden de procesamiento incluye el de zigzag de arriba abajo.
Acto seguido, la unidad 111 de control de división repone (pone a 0) “Coste_total_D2”, que indica un coste de codificación total para la siguiente profundidad jerárquica 2 (Profundidad= 2) (etapa S405).
Acto seguido, la unidad 111 de control de división lleva a cabo una iteración (el procesamiento efectuado entre las etapas S406 y S418) en los cuatro bloques (cuatro bloques en este ejemplo) a la profundidad jerárquica 2 (Profundidad = 2) obtenidos dividiendo el bloque en la profundidad jerárquica superior 1 (Profundidad= 1) en Bucle_D1. En otras palabras, la unidad 111 de control de división repite las etapas S406 a S418 de procesamiento, poniendo secuencialmente un contador Bucle_D2 a 0, 1, 2 y 3.
A continuación, la unidad 111 de control de división obtiene el coste de codificación de una señal de 16 píxeles horizontales * 16 píxeles verticales obtenida dividiendo adicionalmente el bloque a la profundidad jerárquica 1. La unidad 111 de control de división establece entonces el coste de codificación obtenido como el valor de coste (Coste_D2 [Bucle_D2]) del bloque de 16 píxeles horizontales * 16 píxeles verticales situado en una posición indicada por el contador Bucle_D2 (etapa S407).
Asimismo, la unidad 111 de control de división repone (pone a 0) “Coste_total_D3”, que indica un coste de codificación total para la siguiente profundidad jerárquica 3 (Profundidad = 3) (etapa S408).
Acto seguido, la unidad 111 de control de división lleva a cabo una iteración (el procesamiento efectuado entre las etapas S409 y S412) en todos los bloques (cuatro bloques en este ejemplo) a la profundidad jerárquica 3 (Profundidad = 3) obtenidos dividiendo el bloque en la profundidad jerárquica superior 2 (Profundidad= 2) en Bucle_D2. En otras palabras, la unidad 111 de control de división repite las etapas S409 a S412 de procesamiento, poniendo secuencialmente un contador Bucle_D3 a 0, 1, 2 y 3.
A continuación, la unidad 111 de control de división obtiene el coste de codificación de una señal de 8 píxeles horizontales * 8 píxeles verticales obtenida dividiendo adicionalmente el bloque a la profundidad jerárquica 2. La unidad 111 de control de división establece entonces el coste de codificación obtenido como el valor de coste (Coste_D3 [Bucle_D3]) del bloque de 8 píxeles horizontales * 8 píxeles verticales situado en una posición indicada por el contador Bucle_D3 (etapa S410). La unidad 111 de control de división suma entonces Coste_D3 [Bucle_D3] a “Coste_total_D3” (etapa S411).
Acto seguido, si Bucle_D3 continúa, la unidad 111 de control de división incrementa en 1 el valor del contador Bucle_D3 y realiza la iteración. Cuando Bucle_D3 termina definitivamente, la unidad 111 de control de división prosigue a la siguiente etapa (etapa S412).
A continuación, la unidad 111 de control de división compara el “Coste_total_D3” calculado y el “Coste_D2 [Bucle_D2]” calculado anteriormente descritos (etapa S413). Cuando “Coste_D2 [Bucle_D2]” es mayor que “Coste_total_D3” (S í en la etapa S413), los bloques divididos tienen un coste de codificación menor que los bloques no divididos. Así, la unidad 111 de control de división pone “Tipo_D2 = 1”, indicativo de bloque dividido (etapa S414), y suma el valor de “Coste_total_D3” a “Coste_total_D2” (etapa S415).
Por otro lado, cuando “Coste_D2 [Bucle_D2]” es menor que “Coste_total_D3” (NO en la etapa S413), los bloques no divididos tienen un coste de codificación menor que los bloques divididos. Así, la unidad 111 de control de división pone “Tipo_D2 = 0”, indicativo de bloque no dividido (etapa S416), y suma el valor de “Coste_D2 [Bucle_D2]” a “Coste_total_D2” (etapa S417).
Acto seguido, si Bucle_D2 continúa, la unidad 111 de control de división incrementa en 1 el valor del contador Bucle_D3 y realiza la iteración. Cuando Bucle_D2 termina definitivamente, la unidad 111 de control de división prosigue a la siguiente etapa (etapa S418).
A continuación, la unidad 111 de control de división compara el “Coste_total_D2” calculado y el “Coste_D1 [Bucle_D1]” calculado anteriormente descritos (etapa S419). Cuando “Coste_D1 [Bucle_D1]” es mayor que “Coste_total_D2” (S í en la etapa S419), los bloques divididos tienen un coste de codificación menor que los bloques no divididos. Así, la unidad 111 de control de división pone “Tipo_D1 = 1”, indicativo de bloque dividido (etapa S420), y suma el valor de “Coste_total_D2” a “Coste_total_D1” (etapa S421).
Por otro lado, cuando “Coste_D1 [Bucle_D1]” es mayor que “Coste_total_D2” (NO en la etapa S419), los bloques no divididos tienen un coste de codificación menor que los bloques divididos. Así, la unidad 111 de control de división pone “Tipo_D1 = 0”, indicativo de bloque no dividido (etapa S422), y suma el valor de “Coste_D1 [Bucle_D1]” a “Coste_total_D1” (etapa S423).
Acto seguido, si Bucle_D1 continúa, la unidad 111 de control de división incrementa en 1 el valor del contador Bucle_D1 y realiza la iteración. Cuando Bucle_D1 termina definitivamente, la unidad 111 de control de división prosigue a la siguiente etapa (etapa S424).
Por último, la unidad 111 de control de división compara el “Coste_total_D1” calculado y el “Coste_D0” calculado anteriormente descritos (etapa S425). Cuando “Coste_D0” es mayor que “Coste_total_D1” (SÍ en la etapa S425), los bloques divididos tienen un coste de codificación menor que los bloques no divididos. Así, la unidad 111 de control de división pone “Tipo_D0 = 1”, indicativo de bloque dividido (etapa S426).
Por otro lado, cuando “Coste_D0” es menor que “Coste_total_D1” (NO en la etapa S425), los bloques no divididos tienen un coste de codificación menor que los bloques divididos. Así, la unidad 111 de control de división pone “Tipo_D0 = 0”, indicativo de bloque no dividido (etapa S427).
Según el procedimiento anterior, la unidad 111 de control de división puede determinar el patrón de división que produzca el menor coste de codificación.
Debería hacerse notar que el método para determinar el patrón de división es a título de ejemplo, y la presente invención no está limitada al mismo. Por ejemplo, la unidad 111 de control de división puede analizar la señal 121 de imagen dividida obtenida por la unidad divisoria 110; dividir una región —en la que la varianza de la distribución de valores de píxel es elevada— de la señal 121 de imagen dividida en bloques pequeños; y dividir una región —en la que la distribución de píxeles es coherente— de la señal 121 de imagen dividida en bloques grandes. Esto permite la reducción del tamaño del circuito del dispositivo 100 de codificación de imágenes.
Alternativamente, como método adicional para determinar el patrón de división, la unidad 111 de control de división puede determinar el patrón de división mediante un método determinado en función del resultado de la división de los bloques circundantes codificados y decodificados. Alternativamente, como método adicional para determinar el patrón de división, la unidad 111 de control de división puede determinar el patrón de división utilizando el resultado de la división de bloques en otra trama codificada y decodificada. Se describirán detalles de estos métodos con referencia a la realización 3.
A continuación, se describirá, con referencia a la FIG. 5, un método en el cual la unidad 112 de descripción de la información de división describe la información 131 de división.
La unidad 111 de control de división envía a la unidad 112 de descripción de la información de división la información 130 de división indicativa del patrón de división determinada por el anterior método. Aquí, la información 130 de división está descrita por la información del modo de división jerárquica o por la información del modo de división anteriormente definidas. La unidad 112 de descripción de la información de división genera, a partir de la información 130 de división, la información 131 de división que ha de ser codificada por la unidad codificadora 109 de longitud variable.
En primer lugar, la unidad 112 de descripción de la información de división obtiene la información del modo de división jerárquica (Tipo_D0 a Tipo_D2) para cada profundidad jerárquica incluida en la información 130 de división (etapa S501).
Cuando Tipo_D0 es 0 (SÍ en la etapa S502), no se divide el mayor bloque en la profundidad jerárquica (Profundidad = 0). Así, la unidad 112 de descripción de la información de división pone una variable “profundidad_máxima_usada” a “0”, indicativo de Profundidad = 0 (etapa S503). Aquí, la variable “profundidad_máxima_usada” es información de la máxima profundidad jerárquica usada indicativa de la máxima profundidad jerárquica usada. La máxima profundidad jerárquica usada indica la mayor profundidad entre las profundidades jerárquicas usadas en el mayor tamaño de bloque. En otras palabras, la máxima profundidad jerárquica usada es la profundidad jerárquica del bloque más profundo entre los bloques divididos.
Cuando Tipo_D0 no es 0 (NO en la etapa S502), la unidad 112 de descripción de la información de división determina a continuación si todo el Tipo_D1 es 0 (etapa S504). Cuando todo el Tipo_D1 es 0 (SÍ en la etapa S504), no se dividen los bloques en la profundidad jerárquica 1 (Profundidad = 1). Así, la unidad 112 de descripción de la información de división pone la variable “profundidad_máxima_usada” a “1”, indicativo de Profundidad = 1 (etapa S505).
Por otro lado, cuando al menos un Tipo_D1 no es 0 (NO en la etapa S504), a continuación, la unidad 112 de descripción de la información de división determina si todo el Tipo_D2 es 0 (etapa S506). Cuando todo el Tipo_D2 es 0 (SÍ en la etapa S506), no se dividen los bloques en la profundidad jerárquica profundidad jerárquica 2 (Profundidad = 2). Así, la unidad 112 de descripción de la información de división pone la variable “profundidad_máxima_usada” a “2”, indicativo de Profundidad = 2 (etapa S507).
Por otro lado, cuando al menos un Tipo_D2 no es 0 (NO en la etapa S506), se divide hasta el menor tamaño de bloque. Así, la unidad 112 de descripción de la información de división pone la variable “profundidad_máxima_usada” a “3”, indicativo de Profundidad = 3 (etapa S508).
A continuación, la unidad 112 de descripción de la información de división determina si al menos un Tipo_D1 está puesto a 0 (etapa S509). Cuando al menos un Tipo_D1 está puesto a 0 (SÍ en la etapa S509), ello indica que hay un bloque no dividido entre los bloques que tienen un tamaño en el que se cumple que Profundidad = 1. Así, la unidad 112 de descripción de la información de división pone la variable “profundidad_mínima_usada” a “1”, indicativo de Profundidad = 1 (etapa S510). Aquí, la variable “profundidad_mínima_usada” es información de la mínima profundidad jerárquica usada indicativa de la mínima profundidad jerárquica usada. La mínima profundidad jerárquica usada indica la profundidad más superficial entre las profundidades jerárquicas usadas en el mayor tamaño de bloque. En otras palabras, la mínima profundidad jerárquica usada es la profundidad jerárquica del bloque más superficial entre los bloques divididos.
Por otro lado, cuando ningún Tipo_D1 está puesto a 0 (NO en la etapa S509), a continuación, la unidad 112 de descripción de la información de división determina si al menos un Tipo_D2 está puesto a 0 (etapa S511). Cuando al menos un Tipo_D2 está puesto a 0 (SÍ en la etapa S511), ello indica que hay un bloque no dividido entre los bloques que tienen un tamaño en el que se cumple que Profundidad = 2. Así, la unidad 112 de descripción de la información de división pone la variable “profundidad_mínima_usada” a “2”, indicativo de Profundidad = 2 (etapa S512).
Cuando ningún Tipo_D2 está puesto a 0 (NO en la etapa S511), se dividen todos los bloques que tienen un tamaño en el que se cumple que Profundidad = 2. Así, la unidad 112 de descripción de la información de división pone la variable “profundidad_mínima_usada” a “3”, indicativo de Profundidad = 3 (etapa S513).
La unidad 112 de descripción de la información de división determina “profundidad_máxima_usada” según se ha descrito anteriormente. Además, la unidad 112 de descripción de la información de división determina “profundidad_mínima_usada” únicamente cuando “profundidad_máxima_usada = 3”. Además, la unidad 112 de descripción de la información de división determina, en función de “profundidad_máxima_usada” y “profundidad_mínima_usada”, que la información 130A del modo de división está codificada con longitud variable por la unidad codificadora 109 de longitud variable entre las informaciones del modo de división incluidas en la información 130 de división. Entonces, la unidad 112 de descripción de la información de división genera la información 131 de división que incluye “profundidad_máxima_usada”, “profundidad_mínima_usada” y la información determinada 130A del modo de división, y envía la información generada 131 de división a la unidad codificadora 109 de longitud variable.
Aquí, se describirán con referencia a las FIGURAS 6A, 6B y 6C detalles de una señal que ha de ser codificada con longitud variable por la unidad codificadora 109 de longitud variable.
Las FIGURAS 6A a 6C son vistas esquemáticas que muestran la información 130 y 131 de división sobre resultados de divisiones de bloques diferentes.
En primer lugar, se describirá el resultado de la división de bloques mostrada en la FIG. 6A. En este caso, la información 130 de división incluye, como información del modo de división, “1” para un bloque de 64 * 64, “0101” para bloques de 32 * 32, y “0000” y “0000” para bloques de 16 * 16 obtenidos dividiendo los dos bloques de 32 * 32 que tienen “1” (bloques divididos) como información del modo de división. La unidad 112 de descripción de la información de división determina que, en este caso, “profundidad_máxima_usada” es “2”. En este caso, dado que la máxima profundidad jerárquica como consecuencia de la división es 2, es innecesaria la información “0000” y “0000”, que indica que los bloques de 16 * 16 no están divididos. Así, la unidad 112 de descripción de la información de división determina únicamente la información del modo de división “0101” en los bloques de 32 * 32 como información 130A del modo de división para ser codificada. La unidad codificadora 109 de longitud variable codifica entonces con longitud variable la información 131 de división que incluye “profundidad_máxima_usada” y la información del modo de división “0101” en los bloques de 32 * 32.
En este ejemplo, la información del modo de división es tratada como información indicativa de bloque dividido (1) y de bloque no dividido (0), y, así, la longitud en bits de la información 130 de división está representada por 13 bits. Por otro lado, al determinar la unidad 112 de descripción de la información de división la máxima profundidad jerárquica usada, la información 131 de división codificada con longitud variable por la unidad codificadora 109 de longitud variable incluye 4 bits de la información del modo de división y de “profundidad_máxima_usada”. Aquí, “profundidad_máxima_usada” está fijada entre 0 y 3 (en este ejemplo, hasta la profundidad jerárquica 3), y, así, puede ser representada por 2 bits. En otras palabras, en este caso, 13 bits de información pueden estar representados por 6 bits.
A continuación, se describirá el resultado de otra división de bloques mostrada en la FIG. 6B. Como antes, la información 130 de división incluye, como información del modo de división, “1” para un bloque de 64 * 64, “1111” para bloques de 32 * 32, y “0000”, “0001”, “0000” y “1100” para bloques de 16 * 16 obtenidos dividiendo cuatro bloques de 32 * 32 que tienen “1” (bloques divididos) como información del modo de división. La unidad 112 de descripción de la información de división determina que, en este caso, “profundidad_máxima_usada” es “3” y “profundidad_mínima_usada” es “2”. En este caso, dado que la mínima profundidad jerárquica como consecuencia de la división es 2, es innecesaria la información del modo de división “1111” que indica que los bloques de 32 * 32 están divididos. Así, la unidad 112 de descripción de la información de división determina solo cuatro informaciones del modo de división en los bloques de 16 * 16 como información 130A del modo de división que ha de ser codificada. Entonces, la unidad codificadora 109 de longitud variable codifica con longitud variable la información 131 de división que incluye “profundidad_máxima_usada”, “profundidad_mínima_usada”, y la información del modo de división “0000”, “0001”, “0000” y “1100” en los bloques de 16 * 16.
Considerando la longitud de bits como en la FIG. 6A, la longitud de bits de la información 130 de división es 21 bits. Por otro lado, la información 131 de división de longitud variable codificada por la unidad codificadora 109 de longitud variable incluye 16 bits de la información del modo de división, “profundidad_máxima_usada” y “profundidad_mínima_usada”. Aquí, la “profundidad_máxima_usada” es, como se ha descrito anteriormente, de 2 bits. La “profundidad_mínima_usada” está fijada entre 1 y 3, y, así, puede ser representada por 1 bit o 2 bits. Así, 21 bits de información pueden estar representados por 20 bits.
A continuación, se describirá el resultado de otra división de bloques mostrada en la FIG. 6C. Como antes, la información 130 de división incluye, como información del modo de división, “1” para un bloque de 64 * 64, “1111” para bloques de 32 * 32, y “1111”, “1111”, “1111” y “1111” para bloques de 16 * 16 obtenidos dividiendo cuatro bloques de 32 * 32 que tienen “1” (bloque dividido) como información del modo de división. La unidad 112 de descripción de la información de división determina que en este caso, “profundidad_máxima_usada” es “3” y “profundidad_mínima_usada” es “3”. En este caso, dado que la mínima profundidad jerárquica como consecuencia de la división es 3, es innecesaria la información del modo de división “1111” que indica que los bloques de 32 * 32 y los bloques de 16 * 16 están divididos. Así, la unidad codificadora 109 de longitud variable codifica con longitud variable la información 131 de división que incluye “profundidad_máxima_usada” y “profundidad_mínima_usada”.
La longitud de bits será considerada como en la FIG. 6A y la FIG. 6B. La longitud de bits de la información 130 de división está representada por 21 bits. Al determinar la unidad 112 de descripción de la información de división la máxima profundidad jerárquica usada y la mínima profundidad jerárquica usada, la información 131 de división codificada con longitud variable incluye “profundidad_máxima_usada” y “profundidad_mínima_usada”. Aquí, “profundidad_mínima_usada” es 2 bits y “profundidad_mínima_usada” es 1 bit o 2 bits como se ha descrito anteriormente. Así, en este caso, 21 bits de información pueden estar representados por 4 bits.
Debería hacerse notar que puede usarse información estadística para la codificación de longitud variable para asignar a una señal que se presenta frecuentemente una longitud corta de bits y asignar a una señal que se presenta menos una longitud larga de bits. También puede usarse un modelo probabilístico dinámico como codificación aritmética para la codificación de longitud variable. En otras palabras, puede verse, aunque se trate de un valor de referencia, que el método de descripción de la información de división según la presente realización aumenta la posibilidad de que pueda reducirse una mayor cantidad de codificación.
Como se ha descrito anteriormente, la unidad predictora 107 genera la señal 128 de imagen predicha a partir de la señal 127 de imagen decodificada, que es una señal de imagen codificada. Entonces, la unidad predictora 107 envía a la unidad diferencial 101 y al sumador 106 la señal 128 de imagen predicha generada.
La unidad diferencial 101 calcula una diferencia entre la señal 121 de imagen dividida, que es una señal obtenida dividiendo la señal 120 de imagen de entrada, y la señal 128 de imagen predicha para generar una señal diferencial 122, y envía a la unidad 102 de transformada la señal diferencial generada 122.
La unidad 102 de transformada transforma la señal diferencial 122 para generar coeficientes 123 de transformada, y envía los coeficientes generados 123 de transformada a la unidad 103 de cuantificación.
La unidad 103 de cuantificación cuantifica los coeficientes 123 de transformada para generar la información 124 de coeficientes de transformada cuantificados, y envía a la unidad codificadora 109 de longitud variable y a la unidad 104 de cuantificación inversa la información 124 de coeficientes de transformada cuantificados generada.
La unidad 104 de cuantificación inversa cuantifica de manera inversa la información 124 de coeficientes de transformada cuantificados para generar coeficientes 125 de transformada, y envía los coeficientes 125 de transformada generados a la unidad 105 de transformada inversa. La unidad 105 de transformada inversa lleva a cabo una transformada inversa en los coeficientes 125 de transformada para generar una señal 126 de imagen residual decodificada, y envía la señal 126 de imagen residual decodificada generada al sumador 106.
El sumador 106 suma la señal 126 de imagen residual decodificada y la señal 128 de imagen predicha para generar la señal 127 de imagen decodificada, y envía la señal 127 de imagen decodificada generada a la unidad predictora 107.
La unidad codificadora 109 de longitud variable codifica con longitud variable la información 124 de coeficientes de transformada cuantificados, que es una señal que ha de ser codificada, la señal 132 de control de la codificación, y la información 131 de división, según el tipo de señal, para generar la secuencia 140 de código.
Debería hacerse notar que los detalles de la estructura de la secuencia 140 de código en el anterior método de descripción de la información de división será descrita con referencia a la realización 4.
Además, el anterior método para determinar el patrón de división es a título de ejemplo, y la presente invención no está limitada al mismo. Puede usarse, por ejemplo, el resultado de dividir bloques codificados circundantes. También puede usarse el resultado de dividir otra trama codificada. Los detalles en estos casos serán descritos con referencia a la realización 3.
Debería hacerse notar que, aunque, en la presente realización, se ha descrito la división del macrobloque, que es una unidad codificadora, la presente invención no está limitada a ello. Por ejemplo, las unidades en las que la unidad 102 de transformada lleva a cabo la transformada pueden ser descritas de la misma manera. Este caso será descrito con detalle con referencia a la realización 4.
Debería hacerse notar que, aunque se ha descrito el caso que usa dos tipos que incluyen un tipo que indica que un bloque está dividido en cuatro bloques y un tipo que indica que un bloque no está dividido, la presente invención no está limitada a ello. Por ejemplo, de forma similar al caso de la BNP 1, la presente invención es aplicable a casos en los que el bloque es dividido en formas no cuadradas (16 píxeles * 8 píxeles, 8 píxeles * 16 píxeles). Los detales en este caso serán descritos con referencia a la realización 5.
Debería hacerse notar que, si la unidad codificadora 109 de longitud variable descrita en lo que antecede emplea codificación aritmética, pueden cambiarse los modelos probabilísticos usados para la codificación aritmética en función de la información de forma del bloque codificado y/o de la información sobre la máxima profundidad jerárquica usada y/o de información sobre la mínima profundidad jerárquica usada. Cabe esperar que esto mejore adicionalmente la eficacia de la codificación.
Debería hacerse notar que, si la unidad codificadora 109 de longitud variable descrita en lo que antecede emplea una tabla de códigos de longitud variable, en el anterior cálculo de la longitud en bits, cuando la reducción de la información de división es grande, puede asignarse una longitud grande en bits a la información sobre la máxima profundidad jerárquica usada y/o sobre la mínima profundidad jerárquica usada, y, cuando la reducción es pequeña, puede asignarse una longitud corta en bits a la información sobre la máxima profundidad jerárquica usada y/o sobre la mínima profundidad jerárquica usada. Esto puede aumentar adicionalmente una tasa de mejora de la eficacia de codificación por la presente realización.
Debería hacerse notar que, aunque en la descripción detallada de la presente realización, el mayor tamaño de bloque es 64 píxeles horizontales * 64 píxeles verticales y el menor tamaño de bloque es 8 píxeles horizontales * 8 píxeles verticales, la presente invención es aplicable con independencia del tamaño.
(Realización 2)
En una realización 2 según la presente invención, se describirá un dispositivo 200 de decodificación de imágenes que decodifica la secuencia 140 de código generada por el dispositivo 100 de codificación de imágenes anteriormente descrito.
La FIG. 7 es un diagrama de bloques del dispositivo 200 de decodificación de imágenes que usa una unidad 207 de reconstrucción de la información de división según la presente realización. El dispositivo 200 de decodificación de imágenes mostrado en la FIG. 7 incluye una unidad decodificadora 201 de longitud variable, una unidad 202 de control de la decodificación, una unidad 203 de cuantificación inversa, una unidad 204 de transformada inversa, una unidad predictora 205, un sumador 206 y la unidad 207 de reconstrucción de la información de división. Debería hacerse notar que la unidad predictora 205 puede incluir una memoria en la misma.
La secuencia 140 de código es una secuencia de código generada por el dispositivo 100 de codificación de imágenes según la realización 1 de la presente invención. La secuencia 140 de código es suministrada a la unidad decodificadora 201 de longitud variable.
La unidad decodificadora 201 de longitud variable decodifica con longitud variable la información de división que está incluida en la secuencia 140 de código. Específicamente, la unidad decodificadora 201 de longitud variable decodifica con longitud variable la secuencia 140 de código para generar una señal decodificada 221, y envía la señal decodificada generada 221 a la unidad 207 de reconstrucción de la información de división, a la unidad 202 de control de la decodificación y a la unidad 203 de cuantificación inversa. Debería hacerse notar que la unidad decodificadora 201 de longitud variable lleva a cabo el procesamiento en unidades de división en función de información de división 226 obtenida por la unidad 207 de reconstrucción de la información de división.
Cuando la señal decodificada 221 son coeficientes cuantificados de transformada, la unidad 203 de cuantificación inversa cuantifica de manera inversa la señal decodificada 221 para generar coeficientes 222 de transformada. La unidad 204 de transformada inversa lleva a cabo una transformada inversa en los coeficientes 222 de transformada para generar una señal 223 de imagen residual decodificada, y envía al sumador 206 la señal 223 de imagen residual decodificada generada.
Cuando la señal decodificada 221 es información 225 relativa a la generación de imagen predicha indicativa de método de predicción, la unidad 202 de control de la decodificación envía a la unidad predictora 205 la información 226 de división obtenida por la unidad 207 de reconstrucción de la información de división y la información 225 relativa a la generación de imagen predicha. Aquí, la información 225 relativa a la generación de imagen predicha corresponde a la señal 132 de control de la codificación en el dispositivo 100 de codificación de imágenes, e incluye, por ejemplo, el modo de predicción y la información de predicción.
La unidad predictora 205 genera una señal 224 de imagen predicha en unidades de división en función de la información 226 de división, usando la señal de imagen decodificada que ha sido decodificada (señal 240 de imagen producida) y la información 225 relativa a la generación de imagen predicha obtenida de la unidad 202 de control de la decodificación, y envía al sumador 206 la señal 224 de imagen predicha generada. El sumador 206 suma la señal 223 de imagen residual decodificada y la señal 224 de imagen predicha para generar la señal de imagen decodificada (señal 240 de imagen producida).
Debería hacerse notar que, cuando la señal decodificada 221 es información de decodificación de la división, la unidad 207 de reconstrucción de la información de división reconstruye la información 226 de división a partir de la información de decodificación de la división para determinar un patrón de división. Aquí, la información de decodificación de la división corresponde a la información 131 de división en el dispositivo 100 de codificación de imágenes. La información 226 de división representa el patrón de división y corresponde a la información 130 de división según la realización 1. Se describirán detalles del flujo de procesamiento con referencia a la FIG. 8.
La unidad 207 de reconstrucción de la información de división obtiene el valor de “profundidad_máxima_usada” en la información de decodificación de la división (etapa S801). Cuando “profundidad_máxima_usada” es 0 (NO en la etapa S802 y NO en la etapa S803), la unidad 207 de reconstrucción de la información de división determina que el mayor tamaño de bloque no ha de ser dividido (etapa S804). Por otro lado, cuando “profundidad_máxima_usada” es 1 (No en la etapa S802 y SÍ en la etapa S803), la unidad 207 de reconstrucción de la información de división determina que el bloque ha de ser dividido en bloques, teniendo todos ellos un tamaño en el que se cumple que Profundidad = 1 (el tamaño de los bloques obtenidos dividiendo el mayor bloque en cuatro) (etapa S805).
Cuando “profundidad_máxima_usada” es 2 (SÍ en la etapa S802 y NO en la etapa S806), la unidad 207 de reconstrucción de la información de división obtiene el “Tipo_D1” de cada bloque, cambiando el contador para los bloques a la Profundidad1 en el orden 0, 1, 2 y 3 (etapa S807 a etapa S809).
La unidad 207 de reconstrucción de la información de división divide el mayor bloque en función del Tipo_D1 obtenido (etapa S810). Debería hacerse notar que Tipo_D1 es información para especificar, en orden — por ejemplo, en zigzag de arriba abajo— un patrón de división para cada uno de los cuatro bloques obtenidos dividiendo el mayor bloque. La unidad 207 de reconstrucción de la información de división determina, en función del Tipo_D1, si cada bloque obtenido dividiendo el mayor bloque ha de ser dividido, para determinar el patrón de división del mayor bloque.
Cuando “profundidad_máxima_usada” es 3 (SÍ en la etapa S802 y SÍ en la etapa S806), la unidad 207 de reconstrucción de la información de división obtiene “profundidad_mínima_usada” (etapa S811).
Cuando “profundidad_mínima_usada” es 3 (NO en la etapa S812 y NO en la etapa S813), la unidad 207 de reconstrucción de la información de división determina que el mayor bloque ha de ser dividido en bloques, teniendo todos ellos un tamaño en el que se cumple que Profundidad = 3 (el tamaño de los bloques obtenidos dividiendo el mayor bloque en 64) (etapa S814).
Cuando “profundidad_mínima_usada” es 2 (NO en la etapa S812 y SÍ en la etapa S813), la unidad 207 de reconstrucción de la información de división cambia un contador en el orden 0, 1, 2 y 3 para los bloques en la Profundidad 1, y cambia un contador en el orden 0, 1, 2 y 3 para los bloques en la Profundidad2, que es una profundidad jerárquica más profunda en una unidad que Profundidad1, obteniendo con ello, a su vez, “Tipo_D2” de cada uno de los bloques en la Profundidad2 (etapa S815 a etapa S819). Entonces, suponiendo que todos los bloques tienen un Tipo_D1 que es 1, la unidad 207 de reconstrucción de la información de división divide el mayor bloque en función de Tipo_D2 (etapa S820). Específicamente, la unidad 207 de reconstrucción de la información de división divide el mayor bloque en bloques, teniendo todos ellos un tamaño en el que se cumple que Profundidad = 2. Entonces, en función del Tipo_D2, la unidad 207 de reconstrucción de la información de división determina si cada bloque ha de ser dividido, determinando con ello el patrón de división del mayor bloque.
Cuando “profundidad_mínima_usada” es 1 (SÍ en la etapa S812), la unidad 207 de reconstrucción de la información de división lleva a cabo una iteración (el procesamiento efectuado entre la etapa S821 y la etapa S827) mientras cambia el contador en el orden 0, 1, 2 y 3 para los bloques a Profundidad1, para obtener el “Tipo_D1” de cada bloque a Profundidad1 (etapa S822).
Debería hacerse notar que, cuando “Tipo_D1” no es 0 (NO en la etapa S823), la unidad 207 de reconstrucción de la información de división lleva a cabo una iteración (el procesamiento efectuado entre la etapa S824 y la etapa S826) mientras cambia el contador en el orden 0, 1, 2 y 3 para los bloques a Profundidad2, para obtener el “Tipo_D2” de cada bloque a Profundidad2 (etapa S825). A continuación, la unidad 207 de reconstrucción de la información de división aumenta en 1 el contador para Profundidad!
Por otro lado, cuando “Tipo_D1” es 0 (SÍ en la etapa S823), la unidad 207 de reconstrucción de la información de división aumenta en 1 el contador para Profundidad1 (etapa S827). Una vez que terminan todos los bucles, la unidad 207 de reconstrucción de la información de división determina el patrón de división del mayor bloque, en función de Tipo_D1 y Tipo_D2, que son información que indica si cada uno de los bloques correspondientes a Profundidad1 y Profundidad2, respectivamente, para cada profundidad jerárquica ha de ser dividido (etapa S828).
El procesamiento según se ha descrito anteriormente permite decodificar correctamente la secuencia 140 de código codificada por el método de codificación según la realización 1. Como se ha descrito anteriormente, la presente invención puede lograr un método de codificación que proporciona alta eficacia de codificación y un método de decodificación.
(Ejemplo 3)
En el presente ejemplo, se describirá un caso en el que una unidad 112 de descripción de la información de división predice el patrón de división.
La unidad 112 de descripción de la información de división usa un patrón de división de un bloque codificado para estimar un patrón de división predicho que es un valor predicho del patrón de división de un bloque que ha de ser procesado. Una unidad 111 de control de división determina el patrón de división del bloque que ha de ser procesado, usando el patrón de división predicho estimado.
Debería hacerse notar que la unidad 112 de descripción de la información de división puede usar un patrón de división de un bloque que es adyacente al bloque que ha de ser procesado y está en la misma trama que el bloque que ha de ser procesado, para estimar el patrón de división del bloque que ha de ser procesado, o puede usar un patrón de división de un bloque incluido en otra trama temporal para estimar el patrón de división del bloque que ha de ser procesado.
En primer lugar, se describirá un método que predice un patrón de división de un bloque que ha de ser procesado (también descrito en lo sucesivo como bloque actual) a partir de un patrón de división de un bloque adyacente codificado y decodificado (también denominado en lo sucesivo bloque adyacente), con referencia a las FIGURAS 9A, 9B, 9C, 9D, 9E, 9F, 9G, 9H, 9I, 9J, 9K y 9L y a la FIG. 10. Las FIGURAS 9A a 9L son vistas esquemáticas que ilustran casos en los que la información de división del bloque actual es predicha a partir de información de división de un bloque adyacente.
Las FIGURAS 9A a 9L muestran ejemplos en los que se predice un bloque actual 900 usando bloques adyacentes 901 y 902. Aquí, la FIG. 9A, la FIG. 9E y la FIG. 9I muestran cada una un caso en el que se prioriza a un bloque adyacente izquierdo con respecto al bloque actual 900 cuando un bloque adyacente en el bloque actual 900 no es usado para la predicción. La FIG. 9B, la FIG. 9F y la FIG. 9J muestran cada una un caso en el que se prioriza a un bloque adyacente superior con respecto al bloque actual 900 cuando un bloque adyacente en el bloque actual 900 no es usado para la predicción. La FIG. 9C, la FIG. 9G y la FIG. 9K muestran cada una un caso en el que se prioriza a un bloque adyacente izquierdo cuando un bloque adyacente en el bloque actual 900 es usado para la predicción. La FIG. 9D, la FIG. 9H y la FIG. 9L muestran cada una un caso en el que se prioriza a un bloque adyacente superior cuando un bloque adyacente en el bloque actual 900 es usado para la predicción.
Las FIGURAS 9A a 9H muestran casos en las que no se impone en particular ninguna restricción de predicción. Las FIGURAS 9I a 9L muestran casos en los que se especifica el máximo bloque jerárquico predicho (Profundidad = 2 en este caso).
La FIG. 10 es un diagrama de flujo que ilustra un procedimiento para predecir el patrón de división.
Aquí, la unidad 112 de descripción de la información de división realiza el procesamiento de predicción en el mismo orden que el procesamiento para determinar el patrón de división (por ejemplo, en un orden de zigzag de arriba abajo), y, con respecto a la jerarquía (Profundidad), el procesamiento de predicción se lleva a cabo en el orden de arriba (Profundidad = 0) abajo (Profundidad = la profundidad jerárquica del menor tamaño de bloque).
En primer lugar, la unidad 112 de descripción de la información de división obtiene, para el bloque actual, información de división de un bloque procesado adyacente que es adyacente al bloque actual (etapa S1001). La información de división aquí obtenida es de un bloque adyacente a la misma profundidad jerárquica que el bloque actual. Cuando no hay ninguna información de división de un bloque adyacente a la misma profundidad jerárquica, la unidad 112 de descripción de la información de división determina que la información de división del bloque actual es “bloque no dividido”.
Cuando la información de división tanto del bloque adyacente superior como del bloque adyacente izquierdo o la información de división de un bloque adyacente, que sea el bloque adyacente superior o el bloque adyacente izquierdo que recibe prioridad con respecto al otro, indica “bloque no dividido” (SÍ en la etapa S1002), la unidad 112 de descripción de la información de división predice que el bloque actual no ha de ser dividido (etapa S1003). Por otro lado, cuando la información de división de un bloque adyacente, que sea el bloque adyacente superior o el bloque adyacente izquierdo que recibe prioridad con respecto al otro, indica “bloque dividido” (NO en la etapa S1002), la unidad 112 de descripción de la información de división predice que el bloque actual ha de ser dividido (etapa S1004). Si la unidad 112 de descripción de la información de división predice que el bloque actual ha de ser dividido, se lleva a cabo el mismo procesamiento para la siguiente profundidad jerárquica.
La información que indica cuál del bloque adyacente superior y del bloque adyacente izquierdo es priorizado puede ser transmitida en la información de cabecera descrita posteriormente, o puede ser predeterminada cuando se codifique y se decodifique.
Como en las FIGURAS 9A, 9B, 9E, 9F, 9I y 9J, cuando se obtiene la información de división del bloque adyacente, pueden no considerarse procesados los bloques adyacentes en el mayor tamaño de bloque (el tamaño indicado por Profundidad = 0) que ha de ser predicho. En otras palabras, cuando un bloque dividido incluido en el bloque actual 900 que tiene el mayor tamaño de bloque es el bloque actual, la unidad 112 de descripción de la información de división usa únicamente la información de división de bloques adyacentes incluida en los bloques adyacentes 901 y 902 para la predicción, sin usar la información de división de un bloque adyacente incluida en el bloque actual 900. En este caso, la predicción de división puede realizarse usando únicamente la información de división del bloque adyacente superior y la del bloque adyacente izquierdo. Así, puede aumentar la velocidad de procesamiento.
Por otro lado, dado que la predicción se lleva a cabo en el mismo orden que el orden de procesamiento (por ejemplo, en el orden en zigzag de arriba abajo), la información de predicción de división de un bloque adyacente en el mayor tamaño de bloque también puede ser usada como en las FIGURAS 9C, 9D, 9G, 9H, 9K y 9L. En este caso, la precisión de la predicción puede ser mejorada y, por ello, cabe esperar la reducción de una mayor cantidad de codificación.
Además, dado que la predicción se lleva a cabo en el mismo orden que el orden de procesamiento, también puede utilizarse la información de división determinada. En este caso, la precisión de la predicción puede ser mejorada adicionalmente y, por ello, cabe esperar la reducción de una mayor cantidad de codificación.
Debería hacerse notar que al menos ha de usarse la información de si ha de usarse la información de predicción de división procesada en el mayor tamaño de bloque o de si ha de usarse la información de división procesada, que puede ser transmitida en la información de cabecera descrita posteriormente o puede ser predeterminada cuando se codifique y se decodifique.
A continuación, se describirá un método para predecir el patrón de división de un bloque actual a partir del patrón de división de un bloque en otra trama codificada y decodificada con referencia a la FIG. 11A y a la FIG. 11B. La FIG.
11A y la FIG. 11B son vistas esquemáticas que ilustran el caso en el que el patrón de división del bloque actual se predice a partir del patrón de división del bloque en la trama codificada y decodificada. La FIG. 11A es una vista esquemática que muestra el resultado predicho de dividir bloques en una trama procesada 1101 que ha sido codificada y decodificada, y la predicción de división en el bloque actual en una trama actual 1102 que ha de ser codificada y decodificada.
Aquí, información de la posición relativa de la forma dividida mostrada en la FIG. 11A es información que indica qué bloque ha de usarse en qué trama predicitva para la predicción. Debería hacerse notar que, según se muestra en la FIG. 11B, el uso de un resultado de división de una trama procesada 1104 anteriormente en el tiempo que una trama actual 1103 o de una trama procesada 1105 posteriormente en el tiempo que la trama actual 1103 permite una predicción eficaz.
Debería hacerse notar que la unidad 112 de descripción de la información de división puede determinar la información de la posición relativa de la forma dividida de un bloque que ha de ser dividido (el mayor tamaño de bloque), en función de información representativa de vectores de movimiento entre informaciones de vectores de movimiento usadas para una intrapredicción calculada por un método predeterminado. Por ejemplo, la unidad 112 de descripción de la información de división calcula un valor mediana de un vector de movimiento de un bloque adyacente y también calcula un valor mediana de un vector de movimiento de una trama de referencia de la misma manera. Entonces, la unidad 112 de descripción de la información de división puede usar como información de la posición relativa de la forma dividida el vector de movimiento basado en los valores mediana calculados.
Alternativamente, si un bloque que ha de ser dividido incluye vectores de movimiento, la unidad 112 de descripción de la información de división puede usar como información de la posición relativa de la forma dividida la información en el vector de movimiento inicial y la trama de referencia tal cual. En estos casos, no hay ninguna necesidad de transmitir información adicional para la predicción, y, así, puede reducirse la cantidad de codificación. Debería hacerse notar que, también en este caso, el dispositivo 100 de codificación de imágenes puede transmitir por separado la información de la posición relativa de la forma dividida. Por ejemplo, el dispositivo 100 de codificación de imágenes deduce primero la información de división de un bloque que ha de ser dividido. A continuación, a partir de una trama codificada, el dispositivo 100 de codificación de imágenes calcula como información de la posición relativa de la forma dividida la información de la posición relativa entre un bloque que ha de ser dividido y un bloque que tiene la misma información de división, o la más cercana, como bloque que ha de ser dividido. Entonces, el dispositivo 100 de codificación de imágenes codifica y decodifica la información de la posición relativa de la forma dividida de la misma manera como, por ejemplo, información de vectores de movimiento que la unidad predictora 107 usa para la intrapredicción.
A continuación, se describirá cómo es transmitida (FIG. 12A) y reconstruida (FIG. 12B) la información codificada de división, usando la información de división predicha, con referencia a la FIG. 12A y a la FIG. 12B, respectivamente.
La unidad 112 de descripción de la información de división calcula una diferencia entre el patrón de división y el patrón de división predicho, y genera la información 131 de división que incluye la diferencia. Los detalles serán descritos en lo que sigue.
La FIG. 12A es un diagrama de flujo que ilustra la operación de la unidad 112 de descripción de la información de división.
Debería hacerse notar que la unidad 112 de descripción de la información de división lleva a cabo el procesamiento de descripción en el mismo orden que el procesamiento de la determinación del patrón de división (por ejemplo, en un orden de zigzag de arriba abajo), y, con respecto a la jerarquía (Profundidad), el procesamiento de la descripción se lleva a cabo en un orden de arriba (Profundidad = 0) abajo (una profundidad jerárquica en la que se cumpla que Profundidad = el menor tamaño de bloque).
En primer lugar, la unidad 112 de descripción de la información de división obtiene la información de división y la información de división predicha (en lo sucesivo, información de división predicha) sobre el bloque actual (etapa S1201). A continuación, la unidad 112 de descripción de la información de división deduce una profundidad jerárquica diferencial máxima (etapa S1202) de la misma manera como procesamiento que deduce la máxima profundidad jerárquica usada (profundidad_máxima_usada) en la realización 1. Aquí, la profundidad jerárquica diferencial máxima es una información que indica una profundidad jerárquica a partir de la cual la información de división y la información de división predicha son diferentes. En otras palabras, la profundidad jerárquica diferencial máxima es una información que indica la profundidad jerárquica superior a partir de la cual la información de división y la información de división predicha son diferentes. Por ejemplo, el método de deducción usa 0 para que la información de división predicha y la información de división sean iguales, y 1 para que la información de división predicha y la información de división sean diferentes, y lleva a cabo el procesamiento ilustrado en el diagrama de flujo de la FIG. 5, deduciendo con ello la máxima profundidad jerárquica usada. Alternativamente, si hay presente una profundidad jerárquica (bloque menor) que es inferior a la profundidad jerárquica diferencial máxima, la unidad 112 de descripción de la información de división establece la información de división sobre la profundidad jerárquica (etapa S1203).
Debería hacerse notar que el método de descripción es a título de ejemplo, y que el método de descripción no está limitado a ello, siempre y cuando se emplee el método de predicción.
La FIG. 12B es un diagrama de flujo que ilustra la operación de reconstrucción de la información de división que está codificada en el procedimiento ilustrado en la FIG. 12A.
En primer lugar, una unidad 207 de reconstrucción de la información de división obtiene la información sobre la profundidad jerárquica diferencial máxima y la información de división predicha sobre el bloque que ha de ser dividido (etapa S1204). Aquí, la información sobre la profundidad jerárquica diferencial máxima es la información indicativa de la profundidad jerárquica diferencial máxima e incluida en la secuencia 140 de código generada por el dispositivo 100 de codificación de imágenes. La información de división predicha es generada por el dispositivo 200 de decodificación de imágenes llevando a cabo el mismo procesamiento que el procesamiento llevado a cabo por el dispositivo 100 de codificación de imágenes descrito anteriormente.
A continuación, la unidad 207 de reconstrucción de la información de división establece la información de división predicha como información de división sobre una profundidad jerárquica (información considerada igual que la predicción) mayor que la profundidad jerárquica diferencial máxima (etapa S1205).
Por último, la unidad 207 de reconstrucción de la información de división reconstruye la información de división sobre una profundidad jerárquica menor que la profundidad jerárquica diferencial máxima (etapa S1206). Así, se reconstruye la información de división sobre el bloque actual. Aquí, la información de división sobre una profundidad jerárquica menor que la profundidad jerárquica diferencial máxima está incluida en la secuencia 140 de código generada por el dispositivo 100 de codificación de imágenes.
(Realización 4)
En la presente realización, se describirá un método en el cual la unidad 112 de descripción de la información de división graba la información relativa a la división como información de cabecera de una secuencia, y codifica y decodifica la información de cabecera.
La FIG. 13 es un diagrama que muestra una configuración de la secuencia 140 de código en el método de codificación de imágenes según la presente realización. La parte (a) de la FIG. 13 indica una señal codificada correspondiente a una secuencia de vídeo formada de al menos una pantalla. Según se muestra en (a) de la FIG. 13, la secuencia 140 de código incluye datos de secuencia SeqData que son datos para toda la pantalla, y una cabecera de secuencia SeqHdr, que son datos comunes a todos los datos para toda la pantalla. La cabecera de secuencia SeqHdr incluye información relativa a la división SepInfo.
La información relativa a la división SepInfo es un indicador para conmutar, por ejemplo, si se usa el método descrito con referencia a la realización 1 y codificar únicamente la información de división (Información_de_tipo_Dn). Debería hacerse notar que la información relativa a la división Seplnfo puede ser información relativa a la predicción del patrón de división descrita con referencia al ejemplo 3.
La parte (b) de la FIG. 13 muestra una estructura de los datos de secuencia SeqData. Los datos de secuencia SeqData incluyen varias señales de imagen PicStr. Cada señal de imagen PicStr es una señal codificada correspondiente a una pantalla. En otras palabras, cada señal de imagen PicStr es una señal codificada de una imagen.
La parte (c) de la FIG. 13 muestra una estructura de la señal de imagen PicStr. La señal de imagen PicStr incluye datos de imagen PicData que son datos para una pantalla, y una cabecera de imagen PicHdr que son datos comunes a la totalidad de una pantalla. La cabecera de imagen PicHdr puede incluir, por ejemplo, la información relativa a la división Seplnfo.
La parte (d) de la FIG. 13 muestra una estructura de los datos de imagen PicData. Los datos de imagen PicData incluyen varias señales de segmento SliceStr. Cada señal de segmento SliceStr es una señal codificada, que es un conjunto de varias unidades de bloque, de un segmento.
La parte (e) de la FIG. 13 muestra una estructura de la señal de segmento SliceStr. La señal de segmento SliceStr incluye datos de segmento SliceData que son datos de un segmento, y una cabecera de segmento SliceHdr, que son datos comunes a todos los datos de un segmento. La cabecera de segmento SliceHdr puede incluir la información relativa a la división Seplnfo. Esto permite que el dispositivo 200 de decodificación de imágenes decodifique correctamente la señal codificada recibida incluso cuando el método de procesamiento sea debidamente cambiado por el dispositivo 100 de codificación de imágenes en las unidades de datos de segmento SliceData.
Debería señalarse que, cuando los datos de secuencia SeqData incluyen varias señales de imagen PicStr. Algunas de las cabeceras de imagen PicHdr pueden incluir la información relativa a la división SepInfo, en lugar de todas las cabeceras de imagen. PicHdr incluye la información relativa a la división SepInfo.
Asimismo, cuando los datos de imagen PicData incluye varias señales de segmento SliceStr, solo algunas de las cabeceras de segmento SliceHdr pueden incluir la información relativa a la división SepInfo, en lugar de que todas las cabeceras de segmento SliceHdr incluyan la información relativa a la división SepInfo. Si el contenido de la información relativa a la división SepInfo es común a los segmentos y si la información relativa a la división SepInfo no está en la cabecera de segmento SliceHdr según se muestra en (e) de la FIG. 13, el dispositivo 200 de decodificación de imágenes sustituye la información relativa a la división en un segmento actual por la información relativa a la división SepInfo incluida en la cabecera de segmento SliceHdr de otro segmento. Esto puede suprimir un aumento del número de bits debido a que la información relativa a la división Seplnfo es incluida de forma reiterada en la secuencia 140 de código.
Según se muestra en (e) de la FIG. 13, los datos de segmento SliceData incluyen varias porciones de datos del mayor tamaño de bloque LCTB. Cada porción de datos del mayor tamaño de bloque LCTB es información sobre el mayor tamaño de bloque en unidades de bloque. Cada porción de datos del mayor tamaño de bloque LCTB incluye una cabecera del mayor tamaño de bloque LCTBHdr y una señal de bloque CTBs. La señal de bloque CTBs incluye varias porciones de datos de bloque CTB en un formato jerárquico.
Aquí, la cabecera del mayor tamaño de bloque LCTBHdr incluye la máxima profundidad jerárquica usada, la mínima profundidad jerárquica usada o la profundidad jerárquica diferencial máxima. Debería hacerse notar que la información de división en todos los bloques puede ser incluida en la cabecera del mayor tamaño de bloque LCTBHdr, o la información de división en un bloque correspondiente puede ser incluida en cada uno de los datos de bloque CTB.
La parte (f) de la FIG. 13 muestra una estructura de los datos de bloque CTB. Una porción de los datos de bloque CTB incluye una cabecera de bloque de transformada TUHdr, que es información de cabecera sobre la estructura de la transformada, y un bloque de transformada TUs. De manera similar al bloque (CUs) descrito anteriormente, el bloque de transformada TUs también puede ser dividido. En otras palabras, la presente invención puede ser aplicada a los bloques de transformada. En este caso, pueden llevarse a cabo transformadas de diversos tamaños y se puede reducir la cantidad de codificación para transmitir las formas.
Alternativamente, cuando la secuencia 140 de código es transmitida en paquetes que son unidades de datos no consecutivas en lugar de una secuencia de bits consecutivos, pueden transmitirse por separado la porción de cabecera y la porción de datos distintos de la cabecera. En este caso, la porción de cabecera y la porción de datos no están incluidas en una secuencia de bits, según se muestra en la FIG. 13. Sin embargo, cuando se emplean paquetes, la porción de cabecera y las porciones de datos no son transmitidas en orden consecutivo, y una correspondiente porción de datos y una correspondiente porción de cabecera son meramente transmitidas en paquetes diferentes. En otras palabras, aunque la secuencia 140 de código no es a secuencia de bits, el concepto es el mismo que en el caso de la secuencia de bits descrita con referencia a la FIG. 13.
En el método de decodificación según la presente invención, la secuencia 140 de código codificada por el anterior método es decodificada por el siguiente procedimiento. En primer lugar, el dispositivo 200 de decodificación de imágenes obtiene la información relativa a la división SepInfo incluida en la cabecera de secuencia SeqHdr, y almacena la información obtenida relativa a la división. A continuación, el dispositivo 200 de decodificación de imágenes obtiene la información relativa a la división SepInfo incluida en la cabecera de imagen PicHdr, la información Seplnfo incluida en la cabecera de imagen PicHdr, y actualiza la información almacenada relativa a la división con la información obtenida relativa a la división. Aquí, si no está presente la información relativa a la división Seplnfo o una porción de la misma, el dispositivo 200 de decodificación de imágenes almacena, tal cual, la información relativa a la división incluida en la cabecera de secuencia SeqHdr. Asimismo, el dispositivo 200 de decodificación de imágenes obtiene la información relativa a la división Seplnfo incluida en la cabecera de segmento SliceHdr, y actualiza la información almacenada relativa a la división con la información obtenida relativa a la división. A continuación, el dispositivo 200 de decodificación de imágenes obtiene los datos del mayor tamaño de bloque LCTB para obtener información necesaria para la división (la máxima profundidad jerárquica usada, la mínima profundidad jerárquica usada o la profundidad jerárquica diferencial máxima, y la información de división) incluida en la cabecera del mayor tamaño de bloque LCTBHdr. Acto seguido, el dispositivo 200 de decodificación de imágenes usa la información obtenida para determinar la forma dividida de los bloques subsiguientes.
Esto permite que el dispositivo 200 de decodificación de imágenes decodifique correctamente la secuencia 140 de código.
(Realización 5)
En la presente realización, se describirá otra variación adicional del método de codificación y del método de decodificación según las realizaciones 1, 2 y 4 de la presente invención.
Las FIGURAS 14A a 14C son vistas esquemáticas que ilustran el método de división usando varios bloques.
Lo que antecede ha dado la descripción, en aras de la simplicidad, cuando un bloque es dividido en cuatro bloques cuadrados. Sin embargo, además, un bloque puede ser dividido en dos bloques rectangulares. Debe señalarse que, en este caso, los bloques divididos en formas distintas de la forma cuadrada no han de ser divididos adicionalmente.
Por ejemplo, según se muestra en las FIGURAS 14A a 14C, la información del modo de división indicada por Tipo_Dn cambia de la información binaria 0 (bloque no dividido) y 1 (bloque dividido) a la información cuaternaria de 0 (bloque no dividido), 1 (bloque dividido en cuatro bloques), 2 (bloque dividido en dos bloques en la dirección horizontal) y 3 (bloque dividido en dos bloques en la dirección vertical). Incluso cuando la información del modo de división está descrita por tal información cuaternaria, el método según la presente invención permite codificar la información de división usando una cantidad pequeña de codificación.
Específicamente, se describirá un ejemplo en el que la unidad 112 de descripción de la información de división describe formas divididas de bloque mostradas en la FIG. 14A como información de división. Las formas divididas de bloque mostradas en la FIG. 14A representadas por los parámetros anteriormente mencionados son mostradas en la FIG.
14B. De tal manera, la respectiva información del modo de división es puesta a Tipo_Dn. En este caso, según el método de la realización 1, la máxima profundidad jerárquica usada es 2. La unidad 112 de descripción de la información de división describe la máxima profundidad jerárquica usada y la información 130A del modo de división en la Profundidad = 1 (bloques de 32 píxeles horizontales * 32 píxeles verticales) como la información 131 de división que ha de ser codificada. Esto permite que la información de división sea codificada usando una cantidad pequeña de codificación. El dispositivo 200 de decodificación de imágenes decodifica la información de división que tiene Tipo_Dn, usando la misma regla de forma que cuando se codificó, reconstruyendo con ello la forma dividida.
Las FIGURAS 15A a 15C son vistas esquemáticas que ilustran que puede reducirse más información de división. Por ejemplo, en el ejemplo de la forma de bloque mostrada en la FIG. 15A, la máxima profundidad jerárquica usada es 2 y la información del modo de división en la Profundidad = 1 (bloques de 32 píxeles horizontales * 32 píxeles verticales) es (0, 0, 0, 1) como se ha descrito anteriormente. Aquí, dado que la máxima profundidad jerárquica usada es 2, se considera que al menos un bloque dividido está incluido en los bloques a Profundidad = 1 (bloques de 32 píxeles horizontales * 32 píxeles verticales).
Así, una vez que se ha descrito la información del modo de división (0, 0, 0), la información de división sobre los bloques a Profundidad = 1 es codificada y decodificada, sin que se describa la información del modo de división, que es 1. Así, puede hallarse que la última información del modo de división es 1. En otras palabras, cuando la profundidad jerárquica actual es más superficial que la máxima profundidad jerárquica usada y solo el último bloque ha de ser dividido en el orden de codificación (orden de procesamiento de división), la unidad 112 de descripción de la información de división genera la información 131 de división que no incluye la información del modo de división sobre el último bloque.
Como se ha descrito anteriormente, cuando la unidad 112 de descripción de la información de división puede definir, para cada bloque, usando la máxima profundidad jerárquica usada, si el bloque ha de ser dividido adicionalmente, la unidad 112 de descripción de la información de división elimina de la información 130 de división información sobre el patrón de división del bloque. A continuación, la unidad codificadora 109 de longitud variable codifica la información 131 de división de la que se ha eliminado la anterior información. El procesamiento puede reducir una mayor cantidad de codificación.
Asimismo, en el ejemplo de la forma de bloque mostrado en la FIG. 15B, la máxima profundidad jerárquica usada es 3 y la mínima profundidad jerárquica usada es 1, y la información del modo de división sobre bloques a Profundidad = 1 (bloques de 32 píxeles horizontales * 32 píxeles verticales) y Profundidad = 2 (bloques de 16 píxeles horizontales * 16 píxeles verticales) son ambas (0, 0, 0, 1). Como se ha descrito anteriormente, la información de división puede ser decodificada aunque la información de división sea (0, 0, 0). Así, puede no codificarse la información de división que es 1. Esto obvia la necesidad de codificar dos informaciones del modo de división, y puede mejorar adicionalmente la eficacia de codificación.
Asimismo en el ejemplo de la forma de bloque mostrado en la FIG. 15C, la máxima profundidad jerárquica usada es 3 y la mínima profundidad jerárquica usada es 1. Dado que se ha descubierto que la mínima profundidad jerárquica usada es 1, se considera que al menos no ha de dividirse un bloque a Profundidad = 1 (bloques de 32 píxeles horizontales * 32 píxeles verticales). Así, se halla que el último bloque en la información del modo de división (1, 1, 1, 0) sobre los bloques at Profundidad = 1 (bloques de 32 píxeles horizontales * 32 píxeles verticales) es 0. Así, como en la FIG. 15A y la FIG. 15B, puede no codificarse la información. En otras palabras, cuando la profundidad jerárquica actual es la mínima profundidad jerárquica usada y únicamente no ha de dividirse el último bloque en el orden de codificación (orden de procesamiento de división), la unidad 112 de descripción de la información de división genera la información 131 de división que no incluye la información del modo de división sobre el último bloque.
Como se ha descrito anteriormente, si la unidad 112 de descripción de la información de división puede definir, para cada bloque, usando la mínima profundidad jerárquica usada, si el bloque ha de ser dividido adicionalmente, la unidad 112 de descripción de la información de división elimina de la información 130 de división información indicativa sobre el patrón de división del bloque. A continuación, la unidad codificadora 109 de longitud variable codifica con longitud variable la información 131 de división de la que se ha eliminado la anterior información. El procesamiento puede mejorar la eficacia de la codificación.
(Realización 6)
El procesamiento descrito en cada una de las realizaciones puede ser implementado simplemente en un sistema informático independiente, en un soporte de grabación, en un programa para implementar las configuraciones del método de codificación de imágenes en movimiento (método de codificación de imágenes) y el método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritos en cada una de las realizaciones. El soporte de grabación puede ser cualquier soporte de grabación, siempre y cuando el programa pueda ser grabado, tal como un disco magnético, un disco óptico, un disco magneto-óptico, una tarjeta de CI, y una memoria de semiconductores.
En lo que sigue, se describirán las aplicaciones del método de codificación de imágenes en movimiento (método de codificación de imágenes) y del método de decodificación de imágenes en movimiento (método de decodificación de imágenes) descritos en cada una de las realizaciones y sistemas que usan los mismos. El sistema tiene una característica de tener un aparato de codificación y decodificación de imágenes que incluye un aparato de codificación de imágenes que usa el método de codificación de imágenes y un aparato de decodificación de imágenes que usa el método de decodificación de imágenes. Otras configuraciones del sistema pueden ser cambiadas según sea apropiado, dependiendo de los casos.
La FIG. 16 ilustra una configuración general de un sistema proveedor de contenidos ex100 para implementar servicios de distribución de contenidos. El área para proporcionar servicios de comunicaciones está dividida en células de un tamaño deseado, y en cada una de las células se sitúan estaciones base ex106, ex107, ex108, ex109 y ex110, que son estaciones inalámbricas fijas.
El sistema proveedor de contenidos ex100 está conectado a dispositivos, tales como un ordenador ex111, una agenda electrónica (PDA) ex112, una cámara ex113, un teléfono móvil ex114 y una máquina de juegos ex115, a través de Internet ex101, de un Proveedor de servicios de Internet ex102, de una red telefónica ex104, así como a las estaciones base ex106 a ex110, respectivamente.
Sin embargo, la configuración del sistema proveedor de contenidos ex100 no está limitado a la configuración mostrada en la FIG. 16, y es aceptable una combinación en la cual estén conectados cualesquiera de los elementos. Además, cada dispositivo puede estar directamente conectado a la red telefónica ex104, en vez de a través de las estaciones base ex106 a ex110, que son las estaciones inalámbricas fijas. Además, los dispositivos pueden estar interconectados entre sí mediante una comunicación inalámbrica de corta distancia y otros tipos de comunicaciones.
La cámara ex113, tal como una videocámara digital, es capaz de capturar vídeo. Una cámara ex116, tal como una cámara digital, es capaz de capturar tanto imágenes fijas como vídeo. Además, el teléfono móvil ex114 puede ser el que satisfaga cualquiera de estándares tales como el sistema global para comunicaciones móviles (GSM) (marca registrada), el acceso múltiple por división de código (CDMA), el acceso múltiple de banda ancha por división de código(W-CDMA), la evolución a largo plazo (LTE), y el acceso por paquetes de alta velocidad (HSPA). Alternativamente, el teléfono móvil ex114 puede ser un sistema de teléfono portátil personal (PHS).
En el sistema proveedor de contenidos ex100, hay un servidor de transmisión en continuo ex103 conectado a la cámara ex113 y otros a través de la red telefónica ex104 y la estación base ex109, que permite la distribución de imágenes de un programa en directo y otros. En tal distribución, un contenido (por ejemplo, el vídeo de un programa musical en directo) capturado por el usuario usando la cámara ex113 es codificado como se ha descrito anteriormente en cada una de las realizaciones (es decir, la cámara funciona como aparato codificador de imágenes según la presente invención), y el contenido codificado es transmitido al servidor de transmisión en continuo ex103. Por otro lado, el servidor de transmisión en continuo ex103 lleva a cabo una distribución en continuo de los datos de contenido transmitidos a los clientes por petición de los mismos. Los clientes incluyen el ordenador ex111, la PDA ex112, la cámara ex113, el teléfono móvil ex114 y la máquina de juegos ex115, que son capaces de decodificar los datos codificados anteriormente mencionados. Cada uno de los dispositivos que han recibido los datos distribuidos decodifica y reproduce los datos codificados (es decir, funciona como aparato de decodificación de imágenes según la presente invención).
Los datos capturados pueden ser codificados por la cámara ex113 o por el servidor de transmisión en continuo ex103 que transmite los datos, o los procedimientos de codificación pueden ser compartidos entre la cámara ex113 y el servidor de transmisión en continuo ex103. De forma similar, los datos distribuidos pueden ser decodificados por los clientes o por el servidor de transmisión en continuo ex103, o los procedimientos de decodificación pueden ser compartidos entre los clientes y el servidor de transmisión en continuo ex103. Además, los datos de las imágenes fijas y del vídeo capturados no solo por la cámara ex113, sino también por la cámara ex116, pueden ser transmitidos al servidor de transmisión en continuo ex103 a través del ordenador ex111. Los procedimientos de codificación pueden ser efectuados por la cámara ex116, el ordenador ex111 o el servidor de transmisión en continuo ex103, o compartidos entre ellos.
Además, los procedimientos de codificación y decodificación pueden ser efectuados por un LSI ex500 generalmente incluido en cada uno del ordenador ex111 y de los dispositivos. El LSI ex500 puede estar configurado de un solo chip o de varios chips. El soporte lógico para codificar y decodificar vídeo puede estar integrado en algún tipo de soporte de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que sea legible por el ordenador ex111 y otros, y los procesos de codificación y decodificación pueden ser llevados a cabo usando el soporte lógico. Además, cuando el teléfono móvil ex114 está equipado con una cámara, los datos de vídeo obtenidos por la cámara pueden ser transmitidos. Los datos de vídeo son datos codificados por el LSI ex500 incluido en el teléfono móvil ex114.
Además, el servidor de transmisión en continuo ex103 puede estar compuesto de servidores y ordenadores, y puede descentralizar datos y procesar los datos descentralizados, grabar o distribuir datos.
Como se ha descrito anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema proveedor de contenidos ex100. En otras palabras, los clientes pueden recibir y decodificar información transmitida por el usuario, y reproducir los datos decodificados en tiempo real en el sistema proveedor de contenidos ex100, para que el usuario que no tenga ningún derecho ni equipo particulares pueda implementar la radiodifusión personal.
Aparte del ejemplo del sistema proveedor de contenidos ex100, al menos uno del aparato de codificación de imágenes en movimiento (aparato de codificación de imágenes) y del aparato de decodificación de imágenes en movimiento (aparato de decodificación de imágenes) descritos en cada una de las realizaciones puede ser implementado en un sistema de radiodifusión digital ex200 ilustrado en la FIG. 17. Más específicamente, una emisora de radiodifusión ex201 comunica o transmite, a través de ondas de radio dirigidas a un satélite de radiodifusión ex202, datos multiplexados obtenidos multiplexando datos de audio y otros en los datos de vídeo. Los datos de vídeo son datos codificados por el método de codificación de imágenes en movimiento descrito en cada una de las realizaciones (es decir, datos codificados por el aparato de codificación de imágenes según la presente invención). Tras la recepción de los datos multiplexados, el satélite de radiodifusión ex202 transmite ondas de radio para su radiodifusión. Acto seguido, una antena de uso doméstico ex204 con una función de recepción de radiodifusión por satélite recibe las ondas de radio. A continuación, un dispositivo tal como un televisor (receptor) ex300 y un decodificador (STB) ex217 decodifica los datos multiplexados recibidos, y reproduce los datos decodificados (es decir, funciona como aparato de decodificación de imágenes según la presente invención).
Además, una lectora/grabadora ex218 (i) lee y decodifica los datos multiplexados grabados en un soporte de grabación ex215, tal como un DVD y un BD, o (i) codifica señales de vídeo en el soporte de grabación ex215 y, en algunos casos, escribe datos obtenidos multiplexando una señal de audio en los datos codificados. La lectora/grabadora ex218 puede incluir el aparato de decodificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento según se muestra en cada una de las realizaciones. En este caso, las señales de vídeo reproducidas son mostradas en el monitor ex219, y pueden ser reproducidas por otro dispositivo o sistema que use el soporte de grabación ex215 en el que se graban los datos multiplexados. También es posible implementar el aparato de decodificación de imágenes en movimiento en el decodificador ex217 conectado al cable ex203 para una televisión por cable o a la antena ex204 para la radiodifusión por satélite y/o terrestre, para mostrar las señales de vídeo en el monitor ex219 del televisor ex300. El aparato de decodificación de imágenes en movimiento puede ser implementado no en decodificador, sino en el televisor ex300.
La FIG. 18 ilustra el televisor (receptor) ex300 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en cada una de las realizaciones. El televisor ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo, a través de la antena ex204 o del cable ex203, etc. que recibe una emisión; una unidad de modulación/demodulación ex302 que demodula los datos multiplexados recibidos o modula datos en datos multiplexados para ser suministrados al exterior; y una unidad de multiplexado/desmuliplexado ex303 que desmultiplexa los datos multiplexados modulados en datos de vídeo y datos de audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad de procesamiento de señales ex306 en datos.
El televisor ex300 incluye, además: una unidad de procesamiento de señales ex306 que incluye una unidad de procesamiento de señales de audio ex304 y una unidad de procesamiento de señales de vídeo ex305 que decodifican datos de audio y datos de vídeo y codifican datos de audio y datos de vídeo, respectivamente (que funcionan como aparato de codificación de imágenes y aparato de decodificación de imágenes según la presente invención); y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal de audio decodificada, y una unidad de visualización ex308 que muestra la señal de vídeo decodificada, tal como una pantalla. Además, el televisor ex300 incluye una unidad de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, el televisor ex300 incluye una unidad de control ex310 que controla en general cada elemento constituyente del televisor ex300 y una unidad de circuitos de fuente de alimentación ex311 que suministra energía a cada uno de los elementos. Aparte de la unidad de entrada de operación ex312, la unidad de interfaz ex317 puede incluir: un puente ex313 que esté conectado a un dispositivo externo, tal como la lectora/grabadora ex218; una unidad de ranura ex314 para permitir la conexión del soporte de grabación ex216, tal como una tarjeta SD; un controlador ex315 para ser conectado a un soporte externo de grabación, tal como un disco duro; y un módem ex316 para conectarse a una red telefónica. Aquí, el soporte de grabación ex216 puede grabar información eléctricamente usando un elemento de memoria no volátil/volátil de semiconductores para el almacenamiento. Los elementos constituyentes del televisor ex300 están conectados entre sí a través de un bus síncrono.
En primer lugar, se describirá la configuración en la cual el televisor ex300 decodifica datos multiplexados obtenidos del exterior a través de la antena ex204 y otras y reproduce los datos decodificados. En el televisor ex300, tras una operación de usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexado/desmuliplexado ex303 desmultiplexa los datos multiplexados demodulados por la unidad de modulación/demodulación ex302, bajo el control de la unidad de control ex3l0, que incluye una CPU. Además, la unidad de procesamiento de señales de audio ex304 decodifica los datos de audio desmultiplexados, y la unidad de procesamiento de señales de vídeo ex305 decodifica los datos de vídeo desmultiplexados, usando el método de decodificación descrito en cada una de las realizaciones, en el televisor ex300. La unidad de salida ex309 proporciona al exterior la señal de vídeo decodificada y la señal de audio, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de vídeo y la señal de audio, las señales pueden ser almacenadas temporalmente en memorias intermedias ex318 y ex319 y otras para que las señales sean reproducidas en sincronización mutua. Además, el televisor ex300 puede leer datos multiplexados no a través de una emisión y otros, sino de los soportes de grabación ex215 y ex216, tales como un disco magnético, un disco óptico y una tarjeta SD. A continuación, se describirá una configuración en la que el televisor ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos al exterior o escribe los datos en un soporte de grabación. En el televisor ex300, tras una operación de usuario a través del controlador remoto ex220 y otros, la unidad de procesamiento de señales de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señales de vídeo ex305 codifica una señal de vídeo, bajo el control de la unidad de control ex310 usando el método de codificación descrito en cada una de las realizaciones. La unidad de multiplexado/desmuliplexado ex303 multiplexa la señal de vídeo y la señal de audio codificadas, y proporciona al exterior la señal resultante. Cuando la unidad de multiplexado/desmuliplexado ex303 multiplexa la señal de vídeo y la señal de audio, las señales puede ser almacenadas temporalmente en las memorias intermedias ex320 y ex321 y otras para que las señales sean reproducidas en sincronización mutua. Aquí, las memorias intermedias ex318, ex319, ex320 y ex321 pueden ser múltiples, según se ilustra, o al menos una memoria intermedia puede ser compartida en el televisor ex300. Además, los datos pueden ser almacenados en una memoria intermedia para que el desbordamiento y el subdesbordamiento del sistema puedan ser evitados, por ejemplo, entre la unidad de modulación/demodulación ex302 y la unidad de multiplexado/desmuliplexado ex303.
Además, el televisor ex300 puede incluir una configuración para recibir una entrada AV de un micrófono o una cámara distinta de la configuración para obtener datos de audio y de vídeo de una emisión o de un soporte de grabación, y puede codificar los datos obtenidos. Aunque el televisor ex300 puede codificar, multiplexar y proporcionar datos externos en la descripción, puede ser capaz únicamente de recibir, decodificar y proporcionar datos externos, pero no de codificar, multiplexar y proporcionar datos externos.
Además, cuando la lectora/grabadora ex218 lee datos multiplexados de un soporte de grabación o los escribe en el mismo, uno del televisor ex300 y la lectora/grabadora ex218 puede decodificar o codificar los datos multiplexados, y el televisor ex300 y la lectora/grabadora ex218 pueden compartir la decodificación o la codificación.
Como ejemplo, la FIG. 19 ilustra una configuración de una unidad reproductora/grabadora de información ex400 cuando se leen datos de un disco óptico o se escriben en el mismo. La unidad reproductora/grabadora de información ex400 incluye elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406 y ex407, que han de ser descritos más abajo. El cabezal óptico ex401 irradia un punto de láser en una superficie de grabación del soporte de grabación ex215, que es un disco óptico, para escribir información, y detecta la luz reflejada de la superficie de grabación del soporte de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 excita eléctricamente un láser semiconductor incluido en el cabezal óptico ex401, y modula la luz láser según los datos grabados. La unidad de demodulación de reproducción ex403 amplifica una señal de reproducción obtenida detectando eléctricamente la luz reflejada desde la superficie de grabación usando un fotodetector incluido en el cabezal óptico ex401, y demodula la señal de reproducción separando una componente de la señal grabada en el soporte de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 mantiene temporalmente la información que ha de ser grabada en el soporte de grabación ex215 y la información reproducida a partir del soporte de grabación ex215. El motor del disco ex405 hace girar el soporte de grabación ex215. La unidad de servocontrol ex406 mueve el cabezal óptico ex401 a una pista predeterminada de información mientras controla el accionamiento de giro del motor del disco ex405 para seguir el punto de láser. La unidad de control del sistema ex407 controla en general la unidad reproductora/grabadora de información ex400. Los procesos de lectura y escritura pueden ser implementados por la unidad de control del sistema ex407 usando información diversa almacenada en la memoria intermedia ex404 y generando y añadiendo nueva información según sea necesario, y por la unidad de grabación de modulación ex402, la unidad de demodulación de reproducción ex403 y la unidad de servocontrol ex406 que graban y reproducen información a través del cabezal óptico ex401 mientras son operados de manera coordinada. La unidad de control del sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento haciendo que un ordenador ejecute un programa para leer y escribir.
Aunque el cabezal óptico ex401 irradia un punto de láser en la descripción, puede llevar a cabo una grabación de alta densidad usando luz de campo cercano.
La FIG. 20 ilustra el soporte de grabación ex215, que es el disco óptico. En la superficie de grabación del soporte de grabación ex215, hay formados de manera espiral surcos de guía, y una pista de información ex230 registra, de antemano, información de dirección, que indica una posición absoluta en el disco según el cambio en la forma de los surcos de guía. La información de dirección incluye información para determinar posiciones de los bloques de grabación ex231, que son una unidad para datos de grabación. La reproducción de la pista de información ex230 y la lectura de la información de dirección en un aparato que graba y reproduce datos puede llevar a la determinación de las posiciones de los bloques de grabación. Además, el soporte de grabación ex215 incluye un área de grabación de datos ex233, un área circunferencial interna ex232 y un área circunferencial externa ex234. El área de grabación de datos ex233 es un área para ser usada en la grabación de los datos de usuario. El área circunferencial interna ex232 y el área circunferencial externa ex234, que están dentro y fuera del área de grabación de datos ex233, respectivamente, son para un uso específico, salvo para grabar los datos de usuario. La unidad reproductora/grabadora 400 de información lee y escribe datos de audio codificado, datos de vídeo codificado o datos multiplexados obtenidos multiplexando los datos de audio vídeo codificados, del área de grabación de datos ex233, y en la misma, del soporte de grabación ex215.
Aunque en la descripción se describe un disco óptico que tiene una capa, tal como un DVD y un BD, el disco óptico no está limitado a los tales, y puede ser un disco óptico que tenga una estructura de múltiples capas y susceptible de ser grabado en una parte distinta de la superficie. Además, el disco óptico puede tener una estructura para la grabación/reproducción multidimensional, tal como grabación de información usando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para información de grabación que tenga diferentes capas desde ángulos diversos.
Además, un coche ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y reproducir vídeo en un dispositivo de visualización, tal como un sistema de navegación de coche ex211 instalado en el coche ex210, en el sistema de radiodifusión digital ex200. Aquí, una configuración del sistema de navegación de coche ex211 será una configuración que incluya, por ejemplo, una unidad receptora de GPS de la configuración ilustrada en la FIG. 18. Pasará lo mismo para la configuración del ordenador ex111, del teléfono móvil ex114 y de otros.
La FIG. 21A ilustra el teléfono móvil ex114 que usa el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento descritos en las realizaciones. El teléfono móvil ex114 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base ex110; una unidad de cámara ex365 capaz de capturar imágenes en movimiento y fijas; y una unidad de visualización ex358, tal como una pantalla de cristal líquido para mostrar los datos, tales como vídeo decodificado capturado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono móvil ex114 incluye, además: una unidad principal de cuerpo, que incluye una unidad de teclas de operación ex366; una unidad de salida de audio ex357, tal como un altavoz para la salida de audio; una unidad de entrada de audio ex356, tal como un micrófono para la entrada de audio; una unidad de memoria ex367 para almacenar vídeo o imágenes fijas capturados, audio grabado, datos codificados o decodificados del vídeo recibido, las imágenes fijas, correos electrónicos u otros; y una unidad de ranura ex364, que es una unidad de interfaz para un soporte de grabación que almacena datos de la misma manera que la unidad de memoria ex367.
A continuación, se describirá un ejemplo de una configuración del teléfono móvil ex114 con referencia a la FIG. 21B. En el teléfono móvil ex114, una unidad principal de control ex360 diseñada para controlar en general cada unidad del cuerpo principal, incluyendo la unidad de visualización ex358, así como la unidad de teclas de operación ex366, está mutuamente conectada, a través de un bus síncrono ex370, a una unidad de circuitos de fuente de alimentación ex361, a una unidad de control de entrada de operación ex362, a una unidad de procesamiento de señales de vídeo ex355, a una unidad de interfaz de cámara ex363, a una unidad de control ex359 de pantalla de cristal líquido (LCD), a una unidad de modulación/demodulación ex352, a una unidad de multiplexado/desmuliplexado ex353, a una unidad de procesamiento de señales de audio ex354, a la unidad de ranura ex364 y a la unidad de memoria ex367.
Cuando una operación del usuario ACTIVA una tecla de fin de llamada o una tecla de encendido, la unidad de circuitos de fuente de alimentación ex361 suministra a las respectivas unidades energía procedente de un paquete de baterías para activar el teléfono móvil ex114.
En el teléfono móvil ex114, la unidad de procesamiento de señales de audio ex354 convierte las señales de audio recogidas por la unidad de entrada de audio ex356 en el modo de conversación por voz en señales digitales de audio bajo el control de la unidad principal de control ex360, que incluye una CPU, ROM y RAM. A continuación, la unidad de modulación/demodulación ex352 lleva a cabo un procesamiento de espectro de propagación procesamiento de espectro de propagación en las señales digitales de audio, y la unidad transmisora y receptora ex351 lleva a cabo una conversión de digital a analógico y una conversión de frecuencias sobre los datos, para transmitir los datos resultantes a través de la antena ex350. Además, en el teléfono móvil ex114, la unidad transmisora y receptora ex351 amplifica los datos recibidos por la antena ex350 en el modo de conversación por voz y lleva a cabo la conversión de frecuencias y la conversión de analógico a digital sobre los datos. Luego, la unidad de modulación/demodulación ex352 lleva a cabo un procesamiento inverso de espectro de propagación sobre los datos, y la unidad de procesamiento de señales de audio ex354 los convierte en señales analógicas de audio, para emitirlos a través de la unidad de salida de audio ex357.
Además, cuando se transmite un correo electrónico en el modo de comunicación de datos, los datos de texto del correo electrónico introducidos accionando la unidad de teclas de operación ex366 y otras del cuerpo principal, son enviados a la unidad principal de control ex360 a través de la unidad de control de entrada de operación ex362. La unidad principal de control ex360 hace que la unidad de modulación/demodulación ex352 lleve a cabo un procesamiento de espectro de propagación sobre los datos de texto, y la unidad transmisora y receptora ex351 lleva a cabo la conversión de digital a analógico y la conversión de frecuencias sobre los datos resultados para transmitir los datos a la estación base ex110 a través de la antena ex350. Cuando se recibe un correo electrónico, se lleva a cabo sobre los datos recibidos un procesamiento que es aproximadamente el inverso del procesamiento para la transmisión de un correo electrónico, y los datos resultantes son proporcionados a la unidad de visualización ex358.
Cuando se transmiten vídeo, imágenes fijas o vídeo y audio en el modo de comunicación de datos, la unidad de procesamiento de señales de vídeo ex355 comprime y codifica señales de vídeo suministradas desde la unidad de cámara ex365 usando el método de codificación de imágenes en movimiento mostrado en cada una de las realizaciones (es decir, funciona como aparato codificador de imágenes según la presente invención), y transmite los datos codificados de vídeo a la unidad de multiplexado/desmuliplexado ex353. En cambio, cuando la unidad de cámara ex365 captura vídeo, imágenes fijas y otros, la unidad de procesamiento de señales de audio ex354 codifica las señales de audio recogidas por la unidad de entrada de audio ex356, y transmite los datos codificados de audio a la unidad de multiplexado/desmuliplexado ex353.
La unidad de multiplexado/desmuliplexado ex353 multiplexa los datos codificados de vídeo suministrados desde la unidad de procesamiento de señales de vídeo ex355 y los datos codificados de audio suministrados desde la unidad de procesamiento de señales de audio ex354, usando un método predeterminado. Acto seguido, la unidad de modulación/demodulación (unidad de circuitos de modulación/demodulación) ex352 lleva a cabo un procesamiento de espectro de propagación sobre los datos multiplexados, y la unidad transmisora y receptora ex351 lleva a cabo una conversión de digital a analógico y una conversión de frecuencias sobre los datos para transmitir los datos resultantes a través de la antena ex350.
Cuando se reciben datos de un fichero de vídeo que está vinculado a una página web y otros en el modo de comunicación de datos, o cuando se recibe un correo electrónico con vídeo y/o audio adjuntos, para decodificar los datos multiplexados recibidos a través de la antena ex350, la unidad de multiplexado/desmuliplexado ex353 desmultiplexa los datos multiplexados en una secuencia de bits de datos de vídeo y una secuencia de bits de datos de audio, y suministra a la unidad de procesamiento de señales de vídeo ex355 los datos codificados de vídeo y a la unidad de procesamiento de señales de audio ex354 los datos codificados de audio, a través del bus síncrono ex370. La unidad de procesamiento de señales de vídeo ex355 decodifica la señal de vídeo usando un método de decodificación de imágenes en movimiento correspondiente al método de codificación de imágenes en movimiento mostrado en cada una de las realizaciones (es decir, funciona como aparato de decodificación de imágenes según la presente invención), y luego la unidad de visualización ex358 muestra, por ejemplo, el vídeo y las imágenes fijas incluidos en el fichero de vídeo ligado a la página web a través de la unidad de control ex359 de la LCD. Además, la unidad de procesamiento de señales de audio ex354 decodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio.
Además, de manera similar al televisor ex300, un terminal tal como el teléfono móvil ex114 probablemente tenga 3 tipos de configuraciones de implementación, que incluyen no solo (i) un terminal transmisor y receptor que incluye tanto un aparato codificador como un aparato decodificador, sino también (ii) un terminal transmisor que incluye únicamente un aparato codificador y (iii) un terminal receptor que incluye únicamente un aparato decodificador. Aunque, en la descripción, el sistema de radiodifusión digital ex200 recibe y transmite los datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo, los datos multiplexados pueden ser datos obtenidos multiplexando no datos de audio, sino datos de caracteres relacionados con vídeo, en datos de vídeo, y pueden no ser datos multiplexados, sino datos de vídeo en sí.
Como tal, el método de codificación de imágenes en movimiento y el método de decodificación de imágenes en movimiento en cada una de las realizaciones pueden ser usados en cualquiera de los dispositivos y sistemas descritos. Así, pueden obtenerse las ventajas descritas en cada una de las realizaciones.
Además, la presente invención no está limitada a realizaciones, y son posibles diversas modificaciones y revisiones sin apartarse del alcance de la presente invención.
(Realización 7)
Pueden generarse datos de vídeo conmutando, según sea necesario, entre (i) el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones y (ii) un método de codificación de imágenes en movimiento o un aparato de codificación de imágenes en movimiento en conformidad con un estándar diferente, tal como MPEG-2, MPEG-4 AVC y VC-1.
Aquí, cuando se generan datos de vídeo que se conforman a diferentes estándares y luego se decodifican, es preciso que los métodos de decodificación sean seleccionados para que se adapten a los diferentes estándares. Sin embargo, dado que no puede detectarse a qué estándar se conforma cada uno de los conjuntos de datos de vídeo que han de ser decodificados, existe el problema de que no puede seleccionarse un método de decodificación apropiado.
Para resolver el problema, los datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo tienen una estructura que incluye información de identificación que indica a qué estándar se conforman los datos de vídeo. En lo que sigue se describirá la estructura específica de los datos multiplexados que incluyen los datos de vídeo generados en el método de codificación de imágenes en movimiento y por el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones. Los datos multiplexados son una secuencia digital en el formato de una secuencia de transporte MPEG-2.
La FIG. 22 ilustra una estructura de los datos multiplexados. Según se ilustra en la FIG. 22, los datos multiplexados pueden obtenerse multiplexando al menos una de una secuencia de vídeo, una secuencia de audio, una secuencia de gráficos de presentación (PG) y una secuencia de gráficos interactivos. La secuencia de vídeo representa vídeo primario y vídeo secundario de una película; la secuencia de audio (IG) representa una parte de audio primaria y una parte secundaria de audio que ha de mezclarse con la parte de audio primaria; y la secuencia de gráficos de presentación representa subtítulos de la película. Aquí, el vídeo primario es vídeo normal que ha de mostrarse en una pantalla, y el vídeo secundario es vídeo que ha de mostrarse en una ventana más pequeña en el vídeo primario. Además, la secuencia de gráficos interactivos representa una pantalla interactiva que ha de ser generada disponiendo componentes de la GUI en una pantalla. La secuencia de vídeo es codificada en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento mostrados en cada una de las realizaciones, o en un método de codificación de imágenes en movimiento o por un aparato de codificación de imágenes en movimiento en conformidad con un estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1. La secuencia de audio es codificada según un estándar, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD y PCM lineal.
Cada secuencia incluida en los datos multiplexados es identificada por PID. Por ejemplo, se asigna 0x1011 a la secuencia de vídeo que ha de usarse por el vídeo de una película, se asigna 0x1100 a 0x111F a las secuencias de audio, se asigna 0x1200 a 0x121F a las secuencias de gráficos de presentación, se asigna 0x1400 a 0x141F a las secuencias de gráficos interactivos, se asigna 0x1B00 a 0x1B1F a las secuencias de vídeo que han de usarse para el vídeo secundario de la película, y se asigna 0x1A00 a 0x1A1F a las secuencias de audio que han de usarse para el audio secundario que ha de mezclarse con el audio primario.
La FIG. 23 ilustra esquemáticamente cómo se multiplexan los datos. En primer lugar, una secuencia de vídeo ex235 compuesta de tramas de vídeo y una secuencia de audio ex238 compuesta de tramas de audio son transformadas en una secuencia de paquetes PES ex236 y una secuencia de paquetes PES ex239, y, adicionalmente en paquetes TS ex237 y paquetes TS ex240, respectivamente. De forma similar, los datos de una secuencia de gráficos de presentación ex241 y los datos de una secuencia de gráficos interactivos ex244 son transformados en una secuencia de paquetes PES ex242 y una secuencia de paquetes PES ex245, y, adicionalmente en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS son multiplexados formando una secuencia para obtener los datos multiplexados ex247.
La FIG. 24 ilustra con mayor detalle cómo se almacena una secuencia de vídeo en una secuencia de paquetes PES. La primera barra de la FIG. 24 muestra una secuencia de tramas de vídeo en una secuencia de vídeo. La segunda barra muestra la secuencia de paquetes PES. Según indican las flechas denotadas yy1, yy2, yy3 e yy4 en la FIG. 24, la secuencia de vídeo se divide en imágenes, como imágenes I, imágenes B e imágenes P, cada una de las cuales es una unidad de presentación de vídeo, y las imágenes son almacenadas en una carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene una cabecera PES, y la cabecera PES almacena un sello de tiempo de presentación (PTS) que indica una hora de presentación de la imagen, y un sello de tiempo de decodificación (DTS), que indica una hora de decodificación de la imagen.
La FIG. 25 ilustra un formato de paquetes TS que han de ser escritos finalmente en los datos multiplexados. Cada uno de los paquetes TS es un paquete de longitud fija de 188 bytes que incluye una cabecera TS de 4 bytes que tiene información, tal como un p Id para identificar una secuencia y una carga útil TS de 184 bytes para almacenar datos. Los paquetes PES están divididos y almacenados en las cargas útiles TS, respectivamente. Cuando se usa un BD ROM, se da a cada uno de los paquetes TS una Cabecera_Extra_TP de 4 bytes, dando así como resultado paquetes fuente de 192 bytes. Los paquetes fuente son escritos en los datos multiplexados. La Cabecera_Extra_TP almacena información tal como un sello de tiempo de llegada (ATS). El ATS muestra una hora de inicio de la transferencia en la que ha de transferirse cada uno de los paquetes TS a un filtro PID. Los paquetes fuente son dispuestos en los datos multiplexados según se muestra en la parte inferior de la FIG. 25. Los números que se incrementan desde la cabecera de los datos multiplexados se denominan números de paquetes fuente (SPN).
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no solo secuencias de audio, vídeo, subtítulos y otras, sino también una tabla de asociación de programas (PAT), una tabla de correlación de programas (PMT) y una referencia horaria de programas (PCR). La pAt muestra qué indica un PID en una PMT usada en los datos multiplexados, y un PID de la propia PAT está dado de alta como cero. La PMT almacena los PID de las secuencias de vídeo, audio, subtítulos y otras incluidas en los datos multiplexados, e información de atributos de las secuencias correspondientes a los PID. La PMT también tienen diversos descriptores relativos a los datos multiplexados. Los descriptores tienen información tal como control información de control de copias, que muestran si está permitida o no la copia de los datos multiplexados. La PCR almacena información horaria del STC correspondiente a un ATS que muestre cuándo es transferido el paquete PCR a un decodificador, para lograr la sincronización entre un reloj de hora de llegada (ATC), que es un eje temporal de varios ATS, y un reloj de hora del sistema (STC), que es un eje temporal de varios PTS y DTS.
La FIG. 26 ilustra con detalle la estructura de datos de la PMT. Hay una cabecera PMT dispuesta en la parte superior de la PMT. La cabecera PMT describe la longitud de los datos incluidos en la PMT y otros. Después de la cabecera PMT, hay dispuestos varios descriptores relativos a los datos multiplexados. En los descriptores se describe información tal como la información de control de copias. Después de los descriptores, hay dispuestas varias informaciones de secuencias relativas a las secuencias incluidas en los datos multiplexados. Cada información de secuencia incluye descriptores de la secuencia, cada uno de los cuales describe información tal como tipo de secuencia, para identificar un códec de compresión, un PID de una secuencia e información de atributos de secuencia (tales como la velocidad de transmisión de la trama o una relación de aspecto). Los descriptores de secuencias son iguales en número al número de secuencias de los datos multiplexados.
Cuando los datos multiplexados son grabados en un soporte de grabación y otros, se graban junto con ficheros de información de los datos multiplexados.
Cada uno de los ficheros de información de datos multiplexados es información de gestión de los datos multiplexados, según se muestra en la FIG. 27. Los ficheros de información de datos multiplexados tienen una correspondencia biunívoca con los datos multiplexados, y cada uno de los ficheros incluye información de datos multiplexados, información de atributos de secuencia, y una correlación de entradas.
Según se ilustra en la FIG. 27, la información de datos multiplexados incluye una velocidad del sistema, una hora de inicio de la reproducción y una hora de fin de la reproducción. La velocidad del sistema indica la máxima velocidad de transferencia a la que un decodificador diana del sistema, que ha de ser descrito posteriormente, transfiere los datos multiplexados a un filtro PID. Los intervalos de los ATS incluidos en los datos multiplexados están configurados no más altos que la velocidad del sistema. La hora de inicio de la reproducción indica un PTS en una trama de vídeo en la cabecera de los datos multiplexados. Se añade un intervalo de una trama a un PTS en una trama de vídeo al final de los datos multiplexados, y el PTS es configurado a la hora de fin de la reproducción.
Según se muestra en la FIG. 28, se da de alta una información de atributos en la información de atributos de secuencia, para cada PID de cada secuencia incluida en los datos multiplexados. Cada información de atributos tiene diferente información, dependiendo de si la correspondiente secuencia es una secuencia de vídeo, una secuencia de audio, una secuencia de gráficos de presentación o una secuencia de gráficos interactivos. Cada información de atributos de la secuencia de vídeo tiene información que incluye qué tipo de códec de compresión se usa para comprimir la secuencia de vídeo y la resolución, la relación de aspecto y la velocidad de tramas de los datos de imagen que están incluidos en la secuencia de vídeo. Cada información de atributos de la secuencia de audio tiene información que incluye qué tipo de códec de compresión se usa para comprimir la secuencia de audio, cuántos canales están incluidos en la secuencia de audio, qué idioma soporta la secuencia de audio, y qué altura tiene la frecuencia de muestreo. La información de atributos de la secuencia de vídeo y la información de atributos de la secuencia de audio son usadas para la inicialización de un decodificador antes de que el reproductor reproduzca la información.
En la presente realización, los datos multiplexados que han de usarse son de un tipo de secuencia incluido en la PMT. Además, cuando los datos multiplexados son grabados en un soporte de grabación, se usa información de atributos de la secuencia de vídeo incluida en la información de datos multiplexados. Más específicamente, el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones incluye una etapa o una unidad para asignar una información única que indica datos de vídeo generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las realizaciones, al tipo de secuencia incluido en la PMT o a información de atributos de la secuencia de vídeo. Con la configuración, los datos de vídeo generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones pueden ser distinguidos de los datos de vídeo que se conforman a otro estándar.
Además, la FIG. 29 ilustra etapas del método de decodificación de imágenes en movimiento según la presente realización. En la Etapa exS100, se obtiene de los datos multiplexados el tipo de secuencia incluido en la PMT o la información de atributos de la secuencia de vídeo incluida en los datos multiplexados información. A continuación, en la Etapa exS101, se determina si el tipo de secuencia o la información de atributos de la secuencia de vídeo indica o no que los datos multiplexados son generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las realizaciones. Cuando se determina que el tipo de secuencia o la información de atributos de la secuencia de vídeo indica que los datos multiplexados son generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento en cada una de las realizaciones, en la Etapa exS102, el método de decodificación de imágenes en movimiento en cada una de las realizaciones lleva a cabo la decodificación. Además, cuando el tipo de secuencia o la información de atributos de la secuencia de vídeo indica conformidad a los estándares convencionales, tales como MPEG-2, MPEG-4 AVC y VC-1, en la Etapa exS103, un método de decodificación de imágenes en movimiento en conformidad con los estándares convencionales lleva a cabo la decodificación.
Como tal, la asignación de un nuevo valor único al tipo de secuencia o a la información de atributos de la secuencia de vídeo permite determinar si el método de decodificación de imágenes en movimiento o el aparato de decodificación de imágenes en movimiento que se describe en cada una de las realizaciones puede llevar a cabo o no la decodificación. Incluso cuando se suministran datos multiplexados que se conforman a un estándar diferente, puede seleccionarse un método de decodificación o un aparato adecuado. Así, se hace posible decodificar información sin error alguno. Además, el método o aparato de codificación de imágenes en movimiento, o el método o aparato de decodificación de imágenes en movimiento en la presente realización pueden ser usados en los dispositivos y los sistemas descritos anteriormente.
(Realización 8)
Cada uno del método de codificación de imágenes en movimiento, el aparato de codificación de imágenes en movimiento, el método de decodificación de imágenes en movimiento y el aparato de decodificación de imágenes en movimiento en cada una de las realizaciones se logra normalmente en forma de un circuito integrado o de un circuito integrado a gran escala (LSI). Como ejemplo de LSI, la FIG. 30 ilustra una configuración del LSI ex500 que está hecho formando un único chip. El LSI ex500 incluye elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508 y ex509, que han de ser descritos posteriormente, y los elementos están conectados entre sí a través de un bus ex510. La unidad de circuitos de fuente de alimentación ex505 se activa suministrando energía a cada uno de los elementos cuando se activa la unidad de circuitos de fuente de alimentación ex505.
Por ejemplo, cuando se lleva a cabo la codificación, el LSI ex500 recibe una señal AV de un micrófono ex117, una cámara ex113 y otros a través de una IO AV ex509 bajo el control de una unidad de control ex501, que incluye una CPU ex502, un controlador de memoria ex503, un controlador de secuencias ex504 y una unidad de control de la frecuencia de excitación ex512. La señal AV recibida es almacenada temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad de control ex501, los datos almacenados son segmentados en porciones de datos según la cantidad de procesamiento y la velocidad a la que ha de transmitirse a una unidad de procesamiento de señales ex507. A continuación, la unidad de procesamiento de señales ex507 codifica una señal de audio y/o una señal de vídeo. Aquí, la codificación de la señal de vídeo es la codificación descrita en cada una de las realizaciones. Además, la unidad de procesamiento de señales ex507 multiplexa a veces los datos codificados de audio y los datos codificados de vídeo, una IO de secuencias ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados son transmitidos a la estación base ex107, o escritos en el soporte de grabación ex215. Cuando se multiplexan conjuntos de datos, los datos deberían ser almacenados temporalmente en la memoria intermedia ex508 para que los conjuntos de datos se sincronicen entre sí.
Aunque la memoria ex511 es un elemento externo al LSI ex500, puede estar incluida en el LSI ex500. La memoria intermedia ex508 no está limitada a una sola memoria intermedia, sino que puede estar compuesta de memorias intermedias. Además, el LSI ex500 puede estar creado formando un solo chip o varios chips.
Además, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de secuencias ex504, la unidad de control de la frecuencia de excitación ex512, la configuración de la unidad de control ex501 no está limitada los tales. Por ejemplo, la unidad de procesamiento de señales ex507 puede incluir, además, una CPU. La inclusión de otra CPU en la unidad de procesamiento de señales ex507 puede mejorar la velocidad de procesamiento. Además, como ejemplo adicional, la CPU ex502 puede servir o formar parte de la unidad de procesamiento de señales ex507, y, por ejemplo, puede incluir una unidad de procesamiento de señales de audio. En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señales ex507 o la CPU ex502, que incluye una parte de la unidad de procesamiento de señales ex507.
El nombre aquí usado es LSI, pero también puede denominarse CI, LSI de sistema, súper LSI o ultra LSI, dependiendo del grado de integración.
Además, las formas de lograr la integración no están limitadas al LSI, y también pueden lograr la integración un circuito especial o un procesador de uso general, etcétera. Para el mismo fin pueden usarse matrices de puertas programables in situ (FPGA) que pueden ser programadas después de la fabricación de los LSI o un procesador reconfigurable que permita la reconfiguración de la conexión o la configuración de un LSI.
En el futuro, con el avance en la tecnología de semiconductores, una tecnología completamente nueva puede sustituir al LSI. Los bloques funcionales pueden ser integrados usando tal tecnología. Existe la posibilidad de que la presente invención sea aplicada a la biotecnología.
(Realización 9)
Cuando se decodifican datos de vídeo generados en el método de codificación de imágenes en movimiento o por el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en comparación con cuando decodifican datos de vídeo que se conforman a un estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la cantidad de procesamiento probablemente aumente. Así, es preciso que el LSI ex500 sea configurado a una frecuencia de excitación más alta que la de la CPU ex502 que ha de usarse cuando se decodifican datos de vídeo en conformidad con el estándar convencional. Sin embargo, cuando la frecuencia de excitación es configurada más alta, existe el problema de que aumenta el consumo de energía.
Para solucionar el problema, el aparato de decodificación de imágenes en movimiento, tal como el televisor ex300 y el LSI ex500 son configurados para determinar a qué estándar se conforman los datos de vídeo, y conmutar entre las frecuencias de excitación según el estándar determinado. La FIG. 31 ilustra una configuración ex800 en la presente realización. Una unidad de conmutación de la frecuencia de excitación ex803 configura una frecuencia de excitación a una frecuencia de excitación más alta cuando el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones genera datos de vídeo. A continuación, la unidad de conmutación de la frecuencia de excitación ex803 da instrucciones a una unidad de procesamiento de decodificación ex801, que ejecuta el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones para decodificar los datos de vídeo. Cuando los datos de vídeo se conforman al estándar convencional, la unidad de conmutación de la frecuencia de excitación ex803 configura una frecuencia de excitación a una frecuencia de excitación menor que la de los datos de vídeo generados por el método de codificación de imágenes en movimiento o el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones. Acto seguido, la unidad de conmutación de la frecuencia de excitación ex803 envía instrucciones a la unidad de procesamiento de decodificación ex802 que se conforma al estándar convencional para decodificar los datos de vídeo.
Más específicamente, la unidad de conmutación de la frecuencia de excitación ex803 incluye la CPU ex502 y la unidad de control de la frecuencia de excitación ex512 en la FIG. 30. Aquí, cada una de la unidad de procesamiento de decodificación ex801, que ejecuta el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones, y la unidad de procesamiento de decodificación ex802 que se conforma al estándar convencional corresponde a la unidad de procesamiento de señales ex507 en la FIG. 30. La CPU ex502 determina a qué estándar se conforman los datos de vídeo. A continuación, la unidad de control de la frecuencia de excitación ex512 determina una frecuencia de excitación en función de una señal procedente de la CPU ex502. Además, la unidad de procesamiento de señales ex507 decodifica los datos de vídeo en función de la señal procedente de la CPU ex502. Por ejemplo, la información de identificación descrita en la Realización 7 es usada probablemente para identificar los datos de vídeo. La información de identificación no está limitada a la descrita en la Realización 7, sino que puede ser cualquier información, siempre y cuando la información indique a qué estándar se conforman los datos de vídeo. Por ejemplo, cuando puede determinarse a qué estándar se conforman los datos de vídeo en función de una señal externa para determinar que los datos de vídeo son usados para un televisor o un disco, etc., la determinación puede efectuarse en función de tal señal externa. Además, la CPU ex502 selecciona una frecuencia de excitación en función, por ejemplo, de una tabla de consulta en la que los estándares de los datos de vídeo están asociados con las frecuencias de excitación, según se muestra en la FIG. 33. La frecuencia de excitación puede ser seleccionada por la CPU ex502 almacenando la tabla de consulta en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de consulta.
La FIG. 32 ilustra etapas para ejecutar un método en la presente realización. En primer lugar, en la Etapa exS200, la unidad de procesamiento de señales ex507 obtiene de los datos multiplexados información de identificación. A continuación, en la Etapa exS201, la CPU ex502 determina si los datos de vídeo son o no generados por el método de codificación y el aparato de codificación descritos en cada una de las realizaciones, en función de la información de identificación. Cuando los datos de vídeo son generados por el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en la Etapa exS202, la CPU ex502 transmite a la unidad de control de la frecuencia de excitación ex512 una señal para configurar la frecuencia de excitación a una frecuencia de excitación más alta. A continuación, la unidad de control de la frecuencia de excitación ex512 configura la frecuencia de excitación a la frecuencia de excitación más alta. Por otro lado, cuando la información de identificación indica que los datos de vídeo se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, en la Etapa exS203, la CPU ex502 transmite a la unidad de control de la frecuencia de excitación ex512 una señal para configurar la frecuencia de excitación a una frecuencia de excitación más baja. Acto seguido, la unidad de control de la frecuencia de excitación ex512 configura la frecuencia de excitación a la frecuencia de excitación más baja que la del caso en el que los datos de vídeo son generados por el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada realización.
Además, junto con la conmutación de las frecuencias de excitación, el efecto de conservación de la energía puede mejorarse cambiando la tensión que ha de aplicarse al LSI ex500 o a un aparato que incluya al LSI ex500. Por ejemplo, cuando se configura más baja la frecuencia de excitación, la tensión que ha de aplicarse al LSI ex500 o al aparato que incluye al LSI ex500 es probablemente configurada a una tensión menor que la del caso en el que la frecuencia de excitación está configurada más alta.
Además, cuando la cantidad de procesamiento para la decodificación sea mayor, la frecuencia de excitación puede ser configurada más alta, y cuando la cantidad de procesamiento para la decodificación sea menor, la frecuencia de excitación puede ser configurada más baja como método para configurar la frecuencia de excitación. Así, el método de configuración no está limitado a los anteriormente descritos. Por ejemplo, cuando la cantidad de procesamiento para decodificar datos de vídeo en conformidad con MPEG-4 AVC es mayor que la cantidad de procesamiento para decodificar datos de vídeo generados por el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la frecuencia de excitación es probablemente configurada en orden inverso a la configuración anteriormente descrita.
Además, el método para establecer la frecuencia de excitación no está limitado al método para configurar más baja la frecuencia de excitación. Por ejemplo, cuando la información de identificación indica que los datos de vídeo son generados por el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, la tensión que ha de aplicarse al LSI ex500 o al aparato que incluye al LSI ex500 es probablemente configurada más alta. Cuando la información de identificación indica que los datos de vídeo se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, la tensión que ha de aplicarse al LSI ex500 o al aparato que incluye al LSI ex500 es probablemente configurada más baja. Como ejemplo adicional, cuando la información de identificación indica que los datos de vídeo son generados por el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, no es probable que la excitación de la CPU ex502 tenga que ser suspendida. Cuando la información de identificación indica que los datos de vídeo se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1, es probable que la excitación de la CPU ex502 se suspenda en un momento dado, porque la CPU ex502 tiene capacidad de procesamiento extra. Incluso cuando la información de identificación indica que los datos de vídeo son generados por el método de codificación de imágenes en movimiento y el aparato de codificación de imágenes en movimiento descritos en cada una de las realizaciones, en el caso en el que la CPU ex502 tiene capacidad de procesamiento extra, es probable que la excitación de la CPU ex502 se suspenda en un momento dado. En tal caso, es probable que el tiempo de suspensión sea configurado más corto que en el caso en el que la información de identificación indica que los datos de vídeo se conforman al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1.
En consecuencia, el efecto de conservación de energía puede ser mejorado conmutando entre las frecuencias de excitación según el estándar al que se conforman los datos de vídeo. Además, cuando el LSI ex500 o el aparato que incluye al LSI ex500 es excitado usando una batería, la vida de la batería puede prolongarse con el efecto de conservación de la energía.
(Realización 10)
Hay casos en los que se proporcionan varios datos de vídeo que se conforman a diferentes estándares a los dispositivos y los sistemas, tales como un televisor y un teléfono móvil. Para permitir decodificar los varios datos de vídeo que se conforman a los diferentes estándares, es preciso que la unidad de procesamiento de señales ex507 del LSI ex500 se conforme a los diferentes estándares. Sin embargo, se presentan problemas de aumento de escala del circuito del LSI ex500 y de aumento de coste con el uso individual de las unidades de procesamiento de señales ex507 que se conforman a los respectivos estándares.
Para solucionar el problema, se concibe una configuración en la que la unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y la unidad de procesamiento de decodificación que se conforma al estándar convencional, tal como MPEG-2, MPEG-4 AVC y VC-1 sean parcialmente compartidas. Ex900, en la FIG. 34A, muestra un ejemplo de la configuración. Por ejemplo, el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones y el método de decodificación de imágenes en movimiento que se conforma a MPEG-4 AVC tienen, parcialmente en común, los detalles del procesamiento, tales como la codificación entrópica, la cuantificación inversa, el filtrado de desbloqueos y la predicción compensada del movimiento. Los detalles del procesamiento para ser compartidos probablemente incluyan el uso de una unidad de procesamiento de decodificación ex902 que se conforme a MPEG-4 AVC. En cambio, es probable que una unidad de procesamiento de decodificación ex901 dedicada sea usada para otro procesamiento único a la presente invención. Dado que la presente invención está caracterizada por el procesamiento de división en particular, por ejemplo, la unidad de procesamiento de decodificación ex901 dedicada es usada para el procesamiento de división. Si no, es probable que la unidad de procesamiento de decodificación sea compartida para uno de la codificación entrópica, la cuantificación inversa, el filtrado de desbloqueos y la compensación del movimiento, o la totalidad del procesamiento. La unidad de procesamiento de decodificación para implementar el método de decodificación de imágenes en movimiento descrito en cada una de las realizaciones puede ser compartida para que el procesamiento sea compartido, y se puede usar una unidad de procesamiento de decodificación dedicada para un procesamiento único al de MPEG-4 AVC.
Además, ex1000 en la FIG. 34B muestra otro ejemplo en el que el procesamiento es compartido parcialmente. Este ejemplo usa una configuración que incluye una unidad de procesamiento de decodificación dedicada ex1001 que soporta el procesamiento único a la presente invención, una unidad de procesamiento de decodificación dedicada ex1002 que soporta el procesamiento único a otro estándar convencional, y una unidad de procesamiento de decodificación ex1003 que soporta un procesamiento para ser compartida entre el método de decodificación de imágenes en movimiento según la presente invención y el método convencional de decodificación de imágenes en movimiento. Aquí, las unidades de procesamiento de decodificación dedicadas ex1001 y ex1002 no son necesariamente especializadas para el procesamiento según la presente invención y el procesamiento del estándar convencional, respectivamente, y pueden ser las capaces de implementar un procesamiento general. Además, la configuración de la presente realización puede ser implementada por el LSI ex500.
Como tal, reducir la escala del circuito de un LSI y reducir el coste es posible compartiendo la unidad de procesamiento de decodificación para que el procesamiento sea compartido entre el método de decodificación de imágenes en movimiento según la presente invención y el método de decodificación de imágenes en movimiento en conformidad con el estándar convencional.
rAplicabilidad industrial!
Un método de codificación de imágenes y un método de decodificación de imágenes según la presente invención permiten la descripción y la reconstrucción eficaces de un método de división de bloques que no ha estado soportando por el método de codificación de longitud variable y los métodos de decodificación convencionales. Debido a esto, el método de codificación de imágenes y el método de decodificación de imágenes tienen las ventajas de reducir una gran cantidad de codificación y, así, puede ser utilizados en diversas aplicaciones, tales como almacenamientos, transmisiones y comunicaciones. Por ejemplo, la presente invención puede ser utilizada en dispositivos de visualización de información de alta resolución y en dispositivos de formación de imágenes tales como televisores, grabadoras de vídeo digital, sistemas de navegación de coche, teléfonos móviles, cámaras digitales y videocámaras digitales.
ILista de signos de referencia!
100 Dispositivo de codificación de imágenes
101 Unidad diferencial
102 Unidad de transformada
103 Unidad de cuantificación
104 Unidad de cuantificación inversa
105 Unidad de transformada inversa
106 Sumador
107 Unidad predictora
108 Unidad de control de la codificación
109 Unidad codificadora de longitud variable
110 Unidad divisoria
111 Unidad de control de división
112 Unidad de descripción de la información de división
120 Señal de imagen de entrada
121 Señal de imagen dividida
122 Señal diferencial
123, 125 Coeficiente de transformada
124 Información de coeficientes de transformada cuantificados
126 Señal de imagen residual decodificada
127 Señal de imagen decodificada
128 Señal de imagen predicha
129 Señal de control de división
130, 131 Información de división
130A Información del modo de división
132 Señal de control de codificación
140 Secuencia de código
200 Dispositivo de decodificación de imágenes
201 Unidad decodificadora de longitud variable
202 Unidad de control de la decodificación
203 Unidad de cuantificación inversa
204 Unidad de transformada inversa
205 Unidad predictora
206 Sumador
207 Unidad de reconstrucción de la información de división 221 Señal decodificada
222 Coeficientes de transformada
223 Señal de imagen residual decodificada
224 Señal de imagen predicha
225 Información relativa a la generación de imágenes predichas 226 Información de división
240 Señal de imagen de salida
900 Bloque actual
901, 902 Bloque adyacente
1101, 1104, 1105 Trama procesada
1102, 1103 Trama actual
CTB Datos de bloque
CTBs Señal de bloque
LCTB Datos del mayor tamaño de bloque
LCTBHdr Cabecera del mayor tamaño de bloque
PicHdr Cabecera de imagen
PicStr Señal de imagen
PicData Datos de imagen
SepInfo Información relativa a la división
SeqData Datos de secuencia
SeqHdr Cabecera de secuencia
SliceData Datos de segmento
SliceHdr Cabecera de segmento
SliceStr Señal de segmento
TUHdr Cabecera de bloque de transformada
TUs Bloque de transformada

Claims (5)

REIVINDICACIONES
1. Un método de decodificación de imagen para decodificar una secuencia de código (140) que incluye una imagen codificada particionada en unidades de procesamiento y un encabezado de una unidad de procesamiento de un tamaño de una unidad más grande, el método de decodificación de imagen que comprende:
información de la partición de decodificación (130, 131) incluida en la secuencia de códigos (140), representando la información de partición un patrón de partición; y
determinar el patrón de partición a partir de la información de partición decodificada (130, 131),
en el que la imagen se divide en unidades de procesamiento de un tamaño de una unidad más grande y jerárquicamente particionada en unidades de procesamiento en el orden a partir de la unidad más grande de las unidades de procesamiento en un formato jerárquico; incluyendo la partición jerárquica de la imagen, además, por unidad de procesamiento de un tamaño de la unidad más grande, el patrón de partición que especifica la partición jerárquica de la unidad de procesamiento de un tamaño de la unidad más grande en unidades de procesamiento, en el que
caracterizado porque
la información de la partición (130, 131) se decodifica del encabezado de la unidad de procesamiento de un tamaño de la unidad más grande, y
la información de la partición (130, 131) incluye la información de profundidad jerárquica máxima utilizada que indica una profundidad jerárquica de una unidad de procesamiento más profunda de las unidades de procesamiento resultante de la partición jerárquica de la unidad de procesamiento de un tamaño de la unidad más grande.
2. El método de decodificación de imágenes según la reivindicación 1 en el que la información de división (130, 131) incluye, además, una de
• información de la mínima profundidad jerárquica usada indicativa de la profundidad jerárquica de la unidad de procesamiento más superficial de las unidades de procesamiento resultantes de la división jerárquica de la unidad de procesamiento del tamaño de la mayor unidad, e
• información del modo de división jerárquica (130A) indicativa de si una unidad de procesamiento de las unidades de procesamiento resultantes de la división jerárquica de la unidad de procesamiento del tamaño de la mayor unidad está dividida o no en unidades de procesamiento.
3. El método de decodificación de imágenes según la reivindicación 1 en el que, la información de división, (130, 131) incluye la información de la mínima profundidad jerárquica cuando la máxima profundidad jerárquica es la profundidad jerárquica de la menor unidad de procesamiento de las unidades de procesamiento.
4. Un dispositivo (200) de decodificación de imagen para decodificar una secuencia de código (140) que incluye una imagen particionada en unidades de procesamiento y un encabezado de una unidad de procesamiento de un tamaño de una unidad más grande, comprendiendo el dispositivo de decodificación:
una unidad de decodificación (201) configurada para decodificar información de partición (130, 131) incluida en la secuencia de códigos que representa un patrón de partición; y
una unidad (207) de reconstrucción de información de partición configurada para determinar el patrón de partición a partir de la información de partición decodificada,
en el que la imagen se divide en unidades de procesamiento de un tamaño de una unidad más grande y jerárquicamente particionada en unidades de procesamiento en el orden a partir de la unidad más grande de las unidades de procesamiento en un formato jerárquico, incluyendo la partición jerárquica de la imagen, además, por unidad de procesamiento de un tamaño de la unidad más grande, el patrón de partición que especifica la partición jerárquica de la unidad de procesamiento de un tamaño de la unidad más grande en unidades de procesamiento, caracterizado porque
la unidad de decodificación está configurada para decodificar la información de partición (130, 131) del encabezado de la unidad de procesamiento de un tamaño de la unidad más grande, y
la información de división (130, 131) incluye información de la máxima profundidad jerárquica usada indicativa de la profundidad jerárquica de la unidad de procesamiento más profunda de las unidades de procesamiento resultantes de la división jerárquica de la unidad de procesamiento del tamaño de la mayor unidad.
5. El dispositivo de decodificación de imágenes (200) según la reivindicación 4 en el que la información de división (130, 131) incluye, además, al menos una de
• información de la mínima profundidad jerárquica usada indicativa de la profundidad jerárquica de la unidad de procesamiento más superficial de las unidades de procesamiento resultantes de la división jerárquica de la unidad de procesamiento del tamaño de la mayor unidad, e
• información del modo de división jerárquica (130A) indicativa de si una unidad de procesamiento de las unidades de procesamiento resultantes de la división jerárquica de la unidad de procesamiento del tamaño de la mayor unidad está dividida o no en unidades de procesamiento.
ES18169910T 2010-12-06 2011-12-05 Método de decodificación de imagen, y dispositivo de decodificación de imágenes Active ES2834902T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US41996510P 2010-12-06 2010-12-06

Publications (1)

Publication Number Publication Date
ES2834902T3 true ES2834902T3 (es) 2021-06-21

Family

ID=46206843

Family Applications (2)

Application Number Title Priority Date Filing Date
ES11846191.2T Active ES2691743T3 (es) 2010-12-06 2011-12-05 Método de codificación de imágenes, método de decodificación de imágenes, dispositivo de codificación de imágenes y dispositivo de decodificación de imágenes
ES18169910T Active ES2834902T3 (es) 2010-12-06 2011-12-05 Método de decodificación de imagen, y dispositivo de decodificación de imágenes

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES11846191.2T Active ES2691743T3 (es) 2010-12-06 2011-12-05 Método de codificación de imágenes, método de decodificación de imágenes, dispositivo de codificación de imágenes y dispositivo de decodificación de imágenes

Country Status (12)

Country Link
US (5) US9838723B2 (es)
EP (2) EP2651128B1 (es)
JP (3) JP5744060B2 (es)
KR (1) KR101941298B1 (es)
CN (2) CN103053158B (es)
BR (1) BR112013004425B1 (es)
CA (1) CA2808376C (es)
ES (2) ES2691743T3 (es)
MX (1) MX2013002086A (es)
PL (2) PL2651128T3 (es)
RU (1) RU2593382C2 (es)
WO (1) WO2012077332A1 (es)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012023597A (ja) * 2010-07-15 2012-02-02 Sony Corp 画像処理装置及び画像処理方法
WO2012044124A2 (ko) * 2010-09-30 2012-04-05 한국전자통신연구원 영상 부호화 방법과 복호화 방법 및 이를 이용한 영상 부호화 장치와 복호화 장치
BR112013004425B1 (pt) * 2010-12-06 2021-01-26 Sun Patent Trust método de codificação de imagem, método de decodificação de imagem, dispositivo de codificação de imagem e dispositivo de decodificação de imagem
US9154799B2 (en) 2011-04-07 2015-10-06 Google Inc. Encoding and decoding motion via image segmentation
WO2013089700A1 (en) * 2011-12-14 2013-06-20 Intel Corporation Methods, systems, and computer program products for assessing a macroblock candidate for conversion to a skipped macroblock
US9262670B2 (en) 2012-02-10 2016-02-16 Google Inc. Adaptive region of interest
FR2993084A1 (fr) * 2012-07-09 2014-01-10 France Telecom Procede de codage video par prediction du partitionnement d'un bloc courant, procede de decodage, dispositifs de codage et de decodage et programmes d'ordinateur correspondants
US20150237345A1 (en) * 2012-09-18 2015-08-20 Nec Corporation Video coding device, video coding method, and video coding program
KR102088383B1 (ko) * 2013-03-15 2020-03-12 삼성전자주식회사 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
EP3033886B1 (en) 2013-11-27 2021-01-06 HFI Innovation Inc. Method of video coding using prediction based on intra picture block copy
WO2015135175A1 (en) * 2014-03-13 2015-09-17 Mediatek Singapore Pte. Ltd. Simplified depth based block partitioning method
US9392272B1 (en) 2014-06-02 2016-07-12 Google Inc. Video coding using adaptive source variance based partitioning
KR20160001647A (ko) * 2014-06-26 2016-01-06 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
US9578324B1 (en) 2014-06-27 2017-02-21 Google Inc. Video coding using statistical-based spatially differentiated partitioning
WO2016153251A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
JP6510902B2 (ja) * 2015-06-15 2019-05-08 日本放送協会 符号化装置、復号装置及びプログラム
WO2017008263A1 (en) 2015-07-15 2017-01-19 Mediatek Singapore Pte. Ltd. Conditional binary tree block partitioning structure
US9942548B2 (en) * 2016-02-16 2018-04-10 Google Llc Entropy coding transform partitioning information
JP6665611B2 (ja) 2016-03-18 2020-03-13 富士通株式会社 符号化処理プログラム、符号化処理方法及び符号化処理装置
JP6616242B2 (ja) * 2016-05-20 2019-12-04 日本電信電話株式会社 映像符号化装置、ブロック構造決定方法及びコンピュータプログラム
US10511858B2 (en) * 2016-07-13 2019-12-17 Ati Technologies Ulc Bit packing for delta color compression
US10609423B2 (en) 2016-09-07 2020-03-31 Qualcomm Incorporated Tree-type coding for video coding
JP6565885B2 (ja) * 2016-12-06 2019-08-28 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム
JP7276549B2 (ja) * 2020-12-18 2023-05-18 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム
WO2023075568A1 (ko) * 2021-11-01 2023-05-04 엘지전자 주식회사 부호화 구조의 채널간 참조에 기반한 피쳐 부호화/복호화 방법, 장치, 비트스트림을 저장한 기록 매체 및 비트스트림 전송 방법

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000511366A (ja) * 1995-10-25 2000-08-29 サーノフ コーポレイション 4分割ツリーベースの可変ブロックサイズ動き推定装置および方法
JP2000134622A (ja) * 1998-10-23 2000-05-12 Matsushita Electric Ind Co Ltd データ処理装置
DE19860531C1 (de) 1998-12-30 2000-08-10 Univ Muenchen Tech Verfahren zur Übertragung codierter digitaler Signale
CN1170437C (zh) * 1999-06-08 2004-10-06 松下电器产业株式会社 图像信号混洗装置和方法
KR100371513B1 (ko) * 1999-12-06 2003-02-07 주식회사 팬택앤큐리텔 계층적 동영상 트리구조에서의 에지에 저장하는 키프레임의 충실도를 이용한 효율적인 동영상 요약 및 브라우징 장치 및 방법
US6795584B2 (en) * 2002-10-03 2004-09-21 Nokia Corporation Context-based adaptive variable length coding for adaptive block transforms
DE602004011234T2 (de) * 2004-11-19 2009-01-02 Telefonaktiebolaget Lm Ericsson (Publ) Verfahren und Vorrichtung zur Erzeugung dreidimensionaler Bilder
CN1285215C (zh) 2004-12-31 2006-11-15 大唐微电子技术有限公司 视频通信系统的帧率调节方法
JP5113052B2 (ja) * 2005-07-29 2013-01-09 エルジー エレクトロニクス インコーポレイティド 符号化されたオーディオ信号の生成方法及びオーディオ信号の処理方法
KR101365570B1 (ko) 2007-01-18 2014-02-21 삼성전자주식회사 인트라 예측 부호화, 복호화 방법 및 장치
JP4321628B2 (ja) * 2007-05-31 2009-08-26 ソニー株式会社 記憶装置、記憶方法および記憶プログラム、ならびに、データ処理装置、データ処理方法およびデータ処理プログラム
CN101605251B (zh) * 2009-07-24 2011-05-11 清华大学 无线视频传输方法和系统
KR101456498B1 (ko) * 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR20110017719A (ko) * 2009-08-14 2011-02-22 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101624649B1 (ko) * 2009-08-14 2016-05-26 삼성전자주식회사 계층적인 부호화 블록 패턴 정보를 이용한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101457418B1 (ko) * 2009-10-23 2014-11-04 삼성전자주식회사 계층적 부호화 단위의 크기에 따른 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
CN104768005B (zh) * 2009-12-01 2018-07-31 数码士有限公司 用于编码/解码高分辨率图像的方法和设备
CN104661033B (zh) * 2009-12-10 2018-02-06 Sk电信有限公司 使用树形结构的解码装置
KR20110069740A (ko) * 2009-12-17 2011-06-23 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
KR101495724B1 (ko) * 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
WO2011126282A2 (en) * 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using transformation index, and method and apparatus for decoding video by using transformation index
WO2011128269A1 (en) * 2010-04-13 2011-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video coding using multi-tree sub - divisions of images
WO2011127961A1 (en) * 2010-04-13 2011-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Adaptive image filtering method and apparatus
US9712822B2 (en) * 2010-04-13 2017-07-18 Samsung Electronics Co., Ltd. Video encoding method and video encoding apparatus and video decoding method and video decoding apparatus, which perform deblocking filtering based on tree-structure encoding units
DK2897365T3 (da) * 2010-07-09 2017-02-13 Samsung Electronics Co Ltd Apparat til at afkode video ved at anvende bloksammenlægning
JP2012019490A (ja) 2010-07-09 2012-01-26 Sony Corp 画像処理装置及び画像処理方法
HUE042742T2 (hu) * 2010-08-17 2019-07-29 Samsung Electronics Co Ltd Videodekódolási eljárás variábilis faszerkezetû transzformációs egység felhasználásával
JP5855570B2 (ja) 2010-09-30 2016-02-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラムおよび集積回路
US20120082238A1 (en) * 2010-10-01 2012-04-05 General Instrument Corporation Coding and decoding utilizing picture boundary variability in flexible partitioning
BR112013004425B1 (pt) * 2010-12-06 2021-01-26 Sun Patent Trust método de codificação de imagem, método de decodificação de imagem, dispositivo de codificação de imagem e dispositivo de decodificação de imagem
US8484253B2 (en) * 2010-12-31 2013-07-09 Microsoft Corporation Variational mode seeking
WO2016203881A1 (ja) * 2015-06-18 2016-12-22 シャープ株式会社 算術復号装置及び算術符号化装置

Also Published As

Publication number Publication date
CN103053158A (zh) 2013-04-17
US9894389B2 (en) 2018-02-13
US20190037246A1 (en) 2019-01-31
JP5744060B2 (ja) 2015-07-01
EP2651128B1 (en) 2018-07-25
US20180124434A1 (en) 2018-05-03
CA2808376A1 (en) 2012-06-14
JP5987147B2 (ja) 2016-09-07
CN107105300A (zh) 2017-08-29
BR112013004425A2 (pt) 2016-05-31
ES2691743T3 (es) 2018-11-28
RU2013108103A (ru) 2015-02-10
CN107105300B (zh) 2020-04-28
PL2651128T3 (pl) 2019-01-31
EP2651128A4 (en) 2014-08-06
US20170006310A1 (en) 2017-01-05
US20190327495A1 (en) 2019-10-24
BR112013004425A8 (pt) 2017-07-11
JP2016187219A (ja) 2016-10-27
EP3389277A1 (en) 2018-10-17
BR112013004425B1 (pt) 2021-01-26
US10659820B2 (en) 2020-05-19
US10123054B2 (en) 2018-11-06
US9838723B2 (en) 2017-12-05
CA2808376C (en) 2018-11-13
KR101941298B1 (ko) 2019-01-22
CN103053158B (zh) 2016-11-09
RU2593382C2 (ru) 2016-08-10
EP2651128A1 (en) 2013-10-16
KR20130139226A (ko) 2013-12-20
JP2015164347A (ja) 2015-09-10
US10390051B2 (en) 2019-08-20
JP6168433B2 (ja) 2017-07-26
US20130148729A1 (en) 2013-06-13
PL3389277T3 (pl) 2021-04-06
WO2012077332A1 (ja) 2012-06-14
JPWO2012077332A1 (ja) 2014-05-19
MX2013002086A (es) 2013-04-03
EP3389277B1 (en) 2020-09-23

Similar Documents

Publication Publication Date Title
ES2834902T3 (es) Método de decodificación de imagen, y dispositivo de decodificación de imágenes
JP6340707B2 (ja) 画像符号化方法および画像符号化装置
JP6167409B2 (ja) 画像復号化方法および画像復号化装置
JP6103408B2 (ja) 画像符号化装置および画像符号化方法
JP6422011B2 (ja) 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
ES2800049T3 (es) Procedimientos y aparatos para codificar y decodificar vídeo utilizando una descripción actualizada de memoria intermedia
ES2865101T3 (es) Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes y dispositivo de codificación/decodificación de imágenes
JP5893570B2 (ja) 画像符号化方法および画像復号化方法
WO2012090495A1 (ja) 画像符号化方法および画像復号方法
JP5680812B1 (ja) 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
WO2012073481A1 (ja) 動画像符号化方法および動画像復号化方法