ES2496979T3 - Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento - Google Patents
Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento Download PDFInfo
- Publication number
- ES2496979T3 ES2496979T3 ES09180894.9T ES09180894T ES2496979T3 ES 2496979 T3 ES2496979 T3 ES 2496979T3 ES 09180894 T ES09180894 T ES 09180894T ES 2496979 T3 ES2496979 T3 ES 2496979T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- field
- coding
- unit
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 123
- 230000033001 locomotion Effects 0.000 claims abstract description 462
- 239000013598 vector Substances 0.000 claims abstract description 330
- 238000006243 chemical reaction Methods 0.000 claims abstract description 107
- 230000002123 temporal effect Effects 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 89
- 238000010586 diagram Methods 0.000 description 28
- 230000000750 progressive effect Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 230000002457 bidirectional effect Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 101100451260 Arabidopsis thaliana HMGS gene Proteins 0.000 description 6
- 208000008813 mosaic variegated aneuploidy syndrome Diseases 0.000 description 6
- 239000012530 fluid Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/16—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Un procedimiento de codificación en modo directo temporal para realizar codificación de campo de un bloque actual de una imagen usando un vector de movimiento de una imagen con codificación de campo, estando la imagen con codificación de campo situada cerca en orden de visualización de la imagen del campo actual en el que se incluye el bloque actual, comprendiendo dicho procedimiento de codificación: la obtención de un vector de movimiento de un bloque co-situado incluido en la imagen con codificación de campo, estando el bloque co-situado co-situado con el bloque actual incluido en la imagen de campo actual; la valoración (S204) de que la conversión de escala del vector de movimiento del bloque co-situado no puede realizarse cuando (i) la información de orden de visualización de la imagen con codificación de campo que incluye el bloque co-situado y (ii) la información de orden de visualización de una imagen de campo de referencia a la que se hace referencia por el bloque co-situado son idénticas, perteneciendo la imagen con codificación de campo y la imagen de campo de referencia a la misma trama como un campo superior y un campo inferior, y la valoración de que la conversión de escala del vector de movimiento del bloque co-situado puede realizarse cuando (i) la información de orden de visualización de la imagen con codificación de campo que incluye el bloque co-situado y (ii) la información de orden de visualización de la imagen de campo de referencia a la que se hace referencia por el bloque co-situado no son idénticas; la generación de dos vectores de movimiento del bloque actual a través de dicha conversión de escala en el caso en que se valore, en dicha valoración, que dicha conversión de escala puede realizarse, y la generación de los dos vectores de movimiento del bloque actual fijando uno de los dos vectores de movimiento a un valor predeterminado y el otro vector de movimiento a otro valor predeterminado sin requerir la conversión de escala en el caso en que se valore, en dicha valoración, que dicha conversión de escala no puede realizarse; y la realización (S503, S505) de compensación de movimiento del bloque actual usando los dos vectores de movimiento generados en dicha generación, en el que, en dicha generación, dicha conversión de escala se realiza basándose en una relación de posición temporal entre la imagen de campo actual y la imagen con codificación de campo y la imagen de campo de referencia según la información de orden de visualización.
Description
E09180894
28-08-2014
Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento 5
La presente invención se refiere a un procedimiento de codificación de imágenes en movimiento, un procedimiento de decodificación de imágenes en movimiento, un aparato de codificación de imágenes en movimiento, un aparato
10 de decodificación de imágenes en movimiento para codificación/decodificación de imágenes en movimiento, que usan una estructura de trama o una estructura de campo, y un programa para ejecutar estos procedimientos en software.
15
T. Wiegand: 'Text of Final Committee Draft of Joint Video Specification (ITU-T Rec. H.264 / ISO/IEC 14496-10 AVC)*, ISO/IEC JTC1/SC29/WG11, Doc. nº MPEG02/N4920, Klagenfurt, AT, julio de 2002, desvela el denominado modo de codificación directo que puede seleccionarse en la codificación de imágenes B.
20 En codificación de imágenes en movimiento, la compresión de volumen de información se realiza normalmente eliminando la redundancia en las direcciones espacial y temporal que tiene la imagen en movimiento. En este caso, se emplea codificación de predicción entre imágenes como un procedimiento de eliminación de la redundancia en la dirección temporal. La codificación de predicción entre imágenes usa la imagen anterior o posterior a una imagen actual que se va a codificar en orden de visualización como una imagen de referencia cuando se codifica una
25 imagen. A continuación, se estima un movimiento usando las imágenes de referencia, y el volumen de información se comprime eliminando la redundancia en la dirección espacial para un valor diferencial entre una imagen para la que se realiza compensación de movimiento y la imagen actual.
En el procedimiento de codificación de imágenes en movimiento denominado H. 264 que es subyacente al proceso
30 de estandarización, una imagen para la cual se realiza codificación de predicción intraimagen usando sólo una imagen actual que se va a codificar sin imágenes de referencia se denomina imagen I. En este contexto imagen significa una unidad de codificación que incluye una trama y un campo. Una imagen para la cual la codificación de predicción entre imágenes se realiza con referencia a una única imagen que ya ha sido codificada se denomina imagen P mientras que una imagen para la cual la codificación de predicción entre imágenes se realiza con
35 referencia simultáneamente a dos imágenes que ya están codificadas se denomina imagen B.
La fig. 1 es un diagrama de patrones que muestra una relación de predicción de cada imagen en el procedimiento de codificación de imágenes en movimiento mencionado anteriormente. La línea vertical en la fig. 1 representa una única imagen, y su tipo de imagen (I, P y B) se indica abajo a la derecha de cada una de las imágenes. Las flechas
40 en el diagrama indican que la codificación de predicción entre imágenes se realiza del modo siguiente: la imagen situada en el extremo de inicio de la flecha está relacionada con la imagen situada en el extremo de fin de la flecha como imagen de referencia. Por ejemplo, la imagen B situada en segundo lugar desde el encabezamiento se codifica usando la imagen I situada en el encabezamiento y la imagen P situada en cuarto lugar desde el encabezamiento como imágenes de referencia.
45 En virtud del procedimiento H. 264, puede seleccionarse un modo de codificación denominado modo directo en la codificación de imágenes B. El modo directo proporciona dos tipos de procedimientos: un procedimiento temporal y un procedimiento espacial. En el modo directo temporal, el bloque actual en sí no tiene vectores de movimiento y los vectores de movimiento usados para el bloque actual son estimados y generados mediante la realización de un
50 procesamiento de conversión de escala basándose en una relación de posición según el tiempo de visualización entre las imágenes, considerando el vector de movimiento de otra imagen que ya está codificada como un vector de movimiento de referencia. (Véase como referencia, por ejemplo, la solicitud de patente japonesa abierta a consulta por el público nº H11-75191).
55 La fig. 2 es un diagrama de patrones que muestra un procedimiento de estimación y generación de vectores de movimiento en el modo directo temporal. P representa imagen P mientras que B representa imagen B y los números dispuestos en los tipos de imagen indican un orden de visualización de cada una de las imágenes. Cada una de las imágenes P1, B2, B3 y P4 tiene respectivamente su información de orden de visualización T1, T2, T3 y T4. Aquí, se ilustra un caso de codificación de un bloque BL0 en la imagen B3 mostrado en la fig. 2 en el modo directo temporal.
E09180894
28-08-2014
En este caso, se usa un vector de movimiento MV1 en un bloque BL1, situado en la misma posición que el bloque BL0 en la imagen P4 que ya ha sido codificada y está situada cerca de la imagen B3 en orden de visualización. El vector de movimiento MV1 se usa para codificación del bloque BL1 y está relacionado con la imagen P1. En este
5 caso, los vectores de movimiento usados para codificación del bloque BL0 son los siguientes: un vector de movimiento MV_F con respecto a la imagen P1 y un vector de movimiento MV_B con respecto a la imagen P4. Suponiendo que el valor del vector de movimiento MV1 es MV, el valor del MV_F es MVf y el valor del vector de movimiento MV_B es MVb, MVf y MVb pueden obtenerse usando las ecuaciones 1a y 1b respectivas mostradas a continuación.
10 MVf = (T3-T1 / T4-T1) × MV(Ecuación 1a)
MVb = (T3-T4 / T4-T1) × MV (Ecuación 1b)
15 La compensación de movimiento se realiza así para el bloque BL0 basándose en las imágenes de referencia P1 y P4, usando los vectores de movimiento MV_F y el MV_B obtenidos realizando procesamiento de conversión de escala para el vector de movimiento MV1.
Por otra parte, en el modo directo espacial, el bloque actual en sí no tiene vectores de movimiento, como sucede en
20 modo directo temporal, y los vectores de movimiento de los bloques codificados vecinos espacialmente al bloque actual se usan como referencia en la codificación.
La fig. 3 es un diagrama de patrones que muestra un procedimiento de estimación y generación de los vectores de movimiento en el modo directo espacial. P representa imagen P mientras que B representa imagen B, y los números
25 dispuestos en los tipos de imagen indican el orden de visualización de cada una de las imágenes. Aquí, se ilustra un caso de codificación del bloque BL0 en la imagen B3 mostrada en la fig. 3 en el modo directo espacial.
En este caso, los vectores de movimiento que tienen relación con las imágenes codificadas que están situadas en las posiciones más cercanas al bloque actual en orden de visualización, entre los vectores de movimiento 30 respectivos MVA1, MVB1 y MVC1 de los bloques codificados respectivamente que incluyen uno de los tres píxeles A, B y C que están situados cerca del bloque actual BL0, se determinan como candidatos para un vector de movimiento del bloque actual. Cuando se determinan tres vectores de movimiento como candidatos, se obtiene un valor medio de los tres valores como un vector de movimiento para el bloque actual. Cuando se determinan dos vectores de movimiento como candidatos, se obtiene un valor promedio de los dos valores como un vector de 35 movimiento para el bloque actual. Cuando sólo se determina un vector de movimiento como candidato, el vector de movimiento determinado se obtiene como un vector de movimiento para el bloque actual. En el ejemplo mostrado en la fig. 3, los vectores de movimiento MVA1 y MVC1 se obtienen con referencia a la imagen P2 mientras que el vector de movimiento MVB1 se obtiene con referencia a la imagen P1. Por lo tanto, el valor promedio de los vectores de movimiento MVA1 y MVC1, en referencia a la imagen P2 que ya ha sido codificada y está situada en una posición
40 más cercana a la imagen actual en orden de visualización, se obtiene como el primer vector de movimiento para el bloque actual, MV_F. Se aplica lo mismo cuando se obtiene el segundo vector de movimiento MV_B.
En el procedimiento de codificación del H. 264, en el caso de imagen progresiva, una imagen se codifica por trama como una trama y además, se permite que una imagen se codifique por campo como dos campos separados, un
45 campo superior y un campo inferior, como en el caso de imagen entrelazada.
Las fig. 4A y 4B son diagramas de patrones que muestran información de orden de visualización asignada para el campo de la imagen entrelazada y la imagen progresiva. Dos líneas verticales respectivamente que tienen el mismo número de trama representan que son campos. Para la imagen entrelazada, la información de orden de 50 visualización se asigna de manera que el campo superior y el campo inferior están en intervalos regulares tal como se muestra en la fig. 4A. Para la imagen progresiva, se define que dos campos pueden representar una relación exacta en orden de visualización teniendo la misma información de orden de visualización tal como se muestra en la fig. 4B. En la siguiente descripción, una imagen con dos campos que pertenecen a la misma trama y que tienen la misma información de orden de visualización se denomina imagen progresiva, y en caso contrario se denomina
55 imagen entrelazada. Sin embargo, el caso no se limita a esto y cualquier imagen puede tener dos campos que pertenecen a la misma trama y que tienen la misma información de orden de visualización.
Cuando la codificación de campo se realiza para la imagen entrelazada y la imagen progresiva, y se selecciona el modo directo temporal, la conversión de escala del vector de movimiento se realiza usando el procedimiento
E09180894
28-08-2014
explicado en los antecedentes de la técnica así como la información de orden de visualización asignada para cada campo. Aquí, se trata de un caso en el que las dos imágenes de referencia son un campo superior y un campo inferior que pertenecen a la misma trama. A continuación se describen los casos respectivos de codificación de campo de la imagen entrelazada y la imagen progresiva.
5 La fig. 5 es un diagrama de patrones que muestra un procedimiento de estimación y generación de los vectores de movimiento en modo directo temporal en el caso de la imagen entrelazada. P representa imagen P mientras que B representa imagen B, y los números dispuestos en los tipos de imagen representan el orden de visualización de cada una de las imágenes. Aquí, se describe un caso de codificación de campo del bloque BL0 en la imagen B2
10 mostrada en la fig. 5 en el modo directo temporal.
En este caso, se usa un vector de movimiento MV1 del bloque BL1, situado en la misma posición que el bloque BL0 en la imagen P3 que es una imagen de referencia hacia atrás de la imagen B2. El vector de movimiento MV1 es un vector de movimiento usado para codificación del bloque BL1 y está relacionado con un campo superior de la misma
15 imagen P3. Los vectores de movimiento MV_F y MV_B usados para codificación del bloque BL0 pueden obtenerse tal como se muestra a continuación, usando las ecuaciones 1a y 1b descritas anteriormente.
MVf = (4–5) / (6–5) × MV = - MV
20 MVb = (4–6) / (6–5) × MV = - 2 MV
La fig. 6 es un diagrama de patrones que muestra un procedimiento de estimación y generación de los vectores de movimiento en modo directo temporal para una imagen progresiva. P representa una imagen P mientras que B representa una imagen B, y los números dispuestos en los tipos de imagen indican el orden de visualización de cada
25 una de las imágenes. Aquí, se describe el caso de codificación de campo del bloque BL0 en la imagen B2 mostrada en la fig. 6 en el modo directo temporal.
En este caso, se usa el vector de movimiento MV1 del bloque BL1, situado en la misma posición que el bloque BL0 en la imagen P3 que es una imagen de referencia hacia atrás de la imagen B2. El vector de movimiento MV1 es un
30 vector de movimiento usado para codificación del bloque BL1 y se refiere a un campo superior de la misma imagen P3. En este caso, no pueden obtenerse los vectores de movimiento MV_F y MV_B usados para codificación del bloque BL0 dado que los denominadores indican 0 en las ecuaciones 1a y 1b anteriores.
MVf = (3–5) / (5–5) × MV la operación no está permitida
35 MVb = (3–5) / (5–5) × MV la operación no está permitida
Así, cuando la codificación de campo se realiza para la imagen progresiva, los vectores de movimiento no pueden generarse realizando el procesamiento de conversión de escala en el caso en el que se seleccione el modo directo
40 temporal y las dos imágenes de referencia son el campo superior y el campo inferior que pertenecen a la misma trama.
Análogamente, cuando la codificación de campo se realiza para la imagen entrelazada y la imagen progresiva, y se selecciona el modo directo espacial, un vector de movimiento relacionado con la imagen codificada que está situada
45 en la posición más cercana a la imagen actual en orden de visualización se determina como un candidato para un vector de movimiento del bloque actual, usando la información de orden de visualización asignada para cada campo. Aquí, se trata de un caso en el que las imágenes a las que se refieren los vectores de movimiento pueden ser un campo superior y un campo inferior que pertenecen a la misma trama.
50 La fig. 7 es un diagrama de patrones que muestra un procedimiento de estimación y generación de los vectores de movimiento en el modo directo espacial para una imagen progresiva. P representa una imagen P y B representa una imagen B mientras que los números dispuestos en los tipos de imagen indican el orden de visualización de cada una de las imágenes y T representa un campo superior mientras que B representa un campo inferior. En este caso, se ilustra el caso de codificación de campo del bloque BL0 en la imagen B3_T mostrada en la fig. 7 en el modo directo
55 espacial.
En este caso, los vectores de movimiento respectivos MVA1, MVB1 y MVC1 de los bloques codificados que incluyen respectivamente uno de tres píxeles de A, B y C, que están situados cerca del bloque actual BL0, se refieren respectivamente a los campos P2_T, P1_B y P2_B. Los campos P2_T y P2_B tienen la misma información de orden
E09180894
28-08-2014
de visualización ya que son el campo superior y el campo inferior que pertenecen a la misma trama. Por lo tanto, es imposible especificar cuál de los campos P2_T y P2_B están situados en la posición más cercana al bloque actual en orden de visualización. En consecuencia, los vectores de movimiento no pueden estimarse ni generarse para el bloque actual.
La presente invención se concibe por lo tanto considerando las circunstancias anteriores y pretende proporcionar un procedimiento de codificación/decodificación de imágenes en movimiento que puede obtener un vector de
10 movimiento sin fallos, cuando las imágenes en movimiento se codifican/decodifican por campo y se selecciona el modo directo.
Con el fin de conseguir el objeto anterior, el procedimiento de codificación de imágenes en movimiento según la presente invención es un procedimiento para codificación de una imagen en movimiento, que usa una estructura de 15 trama o una estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, usando imágenes codificadas como imágenes de referencia; una etapa de decisión de modo para decidir un modo de codificación para codificación de un bloque actual para codificar; una etapa de valoración de conversión de escala para valoración de si los vectores de movimiento para el bloque actual pueden ser o no estimados y generados, cuando el modo de codificación decidido 20 en la etapa de decisión de modo es un modo de codificación en el que (i) un vector de movimiento de una imagen que ya ha sido codificada y está situada cerca de la imagen actual en orden de visualización se usa como un vector de movimiento de referencia y (ii) los vectores de movimiento para el bloque actual son estimados y generados realizando el procesamiento de conversión de escala para el vector de movimiento de referencia basándose en una relación de posición entre la imagen actual y las imágenes de referencia según el orden de visualización; y una
25 etapa de compensación de movimiento para la realización de compensación de movimiento usando el modo de codificación decidido en la etapa de decisión de modo u otro modo de codificación, basándose en un resultado de la valoración en la etapa de valoración de conversión de escala.
Así, es posible codificar el bloque actual realizando un procesamiento tal como el cambio del modo de codificación
30 aun cuando el procesamiento de conversión de escala no pueda realizarse, cuando el vector de movimiento de la imagen codificada que está situada cerca de la imagen actual en orden de visualización se usa como un vector de movimiento de referencia y la codificación se realiza en el modo directo temporal para estimar y generar los vectores de movimiento para el bloque actual realizando el procesamiento de conversión de escala para el vector de movimiento de referencia basándose en una relación de posición entre la imagen actual y las imágenes de
35 referencia según el orden de visualización.
Además, el procedimiento de codificación de imágenes en movimiento según la presente invención es un procedimiento para codificación de una imagen en movimiento, que usa una estructura de trama o una estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento 40 para cada bloque que constituye una imagen, usando imágenes codificadas como imágenes de referencia; una etapa de valoración de estimación para valorar si los vectores de movimiento para un bloque actual para codificar pueden o no ser estimados y generados, cuando los vectores de movimiento para el bloque actual son estimados y generados basándose en al menos un vector de movimiento que está relacionado con las imágenes codificadas que están situadas en las posiciones más cercanas a una imagen actual que se va a codificar, entre los vectores de
45 movimiento de bloques codificados que están situados espacialmente cerca del bloque actual; y una etapa de decisión de la imagen más cercana para decidir una imagen que está situada en la posición más cercana a la imagen actual, usando información distinta de la información de orden de visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
50 Así, es posible estimar y generar los vectores de movimiento y de ese modo codificar el bloque actual decidiendo cuál es la imagen que está situada en la posición más cercana a la imagen actual aun cuando los vectores de movimiento no puedan ser estimados ni generados basándose en la información de orden de visualización asignada para las imágenes, cuando la codificación se realiza en el modo directo espacial para estimar y generar al menos un vector de movimiento para el bloque actual basándose en el vector de movimiento que está relacionado con la
55 imagen codificada que está situada en la posición más cercana a la imagen actual en orden de visualización, entre los vectores de movimiento de bloques codificados que están situados espacialmente cerca del bloque actual.
El procedimiento de decodificación de imágenes en movimiento según la presente invención es un procedimiento para decodificación de imágenes en movimiento, que usa una estructura de trama o una estructura de campo, que
E09180894
28-08-2014
comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, usando imágenes decodificadas como imágenes de referencia; una etapa de extracción de modo para extraer un modo de decodificación para decodificación de un bloque actual para decodificar; una etapa de valoración de conversión de escala para valorar si los vectores de movimiento para el 5 bloque actual pueden ser o no estimados y generados, cuando el modo de decodificación extraído en la etapa de extracción de modo es un modo de decodificación en el que (i) el vector de movimiento de la imagen decodificada que está situada cerca de una imagen actual para decodificar en orden de visualización se usa como un vector de movimiento de referencia y (ii) los vectores de movimiento para el bloque actual son estimados y generados realizando procesamiento de conversión de escala para el vector de movimiento de referencia basándose en una
10 relación de posición entre la imagen actual y las imágenes de referencia según el orden de visualización; y una etapa de compensación de movimiento para realizar compensación de movimiento usando el modo de decodificación extraído en la etapa de extracción de modo u otro modo de decodificación, basándose en un resultado de la valoración en la etapa de valoración de conversión de escala.
15 Así, es posible decodificar el bloque actual realizando un procesamiento tal como el cambio del modo de decodificación, cuando el procesamiento de conversión de escala no puede realizarse aun cuando el modo de codificación extraído en el tiempo de codificación sea el modo directo temporal.
Además, el procedimiento de decodificación de imágenes en movimiento según la presente invención es un
20 procedimiento para decodificación de una imagen en movimiento, que usa una estructura de trama o una estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, que usa imágenes decodificadas como imágenes de referencia; una etapa de valoración de estimación para valorar si los vectores de movimiento para un bloque actual para decodificar pueden ser o no estimados y generados, cuando los vectores de movimiento para el bloque actual
25 son estimados, generados y decodificados basándose en al menos un vector de movimiento que está relacionado con las imágenes decodificadas que están situadas en las posiciones más cercanas en orden de visualización a una imagen actual para decodificar, entre los vectores de movimiento de bloques decodificados que están situados espacialmente cerca del bloque actual; y una etapa de decisión de la imagen más cercana para decidir una imagen que está situada en la posición más cercana a la imagen actual, usando información distinta de la información de
30 orden de visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
Así, es posible estimar y generar los vectores de movimiento decidiendo cuál es la imagen que está situada en la posición más cercana a la imagen actual y de ese modo decodificar el bloque actual aun cuando los vectores de
35 movimiento no puedan ser estimados ni generados basándose en la información de orden de visualización asignada para las imágenes, cuando la decodificación se realiza en el modo directo espacial.
Además, la presente invención puede realizarse no sólo como el procedimiento de codificación de imágenes en movimiento y el procedimiento de decodificación de imágenes en movimiento tal como se describe anteriormente
40 sino también como un aparato de codificación de imágenes en movimiento y un aparato de decodificación de imágenes en movimiento que tienen las etapas características incluidas en dicho procedimiento de codificación/decodificación de imágenes en movimiento como unidades y también como un ordenador que tiene un programa para ejecutar estas etapas. Dicho programa puede distribuirse de forma segura a través de un medio de almacenamiento tal como CD-ROM o un medio de transmisión tal como Internet.
45 El procedimiento de codificación de imágenes en movimiento según la presente invención puede incluir cualquiera de los componentes de (1) ~ (11) descritos a continuación.
(1) Un procedimiento para codificación de imágenes en movimiento, que usa una estructura de trama o una
50 estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, que usa imágenes codificadas como imágenes de referencia; una etapa de decisión de modo para decidir un modo de codificación para la codificación de un bloque actual para codificar; una etapa de valoración de conversión de escala para valorar si los vectores de movimiento para el bloque actual pueden ser o no estimados y generados, cuando el modo de codificación decidido en la etapa
55 de decisión de modo es un modo de codificación en el que (i) un vector de movimiento de la imagen codificada situada cercana en orden de visualización a una imagen actual que se va a codificar se usa como un vector de movimiento de referencia y (ii) los vectores de movimiento para el bloque actual son estimados y generados realizando procesamiento de conversión de escala para el vector de movimiento de referencia basándose en una relación de posición entre la imagen actual y las imágenes de referencia según el orden de visualización; y una
E09180894
28-08-2014
etapa de compensación de movimiento para realizar compensación de movimiento usando el modo de codificación decidido en la etapa de decisión de modo u otro modo de codificación, basándose en un resultado de la valoración en la etapa de valoración de conversión de escala.
5 (2) En la etapa de valoración de conversión de escala, se valora que los vectores de movimiento para el bloque actual no pueden ser estimados ni generados realizando el procesamiento de conversión de escala, cuando dos de las imágenes de referencia usadas para el procesamiento de conversión de escala tienen la misma información de orden de visualización.
10 (3) En la etapa de valoración de conversión de escala, se valora que los vectores de movimiento para el bloque actual no pueden ser estimados ni generados realizando el procesamiento de conversión de escala, cuando dos de las imágenes de referencia usadas para el procesamiento de conversión de escala son un campo superior y un campo inferior, que pertenecen a una misma trama y que tienen la misma información de orden de visualización.
15 (4) En la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza usando otro modo de codificación para realizar codificación basándose en los vectores de movimiento calculados para el bloque actual en la etapa de cálculo del vector de movimiento.
20 (5) En la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza, sin el procesamiento de conversión de escala, usando el modo de codificación decidido en la etapa de decisión de modo y usando los vectores de movimiento estimados y generados para el bloque actual, como vectores predeterminados.
25 (6) Al menos uno de los vectores predeterminados es un vector 0, y en la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza, sin el procesamiento de conversión de escala, usando el modo de codificación decidido en la etapa de decisión de modo y usando al menos uno de los vectores de movimiento estimados y generados para el bloque actual, como un vector 0.
30
(7) En la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza usando otro modo de codificación para estimar, generar y codificar los vectores de movimiento para el bloque actual, basándose en al menos un vector de movimiento de bloques codificados que están situados espacialmente cerca
35 del bloque actual.
(8) Un procedimiento para codificación de imágenes en movimiento, que usa una estructura de trama o una estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, usando imágenes codificadas como imágenes de 40 referencia; una etapa de valoración de estimación para valorar si los vectores de movimiento para un bloque actual para codificar pueden o no ser estimados y generados, cuando los vectores de movimiento para el bloque actual son estimados y generados basándose en al menos un vector de movimiento que está relacionado con las imágenes codificadas que están situadas en las posiciones más cercanas en orden de visualización a una imagen actual que se va a codificar, entre los vectores de movimiento de bloques codificados que están situados espacialmente cerca
45 del bloque actual; y una etapa de decisión de la imagen más cercana para decidir una imagen que está situada en la posición más cercana a la imagen actual, basándose en información distinta de la información de orden de visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
50 (9) En la etapa de valoración de estimación, se valora que los vectores de movimiento para el bloque actual no pueden ser estimados ni generados, cuando los vectores de movimiento respectivos de los bloques codificados incluyen una pluralidad de vectores de movimiento que están relacionados con la imagen codificada que está situada en la posición más cercana a la imagen actual en orden de visualización, la pluralidad de las imágenes de referencia son un campo superior y un campo inferior, que pertenecen a una misma trama y que tienen la misma
55 información de orden de visualización.
(10) En la etapa de decisión de la imagen más cercana, se determina que una imagen que tiene un mismo atributo que la imagen actual es una imagen que está situada en la posición más cercana a la imagen actual, entre el campo superior y el campo inferior, que pertenecen a la misma trama y que tienen la misma información de orden de
E09180894
28-08-2014
visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
(11) En la etapa de decisión de la imagen más cercana, se determina que una imagen codificada en un tiempo
5 posterior es una imagen que está situada en la posición más cercana a la imagen actual, entre el campo superior y el campo inferior, que pertenecen a la misma trama y que tienen la misma información de orden de visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
El procedimiento de decodificación de imágenes en movimiento según la presente invención puede incluir cualquiera 10 de los componentes de (12) ~ (22) descritos a continuación.
(12) Un procedimiento para decodificación de imágenes en movimiento, que usa una estructura de trama o una estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, que usa imágenes decodificadas como imágenes de 15 referencia; una etapa de extracción de modo para extraer un modo de decodificación para la decodificación de un bloque actual para decodificar; una etapa de valoración de conversión de escala para valorar si los vectores de movimiento para el bloque actual pueden ser o no estimados y generados, cuando el modo de decodificación extraído en la etapa de extracción de modo es un modo de decodificación en el que (i) un vector de movimiento de la imagen decodificada situada cercanamente en orden de visualización a una imagen actual para decodificar se usa 20 como un vector de movimiento de referencia y (ii) los vectores de movimiento para el bloque actual son estimados y generados realizando procesamiento de conversión de escala para el vector de movimiento de referencia basándose en una relación de posición entre la imagen actual y las imágenes de referencia según el orden de visualización; y una etapa de compensación de movimiento para realizar compensación de movimiento usando el modo de decodificación extraído en la etapa de extracción de modo u otro modo de decodificación, basándose en un
25 resultado de la valoración en la etapa de valoración de conversión de escala.
(13) En la etapa de valoración de conversión de escala, se valora que los vectores de movimiento para el bloque actual no pueden ser estimados ni generados realizando el procesamiento de conversión de escala, cuando dos de las imágenes de referencia usadas para el procesamiento de conversión de escala tienen la misma información de
30 orden de visualización.
(14) En la etapa de valoración de conversión de escala, se valora que los vectores de movimiento no pueden ser estimados ni generados realizando el procesamiento de conversión de escala, cuando dos de las imágenes de referencia usadas para el procesamiento de conversión de escala son un campo superior y un campo inferior, que
35 pertenecen a una misma trama y que tienen la misma información de orden de visualización.
(15) En la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza usando otro modo de decodificación para que realice decodificación basándose en los vectores de movimiento estimados
40 para el bloque actual en la etapa de estimación de vector de movimiento.
(16) En la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza, sin el procesamiento de conversión de escala, usando el modo de decodificación extraído en la etapa de extracción de
45 modo y usando los vectores de movimiento estimados y generados para el bloque actual, como vectores predeterminados.
(17) Al menos uno de los vectores predeterminados es un vector 0, y en la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de escala que los vectores de movimiento no pueden
50 generarse, la compensación de movimiento se realiza, sin el procesamiento de conversión de escala, usando el modo de decodificación extraído en la etapa de extracción de modo y usando al menos uno de los vectores de movimiento estimados y generados para el bloque actual, como un vector 0.
(18) En la etapa de compensación de movimiento, cuando se valora en la etapa de valoración de conversión de
55 escala que los vectores de movimiento no pueden generarse, la compensación de movimiento se realiza usando otro modo de decodificación para estimar, generar y decodificar los vectores de movimiento para el bloque actual basándose en al menos un vector de movimiento de bloques decodificados que están situados espacialmente cerca del bloque actual.
E09180894
28-08-2014
(19) Un procedimiento para decodificación de imágenes en movimiento, que usa una estructura de trama o una estructura de campo, que comprende: una etapa de cálculo del vector de movimiento para el cálculo de vectores de movimiento para cada bloque que constituye una imagen, que usa imágenes decodificadas como imágenes de referencia; una etapa de valoración de estimación para valorar si los vectores de movimiento para un bloque actual 5 para decodificar pueden ser o no estimados y generados, cuando los vectores de movimiento para el bloque actual son estimados, generados y decodificados basándose en al menos un vector de movimiento que se refiere a las imágenes decodificadas que están situadas en las posiciones más cercanas en orden de visualización a una imagen actual para decodificar, entre los vectores de movimiento de bloques decodificados que están situados espacialmente cerca del bloque actual; y una etapa de decisión de la imagen más cercana para decidir una imagen
10 que está situada en la posición más cercana a la imagen actual, usando información distinta de la información de orden de visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
(20) En la etapa de valoración de estimación, se valora que los vectores de movimiento para el bloque actual no
15 pueden ser estimados ni generados, cuando los vectores de movimiento respectivos de los bloques decodificados incluyen una pluralidad de vectores de movimiento que se refieren a la imagen decodificada que está situada en la posición más cercana a la imagen actual en orden de visualización y la pluralidad de las imágenes de referencia son un campo superior y un campo inferior, que pertenecen a una misma trama y que tienen la misma información de orden de visualización.
20
(21) En la etapa de decisión de la imagen más cercana, una imagen que tiene un mismo atributo que la imagen actual se decide como una imagen que está situada en la posición más cercana a la imagen actual, entre el campo superior y el campo inferior, que pertenecen a la misma trama y que tienen la misma información de orden de visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden
25 generarse.
(22) En la etapa de decisión de la imagen más cercana, se decide que una imagen que se decodifica en un momento posterior es una imagen que está situada en la posición más cercana a la imagen actual, entre el campo superior y el campo inferior, que pertenecen a la misma trama y que tienen la misma información de orden de
30 visualización, cuando en la etapa de valoración de estimación se valora que los vectores de movimiento no pueden generarse.
Como es evidente a partir de la descripción anterior, con el procedimiento de codificación de imágenes en movimiento según la presente invención es posible codificar el bloque actual generando los vectores de movimiento
35 sin fallo, cuando la codificación se realiza ya sea en el modo directo temporal o en el modo directo espacial.
Con el procedimiento de decodificación de imágenes en movimiento según la presente invención, es posible también decodificar el bloque actual generando los vectores de movimiento sin fallo, cuando la decodificación se realiza ya sea en el modo directo temporal o en el modo directo espacial.
40
La fig. 1 es un diagrama de patrones que muestra una relación de predicción de cada imagen según un procedimiento convencional de codificación de imágenes en movimiento.
45 La fig. 2 es un diagrama de patrones que muestra un procedimiento de estimación y generación de vectores de movimiento en modo directo temporal.
La fig. 3 es un diagrama de patrones que muestra un procedimiento de estimación y generación de vectores de 50 movimiento en modo directo espacial.
La fig. 4 es un diagrama de patrones que muestra información de orden de visualización asignada para un campo de una imagen entrelazada y una imagen progresiva.
55 La fig. 5 es un diagrama de patrones que muestra un procedimiento de estimación y generación de vectores de movimiento para codificación de la imagen entrelazada en un modo directo temporal.
La fig. 6 es un diagrama de patrones que muestra un procedimiento de estimación y generación de vectores de movimiento para codificación de la imagen progresiva en el modo directo temporal.
E09180894
28-08-2014
La fig. 7 es un diagrama de patrones que muestra un procedimiento de estimación y generación de vectores de movimiento para codificación de la imagen progresiva en un modo directo espacial.
5 La fig. 8 es un diagrama de bloques que muestra una estructura de una realización de un aparato de codificación de imágenes en movimiento según la presente invención.
Las fig. 9A y 9B son ilustraciones que muestran un orden de imágenes en una memoria de imágenes. La fig. 9A muestra un orden de introducción mientras que la fig. 9B muestra un orden de reordenación.
10 La fig. 10 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 1 empleado por una unidad de valoración de habilitación/inhabilitación de modo directo.
La fig. 11 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el 15 procedimiento 2 empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
La fig. 12 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 3 empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
20 La fig. 13 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 1' empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
La fig. 14 es un diagrama de bloques que muestra una estructura de una realización de un aparato de decodificación de imágenes en movimiento según la presente invención.
25 La fig. 15 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el procedimiento 1 empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
La fig. 16 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el 30 procedimiento 2 empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
La fig. 17 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el procedimiento 3 empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
35 La fig. 18 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el procedimiento 3 empleado por la unidad de valoración de habilitación/inhabilitación de modo directo.
Las fig. 19A, 19B y 19C son ilustraciones que muestran un medio de almacenamiento para almacenar un programa para realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de decodificación de
40 imágenes en movimiento según la primera realización. La fig. 19A es una ilustración que muestra un formato físico de un disco flexible que es un cuerpo principal del medio de almacenamiento. La fig. 19B es una ilustración que muestra un aspecto completo del disco flexible, una estructura en sección transversal y el disco flexible en sí. La fig. 19C es una ilustración que muestra una estructura para grabar/reproducir el programa en el disco flexible FD.
45 La fig. 20 es un diagrama de bloques que muestra la estructura completa de un sistema de suministro de contenidos para realizar servicio de distribución de contenidos.
La fig. 21 es un diagrama que muestra un ejemplo de un teléfono móvil.
50 La fig. 22 es un diagrama de bloques que muestra la estructura interna del teléfono móvil.
La fig. 23 es un diagrama de bloques que muestra la estructura completa de un sistema de radiodifusión digital.
55 A continuación se describen realizaciones según la presente invención en detalle con referencia a los diagramas.
(Primera realización)
E09180894
28-08-2014
La fig. 8 es un diagrama de bloques que muestra una estructura de una realización de un aparato de codificación de imágenes en movimiento que usa el procedimiento de codificación de imágenes en movimiento según la presente invención.
5 El aparato de codificación de imágenes en movimiento incluye, tal como se muestra en la fig. 8, una memoria de imágenes 101, una unidad de codificación residual predictiva 102, una unidad de generación de trenes de bits 103, una unidad de decodificación residual predictiva 104, una memoria de imágenes 105, una unidad de estimación de vectores de movimiento 106, una unidad de codificación de compensación de movimiento 107, una unidad de almacenamiento de vectores de movimiento 108, una unidad de valoración de habilitación/inhabilitación de modo
10 directo 109, una unidad de resta 110, una unidad de suma 111 y conmutadores 112 y 113.
La memoria de imágenes 101 almacena una imagen en movimiento introducida según una base de imagen por imagen en orden de visualización. La unidad de estimación de vectores de movimiento 106 usa datos de imágenes reconstruidas codificados como imagen de referencia y estima vectores de movimiento que indican posiciones
15 estimadas como óptimas para la estimación dentro de un intervalo de búsqueda en la imagen. La unidad de codificación de compensación de movimiento 107 decide un modo de codificación para un bloque, usando los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 106, y genera datos de imágenes predictivos basándose en el modo de codificación. El modo de codificación indica cómo codificar un macrobloque.
20 La unidad de almacenamiento de vectores de movimiento 108 almacena los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 106. La unidad de valoración de habilitación/inhabilitación de modo directo 109 valora si puede realizarse o no el procesamiento de conversión de escala, cuando el modo de codificación decidido por la unidad de codificación de compensación de movimiento 107 es un modo directo
25 temporal, y determina el modo de codificación. La unidad de valoración de habilitación/inhabilitación de modo directo 109 valora si los vectores de movimiento para el bloque actual pueden ser estimados y generados, cuando el modo de codificación es un modo directo espacial. La unidad de resta 110 calcula un diferencial entre los datos de imágenes leídos desde la memoria de imágenes 101 y los datos de imágenes predictivos introducidos por la unidad de codificación de compensación de movimiento 107 y genera datos de imágenes residuales predictivos.
30 La unidad de codificación residual predictiva 102 realiza procesamiento de codificación tal como conversión de frecuencias y cuantificación para los datos de imágenes residuales predictivos introducidos, y genera datos codificados. La unidad de generación de trenes de bits 103 realiza codificación de longitud variable o similar para los datos codificados introducidos y además, genera un tren de bits añadiendo información en los vectores de
35 movimiento y el modo de codificación, introducido desde la unidad de codificación de compensación de movimiento
107.
La unidad de decodificación residual predictiva 104 realiza procesamiento de decodificación tal como cuantificación inversa y conversión de frecuencias inversa para los datos codificados introducidos, y genera datos de imágenes
40 diferenciales decodificados. La unidad de suma 111 suma los datos de imágenes diferenciales decodificados introducidos desde la unidad de decodificación residual predictiva 104, a los datos de imágenes predictivos introducidos desde la unidad de codificación de compensación de movimiento 107, y genera datos de imágenes reconstruidas. La memoria de imágenes 105 almacena los datos de imágenes reconstruidas generados.
45 A continuación se describe el funcionamiento del aparato de codificación de imágenes en movimiento construido como se indica anteriormente.
Las fig. 9A y 9B son ilustraciones que indican órdenes de las imágenes en la memoria de imágenes 101. La fig. 9A muestra un orden de introducción mientras que la fig. 9B muestra un orden de reordenación. En este caso, la línea
50 vertical representa una imagen. En cuanto a las marcas dispuestas en el lado derecho inferior de cada una de las imágenes, las letras en el encabezamiento indican los tipos de imagen (I, P o B) mientras que los números indican números de imagen en orden de visualización. La imagen P usa una imagen I o una imagen P situada cerca y hacia delante de la imagen actual en orden de visualización mientras que la imagen B usa una imagen I o una imagen P situada cerca y hacia delante de la imagen actual en orden de visualización y una imagen I o una imagen P situada
55 hacia atrás de la imagen actual en orden de visualización, como imágenes de referencia.
Se introduce una imagen de entrada, por ejemplo, en la memoria de imágenes 101 según una base de imagen por imagen en orden de visualización tal como se muestra en la fig. 9A. Cada una de las imágenes introducidas en la memoria de imágenes 101 es reordenada, por ejemplo, en un orden de codificación tal como se muestra en la fig.
E09180894
28-08-2014
9B, cuando se determina el tipo de imagen para codificar. La reordenación en el orden de codificación se opera basándose en la relación de referencia en la codificación de predicción entre imágenes de manera que las imágenes usadas como imágenes de referencia son codificadas antes de la imagen que está relacionada con estas imágenes de referencia.
5 Cada una de las imágenes reordenadas en la memoria de imágenes 101 es leída por macrobloque que se divide, por ejemplo, en un grupo de 16 píxeles (horizontales) x 16 píxeles (verticales). La compensación de movimiento y la estimación de los vectores de movimiento se operan por bloque que se divide, por ejemplo, en un grupo de 8 píxeles (horizontales) x 8 píxeles (verticales).
10 Para el funcionamiento posterior se describe un caso en el que una imagen actual que se va a codificar es una imagen B.
La codificación de predicción entre imágenes usando referencia bidireccional se realiza para imágenes B. Por
15 ejemplo, cuando se codifica una imagen B11 en el ejemplo mostrado en la fig. 9A, las imágenes de referencia hacia delante en orden de visualización son imágenes P10, P7 y P4 mientras que las imágenes de referencia hacia atrás en orden de visualización son una imagen P13. Aquí se considera un caso en el que no pueden usarse imágenes B como imágenes de referencia cuando se codifica otra imagen.
20 El macrobloque en la imagen B11 leído de la memoria de imágenes 101 se introduce en la unidad de estimación de vectores de movimiento 106 y la unidad de resta 110.
La unidad de codificación de compensación de movimiento 107 decide si codificar cada bloque en el macrobloque usando una estructura de trama o una estructura de campo. La decisión se toma, por ejemplo, obteniendo una
25 dispersión de valores de píxel en el bloque usando la estructura de trama y la estructura de campo, y seleccionando aquélla con una dispersión baja. Cada imagen puede codificarse según una base de imagen por imagen usando la estructura de trama o la estructura de campo.
La unidad de estimación de vectores de movimiento 106 estima un vector de movimiento hacia delante y un vector
30 de movimiento hacia atrás para cada uno de los bloques en el macrobloque usando las imágenes de referencia almacenados en la memoria de imágenes 105 como una trama o un campo, según la decisión en la codificación usando la estructura de trama o la estructura de campo. En este caso, datos de imágenes reconstruidas de las imágenes P10, P7 y P4 almacenados en la memoria de imágenes 105 se usan como imágenes de referencia hacia delante y datos de imágenes reconstruidas de la imagen P13 se usa como una imagen de referencia hacia atrás. La
35 unidad de estimación de vectores de movimiento 106 envía los vectores de movimiento estimados a la unidad de codificación de compensación de movimiento 107.
La unidad de codificación de compensación de movimiento 107 decide el modo de codificación para el macrobloque, usando los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 106. En este 40 caso, el modo de codificación para imágenes B puede seleccionarse, por ejemplo, entre codificación de predicción intraimagen, codificación de predicción entre imágenes usando vector de movimiento hacia delante, codificación de predicción entre imágenes usando vector de movimiento hacia atrás, codificación de predicción entre imágenes usando vectores de movimiento bidireccionales, y modo directo. En cuanto al modo directo, se especifica con antelación un modo directo temporal o un modo directo espacial. En relación con la decisión del modo de
45 codificación, normalmente se selecciona un modo en el que el error de codificación es el mínimo debido a la pequeña cantidad de bits.
A continuación se describe una operación de determinación de un modo de codificación realizada por la unidad de valoración de habilitación/inhabilitación de modo directo 109, cuando se selecciona codificación en el modo directo.
50 La operación de determinar el modo de codificación puede realizarse usando cualquiera de los procedimientos 1∼ 3 descritos a continuación.
(Procedimiento 1)
55 La fig. 10 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 1. La unidad de codificación de compensación de movimiento 107 selecciona codificar en un modo directo y lo notifica a la unidad de valoración de habilitación/inhabilitación de modo directo 109 del modo seleccionado. La unidad de valoración de habilitación/inhabilitación de modo directo 109 así notificada determina primero si se especifica o no un modo directo temporal (Etapa S101). Cuando se valora que el modo directo
E09180894
28-08-2014
temporal se especifica como consecuencia de ello, la unidad de valoración de habilitación/inhabilitación de modo directo 109 determina si se selecciona o no una codificación de campo (Etapa S102). Cuando se valora que la codificación registrada no se selecciona, la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación de movimiento 107 para que realice codificación en el modo 5 directo temporal (Etapa S103). Por otra parte, cuando se valora que se selecciona la codificación de campo, la unidad de valoración de habilitación/inhabilitación de modo directo 109 valora si los vectores de movimiento usados para el bloque actual pueden ser o no estimados y generados realizando procesamiento de conversión de escala (Etapa S104). Es decir, se valora si dos de las imágenes de referencia pertenecen o no a la misma trama y son un campo superior y un campo inferior, que tienen la misma información de orden de visualización. Cuando el 10 procesamiento de conversión de escala puede realizarse como consecuencia de ello (NO en la valoración de la condición en la Etapa S104), la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación de movimiento 107 para que codifique en el modo directo temporal (EtapaS103). Por otra parte, cuando el procesamiento de conversión de escala no puede realizarse (SÍ en la valoración de la condición en la Etapa S104), la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a
15 la unidad de codificación de compensación de movimiento 107 para que realice codificación usando un modo distinto que el modo directo (Etapa S105).
Como consecuencia de la determinación descrita anteriormente (Etapa S101), cuando se valora que el modo seleccionado no es el modo directo temporal (es decir, un modo directo espacial), la unidad de valoración de
20 habilitación/inhabilitación de modo directo 109 valora si se selecciona o no la codificación de campo (Etapa S106). Cuando se valora que la codificación de campo no se selecciona como consecuencia de ello, la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación de movimiento 107 para que realice codificación en el modo directo espacial (Etapa S107).
25 Como consecuencia de la determinación descrita anteriormente (Etapa S106), cuando se valora que se selecciona la codificación de campo, la unidad de valoración de habilitación/inhabilitación de modo directo 109 valora si los vectores de movimiento usados para el bloque actual pueden ser o no estimados y generados en el modo directo espacial, basándose en la información de orden de visualización asignada para las imágenes (Etapa S108). Es decir, valora si los vectores de movimiento respectivos de los tres bloques codificados respectivamente que incluyen
30 uno de tres píxeles que están situados cerca del bloque actual incluyen o no una pluralidad de vectores de movimiento que se refieren a la imagen codificada que está situada en la posición más cercana a la imagen actual (campo) en orden de visualización, y también, si la pluralidad de imágenes de referencia pertenecen o no a la misma trama, como un campo superior y un campo inferior, que tienen la misma información de orden de visualización. Cuando se cumplen las condiciones anteriores, la unidad de valoración de habilitación/inhabilitación de modo directo
35 109 valora que los vectores de movimiento no pueden ser estimados ni generados.
Como consecuencia de la determinación anterior (Etapa S108), cuando se valora que los vectores de movimiento pueden ser estimados y generados (NO en la valoración de las condiciones en la Etapa S108), la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación
40 de movimiento 107 para que realice codificación en el modo directo espacial (Etapa S107).
Por otra parte, cuando se valora que los vectores de movimiento no pueden ser estimados ni generados (SÍ en la valoración de las condiciones en la Etapa S108), la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación de movimiento 107 para que considere el campo 45 que tiene el mismo atributo que un campo actual para codificar, como el campo más cercano al campo actual en orden de visualización, entre el campo superior y el campo inferior que tienen la misma información de orden de visualización (Etapa S109). En este caso, el campo que tiene el mismo atributo representa un campo superior cuando el campo actual es un campo superior y un campo inferior cuando el campo actual es un campo inferior. Teniendo esto en cuenta, la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la
50 unidad de codificación de compensación de movimiento 107 para que realice codificación en el modo directo espacial (Etapa S107).
(Procedimiento 2)
55 La fig. 11 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 2. El procesamiento a excepción del caso en que se valora que se selecciona la codificación de campo y que el procesamiento de conversión de escala no puede realizarse (Etapas S201~S204, S206~S209) es el mismo que se ha descrito en el procedimiento 1, por lo tanto, la descripción se ha abreviado.
E09180894
28-08-2014
Cuando se valora que se selecciona la codificación de campo y que el procesamiento de conversión de escala no puede realizarse, la unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación de movimiento 107 para que realice codificación en el modo directo temporal usando un vector de movimiento que indica "0" (Etapa S205).
5 (Procedimiento 3)
La fig. 12 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 3. El procesamiento a excepción del caso en que se valora que se selecciona la codificación de
10 campo y que el procesamiento de conversión de escala no puede realizarse (Etapa S301~S306, S308) es el mismo que el descrito en el procedimiento 1, por lo tanto, la descripción se ha abreviado.
Cuando se valora que se selecciona la codificación de campo y que el procesamiento de conversión de escala no puede realizarse, la unidad de valoración de habilitación/inhabilitación de modo directo 109 valora si los vectores de
15 movimiento usados para el bloque actual pueden ser o no estimados y generados en el modo directo espacial (Etapa S307). El funcionamiento posterior es el mismo que el descrito en el procedimiento 1, por lo tanto la descripción se ha abreviado.
En cuanto al procesamiento descrito anteriormente para el caso en el que se valora que los vectores de movimiento
20 no puedan ser estimados ni generados en el modo directo espacial tal como se ilustra en los procedimientos 1~3 (Etapa S109, S209 y S308), puede realizarse el siguiente procesamiento como procedimientos 1'~3'. La fig. 13 es un organigrama que muestra una operación de determinación de un modo de codificación que usa el procedimiento 1'. En cuanto a los procedimientos 2' y 3', las descripciones y los diagramas se han abreviado ya que son los mismos que los usados para el procedimiento 1'.
25 (Procedimiento 1')
La unidad de valoración de habilitación/inhabilitación de modo directo 109 instruye a la unidad de codificación de compensación de movimiento 107 para que considere un campo codificado posterior (es decir, un campo que se
30 codifica en el momento más temprano después de la codificación del campo actual) como un campo situado en la posición más cercana al campo actual en orden de visualización, entre el campo superior y el campo inferior que tienen la misma información de orden de visualización (Etapa S110 en la fig. 13).
La unidad de codificación de compensación de movimiento 107 genera a continuación datos de imágenes
35 predictivos usando el modo de codificación determinado por la unidad de valoración de habilitación/inhabilitación de modo directo 109. A continuación se describen las operaciones respectivas según el modo de codificación determinado.
(Codificación normal en modo directo temporal)
40 En este caso, la unidad de codificación de compensación de movimiento 107 realiza compensación de movimiento usando totalmente el mismo procedimiento que el modo directo temporal descrito con referencia a la fig. 2 en los antecedentes de la técnica. Es decir, la unidad de codificación de compensación de movimiento 107 usa un vector de movimiento en un bloque, situado en la misma posición que el bloque actual, en la imagen codificada, como un
45 vector de movimiento de referencia, lee el vector de movimiento de referencia de la unidad de almacenamiento de vectores de movimiento 108, realiza el procesamiento de conversión de escala basándose en el vector de movimiento de referencia así como en una relación de posición según el tiempo de visualización entre el vector de movimiento de referencia y las imágenes, y a continuación, estima y genera los vectores de movimiento para el bloque actual. La unidad de codificación de compensación de movimiento 107 realiza a continuación predicción
50 bidireccional basándose en las dos imágenes de referencia usando estos vectores de movimiento y genera datos de imágenes predictivos.
(Codificación en modo directo temporal usando vectores de movimiento que indican "0")
55 La unidad de codificación de compensación de movimiento 107 no estima/genera los vectores de movimiento realizando el procesamiento de conversión de escala sino que genera datos de imágenes predictivos realizando predicción bidireccional basándose en dos imágenes de referencia usando vectores de movimiento que indican "0".
El valor de los vectores de movimiento usados en este caso no se limita a "0" y puede ser un valor predeterminado
E09180894
28-08-2014
que puede determinarse con independencia del procesamiento de conversión de escala. En el ejemplo anterior, se explica que los dos vectores de movimiento correspondientes a las dos imágenes de referencia indican "0", sin embargo, la presente invención no se limita a esto y al menos uno de los vectores de movimiento puede indicar "0".
5 (Codificación usando un modo distinto del modo directo)
La unidad de codificación de compensación de movimiento 107 realiza predicción bidireccional basándose en dos imágenes de referencia usando los vectores de movimiento estimados por la unidad de estimación de vectores de movimiento 106 y genera datos de imágenes predictivos.
10 (Codificación en modo directo espacial)
En este caso, la unidad de codificación de compensación de movimiento 107 realiza compensación de movimiento usando totalmente el mismo procedimiento que en el modo directo espacial descrito con referencia a la fig. 3 en los
15 antecedentes de la técnica. Es decir, la unidad de codificación de compensación de movimiento 107 estima y genera los vectores de movimiento usados para el bloque actual, usando el vector de movimiento que está relacionado con la imagen codificada que está situada en la posición más cercana a la imagen actual en orden de visualización, entre los vectores de movimiento respectivos de los tres bloques codificados respectivamente que incluyen uno de los tres píxeles que están situados cerca del bloque actual.
20 En este caso, cuando los vectores de movimiento respectivos de los tres bloques descritos anteriormente incluyen una pluralidad de vectores de movimiento que están relacionados con la imagen codificada que está situada en la posición más cercana a la imagen actual (campo) en orden de visualización, y también, la pluralidad de imágenes de referencia pertenecen a la misma trama que un campo superior y un campo inferior que tienen la misma información
25 de orden de visualización, la unidad de codificación de compensación de movimiento 107 considera uno entre el campo superior y el campo inferior como un campo situado en la posición más cercana al campo actual, basándose en la instrucción enviada desde la unidad de valoración de habilitación/inhabilitación de modo directo 109.
Es decir, cuando la instrucción enviada desde la unidad de valoración de habilitación/inhabilitación de modo directo
30 109 es la descrita en los procedimientos 1-3 anteriores, el campo que tiene el mismo atributo que el campo actual se considera el campo que está situado en la posición más cercana al campo actual en orden de visualización, entre el campo superior y el campo inferior que tienen la misma información de orden de visualización. Por ejemplo, en el ejemplo mostrado en la fig. 7, el campo P2_T que es un campo superior como sucede con el campo actual B3_T se considera el campo que está situado en la posición más cercana al campo actual en orden de visualización, entre los
35 campos P2_T y P2_B. Por lo tanto, el vector de movimiento MVA1 que se refiere al campo P2_T se determina como un candidato para el primer vector de movimiento del bloque actual.
Cuando la instrucción enviada desde la unidad de valoración de habilitación/inhabilitación de modo directo 109 es la descrita en los procedimientos 1'∼ 3', el campo codificado posteriormente se considera el campo que está situado en
40 la posición más cercana al campo actual en orden de visualización entre el campo superior y el campo inferior, que tienen la misma información de orden de visualización. Por ejemplo, en la fig. 7, suponiendo que el campo P2_B entre los campos P2_T y P2_B se codifica posteriormente, el campo P2_B se considera el campo que está situado en la posición más cercana al campo actual en orden de visualización, entre los campos P2_B y P2_T que tienen la misma información de orden de visualización. Así, el vector de movimiento MVC1 que está relacionado con el campo
45 P2_B se determina como un candidato para el primer vector de movimiento MV_F del bloque actual. Lo mismo se aplica a un caso en el que MV_B se obtiene como segundo vector de movimiento.
Cuando se determinan así tres vectores de movimiento, el valor medio se selecciona como un vector de movimiento del bloque actual. Cuando se determinan así dos vectores de movimiento, se obtiene el valor promedio y se
50 considera que es un vector de movimiento del bloque actual. Cuando se determina un único vector de movimiento (un ejemplo mostrado en la fig. 7), el vector de movimiento determinado se obtiene como un vector de movimiento del bloque actual. La unidad de codificación de compensación de movimiento 107 realiza compensación de movimiento basándose en las imágenes de referencia usando los vectores de movimiento así obtenidos y de ese modo genera datos de imágenes predictivos.
55 La unidad de codificación de compensación de movimiento 107 envía a continuación los datos de imágenes predictivos generados como anteriormente a la unidad de resta 110 y la unidad de suma 111. Cuando la unidad de codificación de compensación de movimiento 107 selecciona la predicción intraimagen, los datos de imágenes predictivos no son enviados. Cuando la unidad de codificación de compensación de movimiento 107 selecciona la
E09180894
28-08-2014
predicción intraimagen, el conmutador 112 se conecta al lado en el que la señal se introduce directamente desde la memoria de imágenes 101. Cuando se selecciona la predicción entre imágenes, el conmutador 112 es controlado para ser conectado al lado en el que la señal es introducida desde la unidad de resta 110. La unidad de codificación de compensación de movimiento 107 envía el modo de codificación determinado a la unidad de generación de
5 trenes de bits 103.
La unidad de resta 110, en la que se introducen los datos de imágenes predictivos desde la unidad de codificación de compensación de movimiento 107, calcula un diferencial entre los datos de imágenes predictivos, y los datos de imágenes del macrobloque en la imagen B11, que es leído de la memoria de imágenes 101, genera datos de
10 imágenes residuales predictivos y los envía a la unidad de codificación residual predictiva 102.
La unidad de codificación residual predictiva 102, en la que se introducen los datos de imágenes residuales predictivos, realiza procesamiento de codificación tal como conversión de frecuencias y cuantificación, genera datos codificados y los envía a la unidad de generación de trenes de bits 103. La unidad de generación de trenes de bits
15 103, en la que se introducen los datos codificados, realiza codificación de longitud variable o similar para los datos codificados, genera un tren de bits añadiendo la información sobre los vectores de movimiento y el modo de codificación introducidos desde la unidad de codificación de compensación de movimiento 107, y los envía. En cuanto al macrobloque codificado en el modo directo, la información sobre vectores de movimiento no se añade al tren de bits.
20 El posterior procesamiento de codificación se realiza para el resto de los macrobloques en la imagen B11 en el mismo procesamiento.
Así, cuando se selecciona la codificación de campo y la codificación se realiza en el modo directo temporal, se
25 determina si el procesamiento de conversión de escala puede realizarse o no. Cuando se determina que el procesamiento de conversión de escala no puede realizarse, el modo de codificación se cambia de manera que no se produzca el caso en el que la codificación no pueda realizarse ya que el procesamiento de conversión de escala no puede realizarse.
30 Cuando se selecciona la codificación de campo y la codificación se realiza en el modo directo espacial, se determina si los vectores de movimiento usados para el bloque actual pueden ser o no estimados y generados basándose en la información de orden de visualización asignada para las imágenes. Cuando se determina que los vectores de movimiento no pueden ser estimados ni generados, se realiza el procesamiento necesario para especificar qué campo entre el campo superior y el campo inferior que tienen la misma información de orden de visualización, es
35 considerado como un campo que está situado en la posición más cercana al campo actual en orden de visualización. Por lo tanto, no se da el caso en el que los vectores de movimiento no pueden ser estimados ni generados y la codificación no puede realizarse.
La fig. 14 es un diagrama de bloques que muestra una estructura de una realización de un aparato de decodificación
40 de imágenes en movimiento que usa el procedimiento de decodificación de imágenes en movimiento según la presente invención.
El aparato de decodificación de imágenes en movimiento incluye una unidad de análisis de trenes de bits 201, una unidad de decodificación residual predictiva 202, una memoria de imágenes 203, una unidad de decodificación de
45 compensación de movimiento 204, una unidad de almacenamiento de vectores de movimiento 205, una unidad de valoración de habilitación/inhabilitación de modo directo 206, una unidad de suma 207 y un conmutador 208.
La unidad de análisis de trenes de bits 201 extrae, desde el tren de bits introducido, varias clases de datos tales como información sobre un modo de decodificación y los vectores de movimiento usados en el tiempo de
50 codificación. La unidad de decodificación residual predictiva 202 decodifica los datos residuales predictivos introducidos y genera datos de imágenes residuales predictivos. La unidad de decodificación de compensación de movimiento 204 genera datos de imágenes de compensación de movimiento basándose en la información sobre el modo de decodificación y los vectores de movimiento. La unidad de almacenamiento de vectores de movimiento 205 almacena los vectores de movimiento extraídos por la unidad de análisis de trenes de bits 201.
55 La unidad de valoración de habilitación/inhabilitación de modo directo 206 valora si el procesamiento de conversión de escala puede realizarse o no y determina un modo de decodificación, cuando el modo de decodificación extraído por la unidad de análisis de trenes de bits 201 es un modo directo temporal. La unidad de valoración de habilitación/inhabilitación de modo directo 206 valora también si los vectores de movimiento usados para un bloque
E09180894
28-08-2014
actual para decodificar pueden ser o no estimados y generados, cuando el modo de decodificación es un modo directo espacial. La unidad de suma 207 añade los datos de imágenes residuales predictivos introducidos desde la unidad de decodificación residual predictiva 202 a los datos de imágenes de compensación de movimiento introducidos desde la unidad de decodificación de compensación de movimiento 204 y de ese modo genera datos de 5 imágenes decodificados. La memoria de imágenes 203 almacena los datos de imágenes decodificados generados.
A continuación se describe una operación del aparato de decodificación de imágenes en movimiento construido como anteriormente. El orden de las imágenes se explica con referencia a las fig. 9A y 9B. En este caso, una imagen P se codifica usando una imagen I o una imagen P situada cerca y hacia delante de la imagen actual en
10 orden de visualización mientras que una imagen B se codifica usando una imagen I o una imagen P situada cerca y hacia delante de la imagen actual en orden de visualización y una imagen I o una imagen P situada cerca y hacia atrás de la imagen actual en orden de visualización, como imágenes de referencia.
Un tren de bits se introduce en la unidad de análisis de trenes de bits 201 en el orden de imagen tal como se
15 muestra en la fig. 9B. La unidad de análisis de trenes de bits 201 extrae desde el tren de bits introducido varias clases de información tales como información sobre el modo de decodificación y los vectores de movimiento. La unidad de análisis de trenes de bits 201 envía respectivamente la información extraída sobre el modo de decodificación a la unidad de decodificación de compensación de movimiento 204 y la información sobre los vectores de movimiento a la unidad de almacenamiento de vectores de movimiento 205.
20 La unidad de análisis de trenes de bits 201 también envía los datos residuales predictivos codificados extraídos a la unidad de decodificación residual predictiva 202. La unidad de decodificación residual predictiva 202, en la que se introducen los datos residuales predictivos codificados, realiza decodificación de los datos residuales predictivos codificados, genera datos de imágenes residuales predictivos y los envía a la unidad de suma 207.
25 En cuanto a la operación posterior, se describe un caso en el que la imagen actual para decodificar es una imagen B y el modo de decodificación extraído por el análisis de trenes de bits 201 es el modo directo.
La unidad de decodificación de compensación de movimiento 204, en la que la información sobre el modo de
30 decodificación es introducida por la unidad de análisis de trenes de bits 201, valora si un bloque actual para decodificar se decodifica o no en el modo directo y notifica de ello a la unidad de valoración de habilitación/inhabilitación de modo directo 206 cuando la decodificación se realiza en el modo directo.
A continuación se describe una operación de la determinación de modo de decodificación realizada por la unidad de
35 valoración de habilitación/inhabilitación de modo directo 206 cuando el modo de decodificación es el modo directo. La operación para la determinación de modo de decodificación puede realizarse usando cualquiera de los procedimientos 1-3 descritos a continuación.
(Procedimiento 1)
40 La fig. 15 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el procedimiento 1. La unidad de valoración de habilitación/inhabilitación de modo directo 206 valora en primer lugar si se especifica o no un modo directo temporal (Etapa S401). Cuando se valora que el modo directo temporal se especifica como consecuencia de ello, la unidad de valoración de habilitación/inhabilitación de modo directo 206
45 valora si se realiza o no una codificación de campo (Etapa S402). Cuando se valora que la codificación de campo no se realiza como consecuencia de ello, la unidad de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que realice decodificación en el modo directo temporal (Etapa S403). Por otra parte, cuando se valora que se realiza la codificación de campo, la unidad de valoración de habilitación/inhabilitación de modo directo 206 valora si los vectores de movimiento usados para el
50 bloque actual pueden ser o no estimados y generados realizando el procesamiento de conversión de escala (Etapa S404). Es decir, se valora si las dos imágenes de referencia pertenecen o no a la misma trama como un campo superior y un campo inferior que tienen la misma información de orden de visualización. Cuando el procesamiento de conversión de escala puede realizarse como consecuencia de ello (NO en la valoración de la condición en la Etapa S404), la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de
55 decodificación de compensación de movimiento 204 para que realice decodificación en el modo directo temporal(Etapa S403). Por otra parte, cuando el procesamiento de conversión de escala no puede realizarse (SÍ en la valoración de la condición en la Etapa S404), la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que realice decodificación usando un modo distinto que el modo directo (Etapa S405).
E09180894
28-08-2014
Como consecuencia de la determinación descrita anteriormente (Etapa S401), aun cuando se valore que el modo directo temporal no se usa (es decir, se selecciona un modo directo espacial), la unidad de valoración de habilitación/inhabilitación de modo directo 206 valora si se realiza o no una codificación de campo (Etapa S406).
5 Cuando se valora que la codificación de campo no se realiza como consecuencia de ello, la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la compensación de movimiento unidad 204 para que realice decodificación en el modo directo espacial (Etapa S407).
Como consecuencia de la determinación descrita anteriormente (Etapa S406), cuando se valora que se selecciona
10 la codificación de campo, la unidad de valoración de habilitación/inhabilitación de modo directo 206 valora si los vectores de movimiento usados para el bloque actual pueden ser o no estimados y generados en el modo directo espacial, basándose en la información de orden de visualización asignada para las imágenes (Etapa S408). Es decir, se valora si tres bloques decodificados respectivos que incluyen respectivamente uno de tres píxeles que están situados cerca del bloque actual incluyen o no una pluralidad de vectores de movimiento que se refiere a la
15 imagen decodificada que está situada en la posición más cercana a la imagen actual (campo) en orden de visualización y si la pluralidad de imágenes de referencia pertenece o no a la misma trama como un campo superior y un campo inferior que tienen la misma información de orden de visualización. Cuando se cumplen las condiciones anteriores, se valora que los vectores de movimiento no puedan ser estimados ni generados.
20 Como consecuencia de la determinación tal como se describe anteriormente (Etapa S408), cuando se valora que los vectores de movimiento pueden ser estimados y generados (NO en la valoración de las condiciones en la Etapa S408), la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que realice decodificación en el modo directo espacial (Etapa S407).
25 Por otra parte, cuando se valora que los vectores de movimiento no pueden ser estimados ni generados (SÍ en la valoración de las condiciones en la Etapa S408), la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que considere que un campo que tiene el mismo atributo que el bloque actual es un campo que está situado en la posición más cercana al
30 campo actual en orden de visualización, entre el campo superior y el campo inferior que tienen la misma información de orden de visualización (Etapa S409). En este caso, el campo que tiene el mismo atributo representa un campo superior cuando el campo actual es un campo superior y un campo inferior cuando el campo actual es un campo inferior. Teniendo esto en cuenta, la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que realice decodificación en el modo
35 directo espacial (Etapa S407).
(Procedimiento 2)
La fig. 16 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el
40 procedimiento 2. El procesamiento a excepción del realizado en el caso en el que se valora que se selecciona la codificación de campo y que el procesamiento de conversión de escala no puede realizarse (Etapas S501~504, S506~509) se ha abreviado ya que es el mismo que el descrito en el procedimiento 1.
Cuando se valora que se selecciona la codificación de campo y el procesamiento de conversión de escala no puede
45 realizarse, la unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que realice decodificación en el modo directo temporal usando vectores de movimiento que indican "0" (Etapa S505).
(Procedimiento 3)
50 La fig. 17 es un organigrama que muestra una operación de determinación de un modo de decodificación que usa el procedimiento 3. El procesamiento a excepción del realizado en el caso en el que se valora que se selecciona la codificación de campo y el procesamiento de conversión de escala no puede realizarse (Etapa S601~S606, S608) se ha abreviado ya que es el mismo que el descrito en el procedimiento 1.
55 Cuando se valora que se selecciona la codificación de campo y el procesamiento de conversión de escala no puede realizarse, la unidad de valoración de habilitación/inhabilitación de modo directo 206 valora si los vectores de movimiento usados para el bloque actual pueden ser o no estimados y generados en el modo directo espacial (Etapa S607). El funcionamiento posterior es el mismo que el descrito en el procedimiento 1.
E09180894
28-08-2014
En cuanto al procesamiento descrito anteriormente para el caso en el que se valora que los vectores de movimiento no pueden ser estimados ni generados en el modo directo espacial (Etapa S409, S509, S608) descrito en los procedimientos 1~3 anteriores, puede realizarse el siguiente procesamiento como procedimientos 1'~3'. La fig. 18 es
5 un organigrama que muestra una operación de determinación de un modo de decodificación que usa el procedimiento 1'. En cuanto a los procedimientos 2' y 3', las descripciones y los diagramas se han abreviado ya que son los mismos que los usados para el procedimiento 1'.
(Procedimiento 1')
10 La unidad de valoración de habilitación/inhabilitación de modo directo 206 instruye a la unidad de decodificación de compensación de movimiento 204 para que considere un campo que se decodifica en un momento posterior (es decir, un campo decodificado en el momento más temprano después de la decodificación del campo actual) como un campo situado en la posición más cercana al campo actual en orden de visualización, entre el campo superior y
15 el campo inferior que tienen la misma información de orden de visualización (Etapa S410 en la fig. 18).
La unidad de decodificación de compensación de movimiento 204 genera a continuación datos de imágenes de compensación de movimiento usando el modo de decodificación determinado por la unidad de valoración de habilitación/inhabilitación de modo directo 206. A continuación se describen las operaciones respectivas según el
20 modo de decodificación determinado.
(Decodificación normal en modo directo temporal)
En este caso, la unidad de decodificación de compensación de movimiento 204 realiza compensación de
25 movimiento usando totalmente el mismo procedimiento que en el modo directo temporal explicado con referencia a la fig. 2 en los antecedentes de la técnica. Es decir, la unidad de decodificación de compensación de movimiento 204 usa un vector de movimiento de un bloque situado en la misma posición que el bloque actual, entre las imágenes decodificadas de referencia, como un vector de movimiento de referencia. Es decir, la unidad de decodificación de compensación de movimiento 204 lee el vector de movimiento de referencia de la unidad de
30 almacenamiento de vectores de movimiento 205 y estima/genera los vectores de movimiento usados para el bloque actual realizando el procesamiento de conversión de escala basándose en una relación de posición según el tiempo de visualización entre el vector de movimiento de referencia y las imágenes. La unidad de decodificación de compensación de movimiento 204 realiza a continuación predicción bidireccional basándose en las dos imágenes de referencia usando estos vectores de movimiento y genera datos de imágenes de compensación de movimiento.
35 (Decodificación en modo directo temporal que usa vectores de movimiento que indican "0")
La unidad de decodificación de compensación de movimiento 204 no estima/genera los vectores de movimiento realizando el procesamiento de conversión de escala sino que genera datos de imágenes predictivos realizando
40 predicción bidireccional basándose en las dos imágenes de referencia usando vectores de movimiento que indican "0".
El valor del vector de movimiento usado en este caso no se limita a "0" y puede ser un valor predeterminado que puede determinarse sin requerir el procesamiento de conversión de escala. En el ejemplo anterior, se explica que los
45 dos vectores de movimiento correspondientes a las dos imágenes de referencia indican "0", sin embargo, la presente invención no se limita a esto y al menos uno de los vectores de movimiento puede indicar "0".
(Decodificación que usa un modo distinto de modo directo)
50 La unidad de decodificación de compensación de movimiento 204 lee los vectores de movimiento usados en el tiempo de codificación de la unidad de almacenamiento de vectores de movimiento 205, y genera datos de imágenes de compensación de movimiento realizando predicción bidireccional basándose en las dos imágenes de referencia usando estos vectores de movimiento.
55 (Decodificación en modo directo espacial)
La unidad de decodificación de compensación de movimiento 204 realiza compensación de movimiento que usa totalmente el mismo procedimiento que en el modo directo espacial explicado con referencia a la fig. 3 en los antecedentes de la técnica. Es decir, la unidad de decodificación de compensación de movimiento 204 estima y
E09180894
28-08-2014
genera los vectores de movimiento usados para el bloque actual, usando el vector de movimiento que está relacionado con la imagen decodificada que está situada en la posición más cercana a la imagen actual como un vector de movimiento del bloque actual, entre los vectores de movimiento respectivos de los tres bloques decodificados respectivamente incluyendo uno de los tres píxeles que están situados cerca del bloque actual.
En este caso, cuando los tres bloques respectivos descritos anteriormente incluyen una pluralidad de vectores de movimiento que están relacionados con la imagen decodificada que está situada en la posición más cercana a la imagen actual (campo) en orden de visualización y la pluralidad de imágenes de referencia pertenecen a la misma trama como un campo superior y un campo inferior que tienen la misma información de orden de visualización, la
10 unidad de decodificación de compensación de movimiento 204 considera el campo superior y el campo inferior como un campo situado en la posición más cercana al campo actual en orden de visualización, basándose en la instrucción enviada desde la unidad de valoración de habilitación/inhabilitación de modo directo 206.
Es decir, cuando la instrucción enviada desde la unidad de valoración de habilitación/inhabilitación de modo directo
15 206 es la descrita en los procedimientos anteriores 1-3, un campo que tiene el mismo atributo que el campo actual se considera el campo que está situado en la posición más cercana al campo actual en orden de visualización, entre el campo superior y el campo inferior que tienen la misma información de orden de visualización. Por ejemplo, en el ejemplo mostrado en la fig. 7, el campo P2_T que es un campo superior como es el campo actual B3_T, se considera el campo situado en la posición más cercana al campo actual en orden de visualización, entre los campos
20 P2_T y P2_B que tienen la misma información de orden de visualización. Por lo tanto, el vector de movimiento MVA1 que se refiere al campo P2_T se determina como un candidato para el primer vector de movimiento del bloque actual.
Cuando la instrucción enviada desde la unidad de valoración de habilitación/inhabilitación de modo directo 206 es la
25 descrita en los procedimientos 1'-3', un campo decodificado en un momento posterior se considera el campo situado en la posición más cercana al campo actual en orden de visualización, entre el campo superior y el campo inferior que tienen la misma información de orden de visualización. Por ejemplo, suponiendo que el campo P2_B se decodifica posteriormente entre los campos P2_T y P2_B en el ejemplo mostrado en la fig. 7, el campo P2_B que se decodifica posteriormente se determina como el campo situado en la posición más cercana al campo actual en
30 orden de visualización, entre los campos P2_T y P2_B. En consecuencia, el vector de movimiento MVC1 que está relacionado con el campo P2_B se determina como un candidato para el primer vector de movimiento MV_F del bloque actual. Lo mismo se aplica a un caso en el que se obtiene el segundo vector de movimiento MV_B.
Cuando se determinan así tres vectores de movimiento, se selecciona un valor medio de los tres como un vector de
35 movimiento del bloque actual. Cuando se determinan dos vectores de movimiento, se obtiene un valor promedio de los dos y se contempla como un vector de movimiento del bloque actual. Cuando se determina sólo un vector de movimiento (un ejemplo mostrado en la fig. 7), se considera que el vector de movimiento determinado es un vector de movimiento del bloque actual. La unidad de decodificación de compensación de movimiento 204 realiza compensación de movimiento basándose en las imágenes de referencia y genera datos de imágenes de
40 compensación de movimiento, usando los vectores de movimiento así obtenidos.
La unidad de decodificación de compensación de movimiento 204 envía a continuación los datos de imágenes de compensación de movimiento (bloque) generados como anteriormente a la unidad de suma 207. La unidad de suma 207 añade los datos de imágenes de compensación de movimiento a los datos de imágenes residuales predictivos
45 introducidos desde la unidad de decodificación residual predictiva 202, genera datos de imágenes decodificados y los almacena en la memoria de imágenes 203.
El procesamiento de decodificación posterior para el resto de los macrobloques en la imagen B11 se realiza en el mismo procesamiento tal como se describe anteriormente. En el ejemplo mostrado en la fig. 9B, cuando el
50 procesamiento se realiza para todos los macrobloques en la imagen B11, sigue el procesamiento de decodificación de la imagen B12. Las imágenes así decodificadas son enviadas una por una desde la memoria de imágenes 203 tal como se muestra en la fig. 9A.
Así, cuando se selecciona la codificación de campo y el modo de decodificación extraído es el modo directo
55 temporal, se valora si el procesamiento de conversión de escala puede realizarse o no. Cuando se valora que el procesamiento de conversión de escala no puede realizarse, se opera el procesamiento tal como un cambio del modo de decodificación, por lo tanto, no se da el caso en el que la decodificación no pueda realizarse porque el procesamiento de conversión de escala no puede realizarse.
E09180894
28-08-2014
Cuando se selecciona la codificación de campo y el modo de decodificación extraído es el modo directo espacial, se valora si los vectores de movimiento usados para el bloque actual pueden ser o no estimados y generados basándose en la información de orden de visualización asignada para las imágenes. Cuando se valora que los vectores de movimiento no pueden ser estimados ni generados, se realiza el procesamiento para especificar cuál
5 entre el campo superior y el campo inferior, que tienen la misma información de orden de visualización, se considera como un campo situado en la posición más cercana al campo actual en orden de visualización, por lo tanto, no se da el caso en el que los vectores de movimiento no puedan ser estimados ni generados.
En la presente realización, cuando la imagen se codifica en el modo directo espacial, la unidad de codificación de
10 compensación de movimiento 107 determina un vector de movimiento, que hace referencia a la imagen codificada que está situada en la posición más cercana a una imagen actual que se va a codificar en orden de visualización, como un candidato para un vector de movimiento de un bloque actual para codificar, cuando se determina un candidato para un vector de movimiento del bloque actual entre los vectores de movimiento respectivos de los tres bloques codificados respectivamente incluyendo uno de los tres píxeles que están situados cerca del bloque actual.
15 Sin embargo, la presente invención no se limita a esto. Por ejemplo, cuando se realiza codificación de campo, puede determinarse que el vector de movimiento que está relacionado con el campo situado en la posición más cercana al campo actual en orden de visualización es un candidato, entre los campos que tienen el mismo atributo que el campo actual. En este caso, se determina un candidato dando prioridad al hecho de que el campo tiene el mismo atributo que el campo actual mientras que en la presente realización, el candidato se determina basándose en la
20 información de orden de visualización. Lo mismo se aplica a la operación para la decodificación realizada por la unidad de decodificación de compensación de movimiento 204.
En la presente realización, se explica que cada imagen es codificada/decodificada adaptivamente usando la estructura de trama o la estructura de campo. Aun cuando la imagen sea codificada/decodificada adaptivamente
25 usando cualquiera de ellas según una base de bloque por bloque, puede realizarse el mismo procesamiento de la misma manera descrita en la presente invención y pueden obtenerse los mismos efectos.
En la presente realización, se explica que la imagen P es procesada refiriéndose a las imágenes sólo hacia delante en una dirección mientras que la imagen B es procesada refiriéndose a las imágenes en dos direcciones tanto hacia
30 delante como hacia atrás. Sin embargo, pueden obtenerse los mismos efectos aun cuando la imagen P se procese refiriéndose a las imágenes hacia atrás en una dirección y la imagen B es procesada refiriéndose a las imágenes hacia delante en dos direcciones o hacia atrás en dos direcciones.
La información de orden de visualización según la realización de la presente invención no se limita a un orden de
35 visualización y puede ser un orden basado en un tiempo de visualización real o un orden relativo de cada imagen basándose en una imagen predeterminada cuyo valor aumenta cuando aumenta el valor que indica el tiempo de visualización.
(Segunda realización)
40 Además, el procesamiento mostrado en la primera realización puede ser llevado a cabo fácilmente en un sistema informático independiente grabando el programa para realizar el procedimiento de codificación/decodificación de imagen descrito en la primera realización en un medio de almacenamiento tal como un disco flexible o similar.
45 Las fig. 19A-19C son ilustraciones para llevar a cabo el procedimiento de codificación/decodificación descrito en la realización anterior en el sistema informático usando el programa grabado en el medio de almacenamiento tal como un disco flexible o similar.
La fig. 19B muestra el aspecto completo de un disco flexible, su estructura en sección transversal y el disco flexible
50 en sí mientras que la fig. 19A muestra un ejemplo de un formato físico del disco flexible como un cuerpo principal de un medio de almacenamiento. Un disco flexible FD está contenido en una caja F con una pluralidad de pistas Tr formadas concéntricamente desde la periferia al interior en la superficie del disco, y cada pista se divide en 16 sectores Se en la dirección angular. Así, el programa se almacena en un área asignada para él en el disco flexible FD.
55 La fig. 19C muestra una estructura para grabar y leer el programa en el disco flexible FD. Cuando el programa se graba en el disco flexible FD, el sistema informático Cs escribe en el programa por medio de una unidad de disco flexible. Cuando se construyen el aparato de codificación y el aparato de decodificación en el sistema informático usando el programa en el disco flexible, el programa se lee desde el disco flexible y a continuación se transfiere al
E09180894
28-08-2014
sistema informático por la unidad de disco flexible.
La explicación anterior se realiza según la suposición de que un medio de almacenamiento es un disco flexible, pero el mismo procesamiento puede realizarse también usando un disco óptico. Además, el medio de almacenamiento no 5 se limita a un disco flexible y un disco óptico, si bien puede usarse cualquier otro medio tal como una tarjeta IC y una casete ROM capaz de grabar un programa.
A continuación se ofrece una descripción para las aplicaciones del procedimiento de codificación/decodificación de imágenes ilustrado en la realización mencionada anteriormente y un sistema que las usa.
10 La fig. 20 es un diagrama de bloques que muestra una configuración general de un sistema de suministro de contenidos ex100 para realizar servicio de suministro de contenidos. El área para proporcionar servicio de comunicación se divide en células de tamaño deseado, y se colocan sitios de células ex107∼ ex110, que son estaciones inalámbricas fijas, en células respectivas.
15 Este sistema de suministro de contenidos ex100 está conectado a aparatos tales como un ordenador ex111, una PDA (Personal Digital Assistant, asistente digital personal) ex112, una cámara ex113, un teléfono móvil ex114 y un teléfono móvil con una cámara ex115 por medio de, por ejemplo, Internet ex101, un proveedor de servicios de Internet ex102, una red telefónica ex104, así como los sitios de células ex107∼ ex110.
20 Sin embargo, el sistema de suministro de contenidos ex100 no se limita a la configuración mostrada en la fig. 20 y puede conectarse a una combinación de cualquiera de ellas. Además, cada aparato puede estar conectado directamente a la red telefónica ex104, no a través de los sitios de células ex107∼ ex110.
25 La cámara ex113 es un aparato capaz de grabar vídeo tal como una cámara de vídeo digital. El teléfono móvil ex114 puede ser un teléfono móvil de cualquiera de los siguientes sistemas: un sistema PDC (Personal Digital Communications, comunicaciones digitales personales), un sistema CDMA (Code Division Multiple Access, acceso múltiple por división de código), un sistema W-CDMA (Wideband-Code Division Multiple Access, acceso múltiple por división de código de banda ancha) o un sistema GSM (Global System for Mobile Communications, sistema global
30 para comunicaciones móviles), un PHS (Personal Handyphone System, sistema de teléfono de mano personal) o similar.
Un servidor de fluido continuo (streaming) ex103 se conecta a la cámara ex113 por medio de la red telefónica ex104 y también el sitio de célula ex109, que realiza una distribución en vivo o similar usando la cámara ex113 basándose
35 en los datos codificados transmitidos desde el usuario. Desde la cámara ex113, el servidor que transmite los datos y similares puede codificar los datos. Los datos de imágenes en movimiento capturados por una cámara ex116 pueden ser transmitidos al servidor de fluido continuo ex103 por medio del ordenador ex111. En este caso, la cámara ex116 o el ordenador ex111 pueden codificar los datos de imágenes en movimiento. Un LSI ex117 incluido en el ordenador ex111 y la cámara ex116 realiza el procesamiento de codificación. El software para imágenes de
40 codificación y decodificación puede integrarse en cualquier tipo de medio de almacenamiento (tal como un CD-ROM, un disco flexible y un disco duro) que es un medio de grabación que es legible por el ordenador ex111 o similar. Además, un teléfono móvil con una cámara ex115 puede transmitir los datos de imágenes en movimiento. Estos datos de imágenes en movimiento son los datos codificados por el LSI incluido en el teléfono móvil ex115.
45 El sistema de suministro de contenidos ex100 codifica contenidos (tales como un vídeo de música en vivo) capturados por un usuario usando la cámara ex113, la cámara ex116 o similar de la misma forma que se muestra en la realización mencionada anteriormente y los transmite al servidor de fluido continuo ex103, mientras que el servidor de fluido continuo ex103 realiza suministro en fluido continuo de los datos de contenidos a los clientes a su demanda. Los clientes incluyen el ordenador ex111, el PDA ex112, la cámara ex113, el teléfono móvil ex114 y así
50 sucesivamente capaces de decodificación los datos codificados mencionados anteriormente. En el sistema de suministro de contenidos ex100, los clientes pueden así recibir y reproducir los datos codificados, y pueden recibir, decodificar y reproducir adicionalmente los datos en tiempo real de manera que se lleve a cabo radiodifusión personal.
55 Cuando cada aparato en este sistema realiza codificación o decodificación, puede usarse el aparato de codificación de imágenes o el aparato de decodificación de imágenes mostrados en la realización mencionada anteriormente.
Como un ejemplo de dicho aparato se explicará un teléfono móvil.
E09180894
28-08-2014
La fig. 21 es un diagrama que muestra el teléfono móvil ex115 que usa el procedimiento de codificación/decodificación de imágenes explicado en las realizaciones mencionadas anteriormente. El teléfono móvil ex115 tiene una antena ex201 para comunicarse con el sitio de célula ex110 por medio de ondas de radio, una unidad de cámara ex203 tal como una cámara CCD capaz de capturar imágenes en movimiento y estáticas, una 5 unidad de visualización ex202 tal como una pantalla de cristal líquido para visualizar los datos tales como imágenes decodificadas y similares capturadas por la unidad de cámara ex203 o recibidas por la antena ex201, una unidad de cuerpo que incluye un conjunto de teclas de operación ex204, una unidad de salida de audio ex208 tal como un altavoz para salida de audio, una unidad de entrada de audio ex205 tal como un micrófono para introducir audio, un medio de almacenamiento ex207 para almacenar datos codificados o decodificados tales como datos de imágenes 10 en movimiento o estáticas capturadas por la cámara, datos de mensajes de correo electrónico recibidos y de imágenes en movimiento o estáticas, y una unidad de ranura ex206 para fijar el medio de almacenamiento ex207 al teléfono móvil ex115. El medio de almacenamiento ex207 almacena un elemento de memoria flash, una clase de EEPROM (Electrically Erasable and Programmable Read Only Memory, memoria de sólo lectura programable y borrable eléctricamente) que es una memoria no volátil borrable eléctricamente y reescribible en una caja de plástico
15 tal como una tarjeta SD.
A continuación se explicará el teléfono móvil ex115 con referencia a la fig. 22. En el teléfono móvil ex115, una unidad de control principal ex311, diseñada con el fin de controlar globalmente cada unidad del cuerpo principal que contiene la unidad de visualización ex202 así como las teclas de operación ex204, se conecta mutuamente con una
20 unidad de circuito de fuente de alimentación ex310, una unidad de control de entrada de operación ex304, una unidad de codificación de imagen ex312, una unidad de interfaz de cámara ex303, una unidad de control de LCD (Liquid Crystal Display, pantalla de cristal líquido) ex302, una unidad de decodificación de imagen ex309, una unidad de multiplexación/demultiplexación ex308, una unidad de lectura/escritura ex307, una unidad de circuito de módem ex306 y una unidad de procesamiento de audio ex305 por medio de un bus síncrono ex313.
25 Cuando se activa una tecla de hablar-apagar o una tecla de encendido por la acción de un usuario, la unidad de circuito de fuente de alimentación ex310 suministra a las unidades respectivas alimentación desde un paquete de batería de manera que se active el teléfono móvil digital con una cámara ex115 como un estado listo.
30 En el teléfono móvil ex115, la unidad de procesamiento de audio ex305 convierte las señales de audio recibidas por la unidad de entrada de audio ex205 en modo de conversación en datos de audio digital bajo el control de la unidad de control principal ex311 que incluye una CPU, ROM y RAM, la unidad de circuito de módem ex306 realiza procesamiento de amplio espectro para los datos de audio digital, y la unidad de circuito de comunicación ex301 realiza conversión digital-analógica y conversión de frecuencias para los datos, de manera que se transmite por
35 medio de la antena ex201. Además, en el teléfono móvil ex115, la unidad de circuito de comunicación ex301 amplifica los datos recibidos por la antena ex201 en modo de conversación y realiza conversión de frecuencias y la conversión analógico-digital a los datos, la unidad de circuito de módem ex306 realiza procesamiento de los datos de amplio espectro inverso, y la unidad de procesamiento de audio ex305 los convierte en datos de audio analógicos de manera que los envía por medio de la unidad de salida de audio ex208.
40 Además, cuando se transmite un mensaje de correo electrónico en modo de comunicación de datos, los datos de texto del mensaje de correo electrónico introducidos manejando las teclas de operación ex204 del cuerpo principal son enviados a la unidad de control principal ex311 por medio de la unidad de control de entrada de operación ex304. En la unidad de control principal ex311, después de la unidad de circuito de módem ex306 realiza
45 procesamiento de amplio espectro de los datos de texto y la unidad de circuito de comunicación ex301 realiza la conversión digital-analógica y la conversión de frecuencias para los datos de texto, los datos son transmitidos al sitio de célula ex110 por medio de la antena ex201.
Cuando los datos de imagen se transmiten en modo de comunicación de datos, los datos de imagen capturados por
50 la unidad de cámara ex203 son suministrados a la unidad de codificación de imagen ex312 por medio de la unidad de interfaz de cámara ex303. Cuando no se transmiten, es posible también visualizar los datos de imagen capturados por la unidad de cámara ex203 directamente en la unidad de visualización ex202 por medio de la unidad de interfaz de cámara ex303 y la unidad de control de LCD ex302.
55 La unidad de codificación de imagen ex312, que incluye el aparato de codificación de imágenes tal como se describe en la presente invención, comprime y codifica los datos de imagen suministrados desde la unidad de cámara ex203 que usa el procedimiento de codificación empleado por el aparato de codificación de imágenes tal como se muestra en la primera realización de manera que los transforma en datos de imágenes codificados, y los envía a la unidad de multiplexación/demultiplexación ex308. En este momento, el teléfono móvil ex115 envía el audio recibido por la
E09180894
28-08-2014
unidad de entrada de audio ex205 durante la captura con la unidad de cámara ex203 a la unidad de multiplexación/demultiplexación ex308 como datos de audio digital por medio de la unidad de procesamiento de audio ex305.
5 La unidad de multiplexación/demultiplexación ex308 multiplexa los datos de imágenes codificados suministrados desde la unidad de codificación de imagen ex312 y los datos de audio suministrados desde la unidad de procesamiento de audio ex305, usando un procedimiento predeterminado, a continuación la unidad de circuito de módem ex306 realiza procesamiento de amplio espectro de los datos multiplexados obtenidos como consecuencia de la multiplexación, y finalmente la unidad de circuito de comunicación ex301 realiza conversión digital-analógica y
10 transformación de frecuencia de los datos para la transmisión por medio de la antena ex201.
En cuanto a la recepción de datos de un archivo de imágenes en movimiento que está vinculado a una página web o similar en modo de comunicación de datos, la unidad de circuito de módem ex306 realiza procesamiento de amplio espectro inverso para los datos recibidos desde el sitio de célula ex110 por medio de la antena ex201, y envía los
15 datos multiplexados obtenidos como consecuencia del procesamiento de amplio espectro inverso.
Con el fin de decodificar los datos multiplexados recibidos por medio de la antena ex201, la unidad de multiplexación/demultiplexación ex308 demultiplexa los datos multiplexados en un tren codificado de datos de imágenes y de datos de audio, y suministra los datos de imágenes codificados a la unidad de decodificación de
20 imagen ex309 y los datos de audio a la unidad de procesamiento de audio ex305, respectivamente por medio del bus síncrono ex313.
A continuación, la unidad de decodificación de imagen ex309, que incluye el aparato de decodificación de imágenes tal como se describe en la presente invención, decodifica el tren codificado de los datos de imágenes que usa el 25 procedimiento de decodificación correspondiente al procedimiento de codificación tal como se muestra en las realizaciones mencionadas anteriormente para generar datos de imágenes en movimiento reproducidos, y suministra estos datos a la unidad de visualización ex202 por medio de la unidad de control de LCD ex302, y así se visualizan los datos de imágenes incluidos en el archivo de imágenes en movimiento vinculado a una página web, por ejemplo. Al mismo tiempo, la unidad de procesamiento de audio ex305 convierte los datos de audio en datos de audio
30 analógico, y suministra estos datos a la unidad de salida de audio ex208, y así se reproducen los datos de audio incluidos en el archivo de imágenes en movimiento vinculado a una página web, por ejemplo.
La presente invención no se limita al sistema mencionado anteriormente ya que la radiodifusión digital por satélite o de base terrestre se ha puesto de actualidad últimamente y al menos el aparato de codificación de imágenes o el 35 aparato de decodificación de imágenes descritos en la realización mencionada anteriormente pueden incorporarse en un sistema de radiodifusión digital tal como se muestra en la fig. 23. Más específicamente, se transmite un tren codificado de información de vídeo desde una estación de radiodifusión ex409 o se comunica con un satélite de radiodifusión ex410 por medio de ondas de radio. Tras la recepción de las mismas, el satélite de radiodifusión ex410 transmite ondas de radio para su radiodifusión. A continuación, una antena de uso doméstico ex406 con una función 40 de recepción de radiodifusión por satélite recibe las ondas de radio, y una televisión (receptor) ex401 o un descodificador (STB) ex407 decodifica un tren de bits codificados para su reproducción. El aparato de decodificación de imágenes tal como se muestra en la realización mencionada anteriormente puede implementarse en el aparato reproductor ex403 para la lectura y decodificación del tren codificado grabado en un medio de almacenamiento ex402 que es un medio de grabación tal como un CD y un DVD. En este caso, las señales reproducidas de 45 imágenes en movimiento se visualizan en un monitor ex404. También puede concebirse implementar el aparato de decodificación de imágenes en el descodificador ex407 conectado a un cable ex405 para una televisión por cable o la antena ex406 para satélite y/o radiodifusión de base terrestre de manera que se reproduzcan en un monitor ex408 de la televisión ex401. El aparato de decodificación de imágenes puede incorporarse en la televisión, no en el descodificador. Además, un automóvil ex412 que tiene una antena ex411 puede recibir señales del satélite ex410 o
50 el sitio de célula ex107 para retransmitir imágenes en movimiento en un dispositivo de visualización tal como un sistema de navegación de automóvil ex413 dispuesto en el automóvil ex412.
Además, el aparato de codificación de imágenes tal como se muestra en la realización mencionada anteriormente puede codificar señales de imagen y las registra en el medio de almacenamiento. Como un ejemplo concreto, puede
55 citarse un grabador ex420 tal como un grabador DVD para grabar señales de imagen en un disco DVD ex421, un grabador en disco para grabarlos en un disco duro. Pueden grabarse en una tarjeta SD ex422. Cuando el grabador ex420 incluye el aparato de decodificación de imágenes tal como se muestra en la realización mencionada anteriormente, las señales de imagen grabadas en el disco DVD ex421 o la tarjeta SD ex422 pueden reproducirse para su visualización en el monitor ex408.
E09180894
28-08-2014
En cuanto a la estructura del sistema de navegación de automóvil ex413, puede concebirse la estructura sin la unidad de cámara ex203, la unidad de interfaz de cámara ex303 y la unidad de codificación de imagen ex312, entre los componentes mostrados en la fig. 22. Lo mismo se aplica para el ordenador ex111, la televisión (receptor) ex401
5 y otros.
Además, pueden concebirse tres tipos de implementaciones para un terminal tal como el teléfono móvil ex114: un terminal de envío/recepción implementado con un codificador y un decodificador, un terminal de envío implementado sólo con un codificador, y un terminal de recepción implementado sólo con un decodificador.
10 Tal como se describe anteriormente, es posible usar el procedimiento de codificación de imágenes y el procedimiento de decodificación de imágenes descritos en la realización mencionada anteriormente para cualquiera de los aparatos y sistemas mencionados anteriormente, y usando estos procedimientos, pueden obtenerse los efectos descritos en la realización mencionada anteriormente.
15
Así, el procedimiento de codificación de imágenes en movimiento o el procedimiento de decodificación de imágenes en movimiento según la presente invención son aplicables como un procedimiento para generar un tren de bits por
20 codificación de cada imagen que compone una imagen en movimiento o decodificación del tren de bits generado, usando, por ejemplo, un teléfono móvil, un aparato de DVD, un ordenador personal o similar.
Claims (2)
- E0918089428-08-2014REIVINDICACIONES1. Un procedimiento de codificación en modo directo temporal para realizar codificación de campo de un bloque actual de una imagen usando un vector de movimiento de una imagen con codificación de campo, estando la5 imagen con codificación de campo situada cerca en orden de visualización de la imagen del campo actual en el que se incluye el bloque actual, comprendiendo dicho procedimiento de codificación:la obtención de un vector de movimiento de un bloque co-situado incluido en la imagen con codificación de campo, estando el bloque co-situado co-situado con el bloque actual incluido en la imagen de campo actual;10 la valoración (S204) de que la conversión de escala del vector de movimiento del bloque co-situado no puede realizarse cuando (i) la información de orden de visualización de la imagen con codificación de campo que incluye el bloque co-situado y (ii) la información de orden de visualización de una imagen de campo de referencia a la que se hace referencia por el bloque co-situado son idénticas, perteneciendo la imagen con codificación de campo y la15 imagen de campo de referencia a la misma trama como un campo superior y un campo inferior, y la valoración de que la conversión de escala del vector de movimiento del bloque co-situado puede realizarse cuando (i) la información de orden de visualización de la imagen con codificación de campo que incluye el bloque co-situado y (ii) la información de orden de visualización de la imagen de campo de referencia a la que se hace referencia por el bloque co-situado no son idénticas;20 la generación de dos vectores de movimiento del bloque actual a través de dicha conversión de escala en el caso en que se valore, en dicha valoración, que dicha conversión de escala puede realizarse, y la generación de los dos vectores de movimiento del bloque actual fijando uno de los dos vectores de movimiento a un valor predeterminado y el otro vector de movimiento a otro valor predeterminado sin requerir la conversión de escala en el caso en que se25 valore, en dicha valoración, que dicha conversión de escala no puede realizarse; yla realización (S503, S505) de compensación de movimiento del bloque actual usando los dos vectores de movimiento generados en dicha generación,30 en el que, en dicha generación, dicha conversión de escala se realiza basándose en una relación de posición temporal entre la imagen de campo actual y la imagen con codificación de campo y la imagen de campo de referencia según la información de orden de visualización.
- 2. Un aparato de codificación en modo directo temporal para realizar codificación de campo de un bloque35 actual de una imagen usando un vector de movimiento de una imagen con codificación de campo, estando la imagen con codificación de campo situada cerca en orden de visualización de la imagen del campo actual en el que se incluye el bloque actual, comprendiendo dicho aparato de codificación:una unidad (106) accionable para obtener un vector de movimiento de un bloque co-situado incluido en la imagen40 con codificación de campo, estando el bloque co-situado co-situado con el bloque actual incluido en la imagen de campo actual;una unidad de valoración de conversión de escala (109) accionable para valorar que la conversión de escala del vector de movimiento del bloque co-situado no puede realizarse cuando (i) la información de orden de visualización45 de la imagen con codificación de campo que incluye el bloque co-situado y (ii) la información de orden de visualización de una imagen de campo de referencia y la imagen de campo de referencia que pertenecen a la misma trama como un campo superior y un campo inferior, y accionable para valorar que la conversión de escala del vector de movimiento del bloque co-situado puede realizarse cuando (i) la información de orden de visualización de la imagen con codificación de campo que incluye el bloque co-situado y (ii) la información de orden de visualización de50 la imagen de campo de referencia a la que se hace referencia por el bloque co-situado no son idénticas;una unidad de generación de vectores de movimiento (107) accionable para generar dos vectores de movimiento del bloque actual a través de dicha conversión de escala en el caso en que se valore, por parte de dicha unidad de valoración de conversión de escala, que dicha conversión de escala puede realizarse, y accionable para generar los55 dos vectores de movimiento del bloque actual fijando uno de los dos vectores de movimiento a un valor predeterminado y el otro vector de movimiento a otro valor predeterminado sin requerir la conversión de escala en el caso en que se valore, por parte de dicha unidad de valoración, que dicha conversión de escala no puede realizarse; y26E0918089428-08-2014una unidad de compensación de movimiento (107) accionable para realizar compensación de movimiento del bloque actual usando los dos vectores de movimiento generados por dicha unidad de generación de vectores de movimiento,5 en el que dicha unidad de generación de vectores de movimiento (107) está adaptada para realizar dicha conversión de escala basándose en una relación de posición temporal entre la imagen de campo actual y la imagen con codificación de campo y la imagen de campo de referencia según la información de orden de visualización.27
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002320458 | 2002-11-01 | ||
| JP2002320458 | 2002-11-01 | ||
| JP2002344580 | 2002-11-27 | ||
| JP2002344580 | 2002-11-27 | ||
| JP2002370600 | 2002-12-20 | ||
| JP2002370600 | 2002-12-20 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2496979T3 true ES2496979T3 (es) | 2014-09-22 |
Family
ID=32233998
Family Applications (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES09180894.9T Expired - Lifetime ES2496979T3 (es) | 2002-11-01 | 2003-10-06 | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento |
| ES03748710.5T Expired - Lifetime ES2495440T3 (es) | 2002-11-01 | 2003-10-06 | Procedimiento de codificación de fotogramas de movimiento y procedimiento de decodificación de fotogramas de movimiento |
| ES14166439.1T Expired - Lifetime ES2618481T3 (es) | 2002-11-01 | 2003-10-06 | Cálculo del vector de movimiento en modo directo evitando divisiones por cero |
| ES16192321T Expired - Lifetime ES2729258T3 (es) | 2002-11-01 | 2003-10-06 | Cálculo del vector de movimiento en modo directo evitando divisiones por cero |
Family Applications After (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES03748710.5T Expired - Lifetime ES2495440T3 (es) | 2002-11-01 | 2003-10-06 | Procedimiento de codificación de fotogramas de movimiento y procedimiento de decodificación de fotogramas de movimiento |
| ES14166439.1T Expired - Lifetime ES2618481T3 (es) | 2002-11-01 | 2003-10-06 | Cálculo del vector de movimiento en modo directo evitando divisiones por cero |
| ES16192321T Expired - Lifetime ES2729258T3 (es) | 2002-11-01 | 2003-10-06 | Cálculo del vector de movimiento en modo directo evitando divisiones por cero |
Country Status (12)
| Country | Link |
|---|---|
| US (9) | US9426490B2 (es) |
| EP (4) | EP2793473B1 (es) |
| KR (2) | KR100967237B1 (es) |
| CN (3) | CN101873488B (es) |
| AU (1) | AU2003268763B2 (es) |
| BR (2) | BRPI0306684B1 (es) |
| CA (1) | CA2470717C (es) |
| ES (4) | ES2496979T3 (es) |
| MX (1) | MXPA04006242A (es) |
| MY (1) | MY135215A (es) |
| TW (1) | TWI280781B (es) |
| WO (1) | WO2004040915A1 (es) |
Families Citing this family (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| ES2496979T3 (es) | 2002-11-01 | 2014-09-22 | Panasonic Intellectual Property Corporation Of America | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento |
| EP1753242A2 (en) * | 2005-07-18 | 2007-02-14 | Matsushita Electric Industrial Co., Ltd. | Switchable mode and prediction information coding |
| JP4879558B2 (ja) * | 2005-11-02 | 2012-02-22 | パナソニック株式会社 | 動きベクトル検出装置 |
| JP4527677B2 (ja) * | 2006-03-15 | 2010-08-18 | 富士通株式会社 | 動画像符号化方法、動画像符号化装置、動画像符号化プログラム |
| JP4417919B2 (ja) * | 2006-03-31 | 2010-02-17 | 株式会社東芝 | 画像符号化装置及び画像復号化装置 |
| JP5155157B2 (ja) * | 2006-05-12 | 2013-02-27 | パナソニック株式会社 | 動画像復号化装置 |
| JP4902854B2 (ja) * | 2006-09-12 | 2012-03-21 | パナソニック株式会社 | 動画像復号化装置、動画像復号化方法、動画像復号化プログラム、動画像符号化装置、動画像符号化方法、動画像符号化プログラム、及び動画像符号化復号化装置 |
| KR101319535B1 (ko) * | 2006-12-26 | 2013-10-21 | 삼성전자주식회사 | 영상신호 처리장치 및 그 제어방법 |
| JP2008227702A (ja) * | 2007-03-09 | 2008-09-25 | Oki Electric Ind Co Ltd | 動きベクトル探索装置、動きベクトル探索方法及び動きベクトル探索プログラム |
| US8808164B2 (en) | 2008-03-28 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Controlling a robotic surgical tool with a display monitor |
| JP5578775B2 (ja) | 2008-09-02 | 2014-08-27 | 富士通株式会社 | 符号化装置および復号装置 |
| KR20110112168A (ko) * | 2010-04-05 | 2011-10-12 | 삼성전자주식회사 | 내부 비트뎁스 확장에 기반한 비디오 부호화 방법 및 그 장치, 내부 비트뎁스 확장에 기반한 비디오 복호화 방법 및 그 장치 |
| US8982961B2 (en) | 2010-04-05 | 2015-03-17 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video by using transformation index, and method and apparatus for decoding video by using transformation index |
| WO2011126277A2 (en) | 2010-04-05 | 2011-10-13 | Samsung Electronics Co., Ltd. | Low complexity entropy-encoding/decoding method and apparatus |
| WO2011126283A2 (en) | 2010-04-05 | 2011-10-13 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding video based on internal bit depth increment, and method and apparatus for decoding video based on internal bit depth increment |
| CA2807780C (en) | 2010-09-24 | 2018-09-18 | Panasonic Corporation | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
| SG10201802064VA (en) * | 2010-09-30 | 2018-05-30 | Mitsubishi Electric Corp | Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method |
| JP5755243B2 (ja) | 2010-11-24 | 2015-07-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 動きベクトル導出方法および動きベクトル導出装置 |
| US9049455B2 (en) | 2010-12-28 | 2015-06-02 | Panasonic Intellectual Property Corporation Of America | Image coding method of coding a current picture with prediction using one or both of a first reference picture list including a first current reference picture for a current block and a second reference picture list including a second current reference picture for the current block |
| KR101820997B1 (ko) | 2011-01-12 | 2018-01-22 | 선 페이턴트 트러스트 | 동화상 부호화 방법 및 동화상 복호화 방법 |
| US9300943B2 (en) * | 2011-01-12 | 2016-03-29 | Panasonic Intellectual Property Corporation Of America | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
| WO2012114694A1 (ja) | 2011-02-22 | 2012-08-30 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置 |
| WO2012117728A1 (ja) | 2011-03-03 | 2012-09-07 | パナソニック株式会社 | 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置 |
| RU2600936C2 (ru) * | 2011-04-12 | 2016-10-27 | Сан Пэтент Траст | Способ кодирования движущихся изображений, устройство кодирования движущихся изображений, способ декодирования движущихся изображений, устройство декодирования движущихся изображений и устройство кодирования и декодирования движущихся изображений |
| CA2833893C (en) | 2011-05-24 | 2024-02-27 | Panasonic Corporation | Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus |
| US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
| EP4007276B1 (en) | 2011-05-27 | 2023-07-05 | Sun Patent Trust | Apparatus, method and program for coding moving pictures |
| SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
| ES2971526T3 (es) | 2011-05-31 | 2024-06-05 | Sun Patent Trust | Procedimiento de descodificación de vídeo, dispositivo de descodificación de vídeo |
| MY181718A (en) | 2011-06-30 | 2021-01-05 | Sun Patent Trust | Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device |
| US9456214B2 (en) | 2011-08-03 | 2016-09-27 | Sun Patent Trust | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus, and moving picture coding and decoding apparatus |
| GB2493755B (en) | 2011-08-17 | 2016-10-19 | Canon Kk | Method and device for encoding a sequence of images and method and device for decoding a sequence of images |
| KR20130030181A (ko) * | 2011-09-16 | 2013-03-26 | 한국전자통신연구원 | 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치 |
| IN2014CN02602A (es) | 2011-10-19 | 2015-08-07 | Panasonic Corp | |
| RU2609083C2 (ru) | 2011-10-28 | 2017-01-30 | Сан Пэтент Траст | Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений |
| ES2780186T3 (es) * | 2011-10-28 | 2020-08-24 | Sun Patent Trust | Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, y dispositivo de decodificación de imágenes |
| CN104094604B (zh) | 2012-01-20 | 2017-07-14 | 太阳专利托管公司 | 使用时间运动矢量预测对视频进行编码和解码的方法和装置 |
| KR101996682B1 (ko) | 2012-02-03 | 2019-07-04 | 선 페이턴트 트러스트 | 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치 및 화상 부호화 복호 장치 |
| EP2824920A4 (en) | 2012-03-06 | 2016-02-17 | Panasonic Ip Corp America | VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO COORDING DEVICE, VIDEO CODING DEVICE AND VIDEO CODING / DECODING DEVICE |
| CN104980751B (zh) * | 2014-04-02 | 2018-06-15 | 扬智科技股份有限公司 | 图像数据处理装置及图像数据处理的方法 |
| TWI548266B (zh) * | 2014-06-24 | 2016-09-01 | 愛爾達科技股份有限公司 | 多媒體檔案儲存系統與相關裝置 |
| JP5931160B2 (ja) * | 2014-11-05 | 2016-06-08 | 三菱電機株式会社 | 画像符号化装置およびビットストリーム |
| WO2019082318A1 (ja) * | 2017-10-25 | 2019-05-02 | 株式会社ソシオネクスト | 動画像処理装置、動画像処理システム、及び動画像処理方法 |
| CN118714348A (zh) | 2018-04-06 | 2024-09-27 | 艾锐势有限责任公司 | 减少双向时间预测中的运动矢量信息传输 |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5886745A (en) * | 1994-12-09 | 1999-03-23 | Matsushita Electric Industrial Co., Ltd. | Progressive scanning conversion apparatus |
| US5801778A (en) * | 1996-05-23 | 1998-09-01 | C-Cube Microsystems, Inc. | Video encoding with multi-stage projection motion estimation |
| US5991447A (en) | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
| CN1297147C (zh) | 1997-03-07 | 2007-01-24 | 通用仪器公司 | 对交错数字视频的双向预测的视频目标平面的预测和编码 |
| JP3671286B2 (ja) | 1997-06-20 | 2005-07-13 | 松下電器産業株式会社 | 画像処理方法,画像処理装置,及びデータ記憶媒体 |
| TW398131B (en) | 1997-06-20 | 2000-07-11 | Matsushita Electric Industrial Co Ltd | The image process method, the image process device and the data memory medium |
| JP4149037B2 (ja) * | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | 映像システム |
| US6931062B2 (en) * | 2001-04-11 | 2005-08-16 | Koninklijke Philips Electronics N.V. | Decoding system and method for proper interpolation for motion compensation |
| US20030099294A1 (en) * | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
| KR100931746B1 (ko) * | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
| US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
| ES2496979T3 (es) * | 2002-11-01 | 2014-09-22 | Panasonic Intellectual Property Corporation Of America | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento |
-
2003
- 2003-10-06 ES ES09180894.9T patent/ES2496979T3/es not_active Expired - Lifetime
- 2003-10-06 ES ES03748710.5T patent/ES2495440T3/es not_active Expired - Lifetime
- 2003-10-06 BR BRPI0306684-3A patent/BRPI0306684B1/pt unknown
- 2003-10-06 EP EP14166439.1A patent/EP2793473B1/en not_active Expired - Lifetime
- 2003-10-06 AU AU2003268763A patent/AU2003268763B2/en not_active Expired
- 2003-10-06 EP EP16192321.4A patent/EP3145186B1/en not_active Expired - Lifetime
- 2003-10-06 KR KR1020107001836A patent/KR100967237B1/ko not_active Expired - Lifetime
- 2003-10-06 ES ES14166439.1T patent/ES2618481T3/es not_active Expired - Lifetime
- 2003-10-06 EP EP03748710.5A patent/EP1562385B1/en not_active Expired - Lifetime
- 2003-10-06 WO PCT/JP2003/012756 patent/WO2004040915A1/ja not_active Ceased
- 2003-10-06 CN CN2010101432235A patent/CN101873488B/zh not_active Expired - Lifetime
- 2003-10-06 ES ES16192321T patent/ES2729258T3/es not_active Expired - Lifetime
- 2003-10-06 KR KR1020047009356A patent/KR100990829B1/ko not_active Expired - Lifetime
- 2003-10-06 BR BR0306684-3A patent/BR0306684A/pt active IP Right Grant
- 2003-10-06 CN CN2003801000780A patent/CN1685732B/zh not_active Expired - Lifetime
- 2003-10-06 CN CN2010101432305A patent/CN101790095B/zh not_active Expired - Lifetime
- 2003-10-06 CA CA2470717A patent/CA2470717C/en not_active Expired - Lifetime
- 2003-10-06 EP EP09180894.9A patent/EP2169960B1/en not_active Expired - Lifetime
- 2003-10-06 US US10/498,088 patent/US9426490B2/en active Active
- 2003-10-30 MY MYPI20034153A patent/MY135215A/en unknown
- 2003-10-31 TW TW092130514A patent/TWI280781B/zh not_active IP Right Cessation
-
2004
- 2004-06-23 MX MXPA04006242A patent/MXPA04006242A/es active IP Right Grant
-
2007
- 2007-10-31 US US11/980,605 patent/US20080069235A1/en not_active Abandoned
-
2016
- 2016-07-19 US US15/213,617 patent/US9699455B2/en not_active Expired - Fee Related
- 2016-07-19 US US15/213,611 patent/US9693059B2/en not_active Expired - Fee Related
-
2017
- 2017-05-22 US US15/601,067 patent/US9888238B2/en not_active Expired - Lifetime
- 2017-12-22 US US15/851,970 patent/US10097824B2/en not_active Expired - Lifetime
-
2018
- 2018-08-31 US US16/118,973 patent/US10375388B2/en not_active Expired - Lifetime
-
2019
- 2019-06-18 US US16/444,263 patent/US10623730B2/en not_active Expired - Fee Related
- 2019-06-18 US US16/444,189 patent/US10623729B2/en not_active Expired - Fee Related
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2496979T3 (es) | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento | |
| ES2491094T3 (es) | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento | |
| ES2410533T3 (es) | Procedimiento de decodificación de vectores de movimiento | |
| JP3878591B2 (ja) | 動画像符号化方法および動画像復号化方法 | |
| JP3884472B2 (ja) | 動画像符号化方法および動画像復号化方法 |