ES2644448T3 - Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento - Google Patents
Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento Download PDFInfo
- Publication number
- ES2644448T3 ES2644448T3 ES16156344.0T ES16156344T ES2644448T3 ES 2644448 T3 ES2644448 T3 ES 2644448T3 ES 16156344 T ES16156344 T ES 16156344T ES 2644448 T3 ES2644448 T3 ES 2644448T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- motion vector
- block
- motion
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 97
- 230000033001 locomotion Effects 0.000 claims description 679
- 239000013598 vector Substances 0.000 claims description 543
- 238000012800 visualization Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 31
- 230000002123 temporal effect Effects 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 18
- 230000009466 transformation Effects 0.000 description 14
- 238000012300 Sequence Analysis Methods 0.000 description 9
- 230000008707 rearrangement Effects 0.000 description 8
- 238000012935 Averaging Methods 0.000 description 6
- 238000011002 quantification Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/127—Prioritisation of hardware or computational resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/16—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Procedimiento de codificacion de imagenes en movimiento y procedimiento de decodificacion de imagenes en movimiento
Campo tecnico
La presente invencion se refiere a procedimientos de codificacion de imagenes en movimiento y a procedimientos de decodificacion de imagenes en movimiento y, particularmente, a procedimientos para realizar codificacion de prediccion entre imagenes y decodificacion de prediccion entre imagenes de una imagen actual usando imagenes procesadas previamente como imagenes de referencia.
Antecedentes de la tecnica
En codificacion de imagenes en movimiento, una cantidad de datos se comprime generalmente utilizando las redundancias espaciales y temporales que existen dentro de una imagen en movimiento. Hablando en terminos generales, se usa transformacion de frecuencia como un procedimiento que utiliza las redundancias espaciales y se usa codificacion de prediccion entre imagenes como un procedimiento que utiliza las redundancias temporales. En la codificacion de prediccion entre imagenes, para codificar una imagen actual, se usan imagenes codificadas previamente antes o despues de la imagen actual en orden de visualizacion como imagenes de referencia. Se estima la cantidad de movimiento de la imagen actual a partir de la imagen de referencia y la diferencia entre los datos de imagen obtenidos por compensacion de movimiento se basa en esa cantidad de movimiento y se calculan los datos de imagen de la imagen actual, de manera que se eliminan las redundancias temporales. Las redundancias espaciales se eliminan ademas a partir de este valor diferencial para comprimir la cantidad de datos de la imagen actual.
En el procedimiento de codificacion de imagenes en movimiento llamado H.264 que se ha desarrollado para normalizacion, una imagen que no se codifica usando prediccion entre imagenes sino usando codificacion intra- imagen se denomina como imagen I, una imagen que se codifica usando prediccion entre imagenes con referencia a una imagen Procesada previamente que esta antes o despues de una imagen actual en orden de visualizacion se denomina como una imagen P y una imagen que se codifica usando prediccion entre imagenes con referencia a dos imagenes procesadas previamente que estan antes o despues de una imagen actual en orden de visualizacion se denomina como una imagen B (Vease “Information technology - Coding of audio-visual objects - Part 2: Visual”, paginas 218-219 de la ISO/IEC 14496-2).
La Figura 1A es un diagrama que muestra la relacion entre imagenes respectivas y las imagenes de referencia correspondientes en el procedimiento de codificacion de imagenes en movimiento antes mencionado y la Figura 1B es un diagrama que muestra la secuencia de las imagenes en el secuencia de bits generado mediante codificacion.
Una imagen 11 es una imagen I, las imagenes P5, P9 y P13 son imagenes P y las imagenes B2, B3, B4, B6, B7, B8, B10, B11 y B12 son imagenes B. Como se muestra por las flechas, las imagenes P P5, P9 y P13 se codifican usando prediccion entre imagenes a partir de la imagen I I1 y las imagenes P P5 y P9 respectivamente como imagenes de referencia.
Como se muestra por las flechas, las imagenes B B2, B3 y B4 se codifican usando prediccion entre imagenes a partir de la imagen I I1 y la imagen P P5 respectivamente como imagenes de referencia. De la misma manera, las imagenes B B6, B7 y B8 se codifican usando las imagenes P P5 y P9 respectivamente como imagenes de referencia y las imagenes B B10, B11 y B12 se codifican usando las imagenes P P9 y P13 respectivamente como imagenes de referencia.
En la codificacion antes mencionada, las imagenes de referencia se codifican antes de las imagenes que hacen referencia a las imagenes de referencia. Por lo tanto, el secuencia de bits se genera mediante la codificacion anterior en la secuencia que se muestra en la Figura 1B.
A proposito, en el procedimiento de codificacion de imagenes en movimiento H.264, se puede seleccionar un modo de codificacion llamado modo directo. Un procedimiento de prediccion entre imagenes en modo directo se explicara con referencia a la Figura 2. La Figura 2 es una ilustracion que muestra vectores de movimiento en modo directo y particularmente que muestra el caso de codificacion de un bloque a en la imagen B6 en modo directo. En este caso, se utiliza un vector de movimiento c usado para codificar un bloque b en la imagen P9. El bloque b esta situado conjuntamente con el bloque a y la imagen P9 es una imagen de referencia hacia atras de la imagen B6. El vector de movimiento c es un vector usado para codificar el bloque b y hace referencia a la imagen P5. El bloque a se codifica usando bi-prediccion basada en los bloques de referencia obtenidos a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras P9 usando vectores paralelos al vector de movimiento c. En otras palabras, los vectores de movimiento usados para codificar el bloque a son el vector de movimiento d para la imagen P5 y el vector de movimiento e para la imagen P9.
No obstante, cuando las imagenes B se codifican usando prediccion entre imagenes con referencia a imagenes I y P, la distancia temporal entre la imagen B actual y la imagen de referencia puede ser larga, lo cual causa reduccion
5
10
15
20
25
30
35
40
45
50
55
60
de la eficacia de codificacion. Particularmente cuando un monton de imagenes B se situan entre una imagen I y una imagen P adyacentes o dos imagenes P mas cercanas entre sf, se reduce significativamente la eficacia de codificacion.
Satoshi Kondo y col.: “Proposal for Minor Changes to Multi-Frame Buffering Syntax for Improving Coding Efficiency of B-pictures”, JVT de la ISO/IEC MPEG & ITU-T VCEG, JVT-B057, 29 de enero a 1 de febrero de 2002, generado el , documento XP002249662, desvela una decodificacion de modo directo temporal de un bloque de una imagen de una secuencia de imagenes en el marco del modo de prediccion bidireccional mejorado. La presente invencion se ha concebido para resolver el problema antes mencionado y es un objeto de la presente invencion proporcionar un procedimiento de codificacion de imagenes en movimiento y un procedimiento de decodificacion de imagenes en movimiento para evitar la reduccion de eficacia de codificacion de imagenes B si un monton de imagenes B se situan entre una imagen I y una imagen P o entre dos imagenes P. Ademas, es otro objeto proporcionar un procedimiento de codificacion de imagenes en movimiento y un procedimiento de decodificacion de imagenes en movimiento para mejorar la eficacia de codificacion en modo directo.
Divulgacion de la invencion
Un procedimiento de decodificacion para decodificar una imagen segun la presente invencion se define en la reivindicacion 1. Un aparato de decodificacion para decodificar una imagen segun la presente invencion se define en la reivindicacion 2.
Breve descripcion de los dibujos
La Figura 1 es un diagrama esquematico que muestra relaciones de prediccion entre imagenes y su secuencia en el procedimiento de codificacion de imagenes en movimiento convencional, y la 1A muestra las relaciones entre las imagenes respectivas y las imagenes de referencia correspondientes, y la Figura 1B muestra la secuencia de las imagenes en un secuencia de bits generado codificando.
La Figura 2 es un diagrama esquematico que muestra vectores de movimiento en modo directo en el procedimiento de codificacion de imagenes en movimiento convencional.
La Figura 3 es un diagrama de bloques que muestra la estructura de una primera realizacion de un aparato de codificacion de imagenes en movimiento que usa un procedimiento de codificacion de imagenes en movimiento segun la presente invencion.
La Figura 4 es una ilustracion de numeros de imagenes e indices relativos en las realizaciones de la presente invencion.
La Figura 5 es una ilustracion conceptual de un formato de datos codificado de imagenes en movimiento en el aparato de codificacion de imagenes en movimiento en las realizaciones de la presente invencion.
La Figura 6 es una ilustracion que muestra la secuencia de imagenes en una memoria de reordenacion en las realizaciones de la presente invencion, y la Figura 6A muestra la secuencia en orden de entrada, y la Figura 6B muestra la secuencia reordenada.
La Figura 7 es un diagrama esquematico que muestra vectores de movimiento en modo directo en las realizaciones de la presente invencion, y la Figura 7A muestra un caso donde un bloque a actual es una imagen B7, la Figura 7B muestra un primer y segundo ejemplos en un caso donde un bloque a actual es una imagen B6, la Figura 7C muestra un tercer ejemplo en un caso donde un bloque a actual es una imagen B6 y la Figura 7D muestra un cuarto ejemplo en un caso donde un bloque a actual es una imagen B6.
La Figura 8 es un diagrama esquematico que muestra vectores de movimiento en modo directo en las realizaciones de la presente invencion y la Figura 8A muestra un quinto ejemplo en un caso donde un bloque a actual es una imagen B6, la Figura 8B muestra un sexto ejemplo en un caso donde un bloque a actual es una imagen B6, la Figura 8C muestra un septimo ejemplo en un caso donde un bloque a actual es una imagen B6 y la Figura 8D muestra un caso donde un bloque a actual es una imagen B8.
La Figura 9 es un diagrama esquematico que muestra relaciones de prediccion entre imagenes respectivas y su secuencia en las realizaciones de la presente invencion, y la Figura 9A muestra las relaciones de prediccion entre imagenes respectivas indicadas en orden de visualizacion, y la Figura 9B muestra la secuencia de las imagenes reordenadas en orden de codificacion (en un secuencia de bits).
La Figura 10 es un diagrama esquematico que muestra relaciones de prediccion entre imagenes respectivas y su secuencia en las realizaciones de la presente invencion, y la Figura 10A muestra las relaciones de prediccion entre imagenes respectivas indicadas en orden de visualizacion, y la Figura 10B muestra la secuencia de las imagenes reordenadas en orden de codificacion (en un secuencia de bits).
La Figura 11 es un diagrama esquematico que muestra relaciones de prediccion entre imagenes respectivas y su secuencia en las realizaciones de la presente invencion, y la Figura 11A muestra las relaciones de prediccion entre imagenes respectivas indicadas en orden de visualizacion, y la Figura 11B muestra la secuencia de las imagenes reordenadas en orden de codificacion (en un secuencia de bits).
La Figura 12 es un diagrama esquematico que muestra jerarquicamente la estructura de prediccion de imagenes como se muestra en la Figura 6 en las realizaciones de la presente invencion.
La Figura 13 es un diagrama esquematico que muestra jerarquicamente la estructura de prediccion de imagenes como se muestra en la Figura 9 en las realizaciones de la presente invencion.
La Figura 14 es un diagrama esquematico que muestra jerarquicamente la estructura de prediccion de imagenes como se muestra en la Figura 10 en las realizaciones de la presente invencion.
5
10
15
20
25
30
35
40
45
50
55
La Figura 15 es un diagrama esquematico que muestra jerarquicamente la estructura de prediccion de imagenes como se muestra en la Figura 11 en las realizaciones de la presente invencion.
La Figura 16 es un diagrama de bloques que muestra la estructura de una realizacion de un aparato de decodificacion de imagenes en movimiento que usa un procedimiento de decodificacion de imagenes en movimiento segun la presente invencion.
La Figura 17 es una ilustracion de un medio de grabacion para almacenar un programa para realizar el procedimiento de codificacion de imagenes en movimiento y el procedimiento de decodificacion de imagenes en movimiento en la primera y segunda realizaciones por un sistema informatico, y la Figura 17A muestra un ejemplo de un formato ffsico de un disco flexible como un cuerpo del medio de grabacion, la Figura 17B muestra una vista en seccion transversal y una vista frontal de la apariencia del disco flexible y el disco flexible en sf mismo, la Figura 17C muestra una estructura para grabar y reproducir el programa en el disco flexible FD.
La Figura 18 es un diagrama de bloques que muestra la configuracion general de un sistema de suministro de contenidos para realizar un servicio de distribucion de contenidos.
La Figura 19 es un croquis que muestra un ejemplo de un telefono movil.
La Figura 20 es un diagrama de bloques que muestra la estructura interna del telefono movil.
La Figura 21 es un diagrama de bloques que muestra la configuracion general de un sistema de difusion digital.
Mejor modo para llevar a cabo la invencion
Las realizaciones de la presente invencion se explicaran mas adelante con referencia a las figuras.
(Primera realizacion)
La Figura 3 es un diagrama de bloques que muestra la estructura de una realizacion del aparato de codificacion de imagenes en movimiento que usa el procedimiento de codificacion de imagenes en movimiento segun la presente invencion.
Como se muestra en la Figura 3, el aparato de codificacion de imagenes en movimiento incluye una memoria 101 de reordenacion, una unidad 102 de calculo de diferencia, una unidad 103 de codificacion de error residual, una unidad 104 de generacion de secuencia de bits, una unidad 105 de decodificacion de error residual, una unidad 106 de adicion, una memoria 107 de imagenes de referencia, una unidad 108 de estimacion de vectores de movimiento, una unidad 109 de seleccion de modo, una unidad 110 de control de codificacion, conmutadores 111~115 y una unidad 116 de almacenamiento de vectores de movimiento.
La memoria 101 de reordenacion almacena las imagenes en movimiento introducidas de una forma imagen a imagen en orden de visualizacion. La unidad 110 de control de codificacion reordena las imagenes almacenadas en la memoria 101 de reordenacion en orden de codificacion. La unidad 110 de control de codificacion tambien controla la operacion de la unidad 116 de almacenamiento de vectores de movimiento para almacenar vectores de movimiento.
Usando los datos de imagen codificada y decodificada previamente como una imagen de referencia, la unidad 108 de estimacion de vectores de movimiento estima un vector de movimiento que indica una posicion que se predice optima en el area de busqueda en la imagen de referencia. La unidad 109 de seleccion de modo determina un modo para codificar macrobloques usando el vector de movimiento estimado por la unidad 108 de estimacion de vectores de movimiento y genera datos de imagen predictiva basados en el modo de codificacion. La unidad 102 de calculo de diferencia calcula la diferencia entre los datos de imagen lefdos de la memoria 101 de reordenacion y los datos de imagen predictiva introducidos por la unidad 109 de seleccion de modo y genera datos de imagen de error residual.
La unidad 103 de codificacion de error residual realiza procesamiento de codificacion tal como transformacion de frecuencia y cuantificacion sobre los datos de imagen de error residual introducidos para generar los datos codificados. La unidad 104 de generacion de secuencia de bits realiza codificacion de longitud variable o similar sobre los datos codificados introducidos y ademas anade la informacion de vector de movimiento, la informacion del modo de codificacion y otra informacion pertinente introducida por la unidad 109 de seleccion de modo a los datos codificados para generar un secuencia de bits.
La unidad 105 de decodificacion de error residual realiza procesamiento de decodificacion tal como cuantificacion inversa y transformacion de frecuencia inversa sobre los datos codificados introducidos para generar datos de imagen diferencial decodificados. La unidad 106 de adicion anade los datos de imagen diferencial decodificados introducidos por la unidad 105 de decodificacion de error residual y los datos de imagen predictiva introducidos por la unidad 109 de seleccion de modo para generar datos de imagen decodificados. La memoria 107 de imagenes de referencia almacena los datos de imagen decodificados generados.
La Figura 4 es una ilustracion de imagenes e indices relativos. Los indices relativos se usan para identificar de manera unica imagenes de referencia almacenadas en la memoria 107 de imagenes de referencia y se asocian a las imagenes respectivas como se muestra en la Figura 4. Los indices relativos tambien se usan para indicar las imagenes de referencia que han de ser usadas para codificacion de bloques usando prediccion entre imagenes.
5
10
15
20
25
30
35
40
45
50
55
La Figura 5 es una ilustracion conceptual de formato de datos codificados de imagenes en movimiento usado por el aparato de codificacion de imagenes en movimiento. Los datos codificados “Imagen” para una imagen incluyen datos codificados de cabecera “Cabecera” incluidos en la cabecera de la imagen, los datos codificados de bloque “Bloque 1” para modo directo, los datos codificados de bloque “Bloque 2” para la prediccion entre imagenes distinta del modo directo y similares. Los datos codificados de bloque “Bloque 2” para la prediccion entre imagenes distinta del modo directo tienen un primer mdice relativo “RIdxl” y un segundo mdice relativo “RIdx2” para indicar dos imagenes de referencia usadas para prediccion entre imagenes, un primer vector de movimiento “MV1” y un segundo vector de movimiento “MV2” en este orden. Por otra parte, los datos codificados de bloque “Bloque 1” para modo directo no tienen el primer y segundo indices relativos “RIdxl” y “RIdx2” y el primer y segundo vectores de movimiento “MV1” y “MV2”. El mdice que ha de usarse, el primer mdice relativo “RIdxl” o el segundo mdice relativo “RIdx2”, se puede determinar por el tipo de prediccion “PredType”. Tambien, el primer mdice relativo “RIdxl” indica una primera imagen de referencia y el segundo mdice relativo “RIdx2” indica una segunda imagen de referencia. En otras palabras, si una imagen es una primera imagen de referencia o una segunda imagen de referencia se determina basandose en donde se situa en el secuencia de bits.
Observese que una imagen P se codifica mediante prediccion entre imagenes con referencia unipredictiva usando una imagen codificada previamente que se situa antes o despues en orden de visualizacion como una primera imagen de referencia y una imagen B se codifica mediante prediccion entre imagenes con referencia bi-predictiva usando imagenes codificadas previamente que se situan antes o despues en orden de visualizacion como una primera imagen de referencia y una segunda imagen de referencia. En la primera realizacion, la primera imagen de referencia se explica como una imagen de referencia hacia delante y la segunda imagen de referencia se explica como una imagen de referencia hacia atras. Ademas, el primer y segundo vectores de movimiento para la primera y segunda imagenes de referencia se explican como un vector de movimiento hacia delante y un vector de movimiento hacia atras respectivamente.
A continuacion, se explicara con referencia a la Figura 4A como asignar el primer y segundo indices relativos.
Como los primeros indices relativos, en la informacion que indica el orden de visualizacion, los valores aumentados en 1 desde 0 se asignan primero a las imagenes de referencia antes de la imagen actual desde la imagen mas cercana a la imagen actual. Despues de que los valores aumentados en 1 desde 0 se asignen a todas las imagenes de referencia antes de la imagen actual, entonces los valores posteriores se asignan a las imagenes de referencia despues de la imagen actual a partir de la imagen mas cercana a la imagen actual.
Como los segundos indices relativos, en la informacion que indica el orden de visualizacion, los valores aumentados en 1 desde 0 se asignan a las imagenes de referencia despues de la imagen actual desde la imagen mas cercana a la imagen actual. Despues de que los valores aumentados en 1 desde 0 se asignen a todas las imagenes de referencia despues de la imagen actual, entonces los valores posteriores se asignan a las imagenes de referencia antes de la imagen actual a partir de la imagen mas cercana a la imagen actual.
Por ejemplo, en la Figura 4A, cuando el primer mdice relativo “RIdx1” es 0 y el segundo mdice relativo “RIdx2” es 1, la imagen de referencia hacia delante es la imagen B N.°6 y la imagen de referencia hacia atras es la imagen P N.° 9. Aqrn, estos numeros de imagen 6 y 9 indican el orden de visualizacion.
Los indices relativos en un bloque se representan por palabras de codigo de longitud variable y los codigos con longitudes mas cortas se asignan a los indices de los valores mas pequenos. Dado que la imagen que es la mas cercana a la imagen actual se selecciona normalmente como una imagen de referencia para prediccion entre imagenes, la eficacia de codificacion se mejora asignando los valores de mdice relativo en orden de cercama a la imagen actual.
La asignacion de imagenes de referencia a indices relativos se pueden cambiar arbitrariamente si se indica explfcitamente usando una senal de control de memoria intermedia en datos codificados (RPSL en Cabecera como se muestra en la Figura 5). Esto permite cambiar la imagen de referencia con el segundo mdice relativo “0” a una imagen de referencia arbitraria en la memoria 107 de imagenes de referencia. Como se muestra en la Figura 4B, la asignacion de indices de referencia a imagenes se puede cambiar, por ejemplo.
A continuacion, se explicara mas adelante la operacion del aparato de codificacion de imagenes en movimiento estructurado como anteriormente.
La Figura 6 es una ilustracion que muestra la secuencia de imagenes en la memoria 101 de reordenacion y la Figura 6A muestra la secuencia en el orden de entrada y la Figura 6B muestra la secuencia reordenada. Aqrn, las lmeas verticales muestran imagenes y los numeros indicados en la parte inferior derecha de las imagenes muestran los tipos de imagenes (I, P y B) con las primeras letras alfabeticas y los numeros de imagen que indican el orden de visualizacion con los siguientes numeros.
Como se muestra en la Figura 6A, una imagen en movimiento se introduce a la memoria 101 de reordenacion de una forma imagen a imagen en el orden de visualizacion, por ejemplo. Cuando las imagenes se introducen a la memoria 101 de reordenacion, la unidad 110 de control de codificacion reordena las imagenes introducidas a la memoria 101 de reordenacion en el orden de codificacion. Las imagenes se reordenan basandose en las relaciones
5
10
15
20
25
30
35
40
45
50
de referencia en codificacion de prediccion entre imagenes y, mas espedficamente, las imagenes se reordenan de manera que las imagenes usadas como imagenes de referencia se codifican antes que las imagenes que usan las imagenes de referencia.
Aqrn, se supone que una imagen P hace referencia a una imagen I o P procesada previamente colindante que se situa antes o despues que la imagen P actual en el orden de visualizacion y una imagen B hace referencia a dos imagenes procesadas previamente colindantes que se situan antes o despues que la imagen B actual en el orden de visualizacion.
Las imagenes se codifican en el siguiente orden. Primero, se codifica una imagen B en el centro de las imagenes B (3 imagenes B en la Figura 6A, por ejemplo) situada entre dos imagenes P y entonces se codifica otra imagen B mas cercana a la imagen P anterior. Por ejemplo, las imagenes B6, B7, B8 y P9 se codifican en el orden de P9, B7, B6 y B8.
En este caso, en la Figura 6A, la imagen apuntada por la flecha hace referencia a la imagen en el origen de la flecha. Espedficamente, la imagen B B7 hace referencia a imagenes P P5 y P9, B6 hace referencia a P5 y B7 y B8 hace referencia a B7 y P9, respectivamente. La unidad 110 de control de codificacion reordena las imagenes en el orden codificacion, como se muestra en la Figura 6B.
A continuacion, las imagenes reordenadas en la memoria 101 de reordenacion se leen en una unidad para cada compensacion de movimiento. Aqrn, la unidad de compensacion de movimiento se denomina como un macrobloque que tiene un tamano de 16 (horizontales) x 16 (verticales) pfxeles. La codificacion de las imagenes P9, B7, B6 y B8 mostrada en la Figura 6A se explicara mas adelante en este orden.
(Codificacion de imagen P9)
La imagen P P9 se codifica usando prediccion entre imagenes con referencia a una imagen procesada previamente situada antes o despues que P9 en el orden de visualizacion. En la codificacion de P9, la imagen P5 es la imagen de referencia, como se menciono anteriormente. P5 ya se ha codificado y la imagen decodificada de la misma se almacena en la memoria 107 de imagenes de referencia. En la codificacion de imagenes P, la unidad 110 de control de codificacion controla los conmutadores 113, 114 y 115 para que se ACTIVEN. Los macrobloques en la imagen P9 lefdos desde la memoria 101 de reordenacion se introducen de esta manera a la unidad 108 de estimacion de vectores de movimiento, la unidad 109 de seleccion de modo y la unidad 102 de calculo de diferencia en este orden.
La unidad 108 de estimacion de vectores de movimiento estima un vector de movimiento de un macrobloque en la imagen P9, usando los datos de imagen decodificados de la imagen P5 almacenada en la memoria 107 de imagenes de referencia como una imagen de referencia y emite el vector de movimiento estimado a la unidad 109 de seleccion de modo.
La unidad 109 de seleccion de modo determina el modo para codificar el macrobloque en la imagen P9 usando el vector de movimiento estimado por la unidad 108 de estimacion de vectores de movimiento. Aqrn, el modo de codificacion indica el procedimiento de codificacion de macrobloques. En cuanto a las imagenes P, se determina cualquiera de los procedimientos de codificacion, codificacion intra imagen, codificacion de prediccion entre imagenes usando un vector de movimiento y codificacion de prediccion entre imagenes sin usar un vector de movimiento (donde el movimiento se maneja como “0”). Para determinar un modo de codificacion, se selecciona un procedimiento de manera que se reduce un error de codificacion con una cantidad pequena de bits.
La unidad 109 de seleccion de modo emite el modo de codificacion determinado a la unidad 104 de generacion de secuencia de bits. Si el modo de codificacion determinado por la unidad 109 de seleccion de modo es codificacion de prediccion entre imagenes, el vector de movimiento que ha de usarse para la codificacion de prediccion entre imagenes se emite a la unidad 104 de generacion de secuencia de bits y ademas se almacena en la unidad 116 de almacenamiento de vectores de movimiento.
La unidad 109 de seleccion de modo genera datos de imagen predictiva basados en el modo de codificacion determinado para generacion a la unidad 102 de calculo de diferencia y a la unidad 106 de adicion. No obstante, cuando se selecciona codificacion intra imagen, la unidad 109 de seleccion de modo no emite datos de imagen predictiva. Ademas, cuando se selecciona codificacion intra imagen, la unidad 109 de seleccion de modo controla los conmutadores 111 y 112 para conectar al lado “a” y al lado “c” respectivamente, y cuando se selecciona codificacion de prediccion entre imagenes, los controla para conectar al lado “b” y al lado “d” respectivamente. El caso se explicara mas adelante donde la unidad 109 de seleccion de modo selecciona codificacion de prediccion entre imagenes.
5
10
15
20
25
30
35
40
45
50
55
La unidad 102 de calculo de diferencia recibe los datos de imagen del macrobloque en la imagen P9 lefdos de la memoria 101 de reordenacion y los datos de imagen predictiva emitidos desde la unidad 109 de seleccion de modo. La unidad 102 de calculo de diferencia calcula la diferencia entre los datos de imagen del macrobloque en la imagen P9 y los datos de imagen predictiva y genera los datos de imagen de error residual para emitir a la unidad 103 de codificacion de error residual.
La unidad 103 de codificacion de error residual realiza el procesamiento de codificacion tal como transformacion de frecuencia y cuantificacion sobre los datos de imagen de error residual introducidos y de esta manera genera los datos codificados para emitir a la unidad 104 de generacion de secuencia de bits y a la unidad 105 de decodificacion de error residual. Aqm, el procesamiento de codificacion tal como transformacion de frecuencia y cuantificacion se realiza en cada 8 (horizontales) x 8 (verticales) pfxeles o 4 (horizontales) x 4 (verticales) pfxeles, por ejemplo.
La unidad 104 de generacion de secuencia de bits realiza codificacion de longitud variable o similar sobre los datos codificados introducidos y ademas anade informacion tal como vectores de movimiento y un modo de codificacion, informacion de cabecera y asf sucesivamente, a los datos codificados para generar y emitir el secuencia de bits.
Por otra parte, la unidad 105 de decodificacion de error residual realiza el procesamiento de decodificacion tal como cuantificacion inversa y transformacion de frecuencia inversa sobre los datos codificados introducidos y genera los datos de imagen diferencial decodificados para emitir a la unidad 106 de adicion. La unidad 106 de adicion anade los datos de imagen diferencial decodificados y los datos de imagen predictivos introducidos por la unidad 109 de seleccion de modo para generar los datos de imagen decodificados y los almacena en la memoria 107 de imagenes de referencia.
Esa es la terminacion de la codificacion de un macrobloque en la imagen P9. Segun el mismo procesamiento, se codifican los macrobloques restantes de la imagen P9. Y despues de que se codifican todos los macrobloques de la imagen P9, se codifica la imagen B7.
(Codificacion de imagen B7)
La imagen B7 hace referencia a la imagen P5 como una imagen de referencia hacia delante y a la imagen P9 como una imagen de referencia hacia atras. Dado que la imagen B7 se usa como una imagen de referencia para codificar otras imagenes, la unidad 110 de control de codificacion controla los conmutadores 113, 114 y 115 para que se ACTIVEN, lo cual hace que los macrobloques en la imagen B7 lefdos de la memoria 101 de reordenacion se introduzcan a la unidad 108 de estimacion de vectores de movimiento, la unidad 109 de seleccion de modo y la unidad 102 de calculo de diferencia.
Usando los datos de imagen decodificados de la imagen P5 y los datos de imagen decodificados de la imagen P9 que estan almacenados en la memoria 107 de imagenes de referencia como una imagen de referencia hacia delante y una imagen de referencia hacia atras respectivamente, la unidad 108 de estimacion de vectores de movimiento estima un vector de movimiento hacia delante y un vector de movimiento hacia atras del macrobloque en la imagen B7. Y la unidad 108 de estimacion de vectores de movimiento emite los vectores de movimiento estimados a la unidad 109 de seleccion de modo.
La unidad 109 de seleccion de modo determina el modo de codificacion para el macrobloque en la imagen B7 usando los vectores de movimiento estimados por la unidad 108 de estimacion de vectores de movimiento. Aqm, se supone que se puede seleccionar un modo de codificacion para imagenes B de entre codificacion intra imagen, codificacion de prediccion entre imagenes que usa un vector de movimiento hacia delante, codificacion de prediccion entre imagenes que usa un vector de movimiento hacia atras, codificacion de prediccion entre imagenes que usa vectores de movimiento bi-predictivos y modo directo.
La operacion de codificacion de modo directo se explicara con referencia a la Figura 7A. La Figura 7A es una ilustracion que muestra vectores de movimiento en modo directo y muestra espedficamente el caso donde el bloque a en la imagen B7 se codifica en modo directo. En este caso, se utiliza un vector de movimiento c, que se ha usado para codificar el bloque b en la imagen P9. El bloque b se situa conjuntamente con el bloque a y la imagen P9 es una imagen de referencia hacia atras de la imagen B7. El vector de movimiento c se almacena en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras P9 usando los vectores obtenidos utilizando el vector de movimiento c. Por ejemplo, como un procedimiento de utilizacion del vector de movimiento c, hay un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c. En este caso, el vector de movimiento d y el vector de movimiento e se usan para la imagen P5 y la imagen P9 respectivamente para codificar el bloque a.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atras e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atras P9 para la imagen actual B7 y la imagen P5 a la cual hace referencia el bloque en la imagen de referencia hacia atras P9 es TRD y la distancia temporal entre la imagen actual B7 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2. Observese que la distancia temporal entre las imagenes se puede determinar basandose en la
5
10
15
20
25
30
35
40
45
50
55
informacion que indica el orden de visualizacion (posicion) dado a las imagenes respectivas o la diferencia especificada por la informacion.
MVF = MV x TRF / TRD........ Ecuacion 1
MVB = (TRF -TRD) x MV / TRD........ Ecuacion 2
donde MVF y MVB representan respectivamente componentes horizontales y componentes verticales de los vectores de movimiento y los signos mas y menos indican direcciones de los vectores de movimiento.
A proposito, en cuanto a la seleccion de un modo de codificacion, se selecciona generalmente un procedimiento para reducir el error de codificacion con una cantidad mas pequena de bits. La unidad 109 de seleccion de modo emite el modo de codificacion determinado a la unidad 104 de generacion de secuencia de bits. Si el modo de codificacion determinado por la unidad 109 de seleccion de modo es codificacion de prediccion entre imagenes, los vectores de movimiento usados para la codificacion de prediccion entre imagenes se emiten a la unidad 104 de generacion de secuencia de bits y se almacenan ademas en la unidad 116 de almacenamiento de vectores de movimiento. Cuando se selecciona el modo directo, los vectores de movimiento que se calculan segun la Ecuacion 1 y la Ecuacion 2 y se usan para modo directo se almacenan en la unidad 116 de almacenamiento de vectores de movimiento.
La unidad 109 de seleccion de modo tambien genera datos de imagen predictiva basados en el modo de codificacion determinado para emitir a la unidad 102 de calculo de diferencia y a la unidad 106 de adicion, aunque no emite los datos de imagen predictiva si selecciona la codificacion intra imagen. Ademas, cuando se selecciona la codificacion intra imagen, la unidad 109 de seleccion de modo controla los conmutadores 111 y 112 para conectar al lado “a” y al lado “c” respectivamente y cuando se selecciona la codificacion de prediccion entre imagenes o modo directo, controla los conmutadores 111 y 112 para conectar al lado “b” y al lado “d” respectivamente. El caso se explicara mas adelante donde la unidad 109 de seleccion de modo selecciona la codificacion de prediccion entre imagenes o el modo directo.
La unidad 102 de calculo de diferencia recibe los datos de imagen del macrobloque de la imagen B7 lefdos desde la memoria 101 de reordenacion y los datos de imagen predictiva emitidos de la unidad 109 de seleccion de modo. La unidad 102 de calculo de diferencia calcula la diferencia entre los datos de imagen del macrobloque de la imagen B7 y los datos de imagen predictiva y genera los datos de imagen de error residual para emitir a la unidad 103 de codificacion de error residual.
La unidad 103 de codificacion de error residual realiza procesamiento de codificacion tal como transformacion de frecuencia y cuantificacion sobre los datos de imagen de error residual introducidos y de esta manera genera los datos codificados para emitir a la unidad 104 de generacion de secuencia de bits y la unidad 105 de decodificacion de error residual.
La unidad 104 de generacion de secuencia de bits realiza codificacion de longitud variable o similar sobre los datos codificados introducidos y ademas anade informacion tal como vectores de movimiento y un modo de codificacion y asf sucesivamente, a esos datos para generar y emitir un secuencia de bits.
Por otra parte, la unidad 105 de decodificacion de error residual realiza el procesamiento de decodificacion tal como cuantificacion inversa y transformacion de frecuencia inversa sobre los datos codificados introducidos y genera los datos de imagen diferencial decodificados para emitir a la unidad 106 de adicion. La unidad 106 de adicion anade los datos de imagen diferencial decodificados y los datos de imagen predictiva introducidos por la unidad 109 de seleccion de modo para generar los datos de imagen decodificada y los almacena en la memoria 107 de imagenes de referencia.
Esa es la terminacion de codificacion de un macrobloque en la imagen B7. Segun el mismo procesamiento, se codifican los restantes macrobloques en la imagen B7. Y despues de que se codifican todos los macrobloques de la imagen B7, se codifica la imagen B6.
(Codificacion de imagen B6)
Dado que la imagen B6 es una imagen B, B6 se codifica usando prediccion entre imagenes con referencia a dos imagenes procesadas previamente antes o despues de B6 en el orden de visualizacion. La imagen B B6 hace referencia a la imagen P5 como una imagen de referencia hacia delante y a la imagen B7 como una imagen de referencia hacia atras, como se describio anteriormente. Dado que la imagen B6 no se usa como una imagen de referencia para codificar otras imagenes, la unidad 110 de control de codificacion controla el conmutador 113 para que se ACTIVE y los conmutadores 114 y 115 para que se DESACTIVEN, lo cual hace que el macrobloque de la imagen B6 lefdo de la memoria 101 de reordenacion se introduzca a la unidad 108 de estimacion de vectores de movimiento, la unidad 109 de seleccion de modo y la unidad 102 de calculo de diferencia.
Usando los datos de imagen decodificados de la imagen P5 y los datos de imagen decodificados de la imagen B7 que estan almacenados en la memoria 107 de imagenes de referencia como una imagen de referencia hacia delante
5
10
15
20
25
30
35
40
45
50
55
60
y una imagen de referencia hacia atras, respectivamente, la unidad 108 de estimacion de vectores de movimiento estima el vector de movimiento hacia delante y el vector de movimiento hacia atras para el macrobloque en la imagen B6. Y la unidad 108 de estimacion de vectores de movimiento emite los vectores de movimiento estimados a la unidad 109 de seleccion de modo.
La unidad 109 de seleccion de modo determina el modo de codificacion para el macrobloque en la imagen B6 usando los vectores de movimiento estimados por la unidad 108 de estimacion de vectores de movimiento.
Aqrn, el primer ejemplo de operacion de codificacion de modo directo para el macrobloque en la imagen B6 se explicara con referencia a la Figura 7B. La Figura 7B es una ilustracion que muestra vectores de movimiento en modo directo y espedficamente que muestra el caso donde el bloque a en la imagen B6 se codifica en modo directo. En este caso, se utiliza un vector de movimiento c, que se ha usado para codificar un bloque b en la imagen B7. El bloque b esta situado conjuntamente con el bloque a y la imagen B7 es una imagen de referencia hacia atras de la imagen B6. Aqrn, se supone que el bloque b se codifica por referencia hacia delante solamente o referencia bi- predictiva y el vector de movimiento hacia delante del bloque b es el vector de movimiento c. Tambien se supone que el vector de movimiento c se almacena en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras B7 usando vectores de movimiento generados utilizando el vector de movimiento c. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c, como es el caso de la imagen B7 antes mencionada, el vector de movimiento d y el vector de movimiento e se usan para la imagen P5 y la imagen B7 respectivamente para codificar el bloque a.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atras e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atras B7 para la imagen actual B6 y la imagen P5 a la que hace referencia el bloque b en la imagen de referencia hacia atras B7 es TRD y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF, respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2 antes mencionadas. Observese que la distancia temporal entre las imagenes se puede determinar basandose en la informacion que indica el orden de visualizacion de las imagenes o la diferencia especificada por la informacion, por ejemplo.
Como se describio anteriormente, en modo directo, escalando el vector de movimiento hacia delante o una imagen B de referencia hacia atras, no hay necesidad de transmitir informacion de vector de movimiento y se puede mejorar la eficacia de prediccion de movimiento. Por consiguiente, se puede mejorar la eficacia de codificacion. Ademas, usando imagenes de referencia mas cercanas temporalmente disponibles en el orden de visualizacion como una imagen de referencia hacia delante y una imagen de referencia hacia atras, se puede aumentar la eficacia de codificacion.
A continuacion, el segundo ejemplo de modo directo se explicara con referencia a la Figura 7B. En este caso, se utiliza el vector de movimiento, que se ha usado para codificar el bloque b en la imagen B7. El bloque b esta situado conjuntamente con el bloque a y la imagen B7 es una imagen de referencia hacia atras para la imagen B6. Aqrn, se supone que el bloque b se ha codificado en modo directo y el vector de movimiento hacia delante que se ha usado sustancialmente para codificar el bloque b es el vector de movimiento c. Espedficamente, el vector de movimiento c se obtiene escalando el vector de movimiento usado para codificar un bloque i, situado conjuntamente con el bloque b, en la imagen P9 que es la imagen de referencia hacia atras para la imagen B7. Se usa el vector de movimiento c almacenado en la unidad 116 de almacenamiento de vectores de movimiento o se obtiene el vector de movimiento c leyendo desde la unidad 116 de almacenamiento de vectores de movimiento el vector de movimiento del bloque i en la imagen P9 que se ha usado para codificar el bloque b en modo directo y calcular basandose en ese vector de movimiento. Cuando el vector de movimiento que se obtiene escalando para codificar el bloque b en la imagen B7 en modo directo se almacena en la unidad 116 de almacenamiento de vectores de movimiento, solamente necesita almacenarse el vector de movimiento hacia delante. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras B7 usando los vectores de movimiento generados utilizando el vector de movimiento c. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c, como es el caso del primer ejemplo antes mencionado, los vectores de movimiento usados para codificar el bloque a son el vector de movimiento d y el vector de movimiento e para la imagen P5 y la imagen B7 respectivamente.
En este caso, el vector de movimiento hacia delante d MVF y el vector de movimiento hacia atras e MVB del bloque a se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2 antes mencionadas, como en el caso del primer ejemplo.
Como se describio anteriormente, en modo directo, dado que se escala el vector de movimiento hacia delante de una imagen B de referencia hacia atras que se ha usado sustancialmente para codificar la imagen B en modo directo, no hay necesidad de transmitir informacion de vector de movimiento y se puede mejorar la eficacia de prediccion de movimiento incluso si el bloque situado conjuntamente en la imagen de referencia hacia atras se ha codificado en modo directo. Por consiguiente, se puede mejorar la eficacia de codificacion. Ademas, usando imagenes de referencia que son las mas cercanas temporalmente disponibles en el orden de visualizacion como una
5
10
15
20
25
30
35
40
45
50
55
imagen de referencia hacia delante y una imagen de referencia hacia atras, se puede aumentar la eficacia de codificacion.
A continuacion, el tercer ejemplo de modo directo se explicara con referencia a la Figura 7C. La Figura 7C es una ilustracion que muestra vectores de movimiento en modo directo y que muestra espedficamente el caso donde el bloque a en la imagen B6 se codifica en modo directo. En este caso, se utiliza el vector de movimiento que se ha usado para codificar el bloque b en la imagen B7. La imagen B7 es una imagen de referencia hacia atras para la imagen B6 y el bloque b en la imagen B7 esta situado conjuntamente con el bloque a en la imagen B6. Aqm, se supone que el bloque b se ha codificado usando un vector de movimiento hacia atras solamente y el vector de movimiento hacia atras usado para codificar el bloque b es un vector de movimiento f. Espedficamente, el vector de movimiento f se supone que esta almacenado en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras B7 usando los vectores de movimiento generados utilizando el vector de movimiento f. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento f, como es el caso del primer ejemplo antes mencionado, los vectores de movimiento usados para codificar el bloque a son el vector de movimiento g y el vector de movimiento h para la imagen P5 y la imagen B7 respectivamente.
En este caso, donde el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atras h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atras B7 para la imagen actual B6 y la imagen P9 a la que hace referencia el bloque en la imagen de referencia hacia atras B7 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atras B7 es TRB respectivamente, el vector de movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la Ecuacion 3 y la Ecuacion 4.
MVF = -TRF x MV / TRD........ Ecuacion 3
MVB = TRB x MV / TRD........ Ecuacion 4
Como se describio anteriormente, en modo directo, dado que el vector de movimiento hacia atras de un bloque situado conjuntamente en una imagen B de referencia hacia atras que se ha usado para codificar el bloque se escala, no hay necesidad de transmitir informacion de vector de movimiento y la eficacia de prediccion de movimiento se puede mejorar incluso si el bloque situado conjuntamente en la imagen de referencia hacia atras tiene solamente el vector de movimiento hacia atras. Por consiguiente, se puede mejorar la eficacia de codificacion. Ademas, usando las imagenes de referencia que son las mas cercanas temporalmente disponibles en el orden de visualizacion como una imagen de referencia hacia delante y una imagen de referencia hacia atras, se puede mejorar la eficacia de codificacion.
A continuacion, el cuarto ejemplo de modo directo se explicara con referencia a la Figura 7D. La Figura 7D es una ilustracion que muestra vectores de movimiento en modo directo y que muestra espedficamente el caso donde el bloque a en la imagen B6 se codifica en modo directo. En este caso, se utiliza el vector de movimiento que se ha usado para codificar el bloque b en la imagen B7. La imagen B7 es la imagen de referencia hacia atras para la imagen B6 y el bloque b se situa conjuntamente con el bloque a en la imagen B6. Aqm, se supone que el bloque b se ha codificado usando el vector de movimiento hacia atras solamente, como es el caso del tercer ejemplo y el vector de movimiento hacia atras usado para codificar el bloque b es el vector de movimiento f. Espedficamente, el vector de movimiento f se supone que se almacena en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia P9 que se hace referencia por el vector de movimiento f y la imagen de referencia hacia atras B7 usando vectores de movimiento generados utilizando el vector de movimiento f. Por ejemplo si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento f, como es el caso del primer ejemplo antes mencionado, los vectores de movimiento usados para codificar el bloque a son el vector de movimiento g y el vector de movimiento h para la imagen P9 y la imagen B7 respectivamente.
En este caso, donde el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atras h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atras B7 para la imagen actual B6 y la imagen P9 a la que hace referencia el bloque en la imagen de referencia hacia atras B7 es TRD y la distancia temporal entre la imagen actual B6 y la imagen P9 a la que hace referencia el bloque b en la imagen de referencia hacia atras B7 es TRF respectivamente, el vector de movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2.
Como se describio anteriormente, en modo directo, escalando el vector de movimiento hacia atras de un bloque situado conjuntamente en una imagen B de referencia hacia atras que se ha usado para codificar el bloque, no hay necesidad de transmitir informacion de vector de movimiento y se puede mejorar la eficacia de prediccion de movimiento incluso si el bloque situado conjuntamente en la imagen de referencia hacia atras tiene solamente el vector de movimiento hacia atras. Por consiguiente, se puede mejorar la eficacia de codificacion. Ademas, usando una imagen referida por el vector de movimiento hacia atras como una imagen de referencia hacia delante y una imagen de referencia que es la mas cercana temporalmente disponible en orden de visualizacion como una imagen de referencia hacia atras, se puede aumentar la eficacia de codificacion.
5
10
15
20
25
30
35
40
45
50
55
A continuacion, un quinto ejemplo del modo directo se explicara con referencia a la Figura 8A. La Figura 8A es una ilustracion que muestra vectores de movimiento en modo directo y que muestra espedficamente el caso donde el bloque a de la imagen B6 se codifica en modo directo. En este caso, bajo la suposicion de que el valor de los vectores de movimiento es “0”, se realiza una referencia bi-predictiva para compensacion de movimiento, usando la imagen P5 como una imagen de referencia hacia delante y la imagen B7 como una imagen de referencia hacia atras.
Como se menciono anteriormente, forzando el vector de movimiento “0” en modo directo, cuando se selecciona el modo directo, no hay necesidad de transmitir informacion de vector de movimiento ni escalar el vector de movimiento y, de esta manera, se puede reducir el volumen de procesamiento.
A continuacion, el sexto ejemplo del modo directo se explicara con referencia a la Figura 8B. La Figura 8B es una ilustracion que muestra vectores de movimiento en modo directo y que muestra espedficamente el caso donde el bloque a en la imagen B6 se codifica en modo directo. En este caso, se utiliza el vector de movimiento g que se ha usado para codificar el bloque f en la imagen P9. La imagen P9 se situa despues de la imagen B6 y el bloque f se situa conjuntamente con el bloque a en la imagen B6. El vector de movimiento g se almacena en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras B7 usando vectores de movimiento generados utilizando el vector de movimiento g. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo antes mencionado, los vectores de movimiento usados para codificar el bloque a son el vector de movimiento h y el vector de movimiento i para la imagen P5 y la imagen B7 respectivamente para codificar el bloque a.
En este caso, donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atras i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen P9 que se situa despues en orden de visualizacion de la imagen actual B6 y la imagen P5 a la que hace referencia el bloque f en la imagen P9 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atras B7 es TRB respectivamente, el vector de movimiento h MVF y el vector de movimiento i MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 5.
MVB = -TRF x MV / TRD........ Ecuacion 5
Como se describio anteriormente, en modo directo, escalando el vector de movimiento de la imagen P que se situa despues en orden de visualizacion, no hay necesidad de almacenar el vector de movimiento de una imagen B si la imagen B es la imagen de referencia hacia atras y tampoco hay necesidad de transmitir la informacion de vector de movimiento. Ademas, usando imagenes de referencia que son las mas cercanas temporalmente en orden de visualizacion como una imagen de referencia hacia delante y una imagen de referencia hacia atras, se puede aumentar la eficacia de codificacion.
A continuacion, el septimo ejemplo del modo directo se explicara con referencia a la Figura 8C. La Figura 8C es una ilustracion que muestra vectores de movimiento en modo directo y que muestra espedficamente el caso donde el bloque a en la imagen B6 se codifica en modo directo. Este ejemplo muestra el caso donde la asignacion antes mencionada de indices relativos a los numeros de imagen se cambia (reasigna) y la imagen P9 es una imagen de referencia hacia atras. En este caso, se utiliza el vector de movimiento g que se ha usado para codificar el bloque f en la imagen P9. La imagen P9 es la imagen de referencia hacia atras para la imagen B7 y el bloque f se situa conjuntamente con el bloque a en la imagen B6. El vector de movimiento g se almacena en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras P9 usando vectores de movimiento generados utilizando el vector de movimiento g. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo antes mencionado, los vectores de movimiento usados para codificar el bloque a son el vector de movimiento h y el vector de movimiento i para la imagen P5 y la imagen P9 respectivamente.
En este caso, donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atras i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen de referencia hacia atras P9 para la imagen actual B6 y la imagen P5 a la que hace referencia el bloque f en la imagen P9 es TRD y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento h MVF y el vector de movimiento i MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2.
Como se describio anteriormente, en modo directo, se puede escalar el vector de movimiento de la imagen codificada previamente incluso si los indices relativos a los numeros de imagen se reasignan, y cuando se selecciona el modo directo, no hay necesidad de transmitir la informacion de vector de movimiento.
Cuando el bloque a en la imagen B6 se codifica en modo directo, el bloque en la imagen de referencia hacia atras para la imagen B6 que se situa conjuntamente con el bloque a se codifica por la referencia hacia delante solamente, referencia bi-predictiva o modo directo. Y cuando un vector de movimiento hacia delante se ha usado para esta codificacion, este vector de movimiento hacia delante se escala y el bloque a se codifica en modo directo, como es
5
10
15
20
25
30
35
40
45
50
55
el caso del primer, segundo o septimo ejemplo antes mencionado. Por otra parte, cuando el bloque situado conjuntamente con el bloque a se ha codificado por la referencia hacia atras solamente usando un vector de movimiento hacia atras, este vector de movimiento hacia atras se escala y el bloque a se codifica en modo directo, como es el caso del tercer o cuarto ejemplo antes mencionado.
El modo directo antes mencionado es aplicable no solamente al caso donde un intervalo de tiempo entre imagenes es fijo sino tambien al caso donde es variable.
La unidad 109 de seleccion de modo emite el modo de codificacion determinado a la unidad 104 de generacion de secuencia de bits. Tambien, la unidad 109 de seleccion de modo genera datos de imagen predictiva basados en el modo de codificacion determinado y los emite a la unidad 102 de calculo de diferencia. No obstante, si se selecciona codificacion intra imagen, la unidad 109 de seleccion de modo no emite datos de imagen predictiva. La unidad 109 de seleccion de modo controla los conmutadores 111 y 112 para que se conecten al lado “a” y al lado “c” respectivamente si se selecciona codificacion intra imagen y controla los conmutadores 111 y 112 para que se conecten al lado “b” y al lado “d” si se selecciona codificacion de prediccion entre imagenes o un modo directo. Si el modo de codificacion determinado es codificacion de prediccion entre imagenes, la unidad 109 de seleccion de modo emite los vectores de movimiento usados para la codificacion de prediccion entre imagenes a la unidad 104 de generacion de secuencia de bits. Dado que la imagen B6 no se usa para una imagen de referencia para codificar otras imagenes, no hay necesidad de almacenar los vectores de movimiento usados para la codificacion de prediccion entre imagenes en la unidad 116 de almacenamiento de vectores de movimiento. El caso se explicara mas adelante donde la unidad 109 de seleccion de modo selecciona la codificacion de prediccion entre imagenes o el modo directo.
La unidad 102 de calculo de diferencia recibe los datos de imagen del macrobloque en la imagen B6 lefda de la memoria 101 de reordenacion y los datos de imagen predictiva emitidos de la unidad 109 de seleccion de modo. La unidad 102 de calculo de diferencia calcula la diferencia entre los datos de imagen del macrobloque en la imagen B6 y los datos de imagen predictiva y genera los datos de imagen de error residual para emitir a la unidad 103 de codificacion de error residual. La unidad 103 de codificacion de error residual realiza procesamiento de codificacion tal como transformacion de frecuencia y cuantificacion sobre los datos de imagen de error residual introducidos y, de esta manera, genera los datos codificados para emitir a la unidad 104 de generacion de secuencia de bits.
La unidad 104 de generacion de secuencia de bits realiza codificacion de longitud variable o similar sobre los datos codificados introducidos, ademas anade informacion tal como vectores de movimiento y un modo de codificacion y asf sucesivamente, a los datos y genera el secuencia de bits para emitir.
Esa es la terminacion de la codificacion de un macrobloque en la imagen B6. Segun el mismo procesamiento, se codifican los macrobloques restantes en la imagen B6. Y despues de que se codifican todos los macrobloques en la imagen B6, se codifica la imagen B8.
(Codificacion de imagen B8)
Dado que una imagen B8 es una imagen B, se realiza codificacion de prediccion entre imagenes para la imagen B8 con referencia a dos imagenes procesadas previamente situadas antes o despues de B6 en orden de visualizacion. La imagen B B8 hace referencia a la imagen B7 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atras, como se describio anteriormente. Dado que la imagen B8 no se usa como una imagen de referencia para codificar otras imagenes, la unidad 110 de control de codificacion controla que el conmutador 113 para que se ACTIVE y que los conmutadores 114 y 115 se DESACTIVEN, lo cual hace que los macrobloques en la imagen B8 lefdos desde la memoria 101 de reordenacion se introduzcan a la unidad 108 de estimacion de vectores de movimiento, la unidad 109 de seleccion de modo y la unidad 102 de calculo de diferencia.
Usando los datos de imagen decodificados de la imagen B7 y los datos de imagen decodificados de la imagen P9 que estan almacenados en la memoria 107 de imagenes de referencia como una imagen de referencia hacia delante y una imagen de referencia hacia atras respectivamente, la unidad 108 de estimacion de vectores de movimiento estima el vector de movimiento hacia delante y el vector de movimiento hacia atras para el macrobloque en la imagen B8. Y la unidad 108 de estimacion de vectores de movimiento emite los vectores de movimiento estimados a la unidad 109 de seleccion de modo.
La unidad 109 de seleccion de modo determina el modo de codificacion para el macrobloque en la imagen B8 usando los vectores de movimiento estimados por la unidad 108 de estimacion de vectores de movimiento.
Aqm, el caso donde el macrobloque en la imagen B8 se codifica usando el modo directo se explicara con referencia a la Figura 8D. La Figura 8D es una ilustracion que muestra vectores de movimiento en modo directo y que muestra espedficamente el caso donde un bloque a en la imagen B8 se codifica en modo directo. En este caso, se utiliza un vector de movimiento c que se ha usado para codificar un bloque b en la imagen hacia atras P9. La imagen de referencia P9 se situa despues de la imagen B8 y el bloque b en la imagen P9 se situa conjuntamente con el bloque a. Aqm, se supone que el bloque b se ha codificado por la referencia hacia delante y el vector de movimiento hacia delante para el bloque b es el vector de movimiento c. El vector de movimiento c se almacena en la unidad 116 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia
5
10
15
20
25
30
35
40
45
50
55
delante B7 y la imagen de referencia hacia atras P9 usando vectores de movimiento generados utilizando el vector de movimiento c. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c, como es el caso de la imagen B6 antes mencionada, el vector de movimiento d y el vector de movimiento e se usan para la imagen B7 y la imagen P9 respectivamente para codificar el bloque a.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atras e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atras P9 para la imagen actual B8 y la imagen P5 a la que hace referencia el bloque b en la imagen de referencia hacia atras P9 es TRD, la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia delante B7 es TRF y la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia atras P9 es TRB respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y Ecuacion 5.
Como se describio anteriormente, en modo directo, escalando el vector de movimiento hacia delante de la imagen de referencia hacia atras, cuando se selecciona el modo directo, no hay necesidad de transmitir la informacion de vector de movimiento y se puede mejorar la eficacia de prediccion de movimiento. Por consiguiente, se puede mejorar la eficacia de codificacion. Ademas, usando imagenes de referencia que son las mas cercanas temporalmente disponibles en orden de visualizacion como imagenes de referencia hacia delante y hacia atras, se puede aumentar la eficacia de codificacion.
El modo directo antes mencionado es aplicable no solamente al caso donde un intervalo de tiempo entre imagenes es fijo sino tambien al caso donde es variable.
La unidad 109 de seleccion de modo emite el modo de codificacion determinado a la unidad 104 de generacion de secuencia de bits. Tambien, la unidad 109 de seleccion de modo genera datos de imagen predictiva basados en el modo de codificacion determinado y los emite a la unidad 102 de calculo de diferencia. No obstante, si se selecciona codificacion intra imagen, la unidad 109 de seleccion de modo no emite datos de imagen predictiva. La unidad 109 de seleccion de modo controla los conmutadores 111 y 112 para que se conecten al lado “a” y al lado “c” respectivamente si se selecciona codificacion intra imagen y controla los conmutadores 111 y 112 para que se conecten al lado “b” y al lado “d” si se selecciona codificacion de prediccion entre imagenes o modo directo. Si el modo de codificacion determinado es codificacion de prediccion entre imagenes, la unidad 109 de seleccion de modo emite los vectores de movimiento usados para la codificacion de prediccion entre imagenes a la unidad 104 de generacion de secuencia de bits. Dado que la imagen B8 no ha de ser usada como una imagen de referencia para codificar otras imagenes, no hay necesidad de almacenar los vectores de movimiento usados para la codificacion de prediccion entre imagenes en la unidad 116 de almacenamiento de vectores de movimiento. El caso se explicara mas adelante donde la unidad 109 de seleccion de modo selecciona la codificacion de prediccion entre imagenes o modo directo.
La unidad 102 de calculo de diferencia recibe los datos de imagen del macrobloque en la imagen B8 lefdos desde la memoria 101 de reordenacion y los datos de imagen predictiva emitidos de la unidad 109 de seleccion de modo. La unidad 102 de calculo de diferencia calcula la diferencia entre los datos de imagen del macrobloque en la imagen B8 y los datos de imagen predictiva y genera los datos de imagen de error residual para emitir a la unidad 103 de codificacion de error residual. La unidad 103 de codificacion de error residual realiza procesamiento de codificacion tal como transformacion de frecuencia y cuantificacion sobre los datos de imagen de error residual introducidos y de esta manera genera los datos codificados para emitir a la unidad 104 de generacion de secuencia de bits.
La unidad 104 de generacion de secuencia de bits realiza codificacion de longitud variable o similar sobre los datos codificados introducidos, ademas anade informacion tal como vectores de movimiento y un modo de codificacion y asf sucesivamente, a los datos y genera el secuencia de bits para emitir.
Esa es la terminacion de la codificacion de un macrobloque en la imagen B8. Segun el mismo procesamiento, se codifican los restantes macrobloques en la imagen B8.
Segun los procedimientos de codificacion respectivos antes mencionados para las imagenes P9, B7, B6 y B8, otras imagenes se codifican dependiendo de sus tipos de imagen y ubicaciones temporales en orden de visualizacion.
En la realizacion antes mencionada, el procedimiento de codificacion de imagenes en movimiento segun la presente invencion se ha explicado tomando el caso donde se usa como ejemplo la estructura de prediccion de imagen que se muestra en la Figura 6A. La Figura 12 es una ilustracion que muestra esta estructura de prediccion de imagen jerarquicamente. En la Figura 12, las flechas indican relaciones de prediccion, en las cuales las imagenes apuntadas por las flechas hacen referencia a las imagenes situadas en los ongenes de las flechas. En la estructura de prediccion de imagen que se muestra en la Figura 6A, el orden de codificacion se determina dando una prioridad superior a las imagenes que estan mas alejadas de las imagenes procesadas previamente en orden de visualizacion, como se muestra en la Figura 12. Por ejemplo, la imagen mas alejada de una imagen I o una imagen P es la situada en el centro de las imagenes B consecutivas. Por lo tanto, si las imagenes P5 y P9 se han codificado, la imagen B7 ha de ser codificada a continuacion. Y si las imagenes P5, B7 y P9 se han codificado, las imagenes B6 y B8 han de ser codificadas a continuacion.
Ademas, el procedimiento de codificacion de imagenes en movimiento segun la presente invencion se puede usar
5
10
15
20
25
30
35
40
45
50
55
para otras estructuras de prediccion de imagen distintas de las que se muestran en la Figura 6 y la Figura 12, para producir los efectos de la presente invencion. Las Figuras 9~11 muestran los ejemplos de otras estructuras de prediccion de imagen.
La Figura 9 muestra el caso donde 3 imagenes B se situan entre imagenes I e imagenes P y la imagen B mas cercana de la imagen procesada previamente se selecciona para codificar primero. La Figura 9A es un diagrama que muestra relaciones de prediccion entre imagenes respectivas dispuestas en orden de visualizacion y la Figura 9B es un diagrama que muestra la secuencia de imagenes reordenadas en orden de codificacion (un secuencia de bits). La Figura 13 es un diagrama jerarquico de la estructura de prediccion de imagen que corresponde a la Figura 9A. En la estructura de prediccion de imagen que se muestra en la Figura 9A, se codifican primero las imagenes mas cercanas en orden de visualizacion de las imagenes procesadas previamente, como se muestra en la Figura 13. Por ejemplo, si las imagenes P5 y P9 se han codificado, las imagenes B6 y B8 han de ser codificadas a continuacion. Si las imagenes P5, B6, B8 y P9 se han codificado, la imagen B7 ha de ser codificada a continuacion.
La Figura 10 muestra el caso donde 5 imagenes B se situan entre imagenes I e imagenes P y la imagen B que es la mas alejada de la imagen procesada previamente se selecciona para codificar primero. La Figura 10A es un diagrama que muestra relaciones de prediccion entre imagenes respectivas dispuestas en orden de visualizacion y la Figura 10B es un diagrama que muestra la secuencia de imagenes reordenadas en orden de codificacion (un
secuencia de bits). La Figura 14 es un diagrama jerarquico de la estructura de prediccion de imagen que
corresponde a la Figura 10A. En la estructura de prediccion de imagen que se muestra en la Figura 10A, el orden de codificacion se determina dando una prioridad superior a las imagenes mas alejadas en orden de visualizacion de las imagenes procesadas previamente, como se muestra en la Figura 14. Por ejemplo, la imagen mas alejada de una imagen I o una imagen P es la imagen B en el centro de las imagenes B consecutivas. Por lo tanto, si las imagenes P7 y P13 se han codificado, la imagen B10 ha de ser codificada a continuacion. Si las imagenes P7, B10 y P13 se han codificado, las imagenes B8, B9, B11 y B12 han de ser codificadas a continuacion.
La Figura 11 muestra el caso donde 5 imagenes B se situan entre imagenes I e imagenes P y la imagen B que es la mas cercana de la imagen procesada previamente se selecciona para codificar primero. La Figura 11A es un diagrama que muestra relaciones de prediccion entre imagenes respectivas dispuestas en orden de visualizacion y la Figura 11B es un diagrama que muestra la secuencia de imagenes reordenadas en orden de codificacion (un
secuencia de bits). La Figura 15 es un diagrama jerarquico de la estructura de prediccion de imagen que
corresponde a la Figura 11A. En la estructura de prediccion de imagen que se muestra en la Figura 11A, las imagenes mas cercanas en orden de visualizacion de las imagenes procesadas previamente se codifican primero, como se muestra en la Figura 15. Por ejemplo, si las imagenes P5 y P9 se han codificado, las imagenes B8 y B12 han de ser codificadas a continuacion. Si las imagenes P5, B8, B12 y P9 se han codificado, las imagenes B9 y B11 han de ser codificadas a continuacion. Ademas, si las imagenes P5, B8, B9, B11, B12 y P9 se han codificado, la imagen B10 ha de ser codificada a continuacion.
Como se describio anteriormente, segun el procedimiento de codificacion de imagenes en movimiento de la presente invencion, cuando se realiza codificacion de prediccion entre imagenes sobre una pluralidad de imagenes B situadas entre imagenes I e imagenes P usando referencia bi-predictiva, se codifican en otro orden distinto del orden de visualizacion. Para ese fin, las imagenes situadas tan cerca a la imagen actual como sea posible en orden de visualizacion se usan como imagenes hacia delante y hacia atras. Como una imagen de referencia, una imagen B tambien se usa si esta disponible. Cuando una pluralidad de imagenes B situadas entre imagenes I e imagenes P se codifican en diferente orden del orden de visualizacion, la imagen mas alejada de la imagen procesada previamente ha de ser codificada primero. O, cuando una pluralidad de imagenes B situadas entre imagenes I e imagenes P se codifican en orden diferente del orden de visualizacion, la imagen mas cercana de la imagen procesada previamente ha de ser codificada primero.
Segun el procedimiento de codificacion de imagenes en movimiento de la presente invencion, la operacion antes mencionada permite usar una imagen mas cercana a una imagen B actual en orden de visualizacion como una imagen de referencia para codificarla. La eficacia de prediccion se aumenta de esta manera para compensacion de movimiento y se aumenta la eficacia de codificacion.
Ademas, segun el procedimiento de codificacion de imagenes en movimiento de la presente invencion, para codificar un bloque en una imagen B en modo directo con referencia a una imagen B codificada previamente como una imagen de referencia hacia atras, si el bloque situado conjuntamente en la imagen B de referencia hacia atras se ha codificado por referencia hacia delante o referencia bi-predictiva, un vector de movimiento obtenido escalando el vector de movimiento hacia delante de la imagen B de referencia hacia atras se usa como un vector de movimiento en modo directo.
Como se menciono anteriormente, en modo directo, escalando un vector de movimiento hacia delante de una imagen B de referencia hacia atras, no hay necesidad de transmitir informacion de vector de movimiento y se puede aumentar la eficacia de prediccion. Ademas, usando una imagen de referencia mas cercana temporalmente en orden de visualizacion como una imagen de referencia hacia delante, se puede aumentar la eficacia de codificacion.
O, si un bloque situado conjuntamente en una imagen B de referencia hacia atras se codifica en modo directo, un
5
10
15
20
25
30
35
40
45
50
55
vector de movimiento obtenido escalando el vector de movimiento hacia delante usado sustancialmente en modo directo se usa como un vector de movimiento en modo directo.
Como se menciono anteriormente, en modo directo, escalando un vector de movimiento hacia delante de una imagen B de referencia hacia atras que se ha usado sustancialmente para la codificacion de modo directo, no hay necesidad de transmitir informacion de vector de movimiento y se puede aumentar la eficacia de prediccion incluso si el bloque situado conjuntamente en la imagen de referencia hacia atras se codifica en modo directo. Ademas, se puede mejorar la eficacia de codificacion usando una imagen de referencia mas cercana temporalmente como una imagen de referencia hacia delante.
O, si un bloque situado conjuntamente en una imagen B de referencia hacia atras se codifica por referencia hacia atras, los vectores de movimiento obtenidos escalando el vector de movimiento hacia atras del bloque se usan como vectores de movimiento en modo directo.
Como se menciono anteriormente, en modo directo, escalando un vector de movimiento hacia atras que se ha usado para codificar un bloque situado conjuntamente en la imagen B de referencia hacia atras, no hay necesidad de transmitir informacion de vector de movimiento y se puede aumentar la eficacia de prediccion incluso si el bloque situado conjuntamente en la imagen de referencia hacia atras tiene solamente un vector de movimiento hacia atras. Ademas, usando una imagen de referencia mas cercana temporalmente como una imagen de referencia hacia delante, se puede mejorar la eficacia de codificacion.
O, si un bloque situado conjuntamente en una imagen B de referencia hacia atras se codifica por referencia hacia atras, los vectores de movimiento obtenidos escalando el vector de movimiento hacia atras usado para esa codificacion, con referencia a la imagen referida por este vector de movimiento hacia atras y la imagen de referencia hacia atras, se usan como vectores de movimiento en modo directo.
Como se menciono, en modo directo, escalando un vector de movimiento hacia atras que se ha usado para codificar un bloque situado conjuntamente en la imagen B de referencia hacia atras, no hay necesidad de transmitir informacion de vector de movimiento y se puede aumentar la eficacia de prediccion incluso si el bloque situado conjuntamente en la imagen de referencia hacia atras tiene solamente un vector de movimiento hacia atras. Por consiguiente, se puede mejorar la eficacia de codificacion. Ademas, usando una imagen referida por el vector de movimiento hacia atras como una imagen de referencia hacia delante y una imagen de referencia mas cercana temporalmente disponible en orden de visualizacion como una imagen de referencia hacia atras, se puede aumentar la eficacia de codificacion.
O, en modo directo, se usa un vector de movimiento que se fuerza a establecerse a “0”.
Forzando un vector de movimiento a establecerse a “0” en modo directo, cuando se selecciona el modo directo, no hay necesidad de transmitir la informacion de vector de movimiento ni escalar el vector de movimiento y por lo tanto se puede reducir el volumen de procesamiento.
Ademas, segun el procedimiento de codificacion de imagenes en movimiento de la presente invencion, para codificar un bloque en una imagen B en modo directo con referencia a una imagen B que se ha codificado previamente como una imagen de referencia hacia atras, un vector de movimiento obtenido escalando el vector de movimiento hacia delante que se ha usado para codificar el bloque situado conjuntamente en la imagen P posterior se usa como un vector de movimiento en modo directo.
Como se menciono anteriormente, en modo directo, escalando un vector de movimiento de una imagen P posterior, si la imagen de referencia hacia atras es una imagen B, no hay necesidad de almacenar los vectores de movimiento de la imagen By no hay necesidad de transmitir la informacion de vector de movimiento y de esta manera se puede aumentar la eficiencia de transmision. Ademas, usando una imagen de referencia mas cercana temporalmente como una imagen de referencia hacia delante, se puede mejorar la eficacia de codificacion.
Cuando se cambia la asignacion de indices relativos a numeros de imagen y un bloque situado conjuntamente en una imagen de referencia hacia atras se ha codificado mediante referencia hacia delante, los vectores movimiento obtenidos escalando ese vector de movimiento hacia delante se usan como vectores de movimiento en modo directo.
Como se menciono anteriormente, en modo directo, un vector de movimiento de una imagen codificada previamente se puede escalar incluso si se cambia la asignacion de indices relativos a numeros de imagen y no hay necesidad de transmitir informacion de vector de movimiento.
En la presente realizacion, se ha explicado el caso donde se hace compensacion de movimiento en cada 16 (horizontales) x 16 (verticales) pfxeles y los datos de imagen de error residual se codifican en cada 8 (horizontales) x 8 (verticales) pfxeles o 4 (horizontales) x 4 (verticales) pfxeles, pero se puede aplicar otro tamano (numero de pfxeles incluidos).
Tambien, en la presente realizacion, se ha aplicado el caso donde se situan 3 o 5 imagenes B consecutivas, pero se
5
10
15
20
25
30
35
40
45
50
55
puede situar otro numero de imagenes.
Ademas, en la presente realizacion, se ha explicado el caso donde una de codificacion intra imagen, codificacion de prediccion entre imagenes que usa vectores de movimiento y codificacion de prediccion entre imagenes sin usar vectores de movimiento se selecciona como un modo de codificacion para imagenes P y una de codificacion intra imagen, codificacion de prediccion entre imagenes que usa un vector de movimiento hacia delante, codificacion de prediccion entre imagenes que usa un vector de movimiento hacia atras, codificacion de prediccion entre imagenes que usa unos vectores de movimiento predictivos y se selecciona modo directo para imagenes B, pero se puede usar otro modo de codificacion.
Tambien, en la presente realizacion, se han explicado siete ejemplos de modo directo, pero se puede usar un procedimiento que se determina unicamente en cada macrobloque o bloque o se puede seleccionar cualquiera de una pluralidad de procedimientos en cada macrobloque o bloque. Si se usa una pluralidad de procedimientos, la informacion que indica que tipo de modo de directo se ha usado se describe en un secuencia de bits.
Ademas, en la presente realizacion, se explicado el caso donde se codifica una imagen P con referencia a una imagen I o P codificada previamente que se situa antes o despues temporalmente en orden de visualizacion que la imagen P actual y una imagen B se codifica con referencia a dos imagenes colindantes procesadas previamente que se situan antes o despues en orden de visualizacion de la imagen B actual respectivamente. No obstante, en el caso de una imagen P, la imagen P se puede codificar con referencia a lo sumo a una imagen para cada bloque de entre una pluralidad de imagenes I o P codificadas previamente como imagenes de referencia candidatas y en el caso de una imagen B, la imagen B se puede codificar con referencia a lo sumo a dos imagenes para cada bloque de entre una pluralidad de imagenes colindantes codificadas previamente que se situan antes o despues temporalmente en orden de visualizacion como imagenes de referencia candidatas.
Ademas, cuando se almacenan vectores de movimiento en la unidad 116 de almacenamiento de vectores de movimiento, la unidad 109 de seleccion de modo puede almacenar tanto vectores de movimiento hacia delante como hacia atras o solamente un vector de movimiento hacia delante, si se codifica un bloque actual mediante referencia bi-predictiva o en modo directo. Si se almacena solamente el vector de movimiento hacia delante, se puede reducir el volumen almacenado en la unidad 116 de almacenamiento de vectores de movimiento.
(Segunda realizacion)
La Figura 16 es un diagrama de bloques que muestra una estructura de un aparato de decodificacion de imagenes en movimiento que usa un procedimiento de decodificacion de imagenes en movimiento segun una realizacion de la presente invencion.
Como se muestra en la Figura 16, el aparato de decodificacion de imagenes en movimiento incluye una unidad 1401 de analisis de secuencia de bits, una unidad 1402 de decodificacion de error residual, una unidad 1403 de decodificacion de modo, una unidad 1404 de control de memoria de fotograma, una unidad 1405 de decodificacion de compensacion de movimiento, una unidad 1406 de almacenamiento de vectores de movimiento, una memoria 1407 de fotograma, una unidad 1408 de adicion y conmutadores 1409 y 1410.
La unidad 1401 de analisis de secuencia de bits extrae diversos tipos de datos tales como informacion de modo de codificacion e informacion de vector de movimiento a partir del secuencia de bits introducido. La unidad 1402 de decodificacion de error residual decodifica los datos codificados de error residual introducidos desde la unidad 1401 de analisis de secuencia de bits y genera datos de imagen de error residual. La unidad 1403 de decodificacion de modo controla los conmutadores 1409 y 1410 con referencia a la informacion de modo de codificacion extrafda del secuencia de bits.
La unidad 1404 de control de memoria de fotograma emite los datos de imagen decodificados almacenados en la memoria 1407 de fotograma como imagenes de salida basadas en la informacion que indica el orden de visualizacion de las imagenes introducidas desde la unidad 1401 de analisis de secuencia de bits.
La unidad 1405 de decodificacion de compensacion de movimiento decodifica la informacion de los numeros de imagen de referencia y los vectores de movimiento y obtiene datos de imagen de compensacion de movimiento de la memoria 1407 de fotograma basados en los numeros de imagen de referencia decodificada y vectores de movimiento. La unidad 1406 de almacenamiento de vectores de movimiento almacena vectores de movimiento.
La unidad 1408 de adicion anade los datos codificados de error residual introducidos desde la unidad 1402 de decodificacion de error residual y los datos de imagen de compensacion de movimiento introducidos desde la unidad 1405 de decodificacion de compensacion de movimiento para generar los datos de imagen decodificados. La memoria 1407 de fotograma almacena los datos de imagen decodificados generados.
A continuacion, se explicara la operacion del aparato de decodificacion de imagenes en movimiento que se estructura como anteriormente. Aqrn, se supone que el secuencia de bits generado por el aparato de codificacion de imagenes en movimiento se introduce al aparato de decodificacion de imagenes en movimiento. Espedficamente, se supone que una imagen P hace referencia a una imagen I o P colindante procesada previamente que se situa antes
5
10
15
20
25
30
35
40
45
50
55
o despues de la imagen P actual en orden de visualizacion y una imagen B hace referencia a dos imagenes colindantes codificadas previamente que se situan antes o despues de la imagen B actual en orden de visualizacion.
En este caso, las imagenes en el secuencia de bits se disponen en el orden que se muestra en la Figura 6B. El procesamiento de decodificacion de las imagenes P9, B7, B6 y B8 se explicara mas adelante en este orden.
(Decodificacion de imagen P9)
El secuencia de bits de la imagen P9 se introduce a la unidad 1401 de analisis de secuencia de bits. La unidad 1401 de analisis de secuencia de bits extrae diversos tipos de datos a partir del secuencia de bits introducido. Aqm, diversos tipos de datos significan informacion de seleccion de modo, informacion de vector de movimiento y otras. La informacion de seleccion de modo extrafda se emite a la unidad 1403 de decodificacion de modo. La informacion de vector de movimiento extrafda se emite a la unidad 1405 de decodificacion de compensacion de movimiento. Y los datos codificados de error residual se emiten a la unidad 1402 de decodificacion de error residual.
La unidad 1403 de decodificacion de modo controla los conmutadores 1409 y 1410 con referencia a la informacion de seleccion de modo de codificacion extrafda a partir del secuencia de bits. Si se selecciona codificacion intra imagen como modo de codificacion, la unidad 1403 de decodificacion de modo controla los conmutadores 1409 y 1410 para que se conecten al lado “a” y al lado “c” respectivamente. Si se selecciona codificacion de prediccion entre imagenes como un modo de codificacion, la unidad 1403 de decodificacion de modo controla los conmutadores 1409 y 1410 para que se conecten al lado “b” y al lado “d” respectivamente.
La unidad 1403 de decodificacion de modo tambien emite la informacion de seleccion de modo de codificacion a la unidad 1405 de decodificacion de compensacion de movimiento. El caso donde la codificacion de prediccion entre imagenes se selecciona como modo de codificacion se explicara mas adelante. La unidad 1402 de decodificacion de error residual decodifica los datos codificados de error residual introducidos para generar datos de imagen de error residual. La unidad 1402 de decodificacion de error residual emite los datos de imagen de error residual generados al conmutador 1409. Dado que el conmutador 1409 esta conectado al lado “b”, los datos de imagen de error residual se emiten a la unidad 1408 de adicion.
La unidad 1405 de decodificacion de compensacion de movimiento obtiene datos de imagen de compensacion de movimiento de la memoria 1407 de fotograma basados en la informacion de vector de movimiento introducida y similar. La imagen P9 se ha codificado con referencia la imagen P5 y la imagen P5 ya se ha codificado y almacenado en la memoria 1407 de fotograma. Asf, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de compensacion de movimiento a partir de los datos de imagen de la imagen P5 almacenados en la memoria 1407 de fotograma, basados en la informacion de vector de movimiento. Los datos de imagen de compensacion de movimiento generados de esta manera se emiten a la unidad 1408 de adicion.
Cuando se decodifican imagenes P, la unidad 1405 de decodificacion de compensacion de movimiento almacena la informacion de vector de movimiento en la unidad 1406 de almacenamiento de vectores de movimiento.
La unidad 1408 de adicion anade los datos de imagen de error residual introducidos y los datos de imagen de compensacion de movimiento para generar datos de imagen decodificados. Los datos de imagen decodificados generados se emiten a la memoria 1407 de fotograma a traves del conmutador 1410.
Esa es la terminacion de la decodificacion de un macrobloque en la imagen P9. Segun el mismo procesamiento, los restantes macrobloques en la imagen P9 se decodifican en secuencia. Y despues de que se decodifican todos los macrobloques en la imagen P9, se decodifica la imagen B7.
(Decodificacion de imagen B7)
Dado que las operaciones de la unidad 1401 de analisis de secuencia de bits, la unidad 1403 de decodificacion de modo y la unidad 1402 de decodificacion de error residual hasta la generacion de datos de imagen de error residual son las mismas que las de la decodificacion de la imagen P9, se omitira la explicacion de las mismas.
La unidad 1405 de decodificacion de compensacion de movimiento genera datos de imagen de compensacion de movimiento basados en la informacion de vector de movimiento introducida y similar. La imagen B7 se codifica con referencia a la imagen P5 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atras y estas imagenes P5 y P9 ya se han decodificado y almacenado en la memoria 1407 de fotograma.
Si se selecciona codificacion de bi-prediccion entre imagenes como modo de codificacion, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de referencia hacia delante a partir de la memoria 1407 de fotograma basados en la informacion de vector de movimiento hacia delante. Tambien se obtienen los datos de imagen de referencia hacia atras a partir de la memoria 1407 de fotograma basados en la informacion de vector de movimiento hacia atras. Entonces, la unidad 1405 de decodificacion de compensacion de movimiento promedia los datos de imagen de referencia hacia delante y hacia atras para generar datos de imagen de compensacion de movimiento.
5
10
15
20
25
30
35
Cuando se selecciona modo directo como modo de codificacion, la unidad 1405 de decodificacion de compensacion de movimiento obtiene el vector de movimiento de la imagen P9 almacenado en la unidad 1406 de almacenamiento de vectores de movimiento. Usando este vector de movimiento, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de referencia hacia delante y hacia atras a partir de la memoria 1407 de fotograma. Entonces, la unidad 1405 de decodificacion de compensacion de movimiento promedia los datos de imagen de referencia hacia delante y hacia atras para generar datos de imagen de compensacion de movimiento.
El caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia a la Figura 7A de nuevo. Aqm, se supone que el bloque a en la imagen B7 ha de ser decodificado y el bloque b en la imagen P9 esta situado conjuntamente con el bloque a. El vector de movimiento del bloque b es el vector de movimiento c, que hace referencia a la imagen P5. En este caso, el vector de movimiento d que se obtiene utilizando el vector de movimiento c y hace referencia a la imagen P5 se usa como un vector de movimiento hacia delante y el vector de movimiento e que se obtiene utilizando el vector de movimiento c y hace referencia a la imagen P9 se usa como un vector de movimiento hacia atras. Por ejemplo, como procedimiento de utilizacion del vector de movimiento c, hay un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensacion de movimiento se obtienen promediando los datos de referencia hacia delante y hacia atras obtenidos basados en estos vectores de movimiento.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atras e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atras P9 para la imagen actual B7 y la imagen P5 a la que hace referencia el bloque b en la imagen de referencia hacia atras P9 es TRD y la distancia temporal entre la imagen actual B7 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2, donde MVF y mVb representan los componentes horizontal y vertical de los vectores de movimiento respectivamente. Observese que la distancia temporal entre las imagenes se puede determinar basandose en la informacion que indica el orden de visualizacion (posicion) dado a las imagenes respectivas o la diferencia especificada por la informacion.
Los datos de imagen de compensacion de movimiento generados de esta manera se emiten a la unidad 1408 de adicion. La unidad 1405 de decodificacion de compensacion de movimiento almacena la informacion vector de movimiento en la unidad 1406 de almacenamiento de vectores de movimiento.
La unidad 1408 de adicion anade los datos de imagen de error residual introducidos y los datos de imagen de compensacion de movimiento para generar datos de imagen decodificados. Los datos de imagen decodificados generados se emiten a la memoria 1407 de fotograma a traves del conmutador 1410.
Esa es la terminacion de la decodificacion de un macrobloque en la imagen B7. Segun el mismo procesamiento, los restantes macrobloques en la imagen B7 se decodifican en secuencia. Y despues de que se decodifican todos los macrobloques de la imagen B7, se decodifica la imagen B6.
(Decodificacion de imagen B6)
Dado que las operaciones de la unidad 1401 de analisis de secuencia de bits, la unidad 1403 de decodificacion de modo y la unidad 1402 de decodificacion de error residual hasta la generacion de datos de imagen de error residual son las mismas que las de la decodificacion de la imagen P9, se omitira la explicacion de las mismas.
5
10
15
20
25
30
35
40
45
50
55
60
La unidad 1405 de decodificacion de compensacion de movimiento genera datos de imagen de compensacion de movimiento basados en la informacion de vector de movimiento introducida y similar. La imagen B6 se ha codificado con referencia a la imagen P5 como una imagen de referencia hacia delante y la imagen B7 como una imagen de referencia hacia atras y estas imagenes P5 y B7 se han decodificado ya y almacenado en la memoria 1407 de fotograma.
Si se selecciona codificacion de bi-prediccion entre imagenes como modo de codificacion, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de referencia hacia delante de la memoria 1407 de fotograma basados en la informacion de vector de movimiento hacia delante. Tambien se obtienen los datos de imagen de referencia hacia atras de la memoria 1407 de fotograma basados en la informacion de vector de movimiento hacia atras. Entonces, la unidad 1405 de decodificacion de compensacion de movimiento promedia los datos de imagen de referencia hacia delante y hacia atras para generar datos de imagen de compensacion de movimiento.
Cuando se selecciona el modo directo como modo de codificacion, la unidad 1405 de decodificacion de compensacion de movimiento obtiene el vector de movimiento de la imagen B7 almacenado en la unidad 1406 de almacenamiento de vectores de movimiento. Usando este vector de movimiento, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de referencia hacia delante y hacia atras de la memoria 1407 de fotograma. Entonces, la unidad 1405 de decodificacion de compensacion de movimiento promedia los datos de imagen de referencia hacia delante y hacia atras para generar datos de imagen de compensacion de movimiento.
El primer ejemplo del caso donde el modo directo se selecciona como modo de codificacion se explicara con referencia a la Figura 7B de nuevo. Aqm, se supone que el bloque a en la imagen B6 ha de ser decodificado y el bloque b en la imagen B7 esta situado conjuntamente con el bloque a. El bloque b se ha codificado mediante prediccion entre imagenes de referencia hacia delante o prediccion entre imagenes de referencia bi-predictiva y el vector de movimiento hacia delante del bloque b es el vector de movimiento c, que hace referencia a la imagen P5. En este caso, el vector de movimiento d que se obtiene utilizando el vector de movimiento c y hace referencia a la imagen P5 se usa como un vector de movimiento hacia delante y el vector de movimiento e que se obtiene utilizando el vector de movimiento c y hace referencia a la imagen B7 se usa como un vector de movimiento hacia atras. Por ejemplo, como procedimiento de utilizacion del vector de movimiento c, hay un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensacion de movimiento se obtienen promediando los datos de imagen de referencia hacia delante y hacia atras obtenidos basados en estos vectores de movimiento d y e.
En este caso donde el vector de movimiento hacia delante d es MVF, el vector de movimiento hacia atras e es MVB, el vector de movimiento c es MV, la distancia temporal entre la imagen de referencia hacia atras B7 para la imagen actual B6 y la imagen P5 a la que hace referencia el bloque b en la imagen de referencia hacia atras B7 es TRD y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2. Observese que la distancia temporal entre imagenes se puede determinar basandose en la informacion que indica el orden de visualizacion (posicion) de las imagenes o la diferencia especificada por la informacion. O, como los valores de TRD y TRF, se pueden usar valores predeterminados para imagenes respectivas. Estos valores predeterminados se pueden describir en el secuencia de bits como informacion de cabecera.
El segundo ejemplo del caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia a la Figura 7B de nuevo.
En este ejemplo, se utiliza el vector de movimiento que se ha usado para decodificar el bloque b en la imagen B7. La imagen B7 es la imagen de referencia hacia atras para la imagen actual B6 y el bloque b se situa conjuntamente con el bloque a en la imagen B6. Aqm, se supone que el bloque b se ha codificado en modo directo y el vector de movimiento c se ha usado sustancialmente como un vector de movimiento hacia delante para esa codificacion. El vector de movimiento c almacenado en la unidad 1406 de almacenamiento de vectores de movimiento se puede usar o se calcula leyendo de la unidad 1406 de almacenamiento de vectores de movimiento el vector de movimiento de la imagen P9 que se ha usado para codificar el bloque b en modo directo y entonces se escala ese vector de movimiento. Observese que cuando se almacenan vectores de movimiento en la unidad 1406 de almacenamiento de vectores de movimiento, la unidad 1405 de decodificacion de compensacion de movimiento necesita almacenar solamente el vector de movimiento hacia delante de entre los dos vectores de movimiento obtenidos escalando para decodificar el bloque b en la imagen B7 en modo directo.
En este caso, para el bloque a, el vector de movimiento d que se genera utilizando el vector de movimiento c y hace referencia a la imagen P5 se usa como un vector de movimiento hacia delante y el vector de movimiento e que se genera utilizando el vector de movimiento c y hace referencia a la imagen B7 se usa como un vector de movimiento hacia atras. Por ejemplo, como procedimiento de utilizacion del vector de movimiento c, hay un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensacion de movimiento se obtienen promediando los datos de imagen de referencia hacia delante y hacia atras obtenidos basandose en estos vectores de movimiento d y e.
5
10
15
20
25
30
35
40
45
50
55
En este caso, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2, como es el caso del primer ejemplo del modo directo.
A continuacion, el tercer ejemplo del caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia a la Figura 7C de nuevo.
En este ejemplo, se supone que el bloque a en la imagen B6 ha de ser decodificado y el bloque b en la imagen B7 se situa conjuntamente con el bloque a. El bloque b se ha codificado mediante prediccion de referencia hacia atras y el vector de movimiento hacia atras del bloque b es un vector de movimiento f, que hace referencia a la imagen P9. En este caso, para el bloque a, el vector de movimiento g que se obtiene utilizando el vector de movimiento f y hace referencia a la imagen P5 se usa como un vector de movimiento hacia delante y el vector de movimiento h que se obtiene utilizando el vector de movimiento f y hace referencia a la imagen B7 se usa como un vector de movimiento hacia atras. Por ejemplo, como procedimiento de utilizacion del vector de movimiento f, hay un procedimiento de generacion de vectores movimiento paralelos al vector de movimiento f. Los datos de imagen de compensacion de movimiento se obtienen promediando los datos de imagen de referencia hacia delante y hacia atras obtenidos basandose en estos vectores de movimiento g y h.
En este caso donde el vector de movimiento hacia delante g es MVF, el vector de moviendo hacia atras h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atras B7 para la imagen actual B6 y la imagen P9 a la que hace referencia el bloque b en la imagen de referencia hacia atras B7 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atras B7 es TRB respectivamente, el vector de movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la Ecuacion 3 y la Ecuacion 4.
A continuacion, el cuarto ejemplo del caso donde el modo directo se selecciona como modo de codificacion se explicara con referencia a la Figura 7D de nuevo.
En este ejemplo, se supone que el bloque a en la imagen B6 ha de ser decodificado y el bloque b en la imagen B7 se situa conjuntamente con el bloque a. El bloque b se ha codificado mediante prediccion de referencia hacia atras como es el caso del tercer ejemplo y el vector de movimiento hacia atras del bloque b es un vector de movimiento f, que hace referencia a la imagen P9. En este caso, el vector de movimiento g que se obtiene utilizando el vector de movimiento f y hace referencia a la imagen P9 se usa como un vector de movimiento hacia delante y el vector de movimiento h que se obtiene utilizando el vector de movimiento f y hace referencia a la imagen B7 se usa como un vector de moviendo hacia atras. Por ejemplo, como procedimiento de utilizacion del vector de movimiento f, hay un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento f. Los datos de imagen de compensacion de movimiento se obtienen promediando los datos de imagen de referencia hacia delante y hacia atras obtenidos basandose en estos vectores de movimiento g y h.
En este caso donde el vector de movimiento hacia delante g es MVF, el vector de movimiento hacia atras h es MVB, el vector de movimiento f es MV, la distancia temporal entre la imagen de referencia hacia atras B7 para la imagen actual B6 y la imagen P9 a la que hace referencia el bloque b en la imagen de referencia hacia atras B7 es TRD y la distancia temporal entre la imagen actual B6 y la imagen de referencia P9 a la que hace referencia el bloque b en la imagen de referencia hacia atras B7 es tRf respectivamente, el vector de movimiento g MVF y el vector de movimiento h MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2.
Ademas, el quinto ejemplo del caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia a la Figura 8A de nuevo. Aqrn, se supone que un bloque a en la imagen B6 ha de ser decodificado en modo directo. En este ejemplo, el vector de movimiento se fija a cero “0” y la compensacion de movimiento se realiza mediante referencia bi-predictiva usando la imagen P5 como una imagen de referencia hacia delante y la imagen B7 como una imagen de referencia hacia atras.
A continuacion, el sexto ejemplo del caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia la Figura 8B de nuevo. Aqrn, se supone que un bloque a en la imagen B6 ha de ser decodificado en modo directo. En este ejemplo, se utiliza el vector de movimiento g que se ha usado para decodificar el bloque f en la imagen P P9. La imagen P9 se situa despues de la imagen actual B6 y el bloque f se situa conjuntamente con el bloque a. El vector de movimiento g se almacena en la unidad 1406 de almacenamiento de vectores de movimiento. El bloque a se bi-predice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras B7 usando los vectores de movimiento que se obtienen utilizando el vector de movimiento g. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo antes mencionado, el vector de movimiento h y el vector de movimiento i se usan para la imagen P5 y la imagen B7 respectivamente para obtener los datos de imagen de compensacion de movimiento del bloque a.
5
10
15
20
25
30
35
40
45
50
55
En este caso donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atras i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen P9 situada despues de la imagen actual B6 y la imagen P5 a la que hace referencia el bloque f en la imagen P9 es TRD, la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia atras B7 es TRB respectivamente, el vector de movimiento h MVF y el vector de movimiento i MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 5.
A continuacion, el septimo ejemplo del caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia la Figura 8C de nuevo. Aqm, se supone que un bloque a en la imagen B6 se decodifica en modo directo. En este ejemplo, se cambia (reasigna) la asignacion de indices relativos a los numeros de imagen antes mencionados y la imagen P9 es la imagen de referencia hacia atras. En este caso, se utiliza el vector de movimiento g que se ha usado para codificar el bloque f en la imagen P9. La imagen P9 es la imagen de referencia hacia atras para la imagen B6 y el bloque f se situa conjuntamente con el bloque a en la imagen B6. El vector de movimiento g se almacena en la unidad 1406 de almacenamiento de vectores de movimiento. El bloque a se bipredice a partir de la imagen de referencia hacia delante P5 y la imagen de referencia hacia atras P9 usando vectores de movimiento generados utilizando el vector de movimiento g. Por ejemplo, si se usa un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento g, como es el caso del primer ejemplo antes mencionado, el vector de movimiento h y el vector de movimiento i se usan para la imagen P5 y la imagen P9 respectivamente para obtener los datos de imagen de compensacion de movimiento del bloque a.
En este caso, donde el vector de movimiento hacia delante h es MVF, el vector de movimiento hacia atras i es MVB, el vector de movimiento g es MV, la distancia temporal entre la imagen de referencia hacia atras P9 para la imagen actual B6 y la imagen P5 a la que hace referencia el bloque f en la imagen P9 es TRD y la distancia temporal entre la imagen actual B6 y la imagen de referencia hacia delante P5 es TRF respectivamente, el vector de movimiento h MVF y el vector de movimiento i MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 2.
Los datos de imagen de compensacion de movimiento generados como anteriormente se emiten a la unidad 1408 de adicion. La unidad 1408 de adicion anade los datos de imagen de error residual introducidos y los datos de imagen de compensacion de movimiento para generar datos de imagen decodificados. Los datos de imagen decodificados generados se emiten a la memoria 1407 de fotograma a traves del conmutador 1410.
Esa es la terminacion de la decodificacion de un macrobloque en la imagen B6. Segun el mismo procesamiento, los restantes macrobloques en la imagen B6 se decodifican en secuencia. Y despues de que se decodifican todos los macrobloques en la imagen B6, se decodifica la imagen B8.
(Decodificacion de imagen B8)
Dado que las operaciones de la unidad 1401 de analisis de secuencia de bits, la unidad 1403 de decodificacion de modo y la unidad 1402 de decodificacion de error residual hasta la generacion de datos de imagen de error residual son las mismas que las de decodificacion de la imagen P9, se omitira la explicacion de las mismas.
La unidad 1405 de decodificacion de compensacion de movimiento genera datos de imagen de compensacion de movimiento basados en la informacion de vector de movimiento introducida y similares. La imagen B8 se ha codificado con referencia a la imagen B7 como una imagen de referencia hacia delante y la imagen P9 como una imagen de referencia hacia atras y estas imagenes B7 y P9 se han decodificado ya y almacenado en la memoria 1407 de fotograma.
Si se selecciona codificacion de bi-prediccion entre imagenes como modo de codificacion, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de referencia hacia delante a partir de la memoria 1407 de fotograma basandose en la informacion de vector de movimiento hacia delante. Tambien obtiene los datos de imagen de referencia hacia atras a partir de la memoria 1407 de fotograma basandose en la informacion de vector de movimiento hacia atras. Entonces, la unidad 1405 de decodificacion de compensacion de movimiento promedia los datos de imagen de referencia hacia delante y hacia atras para generar datos de imagen de compensacion de movimiento.
Cuando se selecciona modo directo como modo de codificacion, la unidad 1405 de decodificacion de compensacion de movimiento obtiene el vector de movimiento de la imagen P9 almacenado en la unidad 1406 de almacenamiento de vectores de movimiento. Usando este vector de movimiento, la unidad 1405 de decodificacion de compensacion de movimiento obtiene los datos de imagen de referencia hacia delante y hacia atras a partir de la memoria 1407 de fotograma. Entonces, la unidad 1405 de decodificacion de compensacion de movimiento promedia los datos de imagen de referencia hacia delante y hacia atras para generar datos de imagen de compensacion de movimiento.
El caso donde se selecciona el modo directo como modo de codificacion se explicara con referencia la Figura 8D de nuevo. Aqm se supone que un bloque a en la imagen B8 ha de ser codificado y un bloque b en la imagen de referencia hacia atras P9 se situa conjuntamente con el bloque a. El vector de movimiento hacia delante del bloque b es el vector de movimiento c, que hace referencia la imagen P5. En este caso, el vector de movimiento d que se genera utilizando el vector de movimiento c y hace referencia a la imagen B7 se usa como un vector de movimiento hacia delante y el vector de movimiento e que se genera utilizando el vector de movimiento c y hace referencia a la
5
10
15
20
25
30
35
40
45
50
55
imagen P9 se usa como un vector de movimiento hacia atras. Por ejemplo, como procedimiento de utilizacion del vector de movimiento c, hay un procedimiento de generacion de vectores de movimiento paralelos al vector de movimiento c. Los datos de imagen de compensacion de movimiento se obtienen promediando los datos de imagen de referencia hacia delante y hacia atras basados en estos vectores de movimiento d y e.
En este caso donde el vector de moviendo hacia delante d es MVF, el vector de movimiento hacia atras e es MVB, el vector de movimiento c es MV, la distancia de temporal entre la imagen de referencia hacia atras P9 para la imagen actual B8 y la imagen P5 a la que hace referencia el bloque b en la imagen de referencia hacia atras P9 es TRD, la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia delante B7 es TRF y la distancia temporal entre la imagen actual B8 y la imagen de referencia hacia atras P9 es TRB respectivamente, el vector de movimiento d MVF y el vector de movimiento e MVB se calculan respectivamente por la Ecuacion 1 y la Ecuacion 5.
Los datos de imagen de compensacion de movimiento generados de esta manera se emiten a la unidad 1408 de adicion. La unidad 1408 de adicion anade los datos de imagen de error residual introducidos y los datos de imagen de compensacion de movimiento para generar datos de imagen decodificados. Los datos de imagen decodificados generados se emiten a la memoria 1407 de fotograma a traves del conmutador 1410.
Esa es la terminacion de la decodificacion de un macrobloque en la imagen B8. Segun el mismo procesamiento, los restantes macrobloques en la imagen B8 se codifican en secuencia. Las otras imagenes se decodifican dependiendo de sus tipos de imagen segun los procedimientos de decodificacion antes mencionados.
A continuacion, la unidad 1404 de control de memoria de fotograma reordena los datos de imagen de las imagenes almacenadas en la memoria 1407 de fotograma en orden de tiempo como se muestra en la Figura 6A para emitir como imagenes de salida.
Como se describio anteriormente, segun el procedimiento de decodificacion de imagenes en movimiento de la presente invencion, una imagen B que se ha codificado mediante bi-prediccion entre imagenes se codifica usando imagenes decodificadas previamente que se situan cerca en orden de visualizacion como imagenes de referencia hacia delante y hacia atras.
Cuando se selecciona el modo directo como modo de codificacion, los datos de imagen de referencia se obtienen a partir de datos de imagen decodificados previamente para obtener datos de imagen de compensacion de movimiento, con referencia a un vector de movimiento de una imagen de referencia hacia atras decodificada previamente almacenada en la unidad 1406 de almacenamiento de vectores de movimiento.
Segun esta operacion, cuando una imagen B se ha codificado mediante bi-prediccion entre imagenes usando imagenes que se situan cerca en orden de visualizacion como imagenes de referencia hacia delante y hacia atras, el secuencia de bits generado como resultado de tal codificacion se puede decodificar adecuadamente.
En la presente realizacion, se han explicado siete ejemplos del modo directo. No obstante, se puede usar un procedimiento, que se determina unicamente para cada macrobloque o bloque basado en el procedimiento de decodificacion de un bloque situado conjuntamente en una imagen de referencia hacia atras o una pluralidad de procedimientos diferentes se pueden usar para cada macrobloque o bloque conmutandolos. Cuando se usa una pluralidad de procedimientos, el macrobloque o el bloque se decodifica usando informacion descrita en un secuencia de bits, indicando que tipo de modo directo se ha usado. Para ese fin, la operacion de la unidad 1405 de decodificacion de compensacion de movimiento depende de la informacion. Por ejemplo, cuando esta informacion se anade para cada bloque de compensacion de movimiento, la unidad 1403 de decodificacion de modo determina que tipo de modo directo se usa para codificar y lo entrega a la unidad 1405 de decodificacion de compensacion de movimiento. La unidad 1405 de decodificacion de compensacion de movimiento realiza procesamiento de decodificacion usando el procedimiento de decodificacion como se explica en la presente realizacion dependiendo del tipo entregado de modo directo.
Tambien, en la presente realizacion, se ha explicado la estructura de imagen donde tres imagenes B se situan entre imagenes I e imagenes P, pero se puede situar cualquier otro numero, cuatro o cinco, por ejemplo, de imagenes B.
Ademas, en la presente realizacion, la explicacion se ha hecho bajo la suposicion de que una imagen P se codifica con referencia a una imagen I o P codificada previamente que se situa antes o despues de la imagen P actual en orden de visualizacion, una imagen B se codifica con referencia a dos imagenes colindantes codificadas previamente que se situan antes o despues de la imagen B actual en orden de visualizacion y se decodifica el secuencia de bits generado como resultado que esta codificacion. No obstante, en el caso de una imagen P, la imagen P se puede codificar con referencia a lo sumo a una imagen para cada bloque de entre una pluralidad de imagenes I o P codificadas previamente que se situan temporalmente antes o despues en orden de visualizacion que las imagenes de referencia candidatas y en el caso de una imagen B, la imagen B se puede codificar con referencia a lo sumo a dos imagenes para cada bloque de entre una pluralidad de imagenes colindantes codificadas previamente que se situan temporalmente antes o despues en orden de visualizacion como imagenes de referencia candidatas.
Ademas, cuando se almacenan vectores de movimiento en la unidad 1406 de almacenamiento de vectores de
5
10
15
20
25
30
35
40
45
50
55
movimiento, la unidad 1405 de decodificacion de compensacion de movimiento puede almacenar tanto vectores de movimiento hacia delante como hacia atras o almacenar solamente el vector de movimiento hacia delante, si se codifica un bloque actual mediante referencia bi-predictiva o en modo directo. Si solamente se almacena el vector de movimiento hacia delante, se puede reducir el volumen de memoria de la unidad 1406 de almacenamiento de vectores de movimiento.
(Tercera realizacion)
Si un programa para realizar las estructuras del procedimiento de codificacion de imagenes en movimiento o el procedimiento de decodificacion de imagenes en movimiento como se muestra en las realizaciones anteriores se graba en un medio de memoria tal como un disco flexible, se hace posible realizar el procesamiento como se muestra en estas realizaciones facilmente en un sistema informatico independiente.
La Figura 17 es una ilustracion que muestra el caso donde el procesamiento se realiza en un sistema informatico usando un disco flexible que almacena el procedimiento de codificacion de imagenes en movimiento o el procedimiento de decodificacion de imagenes en movimiento de las realizaciones anteriores.
La Figura 17B muestra una vista frontal y una vista de seccion transversal de una apariencia de un disco flexible y el disco flexible en sf mismo, y la Figura 17A muestra un ejemplo de un formato ffsico de un disco flexible como un cuerpo de medio de grabacion. El disco flexible FD esta contenido en una envolvente F y una pluralidad de pistas Tr estan formadas concentricamente en la superficie del disco en la direccion radial desde la periferia y cada pista se divide en 16 sectores Se en la direccion angular. Por lo tanto, en cuanto al disco flexible que almacena el programa antes mencionado, el procedimiento de codificacion de imagenes en movimiento como el programa se graba en un area asignada para ello en el disco flexible FD.
La Figura 17C muestra la estructura para grabar y reproducir el programa en y desde el disco flexible FD. Cuando el programa se graba en el disco flexible FD, el procedimiento de codificacion de imagenes en movimiento o el procedimiento de decodificacion de imagenes en movimiento como un programa se escribe en el disco flexible desde el sistema informatico Cs a traves de una unidad de disco flexible. Cuando el procedimiento de codificacion de imagenes en movimiento se construye en el sistema informatico por el programa en el disco flexible, el programa se lee desde la unidad de disco flexible y se transfiere al sistema informatico.
La explicacion anterior se hace bajo la suposicion de que un medio de grabacion es un disco flexible, pero el mismo procesamiento tambien se puede realizar usando un disco optico. Ademas, el medio de grabacion no esta limitado a un disco flexible y un disco optico, sino que se puede usar cualquier otro medio tal como una tarjeta IC y una cinta ROM capaz de grabar un programa.
A continuacion esta la explicacion de las aplicaciones del procedimiento de codificacion de imagenes en movimiento y el procedimiento de decodificacion de imagenes en movimiento que se muestra en las realizaciones anteriores y el sistema que las usa.
La Figura 18 es un diagrama de bloques que muestra la configuracion general de un sistema ex100 de suministro de contenidos para realizar un servicio de distribucion de contenidos. El area para proporcionar un servicio de comunicacion se divide en celdas del tamano deseado y las estaciones ex107~ex110 base que son estaciones inalambricas fijas se colocan en las celdas respectivas.
En este sistema ex100 de suministro de contenidos, dispositivos tales como el ordenador ex111, un PDA (asistente digital personal) ex112, una camara ex113, un telefono ex114 movil y un telefono ex115 movil equipado con camara estan conectados a Internet ex101 a traves de un proveedor ex102 de servicios de Internet, una red ex104 telefonica y estaciones ex107~ex110 base.
No obstante, el sistema ex100 de suministro de contenidos no esta limitado a la configuracion que se muestra en la Figura 18 y se puede conectar una combinacion de cualquiera de ellos. Tambien, cada dispositivo se puede conectar directamente a la red ex104 telefonica, no a traves de las estaciones ex107~ex110 base.
La camara ex113 es un dispositivo tal como una camara de video digital capaz de filmar imagenes en movimiento. El telefono movil puede ser un telefono movil de un sistema de PDC (Comunicaciones Digitales Personales), un sistema de CDMa (Acceso Multiple por Division de Codigo), sistema de W-CDMA (Acceso Multiple por Division de Codigo de Banda Ancha) o un sistema de GSM (Sistema Global para Comunicaciones Moviles), un PHS (sistema de Telefono Portatil Personal) o similares.
Un servidor ex103 de flujo continuo esta conectado a la camara ex113 a traves de la estacion ex109 base y a la red ex104 telefonica, que permite distribucion en directo o similar usando la camara ex113 basandose en los datos codificados transmitidos desde un usuario. O bien la camara ex113 o bien el servidor para transmitir los datos puede codificar los datos. Tambien, los datos de imagen en movimiento filmados por una camara ex116 se pueden transmitir al servidor ex103 de flujo continuo a traves del ordenador ex111. La camara ex116 es un dispositivo tal como una camara digital capaz de filmar imagenes fijas y en movimiento. O bien la camara ex116 o bien el ordenador ex111 pueden codificar los datos de imagen en movimiento. Un LSI ex117 incluido en el ordenador ex111
5
10
15
20
25
30
35
40
45
50
55
o la camara ex116 realiza realmente el procesamiento de codificacion. El software para codificar y decodificar imagenes en movimiento se puede integrar en cualquier tipo de medio de almacenamiento (tal como un CD-ROM, un disco flexible y un disco duro) que sea un medio de grabacion legible por el ordenador ex111 o similar. Ademas, un telefono ex115 movil equipado con camara puede transmitir los datos de imagen en movimiento. Estos datos de imagen en movimiento son los datos codificados por el LSI incluido en el telefono ex115 movil.
El sistema ex100 de suministro de contenidos codifica contenidos (tales como un video de musica en directo) filmados por usuarios que usan la camara ex113, la camara ex116 o similares de la misma manera que la realizacion anterior y los transmite al servidor ex103 de flujo continuo, mientras que el servidor ex103 de flujo continuo hace distribucion de flujo de los datos de contenidos a los clientes a su peticion. Los clientes incluyen el ordenador ex111, el PDA ex112, la camara ex113, el telefono ex114 movil, etcetera, capaces de decodificar los datos codificados antes mencionados. En el sistema ex100 de suministro de contenidos, los clientes de esta manera pueden recibir y reproducir los datos codificados y ademas pueden recibir, decodificar y reproducir los datos en tiempo real para realizar difusion personal.
Cuando cada dispositivo en este sistema realiza codificacion o decodificacion, se puede usar el aparato de codificacion de imagenes en movimiento o el aparato de decodificacion de imagenes en movimiento, que se muestra en la realizacion antes mencionada.
Un telefono movil se explicara como ejemplo del dispositivo.
La Figura 19 es un diagrama que muestra el telefono ex115 movil que usa el procedimiento de codificacion de imagenes en movimiento y el procedimiento de decodificacion de imagenes en movimiento explicados en las realizaciones anteriores. El telefono ex115 movil tiene una antena ex201 para enviar y recibir ondas de radio a y desde la estacion ex110 base, una unidad ex203 de camara tal como una camara CCD capaz de filmar video e imagenes fijas, una unidad ex202 de visualizacion tal como un visualizador de cristal lfquido para visualizar los datos obtenidos decodificando video y similares filmados por la unidad ex203 de camara y recibidos por la antena ex201, una unidad de cuerpo que incluye un conjunto de teclas ex204 de operacion, una unidad ex208 de salida de voz tal como un altavoz para emitir voces, una unidad ex205 de entrada de voz tal como un microfono para introducir voces, un medio ex207 de almacenamiento para almacenar datos codificados o decodificados tales como datos de imagenes en movimiento o fijas filmadas por la camara, datos de texto y datos de imagenes en movimiento o fijas de correos electronicos recibidos y una unidad ex206 de ranura para unir el medio ex207 de almacenamiento al telefono ex115 movil. El medio ex207 de almacenamiento incluye un elemento de memoria imagen, un tipo de EEPROM (Memoria de Solo Lectura Borrable y Programable Electricamente) que es una memoria no volatil borrable y re-escribible electricamente, en una envoltura plastica tal como una tarjeta SD.
El telefono ex115 movil se explicara ademas con referencia la Figura 20. En el telefono ex115 movil, una unidad ex311 de control principal para el control general de la unidad ex202 de visualizacion y la unidad de cuerpo que incluye las teclas ex204 de operacion estan conectadas a una unidad ex310 de circuito de fuente de alimentacion, una unidad ex304 de control de entrada de operacion, una unidad ex312 codificacion de imagenes, una unidad ex303 de interfaz de camara, una unidad ex302 de control de LCD (Visualizador de Cristal Lfquido), una unidad ex309 de decodificacion de imagenes, una unidad ex308 de multiplexacion/demultiplexacion, una unidad ex307 de grabacion/reproduccion, una unidad ex306 de circuito de modem y una unidad ex305 de procesamiento de voz entre sf a traves de un bus ex313 principal smcrono.
Cuando una tecla de fin de llamada o una tecla de potencia se ENCIENDE por una operacion del usuario, la unidad ex310 de circuito de fuente de alimentacion suministra a las unidades respectivas con potencia desde un paquete de batenas que activen el telefono ex115 movil digital equipado con camara para ponerlo en un estado preparado.
En el telefono ex115 movil, la unidad ex305 de procesamiento de voz convierte las senales de voz recibidas por la unidad ex205 de entrada de voz en un modo de conversacion en datos de voz digitales bajo el control de la unidad ex311 de control principal incluyendo una CPU, ROM y RAM, la unidad ex306 de circuito de modem realiza procesamiento de espectro ensanchado de los datos de voz digitales y la unidad ex301 de circuito de envfo/recepcion realiza conversion digital a analogica y transformacion de frecuencia de los datos, para transmitirlos a traves de la antena ex201. Tambien, en el telefono ex115 movil, despues de que los datos recibidos por la antena ex201 en modo de conversacion se amplifican y realizan transformacion de frecuencia y conversion analogico a digital, la unidad ex306 de circuito de modem realiza el procesamiento de espectro ensanchado inverso de los datos y la unidad ex305 de procesamiento de voz los convierte en datos de voz analogicos, para emitirlos a traves de la unidad ex208 de salida de voz.
Ademas, cuando se transmite un correo electronico en el modo de comunicacion de datos, los datos de texto del correo electronico introducidos operando las teclas ex204 de operacion en la unidad del cuerpo se envfan a la unidad ex311 de control principal a traves de la unidad ex304 de control de entrada de operacion. En la unidad ex311 de control principal, despues de que la unidad ex306 de circuito de modem realiza procesamiento de espectro ensanchado de los datos de texto y la unidad ex301 de circuito de envfo/recepcion realiza conversion digital a analogica y transformacion de frecuencia para ellos, los datos se transmiten a la estacion ex110 base a traves de la antena ex201.
5
10
15
20
25
30
35
40
45
50
55
60
Cuando los datos de imagen se transmiten en modo de comunicacion de datos, los datos de imagen filmados por la unidad ex203 de camara se suministran la unidad ex312 de codificacion de imagenes a traves de la unidad ex303 de interfaz de camara. Cuando no se transmiten, tambien es posible visualizar los datos de imagen filmados por la unidad ex203 de camara directamente en la unidad 202 de visualizacion a traves de la unidad ex303 de interfaz de camara y la unidad ex302 de control de LCD.
La unidad ex312 de codificacion de imagenes, que incluye el aparato de codificacion de imagenes en movimiento que se explica en la presente invencion, comprime y codifica los datos de imagen suministrados desde la unidad ex203 de camara por el procedimiento de codificacion usado para el aparato de codificacion de imagenes en movimiento que se muestra en la realizacion anterior para transformarlos en datos de imagen codificados y enviarlos a la unidad ex308 de multiplexacion/demultiplexacion. En este momento, el telefono ex115 movil envfa las voces recibidas por la unidad ex205 de entrada de voz durante la filmacion por la unidad ex203 de camara a la unidad ex308 de multiplexacion/demultiplexacion como datos de voz digitales a traves de la unidad ex305 de procesamiento de voz.
La unidad ex308 de multiplexacion/demultiplexacion multiplexa los datos de imagen codificados suministrados desde la unidad ex312 de codificacion de imagenes y los datos de voz suministrados desde la unidad ex305 de procesamiento de voz por un procedimiento predeterminado, la unidad ex306 de circuito de modem realiza procesamiento de espectro ensanchado de los datos multiplexados obtenidos como resultado de la multiplexacion y la unidad ex301 de circuito de envfo/recepcion realiza conversion digital a analogica y transformacion de frecuencia de los datos para transmitir a traves de la antena ex201.
En cuanto a los datos de recepcion de un fichero de imagenes en movimiento que esta vinculado a una pagina Web o similar en modo de comunicacion de datos, la unidad ex306 de circuito de modem realiza un procesamiento de espectro ensanchado inverso de los datos recibidos desde la estacion ex110 base a traves de la antena ex201 y envfa los datos multiplexados obtenidos como resultado del procesamiento a la unidad ex308 de multiplexacion/demultiplexacion.
Para decodificar los datos multiplexados recibidos a traves de la antena ex201, la unidad ex308 de multiplexacion/demultiplexacion separa los datos multiplexados en un secuencia de bits de datos de imagen y un secuencia de bits de datos de voz y suministra los datos de imagen codificados a la unidad ex309 de decodificacion de imagenes y los datos de voz a la unidad ex305 de procesamiento de voz respectivamente a traves del bus ex313 principal smcrono.
A continuacion, la unidad ex309 de decodificacion de imagenes, que incluye el aparato de decodificacion de imagenes en movimiento que se explica en la presente invencion, decodifica el secuencia de bits de datos de imagen mediante el procedimiento de decodificacion que corresponde al procedimiento de codificacion que se muestra en la realizacion antes mencionada para generar datos de imagenes en movimiento reproducidos y suministra estos datos a la unidad ex202 de visualizacion a traves de la unidad ex302 de control LCD y de esta manera se visualizan datos de imagen en movimiento incluidos en un fichero de imagenes en movimiento vinculado a una pagina Web, por ejemplo. En el mismo momento, la unidad ex305 de procesamiento de voz convierte los datos de voz en datos de voz analogicos y suministra estos datos a la unidad ex208 de salida de voz y de esta manera se reproducen los datos de voz incluidos en un fichero de imagenes en movimiento vinculado a una pagina Web, por ejemplo.
La presente invencion no esta limitada al sistema antes mencionado y al menos, o bien el aparato de codificacion de imagenes en movimiento, o bien el aparato de decodificacion de imagenes en movimiento en la realizacion antes mencionada se pueden incorporar en un sistema difusion digital como se muestra la Figura 21. Tal difusion digital basada en tierra o por satelite ha estado en las noticias ultimamente. Mas espedficamente, un secuencia de bits de informacion de video se transmite desde una estacion ex409 de difusion a o comunica con un satelite ex410 de difusion a traves de ondas radio. Tras la recepcion de el, el satelite ex410 de difusion transmite ondas de radio para difusion, una antena ex406 de uso domestico con una funcion de recepcion de difusion por satelite recibe las ondas radio y un televisor (receptor) ex401 o un receptor multimedia digital (STB) ex407 decodifica el secuencia de bits para su reproduccion. El aparato de decodificacion de imagenes en movimiento que se muestra en la realizacion antes mencionada se puede implementar en el dispositivo ex403 de reproduccion para lectura y decodificacion del secuencia de bits grabado en un medio ex402 de almacenamiento que es un medio de grabacion tal como un CD y DVD. En este caso, las senales de video reproducidas se visualizan en un monitor ex404. Tambien se concibe implementar el aparato de decodificacion de imagenes en movimiento en el receptor multimedia digital ex407 conectado a un cable ex405 para una television por cable o a la antena ex406 para difusion por satelite y/o terrestre para reproducirlas en un monitor ex408 de la television ex401. El aparato de decodificacion de imagenes en movimiento se puede incorporar en la television, no en el receptor multimedia digital. O, un coche ex412 que tiene una antena ex411 puede recibir senales desde el satelite ex4l0 o la estacion base ex107 para reproducir imagenes en movimiento en un dispositivo de visualizacion tal como un sistema ex413 de navegacion de coche.
Ademas, el aparato de codificacion de imagenes en movimiento que se muestra en la realizacion antes mencionada puede codificar senales de imagenes para grabar en un medio de grabacion. Como ejemplo concreto, hay un grabador ex420 tal como un grabador de DVD para grabar senales de imagenes en un disco ex421 DVD y un
5
10
15
20
25
30
35
40
45
50
grabador de disco para grabarlas en un disco duro. Se pueden grabar en una tarjeta ex422 SD. Si el grabador ex420 incluye el aparato de decodificacion de imagenes en movimiento que se muestra en la realizacion antes mencionada, las senales de imagenes en el disco ex421 DVD o la tarjeta ex422 SD se pueden reproducir para visualizacion en el monitor ex408.
Como la estructura del sistema ex413 de navegacion de coche, son concebibles la estructura sin la unidad ex203 de camara, la unidad ex303 de interfaz de camara y la unidad ex312 de codificacion de imagenes, de entre las unidades mostradas en la Figura 20. Lo mismo sucede para el ordenador ex111, la television (receptor) ex401 y otros.
Ademas, se pueden concebir tres tipos de implementaciones para un terminal tales como el telefono ex114 movil antes mencionado; un terminal de envfo/recepcion que incluye tanto un codificador como un decodificador, un terminal de envfo que incluye un codificador solamente y un terminal de recepcion que incluye un decodificador solamente.
Como se describio anteriormente, es posible usar el procedimiento de codificacion de imagenes en movimiento o el procedimiento de decodificacion de imagenes en movimiento en las realizaciones antes mencionadas en cualquiera del aparato y sistema antes mencionado y, usando este procedimiento, se pueden obtener los efectos descritos en las realizaciones anteriores.
Como se describio anteriormente, segun el procedimiento de codificacion de imagenes en movimiento de la presente invencion, se pueden codificar imagenes B usando imagenes que son cercanas temporalmente en orden de visualizacion como imagenes de referencia. Por consiguiente, se mejora la eficacia de prediccion para compensacion de movimiento y de esta manera se mejora la eficacia de codificacion.
En modo directo, escalando un primer vector de movimiento de una segunda imagen de referencia, no hay necesidad de transmitir informacion de vector de movimiento y esta manera se puede mejorar la eficacia de prediccion.
Del mismo modo, en modo directo, escalando un primer vector de movimiento sustancialmente usado para la codificacion de modo directo de la segunda imagen de referencia, no hay necesidad de transmitir informacion de vector de movimiento y se puede mejorar la eficacia de prediccion incluso si un bloque situado conjuntamente en la segunda imagen de referencia se codifica en modo directo.
Tambien, en modo directo, escalando un segundo vector de movimiento que se ha usado para codificar un bloque situado conjuntamente en una segunda imagen de referencia, no hay necesidad de transmitir informacion de vector de movimiento y se puede mejorar la eficacia de prediccion incluso si el bloque situado conjuntamente en la segunda imagen de referencia tiene solamente un segundo vector de movimiento.
Ademas, en modo directo, fijando de manera forzada un vector de movimiento en modo directo para que sea “0”, cuando se selecciona el modo directo, no hay necesidad de transmitir informacion de vector de movimiento ni escalar el vector de movimiento y esta manera se puede reducir el volumen de procesamiento.
Tambien, en modo directo, escalando un vector de movimiento de una imagen P posterior, no hay necesidad de almacenar un vector de movimiento de una segunda imagen de referencia cuando la segunda imagen de referencia es una imagen B. Y, no hay necesidad de transmitir la informacion de vector de movimiento y se puede mejorar la eficacia de prediccion.
Ademas, en modo directo, dado que se escala un primer vector de movimiento si una segunda imagen de referencia tiene el primer vector de movimiento y un segundo vector de movimiento se escala si la segunda imagen de referencia no tiene el primer vector de movimiento sino solamente el segundo vector de movimiento, no hay necesidad de anadir informacion de vector de movimiento a un secuencia de bits y se puede mejorar la eficacia de prediccion.
Ademas, segun el procedimiento de decodificacion de imagenes en movimiento de la presente invencion, se puede decodificar adecuadamente un secuencia de bits, que se genera como resultado de codificacion de bi-prediccion entre imagenes usando imagenes que se situan cercanas temporalmente en orden de visualizacion como la primera y segunda imagenes de referencia.
Aplicabilidad industrial
Como se describio anteriormente, el procedimiento de codificacion de imagenes en movimiento y el procedimiento de decodificacion de imagenes en movimiento segun la presente invencion son utiles como un procedimiento para codificar datos de imagen que corresponden a imagenes que forman una imagen en movimiento para generar un secuencia de bits y un procedimiento para decodificar el secuencia de bits generado, usando un telefono movil, un aparato DVD y un ordenador personal, por ejemplo.
Claims (2)
- 510152025303540455055REIVINDICACIONES1. Un procedimiento de decodificacion para decodificar un bloque actual en una imagen actual en modo directo, en el que el bloque actual esta compensado en movimiento usando dos imagenes de referencia que comprenden una imagen de referencia hacia delante y una imagen de referencia hacia atras, y dos vectores de movimiento que corresponden a las dos imagenes de referencia, comprendiendo dicho procedimiento de decodificacion:especificar, como una imagen de referencia hacia atras para el bloque actual, una imagen de referencia que esta localizada inmediatamente despues de la imagen actual en orden de visualizacion;especificar, como un bloque co-situado, un bloque compensado en movimiento incluido en la imagen de referencia hacia atras especificada y localizado identicamente al bloque actual; derivar un vector de movimiento del bloque co-situado;especificar, como una imagen de referencia hacia delante para el bloque actual, una imagen de referencia que corresponde al vector de movimiento derivado del bloque co-situado;generar un vector de movimiento hacia delante y un vector de movimiento hacia atras para el bloque actual escalando el vector de movimiento derivado del bloque co-situado en base a una diferencia entre la informacion de orden de visualizacion de la imagen de referencia hacia delante, informacion de orden de visualizacion de la imagen de referencia hacia atras e informacion de orden de visualizacion de la imagen actual; y realizar compensacion de movimiento en el bloque actual haciendo referencia a la imagen de referencia hacia delante y a la imagen de referencia hacia atras, en el que la imagen de referencia hacia delante corresponde al vector de movimiento hacia delante generado y la imagen de referencia hacia atras corresponde al vector de movimiento hacia atras generado,caracterizado porque(a) en un caso en que la imagen que incluye el bloque co-situado es una imagen B y el bloque co-situado es compensado en movimiento usando unicamente un vector de movimiento hacia delante, derivar, como el vector de movimiento del bloque co-situado, el unico vector de movimiento hacia delante,(b) en un caso en que la imagen que incluye el bloque co-situado es una imagen B y el bloque co-situado es compensado en movimiento usando dos vectores de movimiento que comprenden un vector de movimiento hacia delante y un vector de movimiento hacia atras, derivar, como el vector de movimiento del bloque co- situado, el vector de movimiento hacia delante de los dos vectores de movimiento, y(c) en un caso en que la imagen que incluye el bloque co-situado es una imagen B y el bloque co-situado es compensado en movimiento en modo directo usando dos vectores de movimiento que se generan usando un vector de movimiento de una imagen ya decodificada distinta de la imagen que incluye el bloque co-situado, derivar, como el vector de movimiento del bloque co-situado, el vector de movimiento hacia delante de los dos vectores de movimiento usados en compensacion de movimiento del bloque co-situado.
- 2. Un aparato de decodificacion que decodifica un bloque actual en una imagen actual en modo directo, en el que el bloque actual esta compensado en movimiento usando dos imagenes de referencia que comprenden una imagen de referencia hacia delante y una imagen de referencia hacia atras, y dos vectores de movimiento que corresponden a las dos imagenes de referencia, comprendiendo dicho aparato de decodificacion:una unidad de especificacion de imagen de referencia hacia atras para especificar, como una imagen de referencia hacia atras para el bloque actual, una imagen de referencia que esta localizada inmediatamente despues de la imagen actual en orden de visualizacion;una unidad de especificacion co-situada para especificar, como un bloque co-situado, un bloque compensado en movimiento incluido en la imagen de referencia hacia atras especificada y localizado identicamente en el bloque actual;una unidad de derivacion para derivar un vector de movimiento del bloque co-situado;una imagen de referencia hacia delante que especifica la unidad para especificar, como una imagen de referencia hacia delante para el bloque actual, una imagen de referencia que corresponde al vector de movimiento derivado del bloque co-situado;una unidad de generacion para generar un vector de movimiento hacia delante y un vector de movimiento hacia atras para el bloque actual escalando el vector de movimiento derivado del bloque co-situado en base a una diferencia entre la informacion de orden de visualizacion de la imagen de referencia hacia delante, informacion de orden de visualizacion de la imagen de referencia hacia atras e informacion de orden de visualizacion de la imagen actual; yuna unidad de realizacion para realizar compensacion de movimiento en el bloque actual haciendo referencia a la imagen de referencia hacia delante y a la imagen de referencia hacia atras, en el que la imagen de referencia hacia delante corresponde al vector de movimiento hacia delante generado y la imagen de referencia hacia atras corresponde al vector de movimiento hacia atras generado,caracterizado porque(a) en un caso en que la imagen que incluye el bloque co-situado es una imagen B y el bloque co-situado esta compensado en movimiento usando unicamente un vector de movimiento hacia delante, derivar, como el vector10de movimiento del bloque co-situado, el unico vector de movimiento hacia delante,(b) en un caso en que la imagen que incluye el bloque co-situado es una imagen B y el bloque co-situado esta compensado en movimiento usando dos vectores de movimiento que comprenden un vector de movimiento hacia delante y un vector de movimiento hacia atras, derivar, como el vector de movimiento del bloque co- situado, el vector de movimiento hacia delante de los dos vectores de movimiento, y(c) en un caso en que la imagen que incluye el bloque co-situado es una imagen B y el bloque co-situado esta compensado en movimiento en modo directo usando dos vectores de movimiento que se generan usando un vector de movimiento de una imagen ya decodificada distinta de la imagen que incluye el bloque co-situado, derivar, como el vector de movimiento del bloque co-situado, el vector de movimiento hacia delante de los dos vectores de movimiento usados en compensacion de movimiento del bloque co-situado.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002056919 | 2002-03-04 | ||
JP2002056919 | 2002-03-04 | ||
JP2002118598 | 2002-04-19 | ||
JP2002118598 | 2002-04-19 | ||
JP2002193027 | 2002-07-02 | ||
JP2002193027 | 2002-07-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2644448T3 true ES2644448T3 (es) | 2017-11-29 |
Family
ID=27792038
Family Applications (9)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16156358.0T Expired - Lifetime ES2644048T3 (es) | 2002-03-04 | 2003-02-26 | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento |
ES10182775.6T Expired - Lifetime ES2491094T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES17177672T Expired - Lifetime ES2723725T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES03707082.8T Expired - Lifetime ES2489490T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES10182783.0T Expired - Lifetime ES2588179T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES17177671T Expired - Lifetime ES2719216T3 (es) | 2002-03-04 | 2003-02-26 | Procedimiento de codificación de imágenes en movimiento y procedimiento de descodificación de imágenes en movimiento |
ES10182789.7T Expired - Lifetime ES2491095T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES18211538T Expired - Lifetime ES2829621T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES16156344.0T Expired - Lifetime ES2644448T3 (es) | 2002-03-04 | 2003-02-26 | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento |
Family Applications Before (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16156358.0T Expired - Lifetime ES2644048T3 (es) | 2002-03-04 | 2003-02-26 | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento |
ES10182775.6T Expired - Lifetime ES2491094T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES17177672T Expired - Lifetime ES2723725T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES03707082.8T Expired - Lifetime ES2489490T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES10182783.0T Expired - Lifetime ES2588179T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES17177671T Expired - Lifetime ES2719216T3 (es) | 2002-03-04 | 2003-02-26 | Procedimiento de codificación de imágenes en movimiento y procedimiento de descodificación de imágenes en movimiento |
ES10182789.7T Expired - Lifetime ES2491095T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
ES18211538T Expired - Lifetime ES2829621T3 (es) | 2002-03-04 | 2003-02-26 | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
Country Status (18)
Country | Link |
---|---|
US (5) | US7664180B2 (es) |
EP (9) | EP3253057B1 (es) |
JP (1) | JP2004088722A (es) |
KR (2) | KR100948714B1 (es) |
CN (1) | CN100474933C (es) |
AU (1) | AU2003211717C1 (es) |
BR (2) | BR0303342A (es) |
CA (3) | CA2762149C (es) |
CY (3) | CY1115427T1 (es) |
DK (6) | DK2271108T3 (es) |
ES (9) | ES2644048T3 (es) |
HU (6) | HUE052192T2 (es) |
MX (1) | MXPA03007628A (es) |
MY (1) | MY139955A (es) |
PT (6) | PT2271107E (es) |
SI (3) | SI2271107T1 (es) |
TW (2) | TWI325281B (es) |
WO (1) | WO2003075580A1 (es) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2602575T3 (es) | 2001-11-06 | 2017-02-21 | Panasonic Intellectual Property Corporation Of America | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
KR100508798B1 (ko) | 2002-04-09 | 2005-08-19 | 엘지전자 주식회사 | 쌍방향 예측 블록 예측 방법 |
KR100931750B1 (ko) | 2002-04-19 | 2009-12-14 | 파나소닉 주식회사 | 움직임 벡터 계산방법 |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
KR100693669B1 (ko) * | 2003-03-03 | 2007-03-09 | 엘지전자 주식회사 | 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법 |
US20060013305A1 (en) * | 2004-07-14 | 2006-01-19 | Sharp Laboratories Of America, Inc. | Temporal scalable coding using AVC coding tools |
KR100584603B1 (ko) * | 2004-08-03 | 2006-05-30 | 학교법인 대양학원 | 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치 |
FR2874292B1 (fr) * | 2004-08-10 | 2007-01-26 | Thales Sa | Procede de mise en forme de trames d'une sequence video |
US8649439B2 (en) * | 2004-11-26 | 2014-02-11 | Panasonic Corporation | Decoding circuit, decoding device, and decoding system |
WO2006112139A1 (ja) * | 2005-04-13 | 2006-10-26 | Sharp Kabushiki Kaisha | 動画像再生装置 |
JP4702943B2 (ja) * | 2005-10-19 | 2011-06-15 | キヤノン株式会社 | 画像処理装置及びその方法 |
WO2007132647A1 (ja) * | 2006-05-12 | 2007-11-22 | Panasonic Corporation | 動画像復号化装置 |
JP4712643B2 (ja) * | 2006-08-17 | 2011-06-29 | 富士通セミコンダクター株式会社 | フレーム間予測処理装置、フレーム間予測方法、画像符号化装置及び画像復号装置 |
JP2008177907A (ja) * | 2007-01-19 | 2008-07-31 | Fujitsu Ltd | 動画データ復号装置、情報機器、動画データ復号方法および動画データ復号プログラム |
JP5100311B2 (ja) * | 2007-10-29 | 2012-12-19 | キヤノン株式会社 | 動画像データ送信方法、通信装置、及びプログラム |
JP5332773B2 (ja) * | 2009-03-18 | 2013-11-06 | ソニー株式会社 | 画像処理装置および方法 |
CN102090066A (zh) * | 2009-05-13 | 2011-06-08 | 松下电器产业株式会社 | 图像解码装置、集成电路、图像解码方法及图像解码系统 |
KR20110068792A (ko) | 2009-12-16 | 2011-06-22 | 한국전자통신연구원 | 적응적 영상 부호화 장치 및 방법 |
US9036692B2 (en) * | 2010-01-18 | 2015-05-19 | Mediatek Inc. | Motion prediction method |
CN105025301B (zh) * | 2010-01-19 | 2019-08-23 | 三星电子株式会社 | 图像解码设备 |
EP3913923A1 (en) | 2010-01-19 | 2021-11-24 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding/decoding images using a motion vector of a previous block as a motion vector for the current block |
KR20120009861A (ko) * | 2010-07-22 | 2012-02-02 | 에스케이 텔레콤주식회사 | 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치 |
KR101914018B1 (ko) * | 2010-09-30 | 2018-10-31 | 미쓰비시덴키 가부시키가이샤 | 동화상 복호 장치, 동화상 복호 방법, 동화상 부호화 장치, 동화상 부호화 방법 및 기록 매체 |
US9300961B2 (en) | 2010-11-24 | 2016-03-29 | Panasonic Intellectual Property Corporation Of America | Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus |
CN106878742B (zh) | 2011-01-12 | 2020-01-07 | 太阳专利托管公司 | 动态图像编解码装置 |
JP5893570B2 (ja) | 2011-01-28 | 2016-03-23 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 画像符号化方法および画像復号化方法 |
US10404998B2 (en) * | 2011-02-22 | 2019-09-03 | Sun Patent Trust | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus |
KR101878008B1 (ko) * | 2011-03-03 | 2018-07-13 | 선 페이턴트 트러스트 | 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치 |
ES2685945T3 (es) | 2011-04-12 | 2018-10-15 | Sun Patent Trust | Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento |
PL3751854T3 (pl) | 2011-05-24 | 2023-08-28 | Sun Patent Trust | Sposób kodowania obrazu, urządzenie do kodowania obrazu, sposób dekodowania obrazu, urządzenie do dekodowania obrazu oraz urządzenie do kodowania/dekodowania obrazu |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
EP4007276B1 (en) | 2011-05-27 | 2023-07-05 | Sun Patent Trust | Apparatus, method and program for coding moving pictures |
CN103548351B (zh) | 2011-05-31 | 2017-07-11 | 太阳专利托管公司 | 运动图像解码方法及运动图像解码装置 |
SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
JP5786478B2 (ja) * | 2011-06-15 | 2015-09-30 | 富士通株式会社 | 動画像復号装置、動画像復号方法、及び動画像復号プログラム |
JP5807402B2 (ja) * | 2011-06-15 | 2015-11-10 | 富士通株式会社 | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
USRE47366E1 (en) | 2011-06-23 | 2019-04-23 | Sun Patent Trust | Image decoding method and apparatus based on a signal type of the control parameter of the current block |
KR102008030B1 (ko) | 2011-06-23 | 2019-08-06 | 선 페이턴트 트러스트 | 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치 |
RU2603552C2 (ru) * | 2011-06-24 | 2016-11-27 | Сан Пэтент Траст | Способ декодирования изображения, способ кодирования изображения, устройство декодирования изображения, устройство кодирования изображения и устройство кодирования и декодирования изображения |
WO2012176464A1 (ja) | 2011-06-24 | 2012-12-27 | パナソニック株式会社 | 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置 |
BR112013030347B1 (pt) | 2011-06-27 | 2022-06-28 | Sun Patent Trust | Método de decodificação de imagem, método de codificação de imagem, aparelho de decodificação de imagem, aparelho de codificação de imagem e aparelho de codificação e de decodificação de imagem |
TWI685251B (zh) | 2011-06-28 | 2020-02-11 | 南韓商三星電子股份有限公司 | 對影像做畫面內預測的裝置及編碼裝置以及包括位元串流的非暫態電腦可讀取媒體 |
MY165469A (en) | 2011-06-28 | 2018-03-23 | Sun Patent Trust | Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus |
JP6112418B2 (ja) * | 2011-06-29 | 2017-04-12 | サン パテント トラスト | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置 |
MX2013010892A (es) | 2011-06-29 | 2013-12-06 | Panasonic Corp | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes. |
CN102256124B (zh) * | 2011-06-30 | 2013-05-15 | 杭州海康威视数字技术股份有限公司 | 一种图像分层编码方法和装置 |
CN103583048B (zh) | 2011-06-30 | 2017-05-17 | 太阳专利托管公司 | 图像解码方法、图像编码方法、图像解码装置、图像编码装置及图像编码解码装置 |
KR102060619B1 (ko) | 2011-06-30 | 2019-12-30 | 선 페이턴트 트러스트 | 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치 |
PL2728878T3 (pl) | 2011-06-30 | 2020-06-15 | Sun Patent Trust | Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów |
CN103765885B (zh) | 2011-07-11 | 2017-04-12 | 太阳专利托管公司 | 图像解码方法、图像编码方法、图像解码装置、图像编码装置及图像编解码装置 |
US9819963B2 (en) | 2011-07-12 | 2017-11-14 | Electronics And Telecommunications Research Institute | Inter prediction method and apparatus for same |
EP2741499A4 (en) | 2011-08-03 | 2014-12-10 | Panasonic Ip Corp America | VIDEO CODING METHOD, VIDEO CODING METHOD, VIDEO CODING DEVICE, VIDEO ENCODING DEVICE AND VIDEO ENCODING / DECODING DEVICE |
IN2014CN02602A (es) | 2011-10-19 | 2015-08-07 | Panasonic Corp | |
US20130177084A1 (en) * | 2012-01-10 | 2013-07-11 | Qualcomm Incorporated | Motion vector scaling in video coding |
JP6012014B2 (ja) * | 2012-03-30 | 2016-10-25 | サン パテント トラスト | 画像符号化方法および画像復号方法 |
WO2014078068A1 (en) | 2012-11-13 | 2014-05-22 | Intel Corporation | Content adaptive transform coding for next generation video |
US9442904B2 (en) * | 2012-12-21 | 2016-09-13 | Vmware, Inc. | Systems and methods for applying a residual error image |
EP2952003B1 (en) | 2013-01-30 | 2019-07-17 | Intel Corporation | Content adaptive partitioning for prediction and coding for next generation video |
WO2014174591A1 (ja) * | 2013-04-23 | 2014-10-30 | 富士通株式会社 | 画像符号化装置、画像符号化方法、及び撮像装置 |
KR101789954B1 (ko) * | 2013-12-27 | 2017-10-25 | 인텔 코포레이션 | 차세대 비디오 코딩을 위한 콘텐츠 적응적 이득 보상된 예측 |
US10587880B2 (en) | 2017-03-30 | 2020-03-10 | Qualcomm Incorporated | Zero block detection using adaptive rate model |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0420088A (ja) * | 1990-05-14 | 1992-01-23 | Victor Co Of Japan Ltd | フレーム間符号化装置 |
JP3031638B2 (ja) | 1991-01-30 | 2000-04-10 | 富士通株式会社 | 蓄積用動画像符号化方式における補間フレームのベクトル探索方法 |
JPH05137131A (ja) | 1991-11-13 | 1993-06-01 | Sony Corp | フレーム間動き予測方法 |
JPH0662391A (ja) * | 1992-08-10 | 1994-03-04 | Nippon Telegr & Teleph Corp <Ntt> | 動画像予測符号化方法 |
US5329365A (en) | 1993-07-07 | 1994-07-12 | Rca Thomson Licensing Corporation | Method and apparatus for providing compressed non-interlaced scanned video signal |
JP3513277B2 (ja) | 1995-08-29 | 2004-03-31 | シャープ株式会社 | 映像符号化装置及び映像復号化装置 |
US5809173A (en) | 1995-04-18 | 1998-09-15 | Advanced Micro Devices, Inc. | Method and apparatus for improved video decompression using previous frame DCT coefficients |
US5724446A (en) * | 1995-04-18 | 1998-03-03 | Advanced Micro Devices, Inc. | Video decoder apparatus using non-reference frame as an additional prediction source and method therefor |
EP1274254B1 (en) | 1995-08-29 | 2011-07-06 | Sharp Kabushiki Kaisha | Video coding device and video decoding device with a motion compensated interframe prediction |
JP2001224036A (ja) | 1995-10-18 | 2001-08-17 | Sharp Corp | 動画像符号化装置 |
JP3344577B2 (ja) | 1996-09-09 | 2002-11-11 | ソニー株式会社 | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、並びに記録方法 |
JP3263807B2 (ja) | 1996-09-09 | 2002-03-11 | ソニー株式会社 | 画像符号化装置および画像符号化方法 |
JPH10126787A (ja) * | 1996-10-14 | 1998-05-15 | Nec Eng Ltd | Pピクチャの予測ベクトルをオフセットベクトルとした双方向予測ベクトル検出回路 |
US5991447A (en) | 1997-03-07 | 1999-11-23 | General Instrument Corporation | Prediction and coding of bi-directionally predicted video object planes for interlaced digital video |
SG65064A1 (en) | 1997-04-09 | 1999-05-25 | Matsushita Electric Ind Co Ltd | Image predictive decoding method image predictive decoding apparatus image predictive coding method image predictive coding apparatus and data storage media |
JP3776735B2 (ja) | 1997-04-09 | 2006-05-17 | 松下電器産業株式会社 | 画像予測復号化方法,画像予測復号化装置,画像予測符号化方法,画像予測符号化装置,及びデータ記憶媒体 |
DE69841029D1 (de) | 1997-06-25 | 2009-09-10 | Nippon Telegraph & Telephone | Bewegungsprädiktive Bildkodierungs- und Bilddekodierungsvorrichtung |
JPH1169356A (ja) | 1997-08-25 | 1999-03-09 | Mitsubishi Electric Corp | 動画像符号化方式及び動画像復号方式 |
US6249318B1 (en) | 1997-09-12 | 2001-06-19 | 8×8, Inc. | Video coding/decoding arrangement and method therefor |
US6807231B1 (en) | 1997-09-12 | 2004-10-19 | 8×8, Inc. | Multi-hypothesis motion-compensated video image predictor |
US6396874B1 (en) | 1997-11-12 | 2002-05-28 | Sony Corporation | Decoding method and apparatus and recording method and apparatus for moving picture data |
JP3523481B2 (ja) | 1998-02-23 | 2004-04-26 | シャープ株式会社 | 映像符号化装置及び映像復号化装置並びに映像符号化方法及び映像復号化方法 |
JP3329768B2 (ja) | 1999-07-05 | 2002-09-30 | 日本電信電話株式会社 | 画像符号化データの再符号化方法およびそのプログラム記録媒体 |
JP2001045475A (ja) | 1999-07-27 | 2001-02-16 | Matsushita Electric Ind Co Ltd | 映像信号階層化符号化装置と映像信号階層化復号化装置及びプログラム記録媒体 |
JP3757088B2 (ja) | 1999-10-26 | 2006-03-22 | 日本電気株式会社 | 動画像符号化装置および方法 |
GB2362532B (en) | 2000-05-15 | 2004-05-05 | Nokia Mobile Phones Ltd | Video coding |
KR100744366B1 (ko) | 2000-06-26 | 2007-07-30 | 마츠시타 덴끼 산교 가부시키가이샤 | 광디스크용 편집장치, 컴퓨터-판독가능한 저장매체, 및 편집방법 |
JP4245790B2 (ja) | 2000-08-29 | 2009-04-02 | オリンパス株式会社 | 超音波処置具 |
AUPR208000A0 (en) * | 2000-12-15 | 2001-01-11 | 80-20 Software Pty Limited | Method of document searching |
US8010800B2 (en) * | 2001-06-26 | 2011-08-30 | Sealedmedia Limited | Search engine and digital rights management |
WO2003014975A1 (en) * | 2001-08-08 | 2003-02-20 | Quiver, Inc. | Document categorization engine |
US20030074328A1 (en) * | 2001-10-09 | 2003-04-17 | Steven Schiff | System and method for conducting a financial transaction using a communication device |
US6738980B2 (en) | 2001-11-15 | 2004-05-18 | Industrial Technology Research Institute | Methods and systems for video streaming with VCR functionality |
US6980596B2 (en) | 2001-11-27 | 2005-12-27 | General Instrument Corporation | Macroblock level adaptive frame/field coding for digital video content |
EP1459562A2 (en) | 2001-11-21 | 2004-09-22 | General Instrument Corporation | Picture level adaptive frame/field coding for digital video content |
PT2268039E (pt) | 2001-11-21 | 2015-10-26 | Google Technology Holdings LLC | Codificação adaptativa de quadro/campo ao nível dos macroblocos para o conteúdo de vídeo digital |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
JP5137131B2 (ja) | 2008-08-08 | 2013-02-06 | 東芝キヤリア株式会社 | 給湯装置 |
-
2003
- 2003-02-25 JP JP2003047936A patent/JP2004088722A/ja not_active Withdrawn
- 2003-02-26 CA CA2762149A patent/CA2762149C/en not_active Expired - Lifetime
- 2003-02-26 BR BR0303342-2A patent/BR0303342A/pt active IP Right Grant
- 2003-02-26 US US10/468,119 patent/US7664180B2/en not_active Expired - Lifetime
- 2003-02-26 PT PT101827756T patent/PT2271107E/pt unknown
- 2003-02-26 WO PCT/JP2003/002099 patent/WO2003075580A1/ja active Application Filing
- 2003-02-26 MX MXPA03007628A patent/MXPA03007628A/es active IP Right Grant
- 2003-02-26 HU HUE18211538A patent/HUE052192T2/hu unknown
- 2003-02-26 ES ES16156358.0T patent/ES2644048T3/es not_active Expired - Lifetime
- 2003-02-26 ES ES10182775.6T patent/ES2491094T3/es not_active Expired - Lifetime
- 2003-02-26 EP EP17177672.7A patent/EP3253057B1/en not_active Expired - Lifetime
- 2003-02-26 EP EP03707082.8A patent/EP1406450B1/en not_active Expired - Lifetime
- 2003-02-26 DK DK10182783.0T patent/DK2271108T3/en active
- 2003-02-26 ES ES17177672T patent/ES2723725T3/es not_active Expired - Lifetime
- 2003-02-26 ES ES03707082.8T patent/ES2489490T3/es not_active Expired - Lifetime
- 2003-02-26 ES ES10182783.0T patent/ES2588179T3/es not_active Expired - Lifetime
- 2003-02-26 AU AU2003211717A patent/AU2003211717C1/en not_active Expired
- 2003-02-26 KR KR1020077027477A patent/KR100948714B1/ko active IP Right Grant
- 2003-02-26 PT PT101827897T patent/PT2271109E/pt unknown
- 2003-02-26 SI SI200332377T patent/SI2271107T1/sl unknown
- 2003-02-26 DK DK16156344.0T patent/DK3051814T3/da active
- 2003-02-26 EP EP16156358.0A patent/EP3054679B1/en not_active Expired - Lifetime
- 2003-02-26 HU HUE17177672A patent/HUE042956T2/hu unknown
- 2003-02-26 PT PT101827830T patent/PT2271108T/pt unknown
- 2003-02-26 HU HUE03707082A patent/HUE024412T2/en unknown
- 2003-02-26 CA CA2443848A patent/CA2443848C/en not_active Expired - Lifetime
- 2003-02-26 EP EP18211538.6A patent/EP3490254B1/en not_active Expired - Lifetime
- 2003-02-26 HU HUE10182775A patent/HUE024411T2/en unknown
- 2003-02-26 DK DK10182775.6T patent/DK2271107T3/da active
- 2003-02-26 BR BRPI0303342-2A patent/BRPI0303342B1/pt unknown
- 2003-02-26 EP EP10182789.7A patent/EP2271109B1/en not_active Expired - Lifetime
- 2003-02-26 DK DK10182789.7T patent/DK2271109T3/da active
- 2003-02-26 ES ES17177671T patent/ES2719216T3/es not_active Expired - Lifetime
- 2003-02-26 ES ES10182789.7T patent/ES2491095T3/es not_active Expired - Lifetime
- 2003-02-26 DK DK16156358.0T patent/DK3054679T3/da active
- 2003-02-26 ES ES18211538T patent/ES2829621T3/es not_active Expired - Lifetime
- 2003-02-26 SI SI200332550T patent/SI3051814T1/sl unknown
- 2003-02-26 EP EP10182783.0A patent/EP2271108B1/en not_active Expired - Lifetime
- 2003-02-26 HU HUE17177671A patent/HUE044024T2/hu unknown
- 2003-02-26 DK DK03707082.8T patent/DK1406450T3/da active
- 2003-02-26 HU HUE16156344A patent/HUE036491T2/hu unknown
- 2003-02-26 EP EP17177671.9A patent/EP3253056B1/en not_active Expired - Lifetime
- 2003-02-26 PT PT161563580T patent/PT3054679T/pt unknown
- 2003-02-26 PT PT161563440T patent/PT3051814T/pt unknown
- 2003-02-26 CA CA2762075A patent/CA2762075C/en not_active Expired - Lifetime
- 2003-02-26 ES ES16156344.0T patent/ES2644448T3/es not_active Expired - Lifetime
- 2003-02-26 EP EP10182775.6A patent/EP2271107B1/en not_active Expired - Lifetime
- 2003-02-26 CN CNB038053462A patent/CN100474933C/zh not_active Expired - Lifetime
- 2003-02-26 EP EP16156344.0A patent/EP3051814B1/en not_active Expired - Lifetime
- 2003-02-26 PT PT3707082T patent/PT1406450E/pt unknown
- 2003-02-26 SI SI200332370T patent/SI1406450T1/sl unknown
- 2003-02-26 KR KR1020037011082A patent/KR100923380B1/ko active IP Right Grant
- 2003-03-03 TW TW092104416A patent/TWI325281B/zh not_active IP Right Cessation
- 2003-03-03 TW TW095107763A patent/TWI324889B/zh not_active IP Right Cessation
- 2003-03-03 MY MYPI20030752A patent/MY139955A/en unknown
-
2007
- 2007-10-31 US US11/980,556 patent/US7856060B2/en not_active Expired - Lifetime
- 2007-10-31 US US11/980,558 patent/US8718141B2/en active Active
- 2007-10-31 US US11/980,534 patent/US7742526B2/en not_active Expired - Lifetime
- 2007-10-31 US US11/980,557 patent/US7801219B2/en not_active Expired - Lifetime
-
2014
- 2014-08-04 CY CY20141100591T patent/CY1115427T1/el unknown
- 2014-08-08 CY CY20141100626T patent/CY1115440T1/el unknown
-
2017
- 2017-10-25 CY CY20171101107T patent/CY1119479T1/el unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2644448T3 (es) | Procedimiento de codificación de imágenes en movimiento y procedimiento de decodificación de imágenes en movimiento | |
ES2600786T3 (es) | Procedimiento de decodificación de vectores de movimiento | |
ES2729258T3 (es) | Cálculo del vector de movimiento en modo directo evitando divisiones por cero | |
ES2306380T3 (es) | Procedimiento de codificacion de imagenes en movimiento y procedimiento de decodificacion de imagenes en movimiento. | |
ES2353957T3 (es) | Procedimiento de codificación de vectores de movimiento y procedimiento de decodificación de vectores de movimiento. |