ES2687685T3 - Procedimiento de codificación de instantáneas en movimiento, dispositivo de codificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, dispositivo de decodificación de instantáneas en movimiento y dispositivo de codificación-decodificación de instantáneas en movimiento - Google Patents

Procedimiento de codificación de instantáneas en movimiento, dispositivo de codificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, dispositivo de decodificación de instantáneas en movimiento y dispositivo de codificación-decodificación de instantáneas en movimiento Download PDF

Info

Publication number
ES2687685T3
ES2687685T3 ES12744978.3T ES12744978T ES2687685T3 ES 2687685 T3 ES2687685 T3 ES 2687685T3 ES 12744978 T ES12744978 T ES 12744978T ES 2687685 T3 ES2687685 T3 ES 2687685T3
Authority
ES
Spain
Prior art keywords
motion vector
snapshot
snapshots
block
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12744978.3T
Other languages
English (en)
Inventor
Toshiyasu Sugio
Takahiro Nishi
Youji Shibahara
Hisao Sasai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Patent Trust Inc
Original Assignee
Sun Patent Trust Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Patent Trust Inc filed Critical Sun Patent Trust Inc
Application granted granted Critical
Publication of ES2687685T3 publication Critical patent/ES2687685T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un procedimiento de codificación de instantáneas en movimiento para realizar codificación de inter predicción en un bloque objetivo de codificación incluido en una instantánea objetivo de codificación, comprendiendo el procedimiento de codificación de instantáneas en movimiento: codificar el bloque objetivo de codificación usando un vector de movimiento; generar una pluralidad de predictores de vectores de movimiento; y codificar el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados en la generación, en el que, en la generación, (i) se determina si está prohibido obtener un predictor de vector de movimiento temporal desde un bloque co-localizado que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación (S12), aplicándose la prohibición para instantáneas codificadas a las que puede hacerse referencia por otras instantáneas y que hacen referencia a otras instantáneas, y (ii) cuando está prohibido obtener el predictor de vector de movimiento temporal desde el bloque co-localizado (Sí en S12), un vector de sustitución que sustituye el predictor de vector de movimiento temporal está incluido en la pluralidad de predictores de vectores de movimiento.

Description

5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Procedimiento de codificación de instantáneas en movimiento, dispositivo de codificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, dispositivo de decodificación de instantáneas en movimiento y dispositivo de codificación-decodificación de instantáneas en movimiento
Campo técnico
La presente invención se refiere a un procedimiento de codificación de instantáneas en movimiento y a un procedimiento de decodificación de instantáneas en movimiento.
Antecedentes de la técnica
En un procedimiento de codificación de vídeo, la cantidad de información generalmente se comprime utilizando redundancia en una dirección espacial o en una dirección temporal de un vídeo. En este punto, se usa generalmente la transformada en un dominio de frecuencia como un procedimiento que utiliza redundancia en una dirección espacial. Por otra parte, la predicción inter instantánea (en lo sucesivo denominada como inter predicción) se usa como un procedimiento que utiliza redundancia en una dirección temporal.
Cuando se codifica una instantánea objetivo de codificación en un procedimiento de codificación de inter predicción, se usa una instantánea codificada localizada hacia adelante o hacia atrás de la instantánea objetivo de codificación en orden de tiempo de visualización como una instantánea de referencia. Un vector de movimiento se deriva desde la instantánea de referencia realizando estimación de movimiento para la instantánea objetivo de codificación. A continuación, se elimina la redundancia en la dirección temporal calculando la diferencia entre los datos de imagen de predicción obtenidos realizando compensación de movimiento basándose en el vector de movimiento y en los datos de imagen de la instantánea objetivo de codificación. En este punto, en la estimación de movimiento, se calcula el valor de la diferencia entre un bloque objetivo de codificación en la instantánea objetivo de codificación y cada uno de los bloques en la instantánea de referencia, y el bloque que tiene el valor de diferencia mínima en la instantánea de referencia se determina como un bloque de referencia. El vector de movimiento se estima usando el bloque objetivo de codificación y el bloque de referencia.
En la norma de codificación de vídeo normalizada denominada H.264, se usan tres tipos de instantáneas denominadas instantánea I, instantánea P e instantánea B para comprimir la cantidad de información. Una instantánea I es una instantánea para la que no se realiza procedimiento de codificación de inter predicción, en otras palabras, para la que se realizan únicamente procedimientos de codificación de predicción de intra instantánea (en lo sucesivo denominado como intra predicción). Una instantánea P es una instantánea para la que se realiza codificación de inter predicción con referencia a únicamente una instantánea codificada localizada hacia delante o hacia atrás de una instantánea objetivo de codificación en orden de tiempo de visualización. Una instantánea B es una instantánea para la que se realiza inter predicción con referencia a dos instantáneas codificadas cada una localizada hacia delante o hacia atrás de una instantánea objetivo de codificación en orden de tiempo de visualización.
Además, la norma de codificación de vídeo denominada H.264 soporta modos de estimación de vector de movimiento para codificar el valor de diferencia entre datos de imagen de predicción y un bloque objetivo de codificación y un vector de movimiento usado para generar los datos de imagen de predicción, como modos de codificación para realizar inter predicción en cada uno de los bloques objetivo de codificación en una instantánea B. Como los modos de estimación de vector de movimiento, pueden seleccionarse las siguientes direcciones: una predicción bidireccional para generar una imagen de predicción con referencia a dos instantáneas codificadas localizadas hacia delante o hacia atrás de una instantánea objetivo de codificación; y una predicción unidireccional para generar una imagen de predicción con referencia a una instantánea codificada localizada hacia delante o hacia atrás de una instantánea objetivo de codificación.
Además, en la norma de codificación de vídeo denominada H.264, es posible seleccionar un modo de codificación denominado un modo de predictor de vector de movimiento temporal cuando se deriva un vector de movimiento al codificar una instantánea B. Se describe el procedimiento de codificación de inter predicción en el modo de predictor de vector de movimiento temporal con referencia a la Figura 19. La Figura 19 es una ilustración de vectores de movimiento en el modo de predictor de vector de movimiento temporal, y muestra un caso de codificación de un bloque en una instantánea B2 usando el modo de predictor de vector de movimiento temporal.
En este caso, se usa un vector de movimiento vb que es de un bloque b co-localizado con el bloque ay en la instantánea P3. La instantánea P3 es una instantánea de referencia localizada hacia atrás de la instantánea B2. El vector de movimiento vb es un vector de movimiento usado en la codificación del bloque b, y muestra la referencia a la instantánea P1. El bloque a se codifica por predicción bidireccional usando un bloque de referencia obtenido desde la instantánea P1 que es una instantánea de referencia hacia delante y una instantánea P3 que es una instantánea de referencia hacia atrás usando un vector de movimiento paralelo al vector de movimiento vb. En otras palabras, los vectores de movimiento usados al codificar el bloque a son un vector de movimiento va1 en relación con la instantánea P1 y un vector de movimiento va2 en relación con la instantánea P3.
5
10
15
20
25
30
35
40
45
50
[Lista de citas]
[Bibliografía no de patente]
ITU-TRecommendationH.264 "Advanced Video Coding for generic audiovisual Services", marzo de 2010 Sumario de la invención
[Problema técnico]
Sin embargo, en el modo de predictor de vector de movimiento temporal convencional, cuando se pierde la información de una instantánea de referencia que tiene información tal como un vector de movimiento a usarse para calcular un predictor de vector de movimiento temporal, por ejemplo, debido a una pérdida de paquete en distribución de flujo continuo, es imposible calcular un predictor de vector de movimiento temporal correcto, dando como resultado una imagen decodificada deteriorada. Adicionalmente, el error se propaga a instantáneas que hacen referencia a la imagen decodificada, que puede dar como resultado la detención del procedimiento de decodificación. Por ejemplo, cuando se pierde la información de la instantánea de referencia P3 en la Figura 19, es imposible calcular un predictor de vector de movimiento temporal para la instantánea B2. Esto hace imposible realizar la decodificación correcta de la instantánea B2, que puede dar como resultado la detención del procedimiento de decodificación.
En vista de esto, la presente invención se realizó con objeto de proporcionar un procedimiento de codificación de instantáneas en movimiento y un procedimiento de decodificación de instantáneas en movimiento que hacen posible evitar de manera eficaz la propagación de error en la decodificación. Esto se consigue mediante las características de las reivindicaciones independientes.
[Solución al problema]
El procedimiento de codificación de instantáneas en movimiento de acuerdo con un aspecto de la presente invención es un procedimiento para realizar codificación de inter predicción en un bloque objetivo de codificación incluido en una instantánea objetivo de codificación. Más específicamente, el procedimiento de codificación de instantáneas en movimiento incluye: codificar el bloque objetivo de codificación usando un vector de movimiento; generar una pluralidad de predictores de vectores de movimiento; y codificar el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados en la generación, en el que, en la generación, un vector de sustitución que sustituye un predictor de vector de movimiento temporal está incluido en la pluralidad de predictores de vectores de movimiento cuando es imposible obtener el predictor de vector de movimiento temporal desde un bloque que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación.
Con esta estructura, es posible evitar la propagación de error de decodificación mientras se suprime la reducción en eficacia de codificación incluyendo de manera selectiva un predictor de vector de movimiento temporal o un vector de sustitución en candidatos de predictor de vector de movimiento.
Además, en la generación, puede incluirse un vector de movimiento que tiene una cantidad de movimiento de 0, como el vector de sustitución, en la pluralidad de predictores de vectores de movimiento cuando la obtención del predictor de vector de movimiento temporal desde la instantánea codificada está prohibida.
Además, en la generación, puede contarse el número de instantáneas codificadas de acuerdo con el procedimiento de codificación de instantáneas en movimiento, y puede prohibirse la obtención del predictor de vector de movimiento temporal desde la instantánea codificada cuando se codifica la instantánea objetivo de codificación, siendo la instantánea objetivo de codificación una instantánea codificada en un momento en el que el número de instantáneas codificadas supera un valor predeterminado.
Además, el procedimiento de codificación de instantáneas en movimiento puede ser un procedimiento de codificación de instantáneas cada una de las cuales está en una vista de base o una vista dependiente incluida en un vídeo de múltiples vistas, y puede incluir adicionalmente generar un vector de paralaje que corresponde a la paralaje entre la vista de base y la vista dependiente. Además, en la generación, el vector de paralaje puede incluirse, como el vector de sustitución, en la pluralidad de predictores de vectores de movimiento cuando la instantánea objetivo de codificación está en la vista dependiente y es una instantánea de inicio en un Grupo de Instantáneas (GOP).
Además, el procedimiento de codificación de instantáneas en movimiento puede ser un procedimiento de codificación de instantáneas cada una de las cuales está en una vista de base o una vista dependiente incluida en un vídeo de múltiples vistas, e incluye adicionalmente generar un vector de paralaje que corresponde a la paralaje entre la vista de base y la vista dependiente. Además, en la generación, el vector de paralaje puede incluirse, como el vector de sustitución, en la pluralidad de predictores de vectores de movimiento cuando está prohibida la obtención del predictor de vector de movimiento temporal desde la instantánea codificada.
5
10
15
20
25
30
35
40
45
50
55
60
Además, el vector de paralaje puede calcularse usando un vector de movimiento obtenido cuando se realiza predicción de inter-vista en cada uno de los bloques incluidos en la instantánea en la vista dependiente, usando la instantánea incluida en la vista de base y que corresponde a la instantánea en la vista dependiente. Además, en la generación, el vector de paralaje puede incluirse, como el vector de sustitución, en la pluralidad de predictores de vectores de movimiento, usándose el vector de paralaje cuando se codifica una instantánea de inicio en un GOP inmediatamente antes del GOP que incluye la instantánea objetivo de codificación.
Además, el vector de paralaje puede calcularse usando un vector de movimiento obtenido cuando se realiza predicción de inter-vista en cada uno de los bloques incluidos en la vista dependiente, usando la instantánea incluida en la vista de base y que corresponde a la instantánea en la vista dependiente. Además, en la generación, el vector de paralaje puede incluirse, como el vector de sustitución, en la pluralidad de predictores de vectores de movimiento, usándose el vector de paralaje cuando se codifica una instantánea codificada inmediatamente antes de la instantánea codificada.
El procedimiento de decodificación de instantáneas en movimiento de acuerdo con un aspecto de la presente invención es un procedimiento para realizar decodificación de inter predicción en un bloque objetivo de decodificación en una instantánea objetivo de decodificación. Más específicamente, el procedimiento de decodificación de instantáneas en movimiento incluye: generar una pluralidad de vectores de movimiento; decodificar el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados en la generación; y decodificar el bloque objetivo de decodificación usando el vector de movimiento decodificado en la decodificación. En la generación, un vector de sustitución que sustituye un predictor de vector de movimiento temporal se incluye en la pluralidad de predictores de vectores de movimiento cuando es imposible obtener el predictor de vector de movimiento temporal desde un bloque que está incluido en una instantánea decodificada diferente de la instantánea objetivo de decodificación y corresponde al bloque objetivo de decodificación.
Un aparato de codificación de instantáneas en movimiento de acuerdo con un aspecto de la presente invención codifica un bloque objetivo de codificación incluido en una instantánea objetivo de codificación. Más específicamente, el aparato de codificación de instantáneas en movimiento incluye: un codificador de imagen que codifica el bloque objetivo de codificación usando un vector de movimiento; una unidad de generación de candidato de predictor de vector de movimiento configurada para generar una pluralidad de predictores de vectores de movimiento; y un codificador de vector de movimiento que codifica el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados por la unidad de generación de candidato de predictor de vector de movimiento. La unidad de generación de candidato de predictor de vector de movimiento está configurada para añadir un vector de sustitución que sustituye un predictor de vector de movimiento temporal a la pluralidad de predictores de vectores de movimiento cuando es imposible obtener el predictor de vector de movimiento temporal desde un bloque que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación.
Un aparato de decodificación de instantáneas en movimiento de acuerdo con un aspecto de la presente invención decodifica un bloque objetivo de decodificación incluido en una instantánea objetivo de decodificación. Más específicamente, el aparato de decodificación de instantáneas en movimiento incluye: un decodificador de imagen que decodifica el bloque objetivo de decodificación usando un vector de movimiento; una unidad de generación de candidato de predictor de vector de movimiento configurada para generar una pluralidad de predictores de vectores de movimiento; y un decodificador de vector de movimiento que decodifica el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados por la unidad de generación de candidato de predictor de vector de movimiento. La unidad de generación de candidato de predictor de vector de movimiento está configurada para añadir un vector de sustitución que sustituye un predictor de vector de movimiento temporal a la pluralidad de predictores de vectores de movimiento cuando es imposible obtener el predictor de vector de movimiento temporal desde un bloque que está incluido en una instantánea decodificada diferente de la instantánea objetivo de decodificación y corresponde al bloque objetivo de decodificación.
Un aparato de codificación y decodificación de instantánea en movimiento de acuerdo con un aspecto de la presente invención incluye: una unidad de codificación de instantánea en movimiento configurada para realizar codificación de inter predicción en un bloque objetivo de codificación incluido en una instantánea objetivo de codificación; y una unidad de decodificación de instantánea en movimiento configurada para realizar decodificación de inter predicción en un bloque objetivo de decodificación generado por la unidad de codificación de instantánea de movimiento. La unidad de codificación de instantánea de movimiento incluye: un codificador de imagen que codifica el bloque objetivo de codificación usando un vector de movimiento; una primera unidad de generación de candidato de predictor de vector de movimiento configurada para generar una pluralidad de predictores de vectores de movimiento; y un codificador de vector de movimiento que codifica el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados por la primera unidad de generación de candidato de predictor de vector de movimiento. La primera unidad de generación de candidato de predictor de vector de movimiento está configurada para añadir un vector de sustitución que sustituye un predictor de vector de movimiento temporal a la pluralidad de predictores de vectores de movimiento cuando es imposible obtener el predictor de vector de movimiento temporal desde un bloque que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación. La unidad de decodificación de instantánea
5
10
15
20
25
30
35
40
45
50
55
en movimiento incluye: un decodificador de imagen que decodifica el bloque objetivo de decodificación usando un vector de movimiento; una segunda unidad de generación de candidato de predictor de vector de movimiento configurada para generar una pluralidad de predictores de vectores de movimiento; y un decodificador de vector de movimiento que decodifica el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados por la segunda unidad de generación de candidato de predictor de vector de movimiento. La segunda unidad de generación de candidato de predictor de vector de movimiento está configurada para añadir un vector de sustitución que sustituye un predictor de vector de movimiento temporal a la pluralidad de predictores de vectores de movimiento cuando es imposible obtener el predictor de vector de movimiento temporal desde un bloque que está incluido en una instantánea decodificada diferente de la instantánea objetivo de decodificación y corresponde al bloque objetivo de decodificación.
El procedimiento de codificación de instantáneas en movimiento de acuerdo con otro aspecto de la presente invención es un procedimiento de codificación del bloque objetivo de codificación usando un vector de movimiento de referencia de un bloque de referencia incluido en una instantánea de referencia diferente de una instantánea objetivo de codificación que incluye el bloque objetivo de codificación. El bloque de referencia en la instantánea de referencia está co-localizado con el bloque objetivo de codificación en la instantánea objetivo de codificación. El procedimiento de codificación de imagen incluye: determinar un valor de una bandera predeterminada que indica si usar un primer vector de movimiento de referencia del bloque de referencia o un segundo vector de movimiento de referencia del bloque de referencia en el momento de la codificación del vector de movimiento en el bloque objetivo de codificación; asignar una secuencia de bits a un tercer vector de movimiento de referencia calculado desde el segundo vector de movimiento de referencia cuando la bandera predeterminada indica el uso del segundo vector de movimiento de referencia de la instantánea de referencia; codificar un vector de movimiento para el bloque objetivo de codificación de acuerdo con el valor de la bandera predeterminada; y una unidad de asignación de bandera de asignación de la secuencia de bits la bandera predeterminada.
Además, la determinación puede incluir: contar el número de instantáneas codificadas entre las instantáneas objetivo de codificación; y, cuando el número de instantáneas codificadas es menor que un valor predeterminado, determinar el uso del primer vector de movimiento de referencia del bloque de referencia en el momento de la codificación del vector de movimiento en el bloque objetivo de codificación; y cuando el número de instantáneas codificadas entre las instantáneas objetivo de codificación es mayor o igual que el valor predeterminado, determinar el uso del segundo vector de movimiento de referencia del bloque de referencia en el momento de la codificación del vector de movimiento en el bloque objetivo de codificación, y resetear el número.
Además, el segundo vector de movimiento de referencia de la instantánea de referencia puede calcularse desde un valor promedio de vectores de movimiento de bloques codificados en la instantánea de referencia.
Además, el segundo vector de movimiento de referencia de la instantánea de referencia puede calcularse desde un vector de movimiento que aparece de manera más frecuente entre vectores de movimiento de bloques codificados en la instantánea de referencia.
Además, la codificación puede incluir, cuando el bloque de referencia incluye dos o más vectores de movimiento de referencia: seleccionar uno de los vectores de movimiento de referencia, basándose en si la instantánea de referencia está localizada hacia delante o hacia atrás de la instantánea objetivo de codificación; y codificar el vector de movimiento para el bloque objetivo de codificación usando el vector de movimiento de referencia determinado.
Además, cuando el bloque de referencia incluye vectores de movimiento de referencia hacia delante y hacia atrás, en la selección, puede seleccionarse el vector de movimiento de referencia hacia delante entre los vectores de movimiento de referencia hacia delante y hacia atrás cuando el bloque objetivo de codificación está localizado hacia delante del bloque de referencia; y puede seleccionarse el vector de movimiento de referencia hacia atrás entre los vectores de movimiento de referencia hacia delante y hacia atrás cuando el bloque objetivo de codificación está localizado hacia atrás del bloque de referencia.
Además, cuando el bloque de referencia incluye uno de los vectores de movimiento de referencia hacia delante y hacia atrás, en la selección, puede seleccionarse uno de los vectores de movimiento de referencia hacia delante y hacia atrás que está incluido en el bloque de referencia independientemente de una relación posicional entre el bloque de referencia y el bloque objetivo de codificación.
El procedimiento de decodificación de instantáneas en movimiento de acuerdo con otro aspecto de la presente invención es un procedimiento para decodificar el bloque objetivo de decodificación usando un vector de movimiento de referencia de un bloque de referencia incluido en una instantánea de referencia diferente de una instantánea objetivo de decodificación que incluye el bloque objetivo de decodificación. El bloque de referencia en la instantánea de referencia está co-localizado con el bloque objetivo de decodificación en la instantánea objetivo de decodificación. El procedimiento de decodificación de imagen incluye: decodificar un valor de una bandera predeterminada que indica si usar un primer vector de movimiento de referencia del bloque de referencia o usar un segundo vector de movimiento de referencia de la instantánea de referencia en el momento de la decodificación del vector de movimiento para el bloque objetivo de decodificación; decodificar, desde una secuencia de bits, un tercer vector de movimiento de referencia calculado desde el segundo vector de movimiento de referencia cuando la
5
10
15
20
25
30
35
40
45
50
55
bandera predeterminada indica el uso del segundo vector de movimiento de referencia de la instantánea de referencia; y decodificar un vector de movimiento del bloque objetivo de decodificación de acuerdo con el valor de la bandera predeterminada.
Además, la decodificación puede incluir, cuando el bloque de referencia incluye dos o más vectores de movimiento de referencia: seleccionar uno de los vectores de movimiento de referencia, basándose en si la instantánea de referencia está localizada hacia delante o hacia atrás de la instantánea objetivo de decodificación; y decodificar el vector de movimiento para el bloque objetivo de decodificación usando el vector de movimiento de referencia determinado.
Además, cuando el bloque de referencia incluye vectores de movimiento de referencia hacia delante y hacia atrás, en la selección, puede seleccionarse el vector de movimiento de referencia hacia delante entre los vectores de movimiento de referencia hacia delante y hacia atrás cuando el bloque objetivo de decodificación está localizado hacia delante del bloque de referencia; y puede seleccionarse el vector de movimiento de referencia hacia atrás entre los vectores de movimiento de referencia hacia delante y hacia atrás cuando el bloque objetivo de decodificación está localizado hacia atrás del bloque de referencia.
Además, cuando el bloque de referencia incluye uno de los vectores de movimiento de referencia hacia delante y hacia atrás, en la selección, puede seleccionarse uno de los vectores de movimiento de referencia hacia delante y hacia atrás que está incluido en el bloque de referencia independientemente de una relación posicional entre el bloque de referencia y el bloque objetivo de decodificación.
Además, el segundo vector de movimiento de referencia de la instantánea de referencia puede calcularse desde un valor promedio de vectores de movimiento de bloques decodificados en la instantánea de referencia.
Además, el segundo vector de movimiento de referencia de la instantánea de referencia puede calcularse desde un vector de movimiento que aparece de manera más frecuente de entre los vectores de movimiento de bloques decodificados en la instantánea de referencia.
Efectos ventajosos
De acuerdo con la presente invención, es posible evitar la propagación de error de decodificación mientras se reduce la supresión en la eficacia de codificación incluyendo de manera selectiva un predictor de vector de movimiento temporal o un vector de sustitución en candidatos de predictor de vector de movimiento.
Breve descripción de los dibujos
[FIG. 1]
La Figura 1 es un diagrama de bloques de un aparato de codificación de instantáneas en movimiento de acuerdo con la realización 1.
[FIG. 2]
La Figura 2 es un diagrama que muestra un flujo esquemático de procedimientos en un procedimiento de codificación de instantáneas en movimiento de acuerdo con la realización 1.
[FIG. 3]
La Figura 3 muestra ejemplos de candidatos de predictor de vector de movimiento.
[FIG. 4]
La Figura 4 muestra un ejemplo de una tabla de código para su uso al realizar codificación de longitud variable en los índices de predictor de vector de movimiento.
[FIG. 5]
La Figura 5 muestra un flujo de determinación de un candidato de predictor de vector de movimiento.
[FIG. 6]
La Figura 6 es un diagrama conceptual que muestra procedimientos de lectura desde y escritura en una memoria colPic y una unidad de almacenamiento de vector global.
[FIG. 7A]
La Figura 7A es un diagrama que muestra el flujo de procesamiento detallado de la etapa S11 en la Figura 2. [FIG. 7B]
La Figura 7B muestra ejemplos de instantáneas B a las que se hace referencia por otras instantáneas.
[FIG. 8]
La Figura 8 es un diagrama que muestra el flujo de procesamiento detallado de la etapa S17 en la Figura 2.
[FIG. 9]
La Figura 9 es un diagrama que muestra el flujo de procesamiento detallado de las etapas S13 y S14 en la Figura 2.
[FIG. 10A]
La Figura 10A es un diagrama que muestra un procedimiento ejemplar de derivación de un candidato de predictor de vector de movimiento usando un vector de movimiento de referencia hacia delante.
[FIG. 10B]
La Figura 10B es un diagrama que muestra un procedimiento ejemplar de derivación de un candidato de
5
10
15
20
25
30
35
40
45
50
55
60
65
predictor de vector de movimiento [FIG. 11A]
La Figura 11A es un diagrama predictor de vector de movimiento [FIG. 11B]
La Figura 11B es un diagrama predictor de vector de movimiento [FIG. 12]
La Figura 12 es un diagrama de acuerdo con la realización 2.
[FIG. 13]
La Figura 13 es un diagrama que muestra un flujo esquemático de procedimientos en un procedimiento de decodificación de instantáneas en movimiento de acuerdo con la realización 2.
[FIG. 14]
La Figura 14 es un diagrama que muestra ejemplos de sintaxis de una secuencia de bits en el procedimiento de decodificación de instantáneas en movimiento de acuerdo con la realización 2.
[FIG. 15]
La Figura 15 es un diagrama de bloques de un aparato de codificación de instantáneas en movimiento de acuerdo con la variación de la realización 1.
[FIG. 16]
La Figura 16 es un diagrama de operaciones de flujo en un procedimiento de codificación de instantáneas en movimiento de acuerdo con la variación de la realización 1.
[FIG. 17]
La Figura 17 es un diagrama que muestra instantáneas en una vista de base e instantáneas en una vista dependiente.
[FIG. 18]
La Figura 18 es un diagrama de bloques de un aparato de decodificación de instantáneas en movimiento de acuerdo con la variación de la realización 2.
[FIG. 19]
La Figura 19 es una ilustración de vectores de movimiento en un modo de predictor de vector de movimiento temporal.
[FIG. 20]
La Figura 20 muestra una configuración global de un sistema de suministro de contenido para implementar servicios de distribución de contenido.
[FIG. 21]
La Figura 21 muestra una configuración global de un sistema de difusión digital.
[FIG. 22]
La Figura 22 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una televisión.
[FIG. 23]
La Figura 23 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información desde y en un medio de grabación que es un disco óptico.
[FIG. 24]
La Figura 24 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico.
[FIG. 25]
En la Figura 25, (a) muestra un ejemplo de un teléfono celular, y (b) es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono celular.
[FIG. 26]
La Figura 26 ilustra una estructura de datos multiplexados.
[FIG. 27]
La Figura 27 muestra esquemáticamente cómo se multiplexa cada flujo en datos multiplexados.
[FIG. 28]
La Figura 28 muestra cómo se almacena un flujo de vídeo en un flujo de paquetes de PES en más detalle.
[FIG. 29]
La Figura 29 muestra una estructura de paquetes de TS y paquetes de origen en los datos multiplexados.
[FIG. 30]
La Figura 30 muestra una estructura de datos de una PMT.
[FIG. 31]
La Figura 31 muestra una estructura interna de información de datos multiplexados.
[FIG. 32]
La Figura 32 muestra una estructura interna de información de atributo de flujo.
[FIG. 33]
La Figura 33 muestra las etapas para identificar datos de vídeo.
[FIG. 34]
La Figura 34 muestra un ejemplo de una configuración de un circuito integrado para implementar el procedimiento de codificación de instantáneas en movimiento y el procedimiento de decodificación de
usando un vector de movimiento de referencia hacia atrás.
que muestra un procedimiento ejemplar de derivación de un candidato de usando un vector de movimiento de referencia hacia atrás.
que muestra un procedimiento ejemplar de derivación de un candidato de usando un vector de movimiento de referencia hacia delante.
bloques de un aparato de decodificación de instantáneas en movimiento de
5
10
15
20
25
30
35
40
45
50
55
instantáneas en movimiento de acuerdo con cada una de las realizaciones.
[FIG. 35]
La Figura 35 muestra una configuración para conmutar entre frecuencias de accionamiento.
[FIG. 36]
La Figura 36 muestra las etapas para identificar datos de vídeo y conmutar entre frecuencias de accionamiento. [FIG. 37]
La Figura 37 muestra un ejemplo de una tabla de correspondencia en la que normas de datos de vídeo están asociadas con frecuencias de accionamiento.
[FIG. 38]
En la Figura 38, (a) es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal, y (b) es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señal.
Descripción de las realizaciones
En lo sucesivo, se describen realizaciones ejemplares de la presente invención con referencia a los dibujos. [Realización 1]
La Figura 1 es un diagrama de bloques de un aparato de codificación de instantáneas en movimiento que realiza un procedimiento de codificación de instantáneas en movimiento de acuerdo con la realización 1 de la presente invención.
Como se muestra en la Figura 1, el aparato 100 de codificación de instantáneas en movimiento incluye: un restador 101, una unidad 102 de transformada ortogonal, una unidad 103 de cuantificación, una unidad 104 de cuantificación inversa, una unidad 105 de transformada ortogonal inversa, un sumador 106, una memoria 107 de bloque, una memoria 108 de fotograma, una unidad 109 de intra predicción, una unidad 110 de inter predicción, un conmutador 111, una unidad 112 de control de inter predicción, una unidad 113 de determinación de tipo de instantánea, una unidad 114 de cálculo de predictor de vector de movimiento temporal, una memoria 115 colPic, una unidad 116 de almacenamiento de vector global, una unidad 117 de determinación de información de bloque co-localizado, y un codificador 118 de longitud variable.
El restador 101 obtiene un flujo de imagen de entrada que incluye un bloque objetivo de codificación desde el exterior del aparato, obtiene un bloque de predicción desde el conmutador 111, y emite un bloque residual obtenido restando el bloque de predicción desde un bloque objetivo de codificación a la unidad 102 de transformada ortogonal.
La unidad 102 de transformada ortogonal transforma el bloque residual obtenido desde el restador 101 desde un dominio de imagen a un dominio de frecuencia, y emite los coeficientes de transformada a la unidad 103 de cuantificación. La unidad 103 de cuantificación cuantifica los coeficientes de transformada obtenidos desde la unidad 103 de cuantificación, y emite los coeficientes cuantificados a la unidad 104 de cuantificación inversa y al codificador 118 de longitud variable.
La unidad 104 de cuantificación inversa realiza cuantificación inversa en los coeficientes cuantificados obtenidos desde la unidad de cuantificación, y emite los coeficientes de transformada reconstruidos a la unidad 105 de
transformada ortogonal inversa. La unidad 105 de transformada ortogonal inversa transforma los coeficientes de
transformada reconstruidos obtenidos desde la unidad 104 de cuantificación inversa desde el dominio de la frecuencia al dominio de la imagen, y emite el bloque residual objetivo al sumador 106.
El sumador 106 añade el bloque residual objetivo obtenido desde la unidad 105 de transformada ortogonal inversa y el bloque de predicción obtenido desde el conmutador 111, y emite el bloque objetivo reconstruido a la memoria 107 de bloque y a la memoria 108 de fotograma. La memoria 107 de bloque almacena el flujo de imagen de entrada reconstruido en una base bloque a bloque. La memoria 108 de fotograma almacena el flujo de imagen de entrada reconstruido en una base fotograma a fotograma.
La unidad 113 de determinación de tipo de instantánea determina el tipo de instantánea a usarse para la codificación del flujo de imagen de entrada de entre la instantánea I, la instantánea B y la instantánea B y genera la información de tipo de instantánea. La unidad 113 de determinación de tipo de instantánea emite la información de tipo de
instantánea generada al conmutador 111, a la unidad 112 de control de inter predicción, a la unidad 117 de
determinación de información de bloque co-localizado, y al codificador 118 de longitud variable.
La unidad 109 de intra predicción realiza intra predicción en el bloque objetivo de codificación usando el flujo de imagen de entrada basado en el bloque reconstruido almacenado en la memoria 107 de bloque para generar un bloque de predicción, y emite el bloque de predicción generado al conmutador 111. La unidad 110 de inter predicción realiza inter predicción en el bloque objetivo de codificación usando el flujo de imagen de entrada basado el fotograma reconstruido almacenado en la memoria 108 de fotograma y un vector de movimiento derivado a través de la estimación de movimiento para generar un bloque de predicción, y emite el bloque de predicción generado al conmutador 111.
5
10
15
20
25
30
35
40
45
50
55
El conmutador 111 emite el bloque de predicción generado por la unidad 109 de intra predicción o el bloque de predicción generado por la unidad 110 de inter predicción al restador 101 y al sumador 106. Por ejemplo, el conmutador 111 emite uno de los dos bloques de predicción que tiene un coste de codificación menor.
La unidad 117 de determinación de información de bloque co-localizado determina si prohibir o no el uso de un bloque co-localizado. La unidad 117 de determinación de información de bloque co-localizado genera, para cada una de las instantáneas, una bandera de prohibición de uso de bloque co-localizado que indica el resultado de la determinación, y emite la bandera a la unidad 114 de cálculo de predictor de vector de movimiento temporal y al codificador 118 de longitud variable. Esta bandera de prohibición de uso de bloque co-localizado está incluida en la secuencia de bits (típicamente, en un encabezamiento de instantánea o un encabezamiento de corte).
Además, la unidad 117 de determinación de información de bloque co-localizado determina, como un bloque colocalizado, uno de un bloque (en lo sucesivo denominado como un bloque de referencia hacia delante) que está incluido en una instantánea localizada hacia delante de la instantánea objetivo de codificación en orden de tiempo de visualización y un bloque (en lo sucesivo denominado como un bloque de referencia hacia atrás) que está incluido en una instantánea localizada hacia atrás de la instantánea objetivo de codificación en orden de tiempo de visualización. En otras palabras, el bloque de referencia hacia delante es un bloque incluido en una instantánea de referencia que se determina por una lista de instantáneas de referencia L0. Además, el bloque de referencia hacia atrás es un bloque incluido en una instantánea de referencia que se determina por una lista de instantáneas de referencia L1.
La unidad 117 de determinación de información de bloque co-localizado genera, para cada una de las instantáneas, una bandera de dirección de bloque de referencia co-localizado que indica el resultado de la determinación, y emite la bandera a la unidad 114 de cálculo de predictor de vector de movimiento temporal y al codificador 118 de longitud variable. Esta bandera de dirección de bloque de referencia co-localizado está incluida en la secuencia de bits (típicamente, en un encabezamiento de instantánea o un encabezamiento de corte). Además, cuando un valor que indica “prohibición” se establece a la bandera de prohibición de uso de bloque co-localizado, puede omitirse la bandera de dirección de bloque de referencia co-localizado.
En este punto, un bloque co-localizado es un bloque que está en una instantánea diferente de una instantánea que incluye un bloque objetivo de codificación y está co-localizado con el bloque objetivo de codificación. Se ha de observar que el bloque objetivo de codificación y el bloque co-localizado no es necesario siempre que estén colocalizados de manera precisa entre sí en las instantáneas. Por ejemplo, puede determinarse un bloque que rodea (vecino a) el bloque en el que está una instantánea diferente de la instantánea objetivo de codificación y está colocalizado con el bloque objetivo de codificación como un bloque co-localizado.
La unidad 114 de cálculo de predictor de vector de movimiento temporal deriva un candidato de predictor de vector de movimiento usando información colPic tal como un vector de movimiento de un bloque co-localizado almacenado en la memoria 115 colPic y un vector de movimiento global de una instantánea colPic almacenada en la unidad de almacenamiento de vector global, de acuerdo con el valor de la bandera de prohibición de uso de bloque colocalizado obtenido desde la unidad 117 de determinación de información de bloque co-localizado.
Más específicamente, cuando la bandera de prohibición de uso de bloque co-localizado está activada (prohibición), la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global (vector de sustitución) leído desde la unidad 116 de almacenamiento de vector global a los candidatos de predictor de vector de movimiento. Por otra parte, cuando la bandera de prohibición de uso de bloque co-localizado está desactivada (permisión), la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el predictor de vector de movimiento temporal calculado usando la información colPic leída desde la memoria 115 colPic a los candidatos de predictor de vector de movimiento.
Además, la unidad 114 de cálculo de predictor de vector de movimiento temporal asigna al predictor de vector de movimiento añadido como un candidato un valor de índice de predictor de vector de movimiento. La unidad 114 de cálculo de predictor de vector de movimiento temporal emite el predictor de vector de movimiento añadido como el candidato y el índice de predictor de vector de movimiento a la unidad 112 de control de inter predicción. Por otra parte, cuando el bloque co-localizado no tiene ningún vector de movimiento, la unidad 114 de cálculo de predictor de vector de movimiento temporal detiene la derivación del vector de movimiento en un modo de predictor de vector de movimiento temporal o deriva un vector de movimiento que tiene una cantidad de movimiento de 0 como un candidato de predictor de vector de movimiento. Además, la unidad 114 de cálculo de predictor de vector de movimiento temporal emite el vector de movimiento global al codificador 118 de longitud variable.
La unidad 112 de control de inter predicción determina que un vector de movimiento se codifica usando un candidato de predictor de vector de movimiento que tiene la diferencia mínima desde un vector de movimiento derivado a través de la estimación de movimiento de entre una pluralidad de candidatos de predictor de vector de movimiento. En este punto, por ejemplo, una diferencia muestra el valor de diferencia entre el candidato de predictor de vector de movimiento y el vector de movimiento derivado a través de la estimación de movimiento.
Además, la unidad 112 de control de inter predicción genera un índice de predictor de vector de movimiento que
5
10
15
20
25
30
35
40
45
50
55
corresponde al predictor de vector de movimiento determinado en una base bloque a bloque. A continuación, la unidad 112 de control de inter predicción transmite el índice de predictor de vector de movimiento, y el valor de la diferencia entre el vector de movimiento y el predictor de vector de movimiento al codificador de longitud variable. Además, la unidad 112 de control de inter predicción transmite información colPic que incluye el vector de movimiento etc., para el bloque objetivo de codificación a la memoria 115 colPic. Además, la unidad 112 de control de inter predicción transmite el vector de movimiento etc., para el bloque objetivo de codificación a la unidad 116 de almacenamiento de vector global.
La información colPic que incluye el vector de movimiento etc., para el bloque objetivo de codificación se almacena en la memoria 115 colPic para su uso como un predictor de vector en el momento de codificación una siguiente instantánea. Un vector de movimiento global calculado desde los vectores de movimiento para los bloques objetivo de codificación en la totalidad de la instantánea se almacena en la unidad 116 de almacenamiento de vector global para su uso como un predictor de vector en el momento de la codificación de la siguiente instantánea.
El codificador 118 de longitud variable genera una secuencia de bits realizando un procedimiento de codificación de longitud variable en: los coeficientes cuantificados obtenidos desde la unidad 103 de cuantificación; el índice de predictor de vector de movimiento, el valor de diferencia entre el vector de movimiento y el predictor de vector de movimiento obtenido desde la unidad 112 de control de inter predicción; la información de tipo de instantánea obtenida desde la unidad 113 de determinación de tipo de instantánea; la bandera de prohibición de uso de bloque co-localizado y la bandera de dirección de bloque de referencia co-localizado obtenida desde la unidad 117 de determinación de información de bloque co-localizado; y el predictor de vector de movimiento global temporal obtenido desde la unidad 114 de cálculo de predictor de vector de movimiento temporal.
La Figura 2 es un diagrama que muestra un flujo esquemático de procedimientos en un procedimiento de codificación de instantáneas en movimiento de acuerdo con la realización 1 de la presente invención.
La unidad 117 de determinación de información de bloque co-localizado determina información de bloque colocalizado tal como la bandera de prohibición de uso de bloque co-localizado y la bandera de dirección de bloque de referencia co-localizado de acuerdo con un procedimiento descrito más adelante cuando se deriva un candidato de predictor de vector de movimiento en el modo de predictor de vector de movimiento temporal (S11).
A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si la bandera de prohibición de uso de bloque co-localizado está activada o no (prohibición) (S12). Cuando el resultado de la determinación es verdadero (Sí en S12), la unidad 114 de cálculo de predictor de vector de movimiento temporal lee un vector de movimiento global desde la unidad 116 de almacenamiento de vector global y añade el vector de movimiento global leído a información de encabezamiento tal como un encabezamiento de instantánea (S13).
A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global, como un vector de sustitución que sustituye el predictor de vector de movimiento temporal, a candidatos de predictor de vector de movimiento. Además, la unidad 114 de cálculo de predictor de vector de movimiento temporal asigna al predictor de vector de movimiento añadido como el candidato un valor de índice de predictor de vector de movimiento.
Por otra parte, cuando la bandera de prohibición de uso de bloque co-localizado está desactivada (No en S12), la unidad 114 de cálculo de predictor de vector de movimiento temporal lee información colPic que incluye un vector de movimiento de referencia etc., para un bloque co-localizado desde la memoria colPic de acuerdo con la información de bloque co-localizado, y añade un predictor de vector de movimiento temporal calculado usando el vector de movimiento de referencia del bloque co-localizado a los candidatos de predictor de vector de movimiento (S17). Además, la unidad 114 de cálculo de predictor de vector de movimiento temporal asigna al predictor de vector de movimiento añadido como el candidato un valor de índice de predictor de vector de movimiento.
En general, un valor de índice de predictor de vector de movimiento más pequeño muestra una cantidad más pequeña de información necesaria. Por otra parte, un valor de índice de predictor de vector de movimiento más grande muestra una cantidad más grande de información necesaria. Por consiguiente, se aumenta la eficacia de codificación cuando se asigna un valor de índice de predictor de vector de movimiento pequeño a un vector de movimiento que tiene una alta posibilidad de hacerse un vector de movimiento altamente preciso.
A continuación, la unidad 110 de inter predicción realiza inter predicción usando un vector de movimiento derivado a través de la estimación de movimiento para generar un bloque de predicción para el bloque objetivo de codificación. Posteriormente, el restador 101, la unidad 102 de transformada ortogonal, la unidad 103 de cuantificación, y el codificador 118 de longitud variable operan para realizar procedimientos de codificación en el bloque objetivo de codificación usando el bloque de predicción generado por la unidad 110 de inter predicción.
Además, la unidad 112 de control de inter predicción codifica un vector de movimiento usando un predictor de vector de movimiento que tiene la diferencia mínima desde el vector de movimiento seleccionado a partir de la pluralidad de candidatos de predictor de vector de movimiento. La unidad 112 de control de inter predicción determina, para que sean diferencias, los valores de diferencias entre los respectivos candidatos de predictor de vector de movimiento y el vector de movimiento derivado a través de la estimación de movimiento, y determina el predictor de vector de
5
10
15
20
25
30
35
40
movimiento que tiene la diferencia mínima para que sea un predictor de vector de movimiento para su uso en la codificación del vector de movimiento.
A continuación, la unidad 112 de control de inter predicción emite el índice de predictor de vector de movimiento que corresponde al predictor de vector de movimiento seleccionado, y la información de diferencia entre el vector de movimiento y el predictor de vector de movimiento al codificador 118 de longitud variable. El codificador 118 de longitud variable realiza codificación de longitud variable en el índice de vector de movimiento y la información de diferencia obtenida desde la unidad 112 de control de inter predicción, y las incluye en la secuencia de bits.
A continuación, la unidad 112 de control de inter predicción almacena la información colPic que incluye el vector de movimiento etc., usado en la inter predicción en la memoria 115 colPic. Para calcular un predictor de vector de movimiento temporal para el bloque objetivo de codificación, se almacena un vector de movimiento en una instantánea de referencia, un valor de índice de la instantánea de referencia, y una dirección de predicción etc., en la memoria 115 colPic. Además, la unidad 112 de control de inter predicción almacena un vector de movimiento, etc., usado en la inter predicción en la unidad 116 de almacenamiento de vector global (S16).
La Figura 3 muestra ejemplos de candidatos de predictor de vector de movimiento. Un vector de movimiento A (MV_A) es un vector de movimiento para un bloque vecino A localizado a la izquierda del bloque objetivo de codificación. Un vector de movimiento B (MV_B) es un vector de movimiento para un bloque vecino B localizado por encima del bloque objetivo de codificación. Un vector de movimiento C (MV_C) es un vector de movimiento de un bloque vecino C localizado a la derecha por encima del bloque objetivo de codificación. Además, la mediana (de MV_A, MV_B, MV_C) muestra un valor de mediana de los vectores de movimiento A, B y C. En este punto, el valor de mediana se deriva usando, por ejemplo, las Expresiones 1 a 3 como se muestra a continuación.
[Cálculo 1]
Mediana (x, y, z) — x + y + z - Min(x, Min(y, z)) — Mcix(x, Mcix(y, z))
... (Expresión 1)
[Cálculo 2]
imagen1
[Cálculo 3]
imagen2
(x < y) (x > y)
(x > y) (x < y)
(Expresión 2)
(Expresión 3)
Los valores del índice de predictor de vector de movimiento son como sigue: el valor que corresponde a la Mediana (de MV_A, MV_B, MV_C) es 0; el valor que corresponde al vector de movimiento A es 1; el valor que corresponde al vector de movimiento B es 2; el valor que corresponde al vector de movimiento C es 3; y el valor que corresponde al predictor de vector de movimiento temporal (o un vector de sustitución) es 4. Cómo asignar los valores a los índices de predictor de vector de movimiento no está limitado a este ejemplo.
La Figura 4 muestra un ejemplo de una tabla de código para su uso al realizar codificación de longitud variable en los índices de predictor de vector de movimiento. En el ejemplo de la Figura 4, se asignan códigos a los índices de predictor de vector de movimiento de manera que un código que tiene una longitud de código más corta se asigna a un índice de predictor de vector de movimiento que tiene un valor más pequeño. Por consiguiente, es posible aumentar la eficacia de codificación asignando un valor de índice de vector de movimiento pequeño a un candidato de predictor de vector de movimiento que tiene una alta posibilidad de producir una alta predicción de predicción.
La Figura 5 es un diagrama de un flujo de determinación de candidato de predictor de vector de movimiento realizado por la unidad 112 de control de inter predicción. De acuerdo con el flujo mostrado en la Figura 5, se determina el candidato de predictor de vector de movimiento que tiene la diferencia mínima desde el vector de movimiento derivado a través de la estimación de movimiento para que sea el predictor de vector de movimiento que se usa cuando se codifica el vector de movimiento. A continuación, la información acerca de la diferencia entre el vector de movimiento y el predictor de vector de movimiento y el índice de predictor de vector de movimiento que indica que el predictor de vector de movimiento determinado están codificados por longitud variable e incluidos en la
5
10
15
20
25
30
35
40
45
50
55
secuencia de bits.
Más específicamente, en primer lugar, la unidad 112 de control de inter predicción inicializa el índice de candidato de predictor de vector de movimiento mvp_idx y la diferencia de vector de movimiento mínima (S21). A continuación, la unidad 112 de control de inter predicción compara un índice de candidato de predictor de vector de movimiento mvp_idx y el número de predictores de vectores de movimiento (el número de registros en una tabla mostrada en la Figura 3) (S22).
Cuando se satisface mvp_idx < el número de predictores de vectores de movimiento (Sí en S22), la unidad 112 de control de inter predicción calcula una diferencia de vector de movimiento (información de diferencia) usando uno de la pluralidad de candidatos de predictor de vector de movimiento (S23). Por ejemplo, la unidad 112 de control de inter predicción calcula una diferencia de vector de movimiento restando un predictor de vector de movimiento que tiene un índice de predictor de vector de movimiento de 0 en la Figura 3 desde un vector de movimiento usado para codificar un bloque objetivo de codificación.
A continuación, la unidad 112 de control de inter predicción compara la diferencia de vector de movimiento calculada en la etapa S23 y la diferencia de vector de movimiento mínima (S24). Cuando se satisface una diferencia de vector de movimiento < la diferencia de vector de movimiento mínima (Sí en S24), la unidad 112 de control de inter predicción establece (sobrescribe) la diferencia de vector de movimiento calculada en la etapa S23 a la diferencia de vector de movimiento mínima, y establece (sobrescribe) el mvp_idx actual al índice de predictor de vector de movimiento (S25). Por otra parte, cuando se satisface una diferencia de vector de movimiento > la diferencia de vector de movimiento mínima (No en S24), se omite la etapa S25.
La unidad 112 de control de inter predicción incrementa el mvp_idx en 1 (S26), y ejecuta de manera repetitiva los procedimientos anteriormente descritos por el número de veces que corresponde al número de predictores de vectores de movimiento (etapas S22 a S26). La unidad 112 de control de inter predicción emite la diferencia de vector de movimiento mínima y un valor que se establece al índice de predictor de vector de movimiento al codificador 118 de longitud variable en el momento cuando se satisface mvp_idx = el número de candidatos de predictor de vector de movimiento (S22), para completar los procedimientos en la Figura 5 (S27).
La Figura 6 es un diagrama conceptual que muestra procedimientos de lectura desde y escritura en la memoria 115 colPic y la unidad 116 de almacenamiento de vector global mostrada en la Figura 1. En la Figura 6, un vector de movimiento mvCol1 en una dirección de predicción 1 y un vector de movimiento mvCol2 en una dirección de predicción 2 del bloque co-localizado en una instantánea co-localizada colPic se almacenan en la memoria 115 colPic y en la unidad 116 de almacenamiento de vector global.
En este punto, el bloque co-localizado es un bloque que está en instantánea co-localizada colPic y está colocalizado con el bloque objetivo de codificación. Además, si la instantánea co-localizada colPic es la localizada hacia atrás de la instantánea objetivo de codificación o la localizada hacia delante de la instantánea objetivo de codificación se conmuta de acuerdo con una bandera de dirección de bloque de referencia co-localizado. Cuando se codifica el bloque objetivo de codificación, se lee la información colPic que incluye el vector de movimiento etc., almacenado en la memoria 115 colPic o el vector de movimiento global en la unidad 116 de almacenamiento de vector global de acuerdo con la bandera de prohibición de uso de bloque co-localizado, y se añade a los candidatos de predictor de vector de movimiento.
El candidato de predictor de vector de movimiento se usa para codificar un vector de movimiento para el bloque objetivo de codificación. La realización 1 se describe tomando el ejemplo donde la dirección de predicción 1 y la dirección de predicción 2 se determinan para que sean la dirección de referencia hacia delante y la dirección de referencia hacia atrás, respectivamente. Sin embargo, se ha de observar que la dirección de predicción 1 y la dirección de predicción 2 pueden determinarse para que sean la dirección de referencia hacia atrás y la dirección de referencia hacia delante, respectivamente, o pueden determinarse ambas de las direcciones de predicción 1 y 2 para que sean cualquiera de la dirección de referencia hacia delante o la dirección de referencia hacia atrás.
La unidad 116 de almacenamiento de vector global almacena el vector de movimiento global calculado desde los vectores de movimiento para los bloques objetivo de codificación de la instantánea objetivo de codificación. Por ejemplo, puede concebirse determinar, para que sea el vector de movimiento global, un valor promedio de los vectores de movimiento en cada dirección de predicción en el momento de codificación de inter predicción de la totalidad de la instantánea objetivo de codificación. La realización 1 se ha descrito tomando el ejemplo no limitante de usar, como el vector global, el valor promedio de vectores de movimiento para los bloques objetivo de codificación de la instantánea objetivo de codificación.
Sin embargo, por ejemplo, es también posible determinar, como el vector de movimiento global, un valor de mediana o un valor de media ponderada de vectores de movimiento en el momento de realización de codificación de inter predicción en los bloques objetivo de codificación de la instantánea objetivo de codificación. Como alternativa, es también posible determinar, como el vector de movimiento global, el valor de un vector de movimiento que tiene una frecuencia de aparición más alta entre vectores de movimiento en el momento de realización de codificación de inter predicción en los bloques objetivo de codificación de la instantánea objetivo de codificación. Como alternativa, es
5
10
15
20
25
30
35
40
45
50
55
también posible determinar, como el vector de movimiento global, el valor de un vector de movimiento que hace referencia a una instantánea más cercana en orden de visualización entre vectores de movimiento en el momento de la codificación de inter predicción de los bloques objetivo de codificación de la instantánea objetivo de codificación.
La Figura 7A es un diagrama que muestra el flujo de procesamiento detallado de la etapa S11 en la Figura 2. En lo sucesivo, se describe la Figura 7A.
En primer lugar, la unidad 117 de determinación de información de bloque co-localizado determina si usar o no el modo de predictor de vector de movimiento temporal usando un bloque co-localizado para la instantánea objetivo de codificación (S31). A continuación, la unidad 117 de determinación de información de bloque co-localizado genera, en una base instantánea o instantánea, una bandera de prohibición de uso de bloque co-localizado que indica si está permitido o no el uso de un bloque co-localizado (un modo directo temporal está permitido), y emite la bandera de prohibición de uso de bloque co-localizado al codificador 118 de longitud variable.
Por ejemplo, en la distribución de flujo continuo o similares, puede concebirse que una bandera de prohibición de uso de bloque co-localizado esté en ciertos intervalos para reducir la propagación de un error de decodificación debido al modo de predictor de vector de movimiento temporal. Como un ejemplo para conseguir esto, es posible un procedimiento que implica preparar un contador para contar el número de instantáneas codificadas entre las instantáneas objetivo de codificación, desactivando una bandera de prohibición de uso de bloque co-localizado cuando el número de instantáneas codificadas es menor que un valor umbral, y cuando el número de instantáneas codificadas equivale al valor umbral, activando la bandera de prohibición de uso de bloque co-localizado para resetear el contador a 0.
Además, por ejemplo, es posible un procedimiento que se pretende para reducir la propagación de error de decodificación activando una bandera de prohibición de uso de bloque co-localizado para cada una de las instantáneas que pueden ser objetivos de referencia (tal como una instantánea P, y una instantánea B a las que puede hacerse referencia por otra instantánea) y desactivando una bandera de prohibición de uso de bloque colocalizado para una instantánea que no puede ser un objetivo de referencia (tal como una instantánea B a la que no puede hacerse referencia por cualquier otra instantánea). De esta manera, es posible reducir de manera eficaz tal propagación de error de decodificación activando la bandera de prohibición de uso de bloque co-localizado para cada instantánea a la que se hace referencia por otra instantánea.
A continuación, la unidad 117 de determinación de información de bloque co-localizado determina, para que sea un bloque co-localizado, uno de un bloque de referencia hacia delante y un bloque de referencia hacia atrás (S32). Como un ejemplo concebible, la unidad 117 de determinación de información de bloque co-localizado determina, que sea el bloque co-localizado, uno de un bloque co-localizado (un bloque de referencia hacia delante) incluido en una instantánea de referencia hacia delante y un bloque co-localizado (un bloque de referencia hacia atrás) incluido en una instantánea de referencia hacia atrás que está más cerca de la instantánea objetivo de codificación en distancia en orden de visualización. A continuación, la unidad 117 de determinación de información de bloque colocalizado genera, en una base instantánea a instantánea, una bandera de dirección de bloque de referencia colocalizado que indica si el bloque co-localizado es el bloque de referencia hacia delante o el bloque de referencia hacia atrás, y emite la bandera de dirección de bloque de referencia co-localizado al codificador 118 de longitud variable.
La Figura 7B muestra ejemplos de instantáneas B a las que se hace referencia por otras instantáneas. La Figura 7B define una estructura de referencia compuesta de una pluralidad de capas. Se inicia un flujo con una instantánea I, y las instantáneas distintas de la instantánea I de inicio son instantáneas B. Además, en la estructura, la instantánea que pertenece a una capa de nivel superior entre la pluralidad de capas hace referencia a una instantánea que pertenece a la capa de mismo nivel o una instantánea que pertenece a una capa de nivel inferior.
Por ejemplo, en la Figura 7B, una instantánea B1 que pertenece a una capa 3 hace referencia a una instantánea 10 que pertenece a una capa 0 y a una instantánea Br2 que pertenece a una capa 2. Además, una instantánea Bf8 que pertenece a la capa de nivel más inferior 0 hace referencia a la instantánea I0 en la misma capa. En este punto, en la estructura, cada una de las instantáneas que pertenecen a la capa de nivel más inferior 0 hace referencia a únicamente una instantánea localizada hacia delante de la misma en orden de visualización. En esta estructura de referencia, un procedimiento concebible implica activar una bandera de prohibición de uso de bloque co-localizado para cada una de las instantáneas que pertenecen a la capa 0 que tiene una alta posibilidad de que se haga referencia por otra instantánea.
La Figura 8 es un diagrama que muestra el flujo de procesamiento detallado de la etapa S17 en la Figura 2. En lo sucesivo, se describe la Figura 8.
En primer lugar, la unidad 114 de cálculo de predictor de vector de movimiento temporal lee, desde la memoria 115 colPic, información colPic que incluye un vector de movimiento de referencia en una dirección de predicción 1 y un vector de movimiento de referencia en una dirección de predicción 2 etc. (S41). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si el bloque co-localizado incluido en la información colPic tiene o no dos o más vectores de movimiento (S42). En otras palabras, la unidad 114 de cálculo de predictor
5
10
15
20
25
30
35
40
45
50
55
de vector de movimiento temporal determina si el bloque co-localizado tiene o no un vector de movimiento de referencia hacia delante (mvLO) y un vector de movimiento de referencia hacia atrás (mvL1).
Cuando se determina que el bloque co-localizado tiene dos o más vectores de movimiento (Sí en S42), la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si el bloque co-localizado es o no el bloque de referencia hacia atrás (S43). En otras palabras, la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si la instantánea que incluye el bloque co-localizado está localizada o no hacia atrás de la instantánea objetivo de codificación en orden de visualización.
A continuación, cuando se determina que el bloque co-localizado es el bloque de referencia hacia atrás (Sí en S43), la unidad 114 de cálculo de predictor de vector de movimiento temporal deriva un predictor de vector de movimiento temporal usando un vector de movimiento de referencia hacia delante (un vector de movimiento mvL0 que corresponde a una instantánea de referencia en una lista de instantáneas de referencia L0) del bloque co-localizado en el modo de predictor de vector de movimiento temporal (S44). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el predictor de vector de movimiento temporal calculado en la etapa S44 a los candidatos de predictor de vector de movimiento (S45).
Por otra parte, cuando se determina que el bloque co-localizado es el bloque de referencia hacia delante (No en S43), la unidad 114 de cálculo de predictor de vector de movimiento temporal deriva un predictor de vector de movimiento temporal usando un vector de movimiento de referencia hacia atrás (un vector de movimiento mvL1 que corresponde a una instantánea de referencia en una lista de instantáneas de referencia L1) del bloque co-localizado en el modo de predictor de vector de movimiento temporal (S46), y añade el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento (S45).
Por otra parte, cuando se determina que el bloque co-localizado tiene únicamente uno del bloque de referencia hacia delante y el bloque de referencia hacia atrás (No en S42), la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si el bloque co-localizado tiene o no un vector de movimiento de referencia hacia delante (S47). Cuando se determina que el bloque co-localizado tiene el vector de movimiento de referencia hacia delante (Sí en S47), la unidad 114 de cálculo de predictor de vector de movimiento temporal deriva un predictor de vector de movimiento temporal para el bloque objetivo de codificación usando el vector de movimiento de referencia hacia delante del bloque co-localizado (S48), y añade el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento (S45).
Por otra parte, cuando se determina que el bloque co-localizado no tiene ningún bloque de referencia hacia delante (No en S47), la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si el bloque colocalizado tiene o no un vector de movimiento de referencia hacia atrás (S49). Cuando se determina que el bloque co-localizado tiene un bloque de referencia hacia atrás (S49), la unidad 114 de cálculo de predictor de vector de movimiento temporal deriva un predictor de vector de movimiento temporal para el bloque objetivo de codificación usando el vector de movimiento de referencia hacia atrás (S50), y añade el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento (S45).
Por otra parte, cuando se determina que el bloque co-localizado no tiene ningún vector de movimiento de referencia hacia atrás (No en S49), la unidad 114 de cálculo de predictor de vector de movimiento temporal termina los procedimientos en la Figura 8 sin añadir el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento (S51). Como alternativa, la unidad 114 de cálculo de predictor de vector de movimiento temporal puede determinar el valor de un predictor de vector de movimiento temporal para que el bloque colocalizado sea 0 (determinar el predictor de vector de movimiento temporal para que sea un vector de movimiento que tiene una cantidad de movimiento de 0), y añadir el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento.
En el flujo de procesamiento en la Figura 8, si el bloque co-localizado tiene o no un vector de movimiento de referencia hacia delante se determina en la etapa S47, y si el bloque co-localizado tiene o no un vector de movimiento de referencia hacia atrás se determina en la etapa S49. Sin embargo, se ha de observar que el flujo de procesamiento es un ejemplo no limitante. Por ejemplo, es bueno también determinar si un bloque co-localizado tiene o no un vector de movimiento de referencia hacia atrás, y a continuación determinar si el bloque co-localizado tiene o no un vector de movimiento de referencia hacia delante.
La Figura 9 es un diagrama que muestra el flujo de procesamiento detallado de las etapas S13 y S14 en la Figura 2. En lo sucesivo, se describe la Figura 9.
En primer lugar, la unidad 114 de cálculo de predictor de vector de movimiento temporal lee, desde la unidad 116 de almacenamiento de vector global, información de vector de movimiento global que incluye un vector de movimiento global en la dirección de predicción 1 y/o un vector de movimiento global en la dirección de predicción 2 (S61). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si la información de vector de movimiento global incluye o no dos o más vectores de movimiento (S62). En otras palabras, la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si un vector de movimiento de referencia hacia delante (mvLO) y un vector de movimiento de referencia hacia atrás (mvL1) están incluidos o no en la información de
5
10
15
20
25
30
35
40
45
50
55
vector de movimiento global.
Cuando se determina que la información de vector de movimiento global incluye dos o más vectores de movimiento (S62), la unidad 114 de cálculo de predictor de vector de movimiento temporal determina la dirección de bloque de referencia co-localizado es una dirección en la que está presente un bloque de referencia hacia atrás (S63). Cuando se determina que la dirección de bloque de referencia co-localizado es una dirección en la que está presente el bloque de referencia hacia atrás (Sí en S63), la unidad 114 de cálculo de predictor de vector de movimiento temporal selecciona un vector de movimiento de referencia hacia delante en la información de vector de movimiento global (S64).
A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global seleccionado a información de encabezamiento tal como un encabezamiento de instantánea (lo emite el codificador 114 de longitud variable), y añade el vector de movimiento global seleccionado a los candidatos de predictor de vector de movimiento para el bloque objetivo de codificación (S65). Se ha de observar que la unidad 114 de cálculo de predictor de vector de movimiento temporal añade, a la información de encabezamiento, la información para identificar la instantánea de referencia a la que se hace referencia por el vector de movimiento global seleccionado (más específicamente, la instantánea de referencia a la que se hace referencia por una pluralidad de vectores de movimiento para su uso en el cálculo del vector de movimiento global). Esta información se usa en un procedimiento de escalamiento que se describe más adelante con referencia a la Figura 10A a la Figura 11B.
Por otra parte, cuando se determina que la dirección de bloque de referencia co-localizado es una dirección en la que está presente un bloque de referencia hacia delante (No en S63), la unidad 114 de cálculo de predictor de vector de movimiento temporal selecciona un vector de movimiento de referencia hacia atrás en la información de vector de movimiento global (S66). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global seleccionado a información de encabezamiento tal como un encabezamiento de instantánea, y añade el vector de movimiento global a los candidatos de predictor de vector de movimiento para el bloque objetivo de codificación (S65).
Además, cuando se determina que la información de vector de movimiento global incluye únicamente uno del bloque de referencia hacia delante y el bloque de referencia hacia atrás (No en S62), la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si la información de vector de movimiento global incluye o no un vector de movimiento de referencia hacia delante (S67).
Cuando se determina que la información de vector de movimiento global incluye el vector de movimiento de referencia hacia delante (Sí en S67), la unidad 114 de cálculo de predictor de vector de movimiento temporal selecciona el vector de movimiento de referencia hacia delante para la información de vector de movimiento global (S68). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global seleccionado a información de encabezamiento tal como un encabezamiento de instantánea, y añade el vector de movimiento global a los candidatos de predictor de vector de movimiento para el bloque objetivo de codificación (S65).
Por otra parte, cuando se determina que la información de vector de movimiento global no incluye ningún bloque de referencia hacia delante (No en S67), la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si la información de vector de movimiento global incluye o no un vector de movimiento de referencia hacia atrás (S69). Cuando se determina que la información de vector de movimiento global incluye el vector de movimiento de referencia hacia atrás (S69), la unidad 114 de cálculo de predictor de vector de movimiento temporal selecciona el vector de movimiento de referencia hacia atrás para la información de vector de movimiento global (S70). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global seleccionado a información de encabezamiento tal como un encabezamiento de instantánea, y añade el vector de movimiento global a los candidatos de predictor de vector de movimiento para el bloque objetivo de codificación (S65).
Por otra parte, cuando se determina que la información de vector de movimiento global no incluye ningún vector de movimiento de referencia hacia atrás (No en S67), la unidad 114 de cálculo de predictor de vector de movimiento temporal no añade el predictor de vector de movimiento temporal a candidatos de predictor de vector de movimiento o determina el valor del vector de movimiento global para que sea 0 (S71). A continuación, la unidad 114 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global establecido a información de encabezamiento tal como un encabezamiento de instantánea, y añade el vector de movimiento global a los candidatos de predictor de vector de movimiento para el bloque objetivo de codificación (S65).
En el flujo de procesamiento en la Figura 9, se determina si la información de vector de movimiento global incluye o no un vector de movimiento de referencia hacia delante en la etapa S67, y si la información de vector de movimiento global incluye o no un vector de movimiento de referencia hacia atrás se determina en la etapa S69. Sin embargo, se ha de observar que el flujo de procesamiento es un ejemplo no limitante. Por ejemplo, también es conveniente determinar si la información de vector de movimiento global incluye o no el vector de movimiento de referencia hacia atrás, y a continuación determinar si la información de vector de movimiento global incluye o no el vector de
5
10
15
20
25
30
35
40
45
50
movimiento de referencia hacia delante.
Además, como un ejemplo, cuál se selecciona de los vectores de movimiento global mvL0 y mvL1, se determina de acuerdo con la bandera de dirección de bloque de referencia co-localizado en las etapas S63 a S66 en la Figura 9. Sin embargo, la presente invención no está limitada al ejemplo. Por ejemplo, también es conveniente seleccionar el vector de movimiento global mvL0 como un candidato de predictor de vector de movimiento en la lista de instantáneas de referencia L0 y seleccionar el vector de movimiento global mvL1 como un candidato de predictor de vector de movimiento en la lista de instantáneas de referencia L1. Esto elimina la necesidad de que se añada una bandera de dirección de bloque de referencia co-localizado a un encabezamiento cuando se usa el vector de movimiento global, que aumenta adicionalmente la eficacia de codificación.
A continuación, se proporciona una descripción detallada de un procedimiento de escalamiento realizado cuando se añade un predictor de vector de movimiento temporal a candidatos de predictor de vector de movimiento. Se ha de observar que el procedimiento de escalamiento realizado para añadir el vector de movimiento global a los candidatos de predictor de vector de movimiento es el mismo que el procedimiento de escalamiento realizado para añadir el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento excepto para usar, como una entrada, el vector de movimiento global en lugar de un vector de movimiento de referencia para un bloque co-localizado.
La Figura 10A muestra un procedimiento de derivación de un candidato de predictor de vector de movimiento (predictor de vector de movimiento temporal) usando un vector de movimiento de referencia hacia delante en el modo de predicción de vector de movimiento temporal cuando un bloque co-localizado es un bloque de referencia hacia atrás e incluye un vector de movimiento de referencia hacia delante y un vector de movimiento de referencia hacia atrás. Más específicamente, un candidato de predictor de vector de movimiento (TemporalMV) se deriva usando el vector de movimiento de referencia hacia delante de acuerdo con la expresión 4 a continuación.
TemporalMV = mvLO x (B2 - B0) / (B4 - B0)... (Expresión4)
En este punto, (B2 - B0) es información de diferencia de tiempo que indica la diferencia entre el tiempo de visualización de una instantánea B2 y tiempo de visualización de una instantánea B0. Análogamente, (B4 - BO) es la información de diferencia de tiempo que indica la diferencia entre el tiempo de visualización de una instantánea B4 y el tiempo de visualización de una instantánea B0.
La Figura 10B muestra un procedimiento para derivar un candidato de predictor de vector de movimiento (predictor de vector de movimiento temporal) usando el vector de movimiento de referencia hacia atrás en el modo de predictor de vector de movimiento temporal. Más específicamente, un candidato de predictor de vector de movimiento se deriva usando el vector de movimiento de referencia hacia atrás de acuerdo con la expresión 5 a continuación.
TemporalMV = mvLl x (B2-B0)/(B4-B8) ... (Expresión5)
La Figura 11A muestra un procedimiento para derivar un candidato de predictor de vector de movimiento (predictor de vector de movimiento temporal) usando un vector de movimiento de referencia hacia atrás en el modo de predicción de vector de movimiento temporal cuando un bloque co-localizado es un bloque de referencia hacia delante e incluye un vector de movimiento de referencia hacia delante y un vector de movimiento de referencia hacia atrás. Más específicamente, un candidato de predictor de vector de movimiento se deriva usando el vector de movimiento de referencia hacia atrás de acuerdo con la expresión 6 a continuación.
TemporalMV = mvLl x (B6 - B8) / (B4 - B8)... (Expresión6)
La Figura 11B muestra un procedimiento para derivar un candidato de predictor de vector de movimiento (predictor de vector de movimiento temporal) usando el vector de movimiento de referencia hacia delante en el modo de predictor de vector de movimiento temporal. Un candidato de predictor de vector de movimiento se deriva usando el vector de movimiento de referencia hacia atrás de acuerdo con la expresión 7 a continuación.
TemporalMV = mvLO x (B6 - B8)/(B4 - BO) ... (Expresión 7)
Como se ha descrito anteriormente, la presente invención hace posible evitar la propagación de un error de
decodificación mientras se suprime la reducción en eficacia de codificación desactivando, a intervalos constantes, el modo de predictor de vector de movimiento temporal usando un vector de movimiento para una unidad de codificación actual en una instantánea de referencia y añadiendo en su lugar, en información de encabezamiento, un vector de movimiento global de la instantánea de referencia, y codificando un vector de movimiento para una instantánea objetivo de codificación usando el vector de movimiento global escalado.
Más específicamente, cuando una bandera de prohibición de uso de bloque co-localizado está activada, se añade un vector de movimiento global leído desde la unidad 116 de almacenamiento de vector global en candidatos de predictor de vector de movimiento para el bloque objetivo de codificación y se asigna a información de
5
10
15
20
25
30
35
40
45
50
55
encabezamiento de un encabezamiento de instantánea o similares. Por lo tanto, incluso si una instantánea de referencia se pierde en la decodificación, también es posible decodificar la secuencia de bits sin verse afectada por el error de decodificación, y reducir de esta manera la propagación de error.
Además, cuando una bandera de prohibición de uso de bloque co-localizado está desactivada, es posible seleccionar el vector de movimiento de referencia óptimo para el bloque objetivo de codificación de acuerdo con una bandera de dirección de bloque de referencia co-localizado, que hace posible aumentar la eficacia de compresión. Particularmente cuando un bloque co-localizado es un bloque de referencia hacia delante, es posible reducir una diferencia de predicción usando un vector de movimiento de referencia hacia atrás. Un vector de movimiento de referencia hacia atrás es un vector de movimiento localizado en una dirección desde una instantánea que incluye el bloque co-localizado al bloque objetivo de codificación y por lo tanto tiene una alta posibilidad de volverse más cerca al vector de movimiento óptimo. Por lo tanto, el uso del vector de movimiento de referencia hacia atrás reduce la diferencia de predicción.
Por otra parte, un vector de movimiento de referencia hacia delante es un vector de movimiento localizado en la dirección opuesta a la dirección desde una instantánea que incluye el bloque co-localizado al bloque objetivo de codificación y por lo tanto tiene una baja posibilidad de acercarse al vector de movimiento óptimo. Por lo tanto, el uso del vector de movimiento de referencia hacia delante aumenta la diferencia de predicción. Además, también en el caso donde un bloque co-localizado sea un bloque de referencia hacia atrás, es posible producir una diferencia de predicción reducida usando un vector de movimiento de referencia hacia delante que tiene una alta posibilidad de acercarse al vector de movimiento óptimo.
En la realización 1, cuando el bloque co-localizado tiene dos o más vectores de movimiento, se dispone un conmutador entre los vectores de movimiento usados para el bloque co-localizado para usarse para calcular un predictor de vector de movimiento temporal para el bloque objetivo de codificación, dependiendo de si el bloque colocalizado es un bloque de referencia hacia atrás o un bloque de referencia hacia delante. Sin embargo, este es un ejemplo no limitante.
Por ejemplo, es también posible calcular un predictor de vector de movimiento temporal usando un vector de movimiento que hace referencia a la instantánea de referencia temporalmente más cerca a la instantánea que incluye el bloque co-localizado (el vector de movimiento es un vector de movimiento que tiene una distancia temporal más corta). En este punto, puede concebirse que se determine la distancia temporal dependiendo del número de instantáneas entre la instantánea que incluye el bloque co-localizado y la instantánea de referencia a la que se hace referencia por el bloque co-localizado en orden de tiempo de visualización.
En la realización 1, cuando el bloque co-localizado tiene dos o más vectores de movimiento, se dispone un conmutador entre los vectores de movimiento usados para el bloque co-localizado para usarse para calcular un predictor de vector de movimiento temporal para el bloque objetivo de codificación, dependiendo de si el bloque colocalizado es el bloque de referencia hacia atrás o el bloque de referencia hacia delante. Sin embargo, esto es un ejemplo no limitante. Por ejemplo, es también posible calcular un predictor de vector de movimiento temporal usando el más pequeño de dos vectores de movimiento para el bloque co-localizado. En este punto, la magnitud de un vector de movimiento significa un valor absoluto o similares de un vector de movimiento.
En la realización 1, cuando la bandera de prohibición de uso de bloque co-localizado está activada, se añade el vector de movimiento global leído desde la unidad 116 de almacenamiento de vector global, como un vector de sustitución para un predictor de vector de movimiento temporal, a los candidatos de predictor de vector de movimiento. Sin embargo, esto es un ejemplo no limitante. Por ejemplo, también es conveniente determinar siempre el valor del vector de movimiento global para que sea 0 y añadir el vector de movimiento global a candidatos de predictor de vector de movimiento (específicamente, añadir el vector de movimiento que tiene una cantidad de movimiento de 0 como el vector de sustitución a los candidatos de predictor de vector de movimiento). En este caso, no hay necesidad de asignar información de encabezamiento o similares al vector de movimiento global. Además, cuando la bandera de prohibición de uso de bloque co-localizado está activada, también es conveniente omitir siempre la adición del predictor de vector de movimiento temporal en los candidatos de predictor de vector de movimiento. Tal omisión de inclusión del predictor de vector de movimiento temporal en los candidatos de predictor de vector de movimiento hace posible aumentar la eficacia de codificación.
En la realización 1, una bandera de prohibición de uso de bloque co-localizado de este tipo puede asignarse únicamente a instantáneas particulares en lugar de asignarse a cada una de todas las instantáneas. Ejemplos de estructuras concebibles incluyen una estructura en la que una bandera de prohibición de uso de bloque colocalizado se asigna únicamente a cada una de las instantáneas a las que se hace referencia por otras instantáneas (instantáneas P, instantáneas B a las que se hace referencia por otras instantáneas, e instantáneas que pertenecen a la capa de nivel más inferior en una estructura de referencia compuesta de una pluralidad de capas) y no se asigna bandera de prohibición de uso de bloque co-localizado a cada una de las instantáneas a las que no se hace referencia por otras instantáneas. Como se ha descrito anteriormente, es posible reducir la propagación de error de decodificación mientras se aumenta la eficacia de codificación asignando la bandera de prohibición de uso de bloque co-localizado a únicamente cada una de las instantáneas particulares.
5
10
15
20
25
30
35
40
45
50
55
Aunque la realización 1 se refiere a la estructura en la que se asigna una bandera de prohibición de uso de bloque co-localizado para cada instantánea, también es conveniente asignar una bandera de prohibición de uso de bloque co-localizado de este tipo para cada corte compuesto de una pluralidad de bloques. La asignación de una bandera de prohibición de uso de bloque co-localizado para cada segmento hace posible aumentar la precisión de predicción de vector global.
Aunque una bandera de prohibición de uso de bloque co-localizado se asigna para cada una de las instantáneas en la realización 1, es posible que no se asigne bandera de prohibición de uso de bloque co-localizado y no se añada predictor de vector de movimiento temporal a candidatos de predictor de vector de movimiento, basándose en un tipo de instantánea, sin asignar ninguna bandera de prohibición de uso de bloque co-localizado. Por ejemplo, puede concebirse que pueda añadirse un predictor de vector global a candidatos de predictor de vector de movimiento sin añadir ningún predictor de vector de movimiento temporal a candidatos de predictor de vector de movimiento para cada una de las instantáneas a las que se hace referencia por otras instantáneas (instantáneas P, instantáneas B a las que se hace referencia por otras instantáneas, e instantáneas que pertenecen a la capa de nivel más inferior en una estructura de referencia compuesta de una pluralidad de capas). De esta manera, es posible omitir una bandera de prohibición de uso de bloque co-localizado de este tipo determinando si añadir o no el predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento, basándose en el tipo de instantánea. Por lo tanto, es posible aumentar la eficacia de codificación.
[Realización 2]
La Figura 12 es un diagrama de bloques de una estructura de un aparato 200 de decodificación de instantáneas en movimiento usando un procedimiento de decodificación de instantáneas en movimiento de acuerdo con la realización 2 de la presente invención.
En la realización 2, un bloque incluido en una instantánea localizada hacia delante de una instantánea objetivo de decodificación en orden de tiempo de visualización se denomina como un bloque de referencia hacia delante (la instantánea es una instantánea de referencia identificada en una lista de instantáneas de referencia L0). Además, un bloque incluido en una instantánea localizada hacia atrás de la instantánea objetivo de decodificación en orden de tiempo de visualización se denomina como un bloque de referencia hacia atrás (la instantánea es una instantánea de referencia identificada en una lista de instantáneas de referencia L1).
Como se muestra en la Figura 12, el aparato 200 de decodificación de instantáneas en movimiento incluye: un decodificador 201 de longitud variable, una unidad 202 de cuantificación inversa, una unidad 203 de transformada ortogonal inversa, un sumador 204, una memoria 205 de bloque, una memoria 206 de fotograma, una unidad 207 de intra predicción, una unidad 208 de inter predicción, un conmutador 209, una unidad 210 de control de inter predicción, una unidad 211 de cálculo de predictor de vector de movimiento temporal, y una memoria 212 colPic.
El decodificador 201 de longitud variable: realiza decodificación de longitud variable en una secuencia de bits de entrada; emite información de tipo de instantánea al conmutador 209 y a la unidad 210 de control de inter predicción; emite un índice de predictor de vector de movimiento a la unidad 210 de control de inter predicción; emite una bandera de prohibición de uso de bloque co-localizado y una bandera de dirección de bloque de referencia colocalizado, y un vector de movimiento global a la unidad 211 de cálculo de predictor de vector de movimiento temporal; y emite coeficientes cuantificados a la unidad 202 de cuantificación inversa.
La unidad 202 de cuantificación inversa realiza cuantificación inversa en los coeficientes cuantificados obtenidos desde el decodificador 201 de longitud variable para reconstruir coeficientes de transformada, y emite los coeficientes de transformada reconstruidos a la unidad 203 de transformada ortogonal inversa. La unidad 203 de transformada ortogonal inversa transforma los coeficientes de transformada reconstruidos obtenidos desde la unidad 202 de cuantificación inversa desde un dominio de frecuencia a un dominio de imagen para reconstruir bloques residuales, y emite los bloques residuales objetivo al sumador 204.
El sumador 204 añade los bloques residuales obtenidos desde la unidad 203 de transformada ortogonal inversa y los bloques de predicción obtenidos desde el conmutador 209 para reconstruir bloques decodificados. A continuación, el sumador 204 emite un flujo de imagen decodificada que incluye los bloques decodificados reconstruidos fuera del aparato, y almacena el flujo de imagen decodificada en la memoria 205 de bloque y en la memoria 206 de fotograma.
La memoria 205 de bloque almacena, en una base bloque a bloque, el flujo de imagen decodificada obtenido desde el sumador 204. La memoria 206 de fotograma almacena, en una base fotograma a fotograma, el flujo de imagen decodificada obtenido desde el sumador 204.
La unidad 207 de intra predicción realiza intra predicción usando un flujo de imagen decodificada basado en bloque almacenado en la memoria 205 de bloque para generar un bloque de predicción para cada bloque objetivo de decodificación, y emite el bloque de predicción al conmutador 209. La unidad 208 de inter predicción realiza inter predicción usando un flujo de imagen decodificada basado en fotograma almacenado en la memoria 206 de fotograma para generar un bloque de predicción para cada bloque objetivo de decodificación, y emite el bloque de predicción al conmutador 209. El conmutador 209 emite, al sumador 204, el bloque de predicción generado por la
5
10
15
20
25
30
35
40
45
50
55
unidad 207 de intra predicción y el bloque de predicción generado por la unidad 208 de inter predicción.
Cuando una bandera de prohibición de uso de bloque co-localizado obtenido desde el decodificador 201 de longitud variable está desactivada, la unidad 211 de cálculo de predictor de vector de movimiento temporal deriva un candidato de predictor de vector de movimiento (predictor de vector de movimiento temporal) en el modo de predictor de vector de movimiento temporal, usando información colPic tal como un vector de movimiento en un bloque co-localizado almacenado en la memoria 212 colPic. Por otra parte, cuando la bandera de prohibición de uso de bloque co-localizado está activada, la unidad 211 de cálculo de predictor de vector de movimiento temporal añade el vector de movimiento global obtenido desde el decodificador 201 de longitud variable a candidatos de predictor de vector de movimiento.
Además, la unidad 211 de cálculo de predictor de vector de movimiento temporal asigna el predictor de vector de movimiento añadido a los candidatos un índice de predictor de vector de movimiento. A continuación, la unidad 211 de cálculo de predictor de vector de movimiento temporal emite el predictor de vector de movimiento y el índice de predictor de vector de movimiento a la unidad 210 de control de inter predicción.
Además, cuando el bloque co-localizado no tiene ningún vector de movimiento, la unidad 211 de cálculo de predictor de vector de movimiento temporal puede detener la derivación de vector de movimiento en el modo de predictor de vector de movimiento temporal o añadir un vector de movimiento que tiene una cantidad de movimiento de 0 a candidatos de predictor de vector de movimiento.
La unidad 210 de control de inter predicción determina un predictor de vector de movimiento que corresponde al índice de predictor de vector de movimiento obtenido desde el decodificador 201 de longitud variable de entre una pluralidad de candidatos de predictor de vector de movimiento. A continuación, la unidad 210 de control de inter predicción añade el predictor de vector de movimiento determinado e información que indica diferencia entre el vector de movimiento y el predictor de vector de movimiento para derivar un vector de movimiento para su uso en inter predicción. Además, la unidad 210 de control de inter predicción almacena, en la memoria 212 colPic, información colPic que incluye un vector de movimiento etc., para el bloque objetivo de decodificación.
La Figura 13 es un esbozo de un flujo de procesamiento de un procedimiento de decodificación de instantáneas en movimiento de acuerdo con la realización 2 de la presente invención.
En primer lugar, el decodificador 201 de longitud variable decodifica la bandera de prohibición de uso de bloque colocalizado para cada instantánea (S81). A continuación, el decodificador 201 de longitud variable determina si está desactivada o no la bandera de prohibición de uso de bloque co-localizado (S82). Cuando la bandera de prohibición de uso de bloque co-localizado está desactivada (Sí en s82), el decodificador 201 de longitud variable decodifica la bandera de dirección de bloque de referencia co-localizado para la instantánea (S83). El decodificador 201 de longitud variable a continuación emite la bandera de prohibición de uso de bloque co-localizado decodificada y la bandera de dirección de bloque de referencia co-localizado a la unidad 211 de cálculo de predictor de vector de movimiento temporal.
A continuación, de la misma manera que en la Figura 8, la unidad 211 de cálculo de predictor de vector de movimiento temporal lee información colPic que incluye un vector de movimiento de referencia, etc. En el bloque colocalizado desde la memoria 212 colPic de acuerdo con información de bloque co-localizada, y añade un predictor de vector de movimiento temporal generado usando el vector de movimiento de referencia en el bloque co-localizado a candidatos de predictor de vector de movimiento (S84).
Por otra parte, cuando la bandera de prohibición de uso de bloque co-localizado está activada, la unidad 211 de cálculo de predictor de vector de movimiento temporal obtiene un vector de movimiento global almacenado en información de encabezamiento tal como un encabezamiento de instantánea desde el decodificador 201 de longitud variable, y añade el vector de movimiento global a los candidatos de predictor de vector de movimiento (S87).
A continuación, la unidad 210 de control de inter predicción determina un predictor de vector de movimiento que corresponde al índice de predictor de vector de movimiento decodificado de entre la pluralidad de candidatos de predictor de vector de movimiento (S85). Además, la unidad 210 de control de inter predicción añade el predictor de vector de movimiento determinado y la información de diferencia de predicción para derivar un vector de movimiento y emite el vector de movimiento a la unidad 208 de inter predicción. A continuación, la unidad 208 de inter predicción genera un bloque de predicción para el bloque objetivo de decodificación usando el vector de movimiento derivado en inter predicción.
A continuación, la unidad 210 de control de inter predicción almacena, en la memoria 212 colPic, información colPic que incluye un vector de movimiento etc., usado en inter predicción (S86). La memoria 212 colPic almacena un vector de movimiento en una instantánea de referencia, un valor de índice de la instantánea de referencia, una dirección de predicción etc., para cálculo de un predictor de vector de movimiento temporal para un bloque objetivo de decodificación.
El procedimiento de selección de vector de movimiento de referencia realizado para calcular un predictor de vector de movimiento temporal cuando un bloque de referencia tiene dos o más vectores de movimiento de referencia está
5
10
15
20
25
30
35
40
45
50
55
basado en una bandera de prohibición de uso de bloque co-localizado. Sin embargo, se ha de observar que el procedimiento es un ejemplo no limitante. Por ejemplo, también es conveniente calcular distancias temporales de vectores de movimiento de referencia y el uso de uno de los vectores de movimiento de referencia que tiene la distancia temporal más corta. En este punto, se calcula una distancia temporal basándose en el número de instantáneas entre la instantánea de referencia que incluye un bloque de referencia y una instantánea a la que se hace referencia por la instantánea de referencia en orden de visualización. Además, por ejemplo, también es conveniente calcular las magnitudes de vectores de movimiento de referencia y determinar, para que sea un predictor de vector de movimiento temporal, el uno de los vectores de movimiento que se ha derivado usando un vector de movimiento de referencia pequeño.
La Figura 14 muestra ejemplos de sintaxis de una secuencia de bits en el procedimiento de decodificación de instantáneas en movimiento de acuerdo con la realización 2 de la presente invención. En la Figura 14, forbid_collocated_flag indica una bandera de prohibición de uso de bloque co-localizado, tmv_x indica un
componente horizontal de un predictor de vector de movimiento global, tmv_y indica un componente vertical del predictor de vector de movimiento global, y collocated_from_I0_flag indica una bandera de dirección de bloque de referencia co-localizado.
Como se muestra en la Figura 14, cuando forbid_collocated_flag que indica la bandera de prohibición de uso de bloque co-localizado es 1, se asignan los predictores de vectores de movimiento global tmv_x y tmv_y a la secuencia de bits y se añaden a candidatos de predictor de vector de movimiento.
Además, cuando forbid_collocated_flag que indica la bandera de prohibición de uso de bloque co-localizado es 0, se asigna collocated_from_I0_flag a la secuencia de bits. Además, se determina un bloque co-localizado de acuerdo con la bandera de dirección de bloque de referencia co-localizado, y se calcula un predictor de vector de movimiento temporal usando el vector de movimiento de referencia en el bloque co-localizado. En este punto,
collocated_from_I0_flag de 1 muestra que un bloque co-localizado es un bloque co-localizado hacia delante y
collocated_from_I0_flag de 0 muestra que un bloque co-localizado es un bloque co-localizado hacia atrás. Sin
embargo, este es un ejemplo no limitante.
En la realización 2, cuando la bandera de prohibición de uso de bloque co-localizado está activada, se usa el vector de movimiento global decodificado desde la información de encabezamiento o similares. Sin embargo, también es conveniente determinar siempre el valor de un predictor de vector de movimiento global para que sea 0 de conformidad con el procedimiento de codificación y añadir el vector de movimiento global a candidatos de predictor de vector de movimiento. En este caso, el vector de movimiento global no se asigna a la información de encabezamiento o similares, y por lo tanto se omite el procedimiento de decodificación. Además, cuando la bandera de prohibición de uso de bloque co-localizado está activada, también es conveniente omitir siempre la adición del predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento.
Como se ha descrito anteriormente, en las realizaciones 1 y 2, el modo de predictor de vector de movimiento temporal usando un vector de movimiento para una unidad de codificación actual en una instantánea de referencia se desactiva a intervalos constantes, y se asigna en su lugar un vector de movimiento global de la instantánea de referencia a la información de encabezamiento. Usando esta información de encabezamiento, se codifica un vector de movimiento para la instantánea objetivo de codificación, que hace posible decodificar de manera apropiada una secuencia de bits con propagación de error de decodificación reducida mientras se suprime la reducción en la eficacia de codificación.
Más específicamente, cuando una bandera de prohibición de uso de bloque co-localizado está activada, el vector global leído desde la unidad 116 de almacenamiento de vector global se añade a los candidatos de predictor de vector de movimiento para el bloque objetivo de codificación y se asigna a la información de encabezamiento tal como el encabezamiento de instantánea etc., con esto, incluso si se pierde una instantánea de referencia en la decodificación, es posible decodificar la secuencia de bits sin verse afectado por el error de decodificación, y generar de esta manera la secuencia de bits con error reducido.
Además, cuando una bandera de prohibición de uso de bloque co-localizado está desactivada, es posible decodificar de manera apropiada la secuencia de bits para la cual se ha seleccionado el vector de movimiento de referencia óptimo para el bloque objetivo de codificación de acuerdo con una bandera de dirección de bloque de referencia colocalizado.
Aunque se usa el vector global leído desde la unidad 116 de almacenamiento de vector global cuando la bandera de prohibición de uso de bloque co-localizado está activada en las realizaciones 1 y 2, también es conveniente determinar siempre el valor de un vector de movimiento global para que sea 0 y añadir el vector de movimiento global a candidatos de predictor de vector de movimiento. Además, cuando la bandera de prohibición de uso de bloque co-localizado está activada, también es conveniente siempre omitir la adición del predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento. Con esta estructura, se hace posible reducir la carga de procesamiento para la decodificación.
Además, aunque se decodifican las banderas de prohibición de uso de bloque co-localizado desde todas las
5
10
15
20
25
30
35
40
45
50
55
instantáneas en la realización 2, también es conveniente decodificar algunas banderas de prohibición de uso de bloque co-localizado únicamente desde alguna instantánea particular. Por ejemplo, se decodifican banderas de prohibición de uso de bloque co-localizado desde únicamente instantáneas a las que se hace referencia por otras instantáneas (instantáneas P, instantáneas B a las que se hace referencia por otras instantáneas, e instantáneas que pertenecen a la capa de nivel más inferior en una estructura de referencia compuesta de una pluralidad de capas) y no se decodifica bandera de prohibición de uso de bloque co-localizado desde instantáneas que no se hacen referencia por otras instantáneas. De esta manera, es posible reducir la propagación de error de decodificación mientras se reduce la carga de procesamiento para la decodificación, decodificando algunas banderas de prohibición de uso de bloque co-localizado desde únicamente instantáneas particulares.
Aunque la realización 2 se refiere a la estructura en la que se decodifica una bandera de prohibición de uso de bloque co-localizado para cada instantánea, también es conveniente decodificar una bandera de prohibición de uso de bloque co-localizado de este tipo para cada corte compuesto de una pluralidad de bloques. La decodificación de una bandera de prohibición de uso de bloque co-localizado para cada corte hace posible aumentar la precisión de predicción de vector global.
Aunque se decodifica una bandera de prohibición de uso de bloque co-localizado desde cada una de todas las instantáneas en la realización 2, es posible que no se añada predictor de vector de movimiento temporal a candidatos de predictor de vector de movimiento, basándose en un tipo de instantánea. Por ejemplo, puede concebirse que un vector global se añada a candidatos de predictor de vector de movimiento sin añadir ningún predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento para cada una de las instantáneas a las que se hace referencia por otras instantáneas (instantáneas P, instantáneas B a las que se hace referencia por otras instantáneas, e instantáneas que pertenecen a la capa de nivel más inferior en una estructura de referencia compuesta de una pluralidad de capas). De esta manera, es posible aumentar la eficacia de codificación mientras se reduce la carga de procesamiento para la decodificación determinando si añadir un predictor de vector de movimiento temporal o un vector de movimiento global a candidatos de predictor de vector de movimiento, basándose en un tipo de instantánea.
[Variación]
A continuación, se describe un aparato de codificación de instantáneas en movimiento de acuerdo con la variación de la realización 1 con referencia a la Figura 15. La Figura 15 es un diagrama de bloques de un aparato 300 de codificación de instantáneas en movimiento de acuerdo con la variación de la realización 1. Las diferencias de la realización 1 se describen principalmente a continuación sin repetir las mismas descripciones de los puntos comunes como en la realización 1.
Como se muestra en la Figura 15, el aparato 300 de codificación de instantáneas en movimiento incluye un primer codificador 310 que codifica una vista de base y emite una secuencia de bits de base resultante y un segundo decodificador 320 que codifica una vista dependiente y emite una secuencia de bits dependiente resultante. En el ejemplo no limitante mostrado en la Figura 15, la secuencia de bits de base y la secuencia de bits dependiente se emiten de manera independiente entre sí. Sin embargo, también es conveniente emitir una única secuencia de bit en la que se combina una secuencia de bits de base y una secuencia de bits dependiente.
El primer y segundo decodificadores 310 y 320 tienen básicamente la misma estructura que los equivalentes en el aparato 100 de codificación de instantáneas en movimiento mostrado en la Figura 1. Sin embargo, el segundo codificador 320 puede hacer referencia a una memoria 108 de fotograma etc., del primer codificador 310, además de los destinos de referencia en la estructura en la Figura 1.
A continuación, se describe un procedimiento de codificación de instantáneas en movimiento de acuerdo con la variación de la realización 1 con referencia a las Figuras 16 y 17. La Figura 16 es un diagrama de flujo de operaciones de diagrama de flujo en el procedimiento de codificación de instantáneas en movimiento de acuerdo con la variación de la realización 1. La Figura 17 es un diagrama que muestra instantáneas en una vista de base e instantáneas en una vista dependiente.
Como se muestra en la Figura 17, la vista de base incluye una pluralidad de instantáneas I11, P12, P13, P14, 115, P16, y P17. Además, entre las instantáneas en la vista de base, cada una de las instantáneas de inicio I11 y 115 en los Grupos de Instantáneas (GOP) es una instantánea I, y las otras instantáneas P12, P13, P14, P16, y P17 son instantáneas P. Se ha de observar que la vista de base se codifica con referencia a únicamente instantáneas en la vista de base (en otras palabras, usando codificación de intra predicción o codificación de inter predicción), y se decodifica.
Como se muestra en la Figura 17, la vista dependiente incluye una pluralidad de instantáneas P21, P22, P23, P24, P25, P26 y P27. Todas las instantáneas P21, P22, P23, P24, P25, P26 y P27 en la vista dependiente son instantáneas P. Se ha de observar que la vista dependiente se codifica con referencia a instantáneas en la vista dependiente y correspondientes instantáneas en la vista de base (en otras palabras, usando codificación de predicción de inter-vista), y se decodifica.
Además, la vista de base y la vista dependiente son vídeos de un objeto cuando se observa desde diferentes puntos
5
10
15
20
25
30
35
40
45
50
55
de vista. En otras palabras, cada uno de los pares de instantáneas mutuamente correspondientes en la vista de base y la vista dependiente (que tienen la misma indicación de tiempo) tienen paralaje en una dirección horizontal. El segundo codificador 320 puede codificar cada una de las instantáneas en la vista dependiente, usando una correspondiente imagen en la vista de base como una instantánea de referencia. En lo sucesivo, con referencia a la Figura 16, se proporciona una descripción de operaciones realizadas por la unidad 114 de cálculo de predictor de vector de movimiento temporal del segundo codificador 320.
En primer lugar, la unidad 114 de cálculo de predictor de vector de movimiento temporal determina si es imposible o no obtener un predictor de vector de movimiento temporal en el momento de codificación de un bloque objetivo de codificación (S91). Cuando es imposible obtener cualquier predictor de vector de movimiento temporal (Sí en S91), la unidad 114 de cálculo de predictor de vector de movimiento temporal incluye un vector de paralaje descrito más adelante a los candidatos de predictor de vector de movimiento (S92). Por otra parte, cuando es posible obtener algún predictor de vector de movimiento temporal (No en S91), la unidad 114 de cálculo de predictor de vector de movimiento temporal incluye un predictor de vector de movimiento temporal a los candidatos de predictor de vector de movimiento (S93).
En este punto, casos ejemplares en los que no puede obtenerse predictor de vector de movimiento temporal incluyen un caso donde un bloque objetivo de codificación se incluye en una de las instantáneas de inicio P21 y P25 en los GOP. No hay instantáneas localizadas hacia delante de las instantáneas de inicio P21 y P25 en los gOp en orden de tiempo de visualización ni a las que ha de hacerse referencia por las instantáneas de inicio P21 y P25. En otras palabras, cuando el orden de codificación y el orden de visualización coinciden, las instantáneas P21 y P25 pueden hacer únicamente referencia a las correspondientes instantáneas I11 y 115 en la vista de base, respectivamente.
Sin embargo, las instantáneas 111 y 115 son instantáneas I, y por lo tanto no tienen ninguna información de vector de movimiento. En vista de esto, en un caso de este tipo, la unidad 114 de cálculo de predictor de vector de movimiento temporal incluye, como un vector de sustitución para un predictor de vector de movimiento temporal, un vector de paralaje almacenado en la unidad 116 de almacenamiento de vector global en candidatos de predictor de vector de movimiento, e incluye un vector de paralaje en información de encabezamiento de la secuencia de bits dependiente.
En este punto, el vector de paralaje es un vector que corresponde a la paralaje entre la vista de base y la vista dependiente. Más específicamente, la unidad 112 de control de inter predicción del segundo codificador 320 emite, a la unidad 116 de almacenamiento de vector global, un vector de movimiento en el momento de la realización de codificación de predicción de inter-vista en cada uno de los bloques de la instantánea objetivo de codificación en la vista dependiente (en otras palabras, el vector de movimiento es un vector de movimiento en el momento de la codificación de la correspondiente instantánea en la vista de base como una instantánea de referencia). La unidad 116 de almacenamiento de vector global almacena, como el vector de paralaje, un valor promedio, un valor de mediana, un valor de modo o similares de vectores de movimiento para cada instantánea obtenida desde la unidad 112 de control de inter predicción.
En la etapa S92 de la Figura 16, la unidad 114 de cálculo de predictor de vector de movimiento temporal puede seleccionar, como el vector de paralaje para la instantánea P25 en la vista dependiente, (i) el vector de paralaje (cuya instantánea de referencia es la instantánea I11) calculado en la instantánea de inicio P21 en el GOP inmediatamente antes del GOP que incluye la instantánea P25 o (ii) el vector de paralaje (cuya instantánea de referencia es la instantánea P14) calculado en la instantánea P24 codificada inmediatamente antes.
El caso específico anterior donde no puede obtenerse predictor de vector de movimiento temporal en la etapa S91 de la Figura 16 es un ejemplo no limitante. Como otro caso de ejemplo, puede activarse la bandera de prohibición de uso de bloque co-localizado para una instantánea objetivo de codificación. La bandera de prohibición de uso de bloque co-localizado es la misma que en la realización 1, y por lo tanto no se repite en este punto la misma descripción.
Como se ha descrito anteriormente, la presente invención puede aplicarse al caso de codificación de la vista de base y la vista dependiente que constituyen el vídeo de múltiples vistas. En otras palabras, es posible evitar la propagación de error de decodificación mientras se suprime la reducción en eficacia de codificación incluyendo de manera selectiva un predictor de vector de movimiento temporal o un vector de paralaje que es un vector de sustitución que sustituye el predictor de vector de movimiento temporal, en candidatos de predictor de vector de movimiento.
A continuación, se describe un aparato 400 de decodificación de instantáneas en movimiento de acuerdo con la variación de la realización 2 con referencia a la Figura 18. La Figura 18 es un diagrama de bloques de un aparato 400 de decodificación de instantáneas en movimiento de acuerdo con la variación de la realización 2. Las diferencias de la realización 2 se describen principalmente a continuación sin repetir las mismas descripciones de los puntos comunes como en la realización 2.
Como se muestra en la Figura 18, el aparato 400 de decodificación de instantáneas en movimiento incluye un primer
5
10
15
20
25
30
35
40
45
50
55
decodificador 410 que decodifica una secuencia de bits de base y emite la vista de base resultante y un segundo decodificador 420 que decodifica una secuencia de bits de vista dependiente y emite la vista dependiente resultante. En el ejemplo no limitante mostrado en la Figura 18, la secuencia de bits de base independiente y la secuencia de bits dependiente se introducen de manera separada una de la otra. Sin embargo, también es conveniente introducir una única secuencia de bits en la que se combina una secuencia de bits de base y una secuencia de bits dependiente, y la secuencia de bits se divide en la secuencia de bits de base y la secuencia de bits dependiente dentro del aparato 400 de decodificación de instantáneas en movimiento.
El primer y segundo decodificadores 410 y 420 tienen básicamente las mismas estructuras que los equivalentes en el aparato 200 de decodificación de instantáneas en movimiento mostrado en la Figura 12. Sin embargo, el segundo decodificador 420 puede hacer referencia a una memoria 206 de fotograma etc., del primer decodificador 410, además de los destinos de referencia en la estructura en la Figura 12. En otras palabras, el aparato 400 de decodificación de instantáneas en movimiento decodifica la secuencia de bits de base y la secuencia de bits dependiente codificadas por el aparato 300 de codificación de instantáneas en movimiento.
A continuación, el segundo decodificador 420 del aparato 400 de decodificación de instantáneas en movimiento puede incluir de manera selectiva como un predictor de vector para un bloque objetivo de decodificación, un predictor de vector de movimiento temporal almacenado en la memoria 212 colPic o un vector de paralaje incluido en información de encabezamiento de la secuencia de bits dependiente.
[Realización 3]
El procesamiento descrito en cada una de las realizaciones puede implementarse de manera sencilla en un sistema informático independiente mostrado en la realización, grabando, en un medio de grabación, un programa para implementar las configuraciones del procedimiento de codificación de instantáneas en movimiento (procedimiento de codificación de imagen) y el procedimiento de decodificación de instantáneas en movimiento (procedimiento de decodificación de imagen) descrito en cada una de las realizaciones. El medio de grabación puede ser cualquier medio de grabación siempre que el programa pueda grabarse, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta de CI, y una memoria de semiconductores.
En lo sucesivo, se describirán las aplicaciones al procedimiento de codificación de instantáneas en movimiento (procedimiento de codificación de imagen) y al procedimiento de decodificación de instantáneas en movimiento (procedimiento de decodificación de imagen) descritos en cada una de las realizaciones y sistemas que usan los mismos. El sistema tiene una característica de tener un aparato de codificación y decodificación de imagen que incluye un aparato de codificación de imagen que usa el procedimiento de codificación de imagen y un aparato de decodificación de imagen que usa el procedimiento de decodificación de imagen. Pueden cambiarse otras configuraciones en el sistema según sea apropiado dependiendo de los casos.
La Figura 20 ilustra una configuración global de un sistema ex100 de suministro de contenido para implementar servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en células de tamaño deseado, y las estaciones ex106, ex107, ex108, ex109 y ex110 base que son estaciones inalámbricas fijas se colocan en cada una de las células.
El sistema ex100 de suministro de contenido está conectado a dispositivos, tales como un ordenador ex111, un asistente digital personal (PDA) ex112, una cámara ex113, un teléfono ex114 celular y una máquina ex115 de juegos, mediante la Internet ex101, un proveedor ex102 de servicio de Internet, una red ex104 de telefonía, así como las estaciones ex106 a ex110 base, respectivamente.
Sin embargo, la configuración del sistema ex100 de suministro de contenido no está limitada a la configuración mostrada en la Figura 20, y es aceptable una combinación en la que cualquiera de los elementos están conectados. Además, cada dispositivo puede estar directamente conectado a la red ex104 de telefonía, en lugar de mediante las estaciones ex106 a ex110 base que son las estaciones inalámbricas fijas. Adicionalmente, los dispositivos pueden interconectarse entre sí mediante una comunicación inalámbrica de corta distancia y otras.
La cámara ex113, tal como una cámara de vídeo digital, puede capturar vídeo. Una cámara ex116, tal como una cámara digital, puede capturar tanto imágenes fijas como vídeo. Adicionalmente, el teléfono ex114 celular puede ser el que cumple cualquiera de las normas tales como el Sistema Global para Comunicación Móvil (GSM) (marca comercial registrada), Acceso Múltiple por División de Código (CDMA), Acceso Múltiple por División de Código de Banda Ancha (W-cDmA), Evolución a Largo Plazo (LTE), y Acceso por Paquetes a Alta Velocidad (HSPA). Como alternativa, el teléfono ex114 celular puede ser un Sistema Móvil Personal (PHS).
En el sistema ex100 de suministro de contenido, un servidor ex103 de envío por flujo continuo está conectado a la cámara ex113 y a otros mediante la red ex104 de telefonía y la estación ex109 base, que posibilita la distribución de imágenes de un espectáculo en directo y otros. En una distribución de este tipo, un contenido (por ejemplo, vídeo de un espectáculo en directo de música) capturado por el usuario que usa la cámara ex113 se codifica como se ha descrito anteriormente en cada una de las realizaciones, (es decir, la cámara funciona como el aparato de codificación de imagen de acuerdo con un aspecto de la presente invención), y el contenido codificado se transmite al servidor ex103 de flujo continuo. Por otra parte, el servidor ex103 de flujo continuo lleva a cabo distribución de
5
10
15
20
25
30
35
40
45
50
55
60
flujo en los datos de contenido transmitidos a los clientes tras sus solicitudes. Los clientes incluyen el ordenador ex111, el PDA ex112, la cámara ex113, el teléfono ex114 celular, y la máquina ex115 de juegos que pueden decodificar los datos codificados anteriormente mencionados. Cada uno de los dispositivos que han recibido los datos distribuidos decodifican y reproducen los datos codificados, (es decir, funcionan como el aparato de decodificación de imagen de acuerdo con un aspecto de la presente invención).
Los datos capturados pueden codificarse por la cámara ex113 o el servidor ex103 de flujo continuo que transmite los datos, o los procedimientos de codificación pueden compartirse entre la cámara ex113 y el servidor ex103 de flujo continuo. De manera similar, los datos distribuidos pueden decodificarse por los clientes o el servidor ex103 de flujo continuo, o los procedimientos de decodificaciones pueden compartirse entre los clientes y el servidor ex103 de flujo continuo. Adicionalmente, los datos de las imágenes fijas y el vídeo capturado no únicamente por la cámara ex113 sino también por la cámara ex116 pueden transmitirse al servidor ex103 de flujo continuo a través del ordenador ex111. Los procedimientos de codificación pueden realizarse por la cámara ex116, el ordenador ex111, o el servidor ex103 de flujo continuo, o compartirse entre ellos.
Adicionalmente, los procedimientos de codificación y decodificación pueden realizarse por un LSI ex500 generalmente incluido en cada uno del ordenador ex111 y los dispositivos. El LSI ex500 puede estar configurado de un único chip o una pluralidad de chips. El software para codificar y decodificar vídeo puede estar integrado en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que es legible por el ordenador ex111 y otros, y los procedimientos de codificación y decodificación pueden realizarse usando el software. Adicionalmente, cuando el teléfono ex114 celular está equipado con una cámara, los datos de vídeo obtenidos por la cámara pueden transmitirse. Los datos de vídeo son datos codificados por el LSI ex500 incluido en el teléfono ex114 celular.
Adicionalmente, el servidor ex103 de flujo continuo puede estar compuesto de servidores y ordenadores, y puede descentralizar los datos y procesar los datos descentralizados, registrar o distribuir los datos.
Como se ha descrito anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema ex100 de suministro de contenido. En otras palabras, los clientes pueden recibir y decodificar información transmitida por el usuario, y reproducir los datos decodificados en tiempo real en el sistema ex100 de suministro de contenido, de modo que el usuario que no tiene ningún derecho y equipo particular puede implementar difusión personal.
Además del ejemplo del sistema ex100 de suministro de contenido, al menos uno del aparato de codificación de instantáneas en movimiento (aparato de codificación de imagen) y el aparato de decodificación de instantáneas en movimiento (aparato de decodificación de imagen) descritos en cada una de las realizaciones pueden implementarse en un sistema ex200 de difusión digital ilustrado en la Figura 21. Más específicamente, una estación ex201 de difusión comunica o transmite mediante ondas de radio a un satélite ex202 de difusión, datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo. Los datos de vídeo son datos codificados por el procedimiento de codificación de instantáneas en movimiento descrito en cada una de las realizaciones, (es decir, datos codificados por el aparato de codificación de imagen de acuerdo con un aspecto de la presente invención). Tras la recepción de los datos multiplexados, el satélite ex202 de difusión transmite ondas de radio para difusión. A continuación, una antena ex204 de uso doméstico con una función de recepción de difusión por satélite recibe las ondas de radio. A continuación, un dispositivo tal como una televisión (receptor) ex300 y un decodificador de salón (STB) ex217 decodifica los datos multiplexados recibidos, y reproduce los datos decodificados (es decir, funciona como el aparato de decodificación de imagen de acuerdo con un aspecto de la presente invención).
Adicionalmente, un lector/grabador ex218 (i) lee y decodifica los datos multiplexados grabados en un medio ex215 de grabación, tal como un DVD y un BD, o (i) codifica señales de vídeo en el medio ex215 de grabación, y en algunos casos, escribe datos obtenidos multiplexando una señal de audio en los datos codificados. El lector/grabador ex218 puede incluir el aparato de decodificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento como se muestra en cada una de las realizaciones. En este caso, las señales de vídeo reproducidas se visualizan en el monitor ex219, y pueden reproducirse por otro dispositivo o sistema usando el medio ex215 de grabación en el que se graban los datos multiplexados. Es también posible implementar el aparato de decodificación de instantáneas en movimiento en el decodificador de salón ex217 conectado al cable ex203 para una televisión por cable o a la antena ex204 para difusión por satélite y/o terrestre, para visualizar las señales de vídeo en el monitor ex219 de la televisión ex300. El aparato de decodificación de instantáneas en movimiento puede implementarse no en el decodificador de salón sino en la televisión ex300.
La Figura 22 ilustra la televisión (receptor) ex300 que usa el procedimiento de codificación de instantáneas en movimiento y el procedimiento de decodificación de instantáneas en movimiento descritos en cada una de las realizaciones. La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo, a través de la antena ex204 o el cable ex203, etc., que recibe una difusión; una unidad ex302 de modulación/demodulación que demodula los datos multiplexados recibidos o modula datos en datos multiplexados a suministrarse al exterior; y una unidad ex303 de multiplexación/demultiplexación que demultiplexa los datos multiplexados modulados en datos de vídeo y datos de
5
10
15
20
25
30
35
40
45
50
55
60
audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad ex306 de procesamiento de señal en datos.
La televisión ex300 incluye adicionalmente: una unidad ex306 de procesamiento de señal que incluye una unida ex304 de procesamiento de señal de audio y una unidad ex305 de procesamiento de señal de vídeo que decodifica datos de audio y datos de vídeo y codifica datos de audio y datos de vídeo, respectivamente (que funciona como el aparato de codificación de imagen y el aparato de decodificación de imagen de acuerdo con los aspectos de la presente invención); y una unidad ex309 de salida que incluye un altavoz ex307 que proporciona la señal de audio decodificada, y una unidad ex308 de visualización que visualiza la señal de vídeo decodificada, tal como una pantalla. Adicionalmente, la televisión ex300 incluye una unidad ex317 de interfaz que incluye una unidad ex312 de entrada de operación que recibe una entrada de una operación de usuario. Adicionalmente, la televisión ex300 incluye una unidad ex310 de control que controla de manera global cada elemento constituyente de la televisión ex300, y una unidad ex311 de circuito de fuente de alimentación que suministra potencia a cada uno de los elementos. Distinta de la unidad ex312 de entrada de operación, la unidad ex317 de interfaz puede incluir: un puente ex313 que está conectado a un dispositivo externo, tal como el lector/grabador ex218; una unidad ex314 de ranura para posibilitar la conexión del medio ex216 de grabación, tal como una tarjeta de SD; un controlador ex315 para conectarse a un medio de grabación externo, tal como un disco duro; y un módem ex316 para conectarse a una red de telefonía. En este punto, el medio ex216 de grabación puede grabar eléctricamente información usando un elemento de memoria de semiconductores no volátil/volátil para almacenamiento. Los elementos constituyentes de la televisión ex300 están conectados entre sí a través de un bus síncrono.
En primer lugar, se describirá la configuración en la que la televisión ex300 decodifica datos multiplexados obtenidos desde el exterior a través de la antena ex204 y otros y reproduce los datos decodificados. En la televisión ex300, después de la operación de un usuario a través de un controlador remoto ex220 y otros, la unidad ex303 de multiplexación/demultiplexación demultiplexa los datos multiplexados demodulados por la unidad ex302 de modulación/demodulación, bajo el control de la unidad ex310 de control que incluye una CPU. Adicionalmente, la unida ex304 de procesamiento de señal de audio decodifica los datos de audio demultiplexados, y la unidad ex305 de procesamiento de señal de vídeo decodifica los datos de vídeo demultiplexados, usando el procedimiento de decodificación descrito en cada una de las realizaciones, en la televisión ex300. La unidad ex309 de salida proporciona la señal de vídeo decodificada y la señal de audio al exterior, respectivamente. Cuando la unidad ex309 de salida proporciona la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en memorias intermedias ex318 y ex319, y otros de modo que las señales se reproducen en sincronización entre sí. Adicionalmente, la televisión ex300 puede leer datos multiplexados no a través de una difusión y otros sino desde el medio ex215 y ex216 de grabación, tal como un disco magnético, un disco óptico, y una tarjeta de SD. A continuación, se describirá una configuración en la que la televisión ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos al exterior o escribe los datos en un medio de grabación. En la televisión ex300, después de una operación de usuario a través del controlador remoto ex220 y otros, la unidad ex304 de procesamiento de señal de audio codifica una señal de audio, y la unidad ex305 de procesamiento de señal de vídeo codifica una señal de vídeo, bajo el control de la unidad ex310 de control usando el procedimiento de codificación descrito en cada una de las realizaciones. La unidad ex303 de multiplexación/demultiplexación multiplexa la señal de vídeo y la señal de audio codificadas, y proporciona la señal resultante al exterior. Cuando la unidad ex303 de multiplexación/demultiplexación multiplexa la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en las memorias intermedias ex320 y ex321, y otros de modo que las señales se reproducen en sincronización entre sí. En este punto, las memorias intermedias ex318, ex319, ex320 y ex321 pueden ser varias como se ilustra, o al menos una memoria intermedia puede compartirse en la televisión ex300. Adicionalmente, pueden almacenarse datos en una memoria intermedia de modo que puede evitarse la sobrecara e infrautilización del sistema entre la unidad ex302 de modulación/demodulación y la unidad ex303 de multiplexación/demultiplexación, por ejemplo.
Adicionalmente, la televisión ex300 puede incluir una configuración para recibir una entrada de AV desde un micrófono o una cámara distinta de la configuración para obtener datos de audio y de vídeo desde una difusión o de un medio de grabación, y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar y proporcionar datos al exterior en la descripción, puede únicamente recibir, decodificar y proporcionar datos al exterior pero no codificar, multiplexar y proporcionar datos al exterior.
Adicionalmente, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o en un medio de grabación, una de la televisión ex300 y el lector/grabador ex218 pueden decodificar o codificar los datos multiplexados, y la televisión ex300 y el lector/grabador ex218 puede compartir la decodificación o codificación.
Como un ejemplo, la Figura 23 ilustra una configuración de una unidad ex400 de reproducción/grabación de información cuando se leen o escriben datos desde o en un disco óptico. La unidad ex400 de reproducción/grabación de información incluye los elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406 y ex407 que se describen en lo sucesivo. El cabezal óptico ex401 irradia un punto láser en una superficie de grabación del medio ex215 de grabación que es un disco óptico para escribir información, y detecta luz reflejada desde la superficie de grabación del medio ex215 de grabación para leer la información. La unidad ex402 de grabación de modulación acciona eléctricamente un láser de semiconductores incluido en el cabezal óptico ex401, y modula la luz de láser de acuerdo con datos grabados. La unidad ex403 de demodulación de reproducción amplifica
5
10
15
20
25
30
35
40
45
50
55
60
una señal de reproducción obtenida detectando eléctricamente la luz reflejada desde la superficie de grabación usando un foto detector incluido en el cabezal óptico ex401, y demodula la señal de reproducción separando un componente de señal grabado en el medio ex215 de grabación para reproducir la información necesaria. La memoria intermedia ex404 mantiene temporalmente la información a grabarse en el medio ex215 de grabación y la información reproducida desde el medio ex215 de grabación. El motor de disco ex405 gira el medio ex215 de grabación. La unidad ex406 de servo control mueve el cabezal óptico ex401 a una pista de información predeterminada mientras controla el mecanismo de rotación del motor de disco ex405 para seguir el punto láser. La unidad ex407 de control de sistema controla la totalidad de la unidad ex400 de reproducción/grabación de información. Los procedimientos de lectura y escritura pueden implementarse por la unidad ex407 de control de sistema usando diversa información almacenada en la memoria intermedia ex404 y generando y añadiendo nueva información según sea necesaria, y por la unidad ex402 de grabación de modulación, la unidad ex403 de demodulación de reproducción, y la unidad ex406 de servo control que graban y reproducen información a través del cabezal óptico ex401 mientras se operan de una manera coordinada. La unidad ex407 de control de sistema incluye, por ejemplo, un microprocesador y ejecuta procesamiento provocando que un ordenador ejecute un programa para lectura y escritura.
Aunque el cabezal óptico ex401 irradia un punto láser en la descripción, puede realizar grabación de alta densidad usando luz de campo cercano.
La Figura 24 ilustra el medio ex215 de grabación que es el disco óptico. En la superficie de grabación del medio ex215 de grabación, se forman de manera espiral surcos de guía, y una pista ex230 de información graba, con antelación, información de dirección que indica una posición absoluta en el disco de acuerdo con el cambio en una forma de las ranuras de guía. La información de dirección incluye información para determinar posiciones de bloques ex231 de grabación que son una unidad para grabar datos. Reproducir la pista ex230 de información y leer la información de dirección en un aparato que graba y reproduce datos puede conducir a la determinación de las posiciones de los bloques de grabación. Adicionalmente, el medio ex215 de grabación incluye un área ex233 de grabación de datos, un área ex232 de circunferencia interna, y un área ex234 de circunferencia externa. El área ex233 de grabación de datos es un área para su uso al grabar los datos de usuario. El área ex232 de circunferencia interna y el área ex234 de circunferencia externa que están en el interior y el exterior del área ex233 de grabación de datos, respectivamente son para uso específico excepto para la grabación de los datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe datos de audio codificado, datos de vídeo codificado, o datos multiplexados obtenidos multiplexando los datos de audio y vídeo codificados, desde y en el área ex233 de grabación de datos del medio ex215 de grabación.
Aunque se describe un disco óptico que tiene una capa, tal como un DVD y un BD como un ejemplo en la descripción, el disco óptico no está limitado a esto, y puede ser un disco óptico que tiene una estructura de múltiples capas y que puede grabarse en una parte distinta de la superficie. Adicionalmente, el disco óptico puede tener una estructura para grabación/reproducción multi-dimensional, tal como grabación de información usando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas desde diferentes ángulos.
Adicionalmente, un coche ex210 que tiene una antena ex205 puede recibir datos desde el satélite ex202 y otros, y reproducir vídeo en un dispositivo de visualización tal como un sistema ex211 de navegación de coche establecido
en el coche ex210, en el sistema ex200 de difusión digital. En este punto, una configuración del sistema ex211 de
navegación de coche será una configuración, por ejemplo, que incluye una unidad de recepción de GPS a partir de la configuración ilustrada en la Figura 22. Lo mismo se cumplirá para la configuración del ordenador ex111, el teléfono ex114 celular, y otros.
En la Figura 25, (a) ilustra el teléfono ex114 celular que usa el procedimiento de codificación de instantáneas en movimiento y el procedimiento de decodificación de instantáneas en movimiento descritos en las realizaciones. El teléfono ex114 celular incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación
ex110 base; una unidad ex365 de cámara que puede capturar imágenes en movimiento e imágenes fijas; y una
unidad ex358 de visualización tal como una pantalla de cristal líquido para visualizar los datos tales como vídeo decodificado capturado por la unidad ex365 de cámara o recibidos por la antena ex350. El teléfono ex114 celular incluye adicionalmente: una unidad de cuerpo principal que incluye una unidad ex366 de tecla de operación; una unidad ex357 de salida de audio tal como un altavoz para salida de audio; una unidad ex356 de entrada de audio tal como un micrófono para entrada de audio; una unidad ex367 de memoria para almacenar vídeo capturado o imágenes fijas, audio grabado, codificado o datos decodificados del vídeo recibido, las instantáneas fijas, correos electrónicos u otros; y una unidad ex364 de ranura que es una unidad de interfaz para un medio de grabación que almacena datos de la misma manera que la unidad ex367 de memoria.
A continuación, se describirá un ejemplo de una configuración del teléfono ex114 celular con referencia a (b) de la Figura 25. En el teléfono ex114 celular, una unidad ex360 de control principal designada para controlar de manera global cada unidad del cuerpo principal que incluye la unidad ex358 de visualización así como la unidad ex366 de tecla de operación está mutuamente conectada, mediante un bus ex370 síncrono, a una unidad ex361 de circuito de fuente de alimentación, una unidad ex362 de control de entrada de operación, una unidad ex355 de procesamiento de señal de vídeo, una unidad ex363 de interfaz de cámara, una unidad ex359 de control de pantalla de cristal
5
10
15
20
25
30
35
40
45
50
55
60
líquido (LCD), una unidad ex352 de modulación/demodulación, una unidad ex353 de multiplexación/demultiplexación, una unidad ex354 de procesamiento de señal de audio, la unidad ex364 de ranura, y la unidad ex367 de memoria.
Cuando se ACTIVA una tecla de fin de llamada o una tecla de encendido por una operación del usuario, la unidad ex361 de circuito de fuente de alimentación suministra a las respectivas unidades con potencia desde un conjunto de baterías para activar el teléfono ex114 celular.
En el teléfono ex114 celular, la unidad ex354 de procesamiento de señal de audio convierte las señales de audio recopiladas por la unidad ex356 de entrada de audio en modo de conversación de voz en señales de audio digitales bajo el control de la unidad ex360 de control principal que incluye una CPU, ROM y RAM. A continuación, la unidad ex352 de modulación/demodulación realiza procesamiento de espectro ensanchado en las señales de audio digitales, y la unidad ex351 de transmisión y recepción realiza conversión de digital a analógico y conversión de frecuencia en los datos, para transmitir los datos resultantes mediante la antena ex350. También, en el teléfono ex114 celular, la unidad ex351 de transmisión y recepción amplifica los datos recibidos por la antena ex350 en modo de conversación de voz y realiza conversión de frecuencia y la conversión de analógico a digital en los datos. A continuación, la unidad ex352 de modulación/demodulación realiza procesamiento de espectro ensanchado inverso en los datos, y la unidad ex354 de procesamiento de señal de audio los convierte en señales de audio analógicas, para emitirlas mediante la unidad ex357 de salida de audio.
Adicionalmente, cuando se transmite un correo electrónico en modo de comunicación de datos, los datos de texto del correo electrónico introducidos operando la unidad ex366 de tecla de operación y otras del cuerpo principal se envían fuera a la unidad ex360 de control principal mediante la unidad ex362 de control de entrada de operación. La unidad ex360 de control principal provoca que la unidad ex352 de modulación/demodulación realice procesamiento de espectro ensanchado en los datos de texto, y la unidad ex351 de transmisión y recepción realiza la conversión de digital a analógico y la conversión de frecuencia en los datos resultantes para transmitir los datos a la estación ex 10 base mediante la antena ex350. Cuando se recibe un correo electrónico, se realiza el procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico en los datos recibidos, y los datos resultantes se proporcionan a la unidad ex358 de visualización.
Cuando se transmite vídeo, imágenes fijas o vídeo y audio en modo de comunicación de datos, la unidad ex355 de procesamiento de señal de vídeo comprime y codifica señales de vídeo suministradas desde la unidad ex365 de cámara usando el procedimiento de codificación de instantáneas en movimiento mostrado en cada una de las realizaciones (es decir, funciona como el aparato de codificación de imagen de acuerdo con el aspecto de la presente invención), y transmite los datos de vídeo codificados a la unidad ex353 de multiplexación/demultiplexación. En contraste, cuando la unidad ex365 de cámara captura vídeo, imágenes fijas y otros, la unidad ex354 de procesamiento de señal de audio codifica señales de audio recopiladas por la unidad ex356 de entrada de audio, y transmite los datos de audio codificados a la unidad ex353 de multiplexación/demultiplexación.
La unidad ex353 de multiplexación/demultiplexación multiplexa los datos de vídeo codificados suministrados desde la unidad ex355 de procesamiento de señal de vídeo y los datos de audio codificados suministrados desde la unidad ex354 de procesamiento de señal de audio, usando un procedimiento predeterminado. A continuación, la unidad ex352 de modulación/demodulación (unidad de circuito de modulación/demodulación) realiza procesamiento de espectro ensanchado en los datos multiplexados, y la unidad ex351 de transmisión y recepción realiza conversión de digital a analógico y conversión de frecuencia en los datos para transmitir los datos resultantes mediante la antena ex350.
Cuando se reciben datos de un fichero de vídeo que está enlazado a una página web y otros en modo de comunicación de datos o cuando se recibe un correo electrónico con vídeo y/o audio adjunto, para decodificar los datos multiplexados recibidos mediante la antena ex350, la unidad ex353 de multiplexación/demultiplexación demultiplexa los datos multiplexados en una secuencia de bits de datos de vídeo y una secuencia de bits de datos de audio, y suministra a la unidad ex355 de procesamiento de señal de vídeo con los datos de vídeo codificados y a la unidad ex354 de procesamiento de señal de audio con los datos de audio codificados, a través del bus ex370 síncrono. La unidad ex355 de procesamiento de señal de vídeo decodifica la señal de vídeo usando un procedimiento de decodificación de instantáneas en movimiento que corresponde al procedimiento de codificación de instantáneas en movimiento mostrado en cada una de las realizaciones (es decir, funciona como el aparato de decodificación de imagen de acuerdo con el aspecto de la presente invención), y a continuación la unidad ex358 de visualización visualiza, por ejemplo, el vídeo y las imágenes fijas incluidas en el fichero de vídeo enlazado a la página web mediante la unidad ex359 de control de LCD. Adicionalmente, la unidad ex354 de procesamiento de señal de audio decodifica la señal de audio, y la unidad ex357 de salida de audio proporciona el audio.
Adicionalmente, de manera similar a la televisión ex300, un terminal tal como el teléfono ex114 celular probablemente tiene 3 tipos de configuraciones de implementación que incluyen no únicamente (i) un terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de decodificación, sino también (ii) un terminal de transmisión que incluye únicamente un aparato de codificación y (iii) un terminal de recepción que incluye únicamente un aparato de decodificación. Aunque el sistema ex200 de difusión digital recibe y
5
10
15
20
25
30
35
40
45
50
55
transmite los datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo en la descripción, los datos multiplexados pueden ser datos obtenidos multiplexando no datos de audio sino datos de caracteres relacionados con el vídeo en los datos de vídeo, y pueden no ser datos multiplexados sino los mismos datos de vídeo.
Como tal, el procedimiento de codificación de instantáneas en movimiento y el procedimiento de decodificación de instantáneas en movimiento en cada una de las realizaciones pueden usarse en cualquiera de los dispositivos y sistemas descritos. Por lo tanto, pueden obtenerse las ventajas descritas en cada una de las realizaciones.
Adicionalmente, la presente invención no está limitada a las realizaciones anteriormente descritas. Pueden realizarse diversas modificaciones y revisiones en cualquiera de las realizaciones sin desviarse del alcance de la presente invención.
[Realización 4]
Los datos de vídeo pueden generarse conmutando, según sea necesario, entre (i) el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento mostrados en cada una de realizaciones y (ii) un procedimiento de codificación de instantáneas en movimiento o un aparato de codificación de instantáneas en movimiento en conformidad con una norma diferente, tal como MPEG-2, MPEG-4 AVC y VC-1.
En este punto, cuando se genera una pluralidad de datos de vídeo conforme a las diferentes normas y se decodifican a continuación, necesitan seleccionarse los procedimientos de decodificación para estar conformes a las diferentes normas. Sin embargo, puesto que no puede detectarse a qué norma está conforme cada uno de la pluralidad de los datos de vídeo a decodificarse, existe un problema de que no puede seleccionarse un procedimiento de decodificación apropiado.
Para resolver el problema, los datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo tienen una estructura que incluye información de identificación que indica a qué norma están conformes los datos de vídeo. La estructura específica de los datos multiplexados que incluye los datos de vídeo generados en el procedimiento de codificación de instantáneas en movimiento y por el aparato de codificación de instantáneas en movimiento mostrados en cada una de las realizaciones se describirán en lo sucesivo. Los datos multiplexados son un flujo digital en el formato de Flujo de Transporte de MPEG-2.
La Figura 26 ilustra una estructura de los datos multiplexados. Como se ilustra en la Figura 26, los datos multiplexados pueden obtenerse multiplexando al menos uno de un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación (PG), y un flujo de gráficos interactivo. El flujo de vídeo representa vídeo primario y vídeo secundario de una película, el flujo de audio (IG) representa una parte de audio primario y una parte de audio secundario a mezclarse con la parte de audio primario, y el flujo de gráficos de presentación representa subtítulos de la película. En este punto, el vídeo primario es vídeo normal a visualizarse en una pantalla, y el vídeo secundario es vídeo a visualizarse en una ventana más pequeña en el vídeo primario. Adicionalmente, el flujo de gráficos interactivo representa una pantalla interactiva a generarse disponiendo los componentes de la GUI en una pantalla. El flujo de vídeo se codifica en el procedimiento de codificación de instantáneas en movimiento o por el aparato de codificación de instantáneas en movimiento mostrado en cada una de las realizaciones, o en un procedimiento de codificación de instantáneas en movimiento o por un aparato de codificación de instantáneas en movimiento de conformidad con una norma convencional, tal como MPEG-2, MPEG-4 AVC y VC-1. El flujo de audio se codifica de acuerdo con una norma, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, y pCm lineal.
Cada flujo incluido en los datos multiplexados se identifica por PID. Por ejemplo, se asigna 0x1011 al flujo de vídeo a usarse para vídeo de una película, se asigna 0x1100 a 0x111F a los flujos de audio, se asigna 0x1200 a 0x121F al flujo de gráficos de presentación, se asigna 0x1400 a 0x141F al flujo de gráficos interactivos, se asigna 0x1B00 a 0x1B1F a los flujos de vídeo a usarse para vídeo secundario de la película, y se asigna 0x1A00 a 0x1A1F al flujo de audios a usarse para el audio secundario a mezclarse con el audio principal.
La Figura 27 ilustra esquemáticamente cómo se multiplexan datos. En primer lugar, un flujo ex235 de vídeo compuesto de fotogramas de vídeo y un flujo ex238 de audio compuesto de tramas de audio se transforman en un flujo ex236 de paquetes de PES y un flujo ex239 de paquetes de PES, y adicionalmente en paquetes ex237 de TS y paquetes ex240 de TS, respectivamente. De manera similar, los datos de un flujo ex241 de gráficos de presentación y los datos de un flujo ex244 de gráficos interactivo se transforman en un flujo ex242 de paquetes de PES y un flujo ex245 de paquetes de PES, y adicionalmente en paquetes ex243 de TS y paquetes ex246 de TS, respectivamente. Estos paquetes de TS se multiplexan en un flujo para obtener datos multiplexados ex247.
La Figura 28 ilustra cómo se almacena un flujo de vídeo en un flujo de paquetes de PES en más detalle. La primera barra en la Figura 28 muestra un flujo de fotograma de vídeo en un flujo de vídeo. La segunda barra muestra el flujo de paquetes de PES. Como se indica por las flechas indicadas como yy1, yy2, yy3 y yy4 en la Figura 28, el flujo de vídeo se divide en instantáneas como instantáneas I, instantáneas B e instantáneas P cada una de las cuales es una unidad de presentación de vídeo, las instantáneas se almacenan en una carga útil de cada uno de los paquetes de PES. Cada uno de los paquetes de PES tiene un encabezamiento de PES, y el encabezamiento de PES almacena una Indicación de Tiempo de Presentación (PTS) que indica un tiempo de visualización de la instantánea, y una
5
10
15
20
25
30
35
40
45
50
55
Indicación de Tiempo de Decodificación (DTS) que indica un tiempo de decodificación de la instantánea.
La Figura 29 ilustra un formato de paquetes de TS a escribirse finalmente en los datos multiplexados. Cada uno de los paquetes de TS es un paquete de longitud fija de 188 bytes que incluye un encabezamiento de TS de 4 bytes que tiene información, tal como un PID para identificar un flujo y una carga útil de TS de 184 bytes para almacenar datos. Los paquetes de PES se dividen y se almacenan en las cargas útiles de TS, respectivamente. Cuando se usa un BD ROM, a cada uno de los paquetes de TS se le proporciona un TP_Encabezamiento_Extra de 4 bytes, dando como resultado por lo tanto paquetes de fuente de 192 bytes. Los paquetes de fuente se escriben en los datos multiplexados. El TP_Encabezamiento_Extra almacena información tal como una Indicación_Tiempo_Llegada (ATS). La ATS muestra un tiempo de inicio de transferencia en el que se ha de transferir cada uno de los paquetes de TS a un filtro de PID. Los paquetes de fuente se disponen en los datos multiplexados como se muestra en la parte inferior de la Figura 29. Los números que incrementan desde la cabecera de los datos multiplexados se denominan números de paquete de fuente (SPN).
Cada uno de los paquetes de TS incluidos en los datos multiplexados incluye no únicamente flujos de audio, vídeo, subtítulos y otros, sino también una Tabla de Asociación de Programa (PAT), una Tabla de Mapa de Programa (PMT), y una Referencia de Reloj de Programa (PCR). La PAT muestra qué indica un PID en una PMT usada en los datos multiplexados, y una PID de la misma PAT se registra como cero. La PMT almacena los PID de los flujos de vídeo, audio, subtítulos y otros incluidos en los datos multiplexados, y la información de atributo de los flujos que corresponden a los PID. La PMT también tiene diversos descriptores relacionados con los datos multiplexados. Los descriptores tienen información tal como información de control de copia que muestra si se permite o no el copiado de los datos multiplexados. La PCR almacena información de tiempo de STC que corresponde a una ATS que muestra cuándo se transfiere el paquete de PCR a un decodificador, para conseguir sincronización entre un Reloj de Tiempo de Llegada (ATC) que es el eje de tiempo de las ATS, y un Reloj de Tiempo de Sistema (STC) que es un eje de tiempo de las PTS y DtS.
La Figura 30 ilustra la estructura de datos de la PMT en detalle. Un encabezamiento de PMT está dispuesto en la parte superior de la PMT. El encabezamiento de la PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores relacionados con los datos multiplexados están dispuestos después del encabezamiento de PMT. La información tal como la información de control de copia se describe en los descriptores. Después de los descriptores, está dispuesta una pluralidad de piezas de la información de flujo relacionadas con los flujos incluidos en los datos multiplexados. Cada pieza de la información de flujo incluye descriptores de flujo que cada uno describe información, tal como un tipo de flujo para identificar un códec de compresión de un flujo, un PID de flujo, e información de atributo de flujo (tal como una velocidad de fotograma o una relación de aspecto). Los descriptores de flujo son iguales en número al número de flujos en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se registran juntos con ficheros de información de datos multiplexados.
Cada uno de los ficheros de información de datos multiplexados es información de gestión de los datos multiplexados como se muestra en la Figura 31. Los ficheros de información de datos multiplexados están en una correspondencia uno a uno con los datos multiplexados, y cada uno de los ficheros incluye información de datos multiplexados, información de atributo de flujo y un mapa de entrada.
Como se ilustra en la Figura 31, la información de datos multiplexados incluye una velocidad de sistema, un tiempo de inicio de reproducción, y un tiempo de fin de reproducción. La velocidad de sistema indica la tasa de trasferencia máxima a la que un decodificador objetivo de sistema que se va a describir más adelante transfiere los datos multiplexados a un filtro de PID. Los intervalos de las ATS incluidas en los datos multiplexados se establecen para que no sean superiores a una velocidad de sistema. El tiempo de inicio de reproducción indica una PTS en un fotograma de vídeo en la cabecera de los datos multiplexados. Un intervalo de un fotograma se añade a una PTS en un fotograma de vídeo al final de los datos multiplexados, y la PTS se establece al tiempo de fin de reproducción.
Como se muestra en la Figura 32, se registra una pieza de información de atributo en la información de atributo de flujo, para cada PID de cada flujo incluido en los datos multiplexados. Cada pieza de información de atributo tiene diferente información dependiendo de si el correspondiente flujo es un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación, o un flujo de gráficos interactivo. Cada pieza de información de atributo de flujo de vídeo lleva información que incluye qué tipo de códec de compresión se usa para comprimir el flujo de vídeo, y la resolución, relación de aspecto y velocidad de fotogramas de las piezas de datos de instantánea que se incluyen en el flujo de vídeo. Cada pieza de información de atributo de flujo de audio lleva información que incluye qué clase de códec de compresión se usa para comprimir el flujo de audio, cuántos canales están incluidos en el flujo de audio, qué idioma soporta el flujo de audio, y cómo de alta es la frecuencia de muestreo. La información de atributo de flujo de vídeo y la información de atributo de flujo de audio se usan para inicialización de un decodificador antes de que el reproductor reproduzca la información.
En la presente realización, los datos multiplexados a usarse son de un tipo de flujo incluido en la PMT. Adicionalmente, cuando los datos multiplexados se graban en un medio de grabación, se usa la información de atributo de flujo de vídeo incluida en la información de datos multiplexados. Más específicamente, el procedimiento
5
10
15
20
25
30
35
40
45
50
55
60
de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones incluyen una etapa o una unidad para asignar información única que indica datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento en cada una de las realizaciones, al tipo de flujo incluido en la PMT o la información de atributo de flujo de vídeo. Con la configuración, los datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones pueden distinguirse de los datos de vídeo que se ajustan a otra norma.
Adicionalmente, la Figura 33 ilustra las etapas del procedimiento de decodificación de instantáneas en movimiento de acuerdo con la presente realización. En la etapa exS100, el tipo de flujo incluido en la PMT o la información de atributo de flujo de vídeo incluido en la información de datos multiplexados se obtiene desde los datos multiplexados. A continuación, en la etapa exS101, se determina si el tipo de flujo o la información de atributo de flujo de vídeo indica o no que los datos multiplexados se generan por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento en cada una de las realizaciones. Cuando se determina que el tipo de flujo o la información de atributo de flujo de vídeo indica que los datos multiplexados se generan por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento en cada una de las realizaciones, en la etapa exS102, se realiza decodificación por el procedimiento de decodificación de instantáneas en movimiento en cada una de las realizaciones. Adicionalmente, cuando el tipo de flujo o la información de atributo de flujo de vídeo indica conformidad con las normas convencionales, tales como MPEG-2, MPEG-4 AVC y VC-1, en la etapa exS103, se realiza decodificación por un procedimiento de decodificación de instantáneas en movimiento de conformidad con las normas convencionales.
Como tal, asignar un nuevo valor único al tipo de flujo o la información de atributo de flujo de vídeo posibilita la determinación de si el procedimiento de decodificación de instantáneas en movimiento o el aparato de decodificación de instantáneas en movimiento que se describen en cada una de las realizaciones puede realizar o no la decodificación. Incluso cuando se introducen datos multiplexados que se ajustan a una norma diferente, puede seleccionarse un procedimiento o aparato de decodificación apropiado. Por lo tanto, se hace posible decodificar información sin error alguno. Adicionalmente, el procedimiento o aparato de codificación de instantáneas en movimiento, o el procedimiento o aparato de decodificación de instantáneas en movimiento en la presente realización puede usarse en los dispositivos y sistemas anteriormente descritos.
[Realización 5]
Cada uno del procedimiento de codificación de instantáneas en movimiento, el aparato de codificación de instantáneas en movimiento, el procedimiento de decodificación de instantáneas en movimiento, y el aparato de decodificación de instantáneas en movimiento en cada una de las realizaciones se consigue típicamente en forma de un circuito integrado o un circuito Integrado a Gran Escala (LSI). Como un ejemplo del LSI, la Figura 34 ilustra una configuración del LSI ex500 que se hace en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508, y ex509 que se van a describir a continuación, y los elementos están conectados entre sí a través de un bus ex510. La unidad ex505 de circuito de fuente de alimentación se activa suministrando a cada uno de los elementos con potencia cuando la unidad ex505 de circuito de fuente de alimentación se conecta.
Por ejemplo, cuando se realiza codificación, el LSI ex500 recibe una señal de AV desde un micrófono ex117, una cámara ex113, y otros a través de una ES de AV ex509 bajo el control de una unidad ex501 de control que incluye una CPU ex502, un controlador ex503 de memoria, un controlador ex504 de flujo, y una unidad ex512 de control de frecuencia de accionamiento. La señal de AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad ex501 de control, los datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de procesamiento y velocidad a transmitirse a una unidad ex507 de procesamiento de señal. A continuación, la unidad ex507 de procesamiento de señal codifica una señal de audio y/o una señal de vídeo. En este punto, la codificación de la señal de vídeo es la codificación descrita en cada una de las realizaciones. Adicionalmente, la unidad ex507 de procesamiento de señalen ocasiones multiplexa los datos de audio codificados y los datos de vídeo codificados, y una ES de flujo ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados se transmiten a la estación base ex107, o se escriben en el medio ex215 de grabación. Cuando se multiplexan conjuntos de datos, los datos deberían almacenarse temporalmente en la memoria intermedia ex508 de modo que los conjuntos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento fuera del LSI ex500, puede incluirse en el LSI ex500. La memoria intermedia ex508 no está limitada a una memoria intermedia, sino que puede estar compuesta de memorias intermedias. Adicionalmente, el LSI ex500 puede estar fabricado en un chip o una pluralidad de chips.
Adicionalmente, aunque la unidad ex501 de control incluye la CPU ex502, el controlador ex503 de memoria, el controlador ex504 de flujo, la unidad ex512 de control de frecuencia de accionamiento, la configuración de la unidad ex501 de control no está limitada a esto. Por ejemplo, la unidad ex507 de procesamiento de señal puede incluir adicionalmente una CPU. La inclusión de otra cPu en la unidad ex507 de procesamiento de señal puede mejorar la velocidad de procesamiento. Adicionalmente, como otro ejemplo, la CPU ex502 puede servir como o ser una parte de la unidad ex507 de procesamiento de señal, y, por ejemplo, puede incluir una unidad de procesamiento de señal
5
10
15
20
25
30
35
40
45
50
55
de audio. En un caso de este tipo, la unidad ex501 de control incluye la unidad ex507 de procesamiento de señal o la CPU ex502 que incluye una parte de la unidad ex507 de procesamiento de señal.
El nombre usado en el presente documento es LSI, pero puede denominarse también CI, sistema LSI, súper LSI, o ultra LSI dependiendo del grado de integración.
Además, las maneras para conseguir la integración no están limitadas al LSI, y un circuito especial o un procesador de fin general y así sucesivamente pueden conseguir también la integración. El Campo de Matriz de Puertas Programables (FPGA) que puede programarse después de la fabricación de LSI o un procesador reconfigurable que permite la re-configuración de la conexión o configuración de un LSI puede usarse para el mismo fin.
En el futuro, con el avance de la tecnología de semiconductores, una tecnología nueva puede sustituir la LSI. Los bloques funcionales pueden integrarse usando una tecnología de este tipo. La posibilidad es que la presente invención se aplique a biotecnología.
[Realización 6]
Cuando se decodifican datos de vídeo generados en el procedimiento de codificación de instantáneas en movimiento o por el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, en comparación con cuando se decodifican datos de vídeo que se ajustan a una norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, probablemente aumenta la cantidad de procesamiento. Por lo tanto, el LSI ex500 necesita establecer una frecuencia de accionamiento más alta que la de la CPU ex502 a usarse cuando se decodifican datos de vídeo de conformidad con la norma convencional. Sin embargo, cuando la frecuencia de accionamiento se establece más alta, existe un problema de que el consumo de potencia aumenta.
Para resolver el problema, el aparato de decodificación de instantáneas en movimiento, tal como la televisión ex300 y el LSI ex500 están configurados para determinar a qué norma se ajustan los datos de vídeo, y conmutar entre las frecuencias de accionamiento de acuerdo con la norma determinada. La Figura 35 ilustra una configuración ex800 en la presente realización. Una unidad ex803 de conmutación de frecuencia de accionamiento establece una frecuencia de accionamiento a una frecuencia de accionamiento superior cuando se generan datos de vídeo por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones. A continuación, la unidad ex803 de conmutación de frecuencia de accionamiento ordena a la unidad ex801 de procesamiento de decodificación que ejecute el procedimiento de decodificación de instantáneas en movimiento descrito en cada una de las realizaciones para decodificar los datos de vídeo. Cuando los datos de vídeo se ajustan a la norma convencional, la unidad ex803 de conmutación de frecuencia de accionamiento establece una frecuencia de accionamiento a una frecuencia de accionamiento inferior a la de los datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones. A continuación, la unidad ex803 de conmutación de frecuencia de accionamiento ordena a la unidad ex802 de procesamiento de decodificación que se ajusta a la norma convencional que decodifique los datos de vídeo.
Más específicamente, la unidad ex803 de conmutación de frecuencia de accionamiento incluye la CPU ex502 y la unidad ex512 de control de frecuencia de accionamiento en la Figura 34. En este punto, cada una de la unidad ex801 de procesamiento de decodificación que ejecuta el procedimiento de decodificación de instantáneas en movimiento descrito en cada una de las realizaciones y la unidad ex802 de procesamiento de decodificación que se ajusta a la norma convencional corresponden a la unidad ex507 de procesamiento de señalen la Figura 34. La CPU ex502 determina a qué norma se ajustan los datos de vídeo. A continuación, la unidad ex512 de control de frecuencia de accionamiento determina una frecuencia de accionamiento basándose en una señal desde la CPU ex502. Adicionalmente, la unidad ex507 de procesamiento de señal decodifica los datos de vídeo basándose en la señal desde la CPU ex502. Por ejemplo, la información de identificación descrita en la realización 4 se usa probablemente para identificar los datos de vídeo. La información de identificación no está limitada a la descrita en la realización 4 sino que puede ser cualquier información siempre que la información indique a qué norma se ajustan los datos de vídeo. Por ejemplo, cuando a qué norma se ajustan los datos de vídeo puede determinarse basándose en una señal externa para determinar que los datos de vídeo se usan para una televisión o un disco, etc., la determinación puede realizarse basándose en una señal externa de este tipo. Adicionalmente, la CPU ex502 selecciona una frecuencia de accionamiento basándose en, por ejemplo, una tabla de correspondencia en la que las normas de los datos de vídeo están asociadas con las frecuencias de accionamiento como se muestra en la Figura 37. La frecuencia de accionamiento puede seleccionarse almacenando la tabla de búsqueda en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de búsqueda por la CPU ex502.
La Figura 36 ilustra etapas para ejecutar un procedimiento en la presente realización. En primer lugar, en la etapa exS200, la unidad ex507 de procesamiento de señal obtiene información de identificación desde los datos multiplexados. A continuación, en la etapa exS201, la CPU ex502 determina si los datos de vídeo se generan o no por el procedimiento de codificación y el aparato de codificación descritos en cada una de las realizaciones, basándose en la información de identificación. Cuando los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, en la etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia
5
10
15
20
25
30
35
40
45
50
55
60
de accionamiento a una frecuencia de accionamiento superior a la de la unidad ex512 de control de frecuencia de accionamiento. A continuación, la unidad ex512 de control de frecuencia de accionamiento establece la frecuencia de accionamiento a la frecuencia de accionamiento más alta. Por otra parte, cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, en la etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de accionamiento a una frecuencia de accionamiento inferior a la unidad ex512 de control de frecuencia de accionamiento. A continuación, la unidad ex512 de control de frecuencia de accionamiento establece la frecuencia de accionamiento a la frecuencia de accionamiento inferior que la de en el caso donde los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones.
Adicionalmente, junto con la conmutación de las frecuencias de accionamiento, el efecto de conservación de potencia puede mejorarse cambiando la tensión a aplicarse al LSI ex500 o a un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de accionamiento se establece más baja, la tensión a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establece a una tensión inferior que en el caso donde la frecuencia de accionamiento se establece más alta.
Adicionalmente, cuando la cantidad de procesamiento para decodificación es mayor, la frecuencia de accionamiento puede establecerse más alta, y cuando la cantidad de procesamiento para decodificación es más pequeña, la frecuencia de accionamiento puede establecerse más baja que el procedimiento para establecer la frecuencia de accionamiento. Por lo tanto, el procedimiento de ajuste no está limitado a los anteriormente descritos. Por ejemplo, cuando la cantidad de procesamiento para decodificar datos de vídeo de conformidad con MPEG-4 AVC es mayor que la cantidad de procesamiento para decodificar datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, la frecuencia de accionamiento probablemente se establece en orden inverso al ajuste anteriormente descrito.
Adicionalmente, el procedimiento para establecer la frecuencia de accionamiento no está limitado al procedimiento para establecer la frecuencia de accionamiento más baja. Por ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, la tensión a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establece más alta. Cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, la tensión a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establece más baja. Como otro ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, el accionamiento de la CPU ex502 probablemente no tiene que suspenderse. Cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, el accionamiento de la CPU ex502 probablemente se suspende a un tiempo dado puesto que la CPU ex502 tiene capacidad de procesamiento adicional. Incluso cuando la información de identificación indica que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, en el caso donde la CPU ex502 tiene capacidad de procesamiento adicional, el accionamiento de la CPU ex502 probablemente se suspende en un momento dado. En un caso de este tipo, el tiempo de suspensión probablemente se establece más corto que en el caso cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1.
Por consiguiente, el efecto de conservación de potencia puede mejorarse conmutando entre las frecuencias de accionamiento de acuerdo con la norma a la que se ajustan los datos de vídeo. Adicionalmente, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se accionan usando una batería, la duración de la batería puede ampliarse con el efecto de conservación de potencia.
[Realización 7]
Existen casos donde una pluralidad de datos de vídeo que se ajustan a diferentes normas, se proporcionan a los dispositivos y sistemas, tales como una televisión y un teléfono celular. Para posibilitar la decodificación de la pluralidad de datos de vídeo que se ajustan a las diferentes normas, la unidad ex507 de procesamiento de señal del LSI ex500 necesita ajustarse a las diferentes normas. Sin embargo, los problemas de aumento en la escala del circuito del LSI ex500 y el aumento en el coste surgen con el uso individual de las unidades de procesamiento de señal ex507 que se ajustan a las normas respectivas.
Para resolver el problema, lo que se concibe es una configuración en la que la unidad de procesamiento de decodificación para implementar el procedimiento de decodificación de instantáneas en movimiento descrita en cada una de las realizaciones y la unidad de procesamiento de decodificación que se ajusta a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1 se comparten parcialmente. Ex900 en (a) de la Figura 38 muestra un ejemplo de la configuración. Por ejemplo, el procedimiento de decodificación de instantáneas en movimiento descrito en cada una de las realizaciones y el procedimiento de decodificación de instantáneas en movimiento que se ajusta a MPEG-
5
10
15
20
25
30
35
40
45
50
55
4 AVC tienen, parcialmente en común, los detalles de procesamiento, tal como codificación por entropía, cuantificación inversa, filtración de desbloqueo, y predicción de movimiento compensado. Los detalles de procesamiento a compartirse probablemente incluyen el uso de una unidad ex902 de procesamiento de decodificación que se ajusta a MPEG-4 AVC. En contraste, una unidad ex901 de procesamiento de decodificación especializada probablemente se usa para otro procesamiento que es único para la presente invención y no es conforme a MPEG-4 AVC. Puesto que la presente invención está caracterizada por cuantificación inversa en particular, por ejemplo, la unidad ex901 de procesamiento de decodificación especializada se usa para la cuantificación inversa. De otra manera, la unidad de procesamiento de decodificación probablemente se comparte para uno de la codificación por entropía, filtración de desbloqueo y compensación de movimiento, o todo el procesamiento. La unidad de procesamiento de decodificación para implementar el procedimiento de decodificación de instantáneas en movimiento descrito en cada una de las realizaciones puede compartirse para el procesamiento a compartirse, y una unidad de procesamiento de decodificación especializada puede usarse para procesamiento único al de MpEg-4 AVC.
Adicionalmente, ex1000 en (b) de la Figura 38 muestra otro ejemplo en el que el procesamiento se comparte parcialmente. Este ejemplo usa una configuración que incluye una unidad ex1001 de procesamiento de
decodificación especializada que soporta el procesamiento único de la presente invención, una unidad ex1002 de procesamiento de decodificación especializada que soporta el procesamiento único de otra norma convencional, y una unidad ex1003 de procesamiento de decodificación que soporta procesamiento a compartirse entre el procedimiento de decodificación de instantáneas en movimiento de acuerdo con la presente invención y el procedimiento de decodificación de instantáneas en movimiento convencional. En este punto, las unidades ex1001 y ex1002 de procesamiento de decodificación especializadas no están necesariamente especializadas para el procesamiento de acuerdo con la presente invención y el procesamiento de la norma convencional,
respectivamente, y pueden ser las que pueden implementar procesamiento general. Adicionalmente, la
configuración de la presente realización puede implementarse por el LSI ex500.
Como tal, reducir la escala del circuito de un LSI y reducir el coste son posibles compartiendo la unidad de procesamiento de decodificación para el procesamiento a compartirse entre el procedimiento de decodificación de instantáneas en movimiento de acuerdo con la presente invención y el procedimiento de decodificación de instantáneas en movimiento de conformidad con la norma convencional.
Aplicabilidad industrial
La presente invención se usa ventajosamente para aparatos de codificación de instantáneas en movimiento y aparatos de decodificación de instantáneas en movimiento.
Lista de signos de referencia
100,
300
101
102
103
104,
202
105,
203
106,
204
107,
205
108,
206
109,
207
110,
208
111,
209
112,
210
113
114,
211
115,
212
116
117
118
200,
O o
201
310
320
410
420
aparato de codificación de instantáneas en movimiento restador
unidad de transformada ortogonal unidad de cuantificación unidad de cuantificación inversa unidad de transformada ortogonal inversa sumador
memoria de bloque memoria de fotograma unidad de intra predicción unidad de inter predicción conmutador
unidad de control de intra predicción
unidad de determinación de tipo de instantánea
unidad de cálculo de predictor de vector de movimiento temporal
memoria colPic
unidad de almacenamiento de vector global
unidad de determinación de información de bloque co-localizado
codificador de longitud variable
aparato de decodificación de instantáneas en movimiento
decodificador de longitud variable
primer codificador
segundo decodificador
primer decodificador
segundo decodificador

Claims (7)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    REIVINDICACIONES
    1. Un procedimiento de codificación de instantáneas en movimiento para realizar codificación de inter predicción en un bloque objetivo de codificación incluido en una instantánea objetivo de codificación, comprendiendo el procedimiento de codificación de instantáneas en movimiento:
    codificar el bloque objetivo de codificación usando un vector de movimiento; generar una pluralidad de predictores de vectores de movimiento; y
    codificar el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados en la generación,
    en el que, en la generación, (i) se determina si está prohibido obtener un predictor de vector de movimiento temporal desde un bloque co-localizado que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación (S12), aplicándose la prohibición para instantáneas codificadas a las que puede hacerse referencia por otras instantáneas y que hacen referencia a otras instantáneas, y (ii) cuando está prohibido obtener el predictor de vector de movimiento temporal desde el bloque co-localizado (Sí en S12), un vector de sustitución que sustituye el predictor de vector de movimiento temporal está incluido en la pluralidad de predictores de vectores de movimiento.
  2. 2. El procedimiento de codificación de instantáneas en movimiento de acuerdo con la reivindicación 1,
    en el que, en la generación, un vector de movimiento que tiene una cantidad de movimiento de 0 está incluido, como el vector de sustitución, en la pluralidad de predictores de vectores de movimiento cuando está prohibida la obtención del predictor de vector de movimiento temporal desde la instantánea codificada.
  3. 3. El procedimiento de codificación de instantáneas en movimiento de acuerdo con la reivindicación 2, en el que en la generación,
    se cuenta el número de instantáneas codificadas de acuerdo con el procedimiento de codificación de instantáneas en movimiento, y
    la obtención del predictor de vector de movimiento temporal desde la instantánea codificada está prohibida cuando se codifica la instantánea objetivo de codificación, siendo la instantánea objetivo de codificación una instantánea codificada en un momento en el que el número de instantáneas codificadas supera un valor predeterminado.
  4. 4. Un procedimiento de decodificación de instantáneas en movimiento para realizar decodificación de inter predicción en un bloque objetivo de decodificación incluido en una instantánea objetivo de decodificación, comprendiendo el procedimiento de decodificación de instantáneas en movimiento:
    decodificar el bloque objetivo de decodificación usando un vector de movimiento; generar una pluralidad de predictores de vectores de movimiento; y
    decodificar el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados en la generación,
    en el que, en la generación, (i) se determina si está prohibido obtener un predictor de vector de movimiento temporal desde un bloque co-localizado que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación, aplicándose la prohibición para instantáneas codificadas a las que puede hacerse referencia por otras instantáneas y que hacen referencia a otras instantáneas, y (ii) cuando está prohibido obtener el predictor de vector de movimiento temporal desde el bloque co-localizado, un vector de sustitución que sustituye el predictor de vector de movimiento temporal está incluido en la pluralidad de predictores de vectores de movimiento.
  5. 5. Un aparato de codificación y decodificación de instantáneas en movimiento que comprende una unidad de codificación de instantáneas en movimiento que realiza codificación de inter predicción en un bloque objetivo de codificación incluido en una instantánea objetivo de codificación y una unidad de decodificación de instantáneas en movimiento que realiza decodificación de inter predicción en un bloque objetivo de decodificación incluido en una instantánea objetivo de decodificación,
    incluyendo la unidad de codificación de instantáneas en movimiento:
    un codificador de imagen que codifica el bloque objetivo de codificación usando un vector de movimiento;
    una primera unidad de generación de candidato de predictor de vector de movimiento configurada para generar
    una pluralidad de predictores de vectores de movimiento; y
    un codificador de vector de movimiento que codifica el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados por la primera unidad de generación de candidato de predictor de vector de movimiento,
    en el que la primera unidad de generación de candidato de predictor de vector de movimiento está configurada para:
    en la generación, (i) determinar si está prohibido obtener un predictor de vector de movimiento temporal desde un bloque co-localizado que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación, aplicándose la prohibición para instantáneas codificadas a las que puede hacerse referencia por otras instantáneas y que hacen referencia a
    5
    10
    15
    20
    25
    30
    35
    40
    45
    otras instantáneas, y (ii) cuando está prohibido obtener el predictor de vector de movimiento temporal desde el bloque co-localizado, incluir un vector de sustitución que sustituye el predictor de vector de movimiento temporal en la pluralidad de predictores de vectores de movimiento;
    generar información de posición que indica cuál de una lista de instantáneas de referencia L0 para la instantánea objetivo de codificación y una lista de instantáneas de referencia L1 para la instantánea objetivo de codificación se usa para seleccionar una instantánea codificada en el caso de obtener un predictor de vector de movimiento temporal desde el bloque co-localizado que está incluido en la instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación, y no generar la información de posición en el caso de no obtener el predictor de vector de movimiento temporal desde el bloque co-localizado que está incluido en la instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación, e incluyendo la unidad de decodificación de instantáneas en movimiento:
    una segunda unidad de generación de candidato de predictor de vector de movimiento configurada para generar una pluralidad de predictores de vectores de movimiento;
    un decodificador de vector de movimiento que decodifica el vector de movimiento usando uno de la pluralidad de predictores de vectores de movimiento generados por la segunda unidad de generación de candidato de predictor de vector de movimiento; y
    un decodificador de imagen que decodifica el bloque objetivo de decodificación usando el vector de movimiento decodificado por el decodificador de vector de movimiento,
    en el que la segunda unidad de generación de candidato de predictor de vector de movimiento está configurada para:
    en la generación, (i) determinar si está prohibido obtener un predictor de vector de movimiento temporal desde el bloque co-localizado que está incluido en una instantánea codificada diferente de la instantánea objetivo de codificación y corresponde al bloque objetivo de codificación, aplicándose la prohibición para instantáneas codificadas a las que puede hacerse referencia por otras instantáneas y que hacen referencia a otras instantáneas, y (ii) cuando está prohibido obtener el predictor de vector de movimiento temporal desde el bloque co-localizado, incluir un vector de sustitución que sustituye el predictor de vector de movimiento temporal en la pluralidad de predictores de vectores de movimiento; obtener información de posición que indica cuál de una lista de instantáneas de referencia L0 para la instantánea objetivo de decodificación y una lista de instantáneas de referencia L1 para la instantánea objetivo de decodificación se usa para seleccionar una instantánea decodificada y calcular el predictor de vector de movimiento temporal basándose en la información de posición, en el caso de obtener un predictor de vector de movimiento temporal desde el bloque co-localizado que está incluido en la instantánea decodificada diferente de la instantánea objetivo de decodificación y corresponde al bloque objetivo de decodificación, y
    no obtener la información de posición en el caso de no obtener el predictor de vector de movimiento temporal desde el bloque co-localizado que está incluido en la instantánea decodificada diferente de la instantánea objetivo de decodificación y corresponde al bloque objetivo de decodificación.
  6. 6. Medio legible por ordenador que almacena un programa que incluye instrucciones que, cuando se ejecutan en un procesador realizan todas las etapas del procedimiento de codificación de instantáneas en movimiento de acuerdo con cualquiera de las reivindicaciones 1 a 3.
  7. 7. Medio legible por ordenador que almacena un programa que incluye instrucciones que, cuando se ejecutan en un procesador realizan todas las etapas del procedimiento de decodificación de instantáneas en movimiento de acuerdo con la reivindicación 4.
ES12744978.3T 2011-02-10 2012-02-09 Procedimiento de codificación de instantáneas en movimiento, dispositivo de codificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, dispositivo de decodificación de instantáneas en movimiento y dispositivo de codificación-decodificación de instantáneas en movimiento Active ES2687685T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161441304P 2011-02-10 2011-02-10
US201161441304P 2011-02-10
PCT/JP2012/000868 WO2012108200A1 (ja) 2011-02-10 2012-02-09 動画像符号化方法、動画像符号化装置、動画像復号方法、動画像復号装置、及び動画像符号化復号装置

Publications (1)

Publication Number Publication Date
ES2687685T3 true ES2687685T3 (es) 2018-10-26

Family

ID=46638421

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12744978.3T Active ES2687685T3 (es) 2011-02-10 2012-02-09 Procedimiento de codificación de instantáneas en movimiento, dispositivo de codificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, dispositivo de decodificación de instantáneas en movimiento y dispositivo de codificación-decodificación de instantáneas en movimiento

Country Status (11)

Country Link
US (12) US8948261B2 (es)
EP (1) EP2675167B1 (es)
JP (3) JP5323273B2 (es)
KR (1) KR101846603B1 (es)
CN (2) CN103477637B (es)
AU (1) AU2012216026B2 (es)
CA (1) CA2825730C (es)
ES (1) ES2687685T3 (es)
MX (1) MX2013008691A (es)
PL (1) PL2675167T3 (es)
WO (1) WO2012108200A1 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121942A1 (ja) * 2010-03-31 2011-10-06 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム
JP5982734B2 (ja) * 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
EP4020989A1 (en) * 2011-11-08 2022-06-29 Nokia Technologies Oy Reference picture handling
PL2805511T3 (pl) 2012-01-20 2019-09-30 Sun Patent Trust Sposoby i urządzenie do kodowania i dekodowania wideo przy użyciu predykcji wektora ruchu w czasie
KR101996682B1 (ko) 2012-02-03 2019-07-04 선 페이턴트 트러스트 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치 및 화상 부호화 복호 장치
JP6421931B2 (ja) 2012-03-06 2018-11-14 サン パテント トラスト 動画像符号化方法及び動画像符号化装置
US20140086328A1 (en) * 2012-09-25 2014-03-27 Qualcomm Incorporated Scalable video coding in hevc
US9544566B2 (en) * 2012-12-14 2017-01-10 Qualcomm Incorporated Disparity vector derivation
US10057594B2 (en) * 2013-04-02 2018-08-21 Vid Scale, Inc. Enhanced temporal motion vector prediction for scalable video coding
US10587894B2 (en) 2014-10-08 2020-03-10 Lg Electronics Inc. Method and device for encoding/decoding 3D video
US10958927B2 (en) 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
CN109479143B (zh) * 2016-09-30 2020-09-08 华为技术有限公司 一种帧间预测的图像编解码方法和装置
CN110114803B (zh) * 2016-12-28 2023-06-27 松下电器(美国)知识产权公司 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置
CN116886897A (zh) * 2017-01-16 2023-10-13 世宗大学校产学协力团 影像解码/编码方法以及传送比特流的方法
KR102379196B1 (ko) * 2017-05-31 2022-03-28 삼성전자주식회사 처리 장치들 및 그 제어 방법들
WO2019147067A1 (ko) * 2018-01-26 2019-08-01 한국전자통신연구원 시간적 움직임 정보를 이용하는 영상 부호화 및 영상 복호화를 위한 방법 및 장치
KR20190091217A (ko) * 2018-01-26 2019-08-05 한국전자통신연구원 시간적 움직임 정보를 이용하는 영상 부호화 및 영상 복호화를 위한 방법 및 장치
US11240528B2 (en) * 2018-01-30 2022-02-01 Sharp Kabushiki Kaisha Systems and methods for performing motion vector prediction for video coding using motion vector predictor origins
US11087500B2 (en) * 2018-03-15 2021-08-10 University-Industry Cooperation Group Of Kyung Hee University Image encoding/decoding method and apparatus
US11089297B2 (en) 2018-08-31 2021-08-10 Hulu, LLC Historical motion vector prediction with reset list
US11683501B2 (en) * 2019-01-17 2023-06-20 Tencent America LLC Method and apparatus for video coding
WO2020219948A1 (en) * 2019-04-25 2020-10-29 Op Solutions, Llc Selective motion vector prediction candidates in frames with global motion
KR20220002991A (ko) * 2019-04-25 2022-01-07 오피 솔루션즈, 엘엘씨 글로벌 모션을 갖는 프레임들에서의 적응적 모션 벡터 예측 후보들
WO2020219940A1 (en) * 2019-04-25 2020-10-29 Op Solutions, Llc Global motion for merge mode candidates in inter prediction
JP7457142B2 (ja) 2020-02-14 2024-03-27 北京字節跳動網絡技術有限公司 映像ビットストリームにおける同一位置に配置されたピクチャの指示
CN118450133A (zh) * 2020-04-14 2024-08-06 Op方案有限责任公司 编码器、解码器及计算机可读记录介质

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100243865B1 (ko) * 1997-09-30 2000-02-01 전주범 움직임 벡터 부호화 방법 및 그 장치
KR100487989B1 (ko) * 1997-10-23 2005-05-09 미쓰비시덴키 가부시키가이샤 화상 복호화 장치 및 화상 부호화 장치
JP3664626B2 (ja) * 2000-02-10 2005-06-29 シャープ株式会社 フィルタ装置
JP4114859B2 (ja) * 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
ES2353957T3 (es) * 2002-01-09 2011-03-08 Panasonic Corporation Procedimiento de codificación de vectores de movimiento y procedimiento de decodificación de vectores de movimiento.
KR101011849B1 (ko) * 2002-04-19 2011-01-31 파나소닉 주식회사 움직임 벡터 계산방법
US7386048B2 (en) * 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
JP4724351B2 (ja) 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
EP1422946A4 (en) * 2002-07-26 2008-04-02 Matsushita Electric Ind Co Ltd MOVING IMAGE PROCEDURE, MOVABLE IMAGE DECODING METHOD AND RECORD MEDIUM
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
EP1592255A1 (en) * 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Motion vector estimation with improved motion vector selection
EP1610560A1 (en) * 2004-06-24 2005-12-28 Deutsche Thomson-Brandt Gmbh Method and apparatus for generating and for decoding coded picture data
JP4145275B2 (ja) 2004-07-27 2008-09-03 富士通株式会社 動きベクトル検出・補償装置
US8761259B2 (en) * 2005-09-22 2014-06-24 Qualcomm Incorporated Multi-dimensional neighboring block prediction for video encoding
JP5020829B2 (ja) * 2005-12-27 2012-09-05 シャープ株式会社 動画像復号装置および動画像符号化装置
CN101491096B (zh) * 2006-07-12 2012-05-30 Lg电子株式会社 信号处理方法及其装置
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
JP5025286B2 (ja) * 2007-02-28 2012-09-12 シャープ株式会社 符号化装置及び復号装置
JP4788649B2 (ja) * 2007-04-27 2011-10-05 株式会社日立製作所 動画像記録方法及びその装置
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
KR101431545B1 (ko) * 2008-03-17 2014-08-20 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
JP4945513B2 (ja) * 2008-06-04 2012-06-06 ルネサスエレクトロニクス株式会社 可変長復号装置およびそれを用いた動画復号装置
US8345996B2 (en) * 2008-07-07 2013-01-01 Texas Instruments Incorporated Determination of a field referencing pattern
JP5422168B2 (ja) 2008-09-29 2014-02-19 株式会社日立製作所 動画像符号化方法および動画像復号化方法
KR101279573B1 (ko) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101590511B1 (ko) * 2009-01-23 2016-02-02 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법
JP2010268199A (ja) * 2009-05-14 2010-11-25 Renesas Electronics Corp 動画像符号化方法、動画像符号化装置、及び、画像符号化プログラム
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US20110280311A1 (en) * 2010-05-13 2011-11-17 Qualcomm Incorporated One-stream coding for asymmetric stereo video
JP5531881B2 (ja) * 2010-09-22 2014-06-25 富士通株式会社 動画像復号装置、動画像復号方法、及び集積回路
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
WO2012122783A1 (en) * 2011-03-14 2012-09-20 Mediatek Inc. Method and apparatus for deriving temporal motion vector prediction
PL2773111T3 (pl) * 2011-10-28 2020-06-29 Sun Patent Trust Sposób kodowania obrazów, sposób dekodowania obrazów, urządzenie do kodowania obrazów i urządzenie do dekodowania obrazów
WO2013061549A1 (ja) * 2011-10-28 2013-05-02 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9420286B2 (en) * 2012-06-15 2016-08-16 Qualcomm Incorporated Temporal motion vector prediction in HEVC and its extensions
EP2683165B1 (en) * 2012-07-04 2015-10-14 Thomson Licensing Method for coding and decoding a block of pixels from a motion model
US10609440B1 (en) * 2018-06-08 2020-03-31 Amazon Technologies, Inc. Timing data anomaly detection and correction

Also Published As

Publication number Publication date
US20210120263A1 (en) 2021-04-22
US10623764B2 (en) 2020-04-14
US20200128269A1 (en) 2020-04-23
US9693073B1 (en) 2017-06-27
PL2675167T3 (pl) 2018-11-30
US9432691B2 (en) 2016-08-30
US9204146B2 (en) 2015-12-01
US20220329843A1 (en) 2022-10-13
WO2012108200A1 (ja) 2012-08-16
JP2016067036A (ja) 2016-04-28
US11418805B2 (en) 2022-08-16
US20160337659A1 (en) 2016-11-17
MX2013008691A (es) 2013-08-21
US20170180749A1 (en) 2017-06-22
CN107277542B (zh) 2019-12-10
EP2675167B1 (en) 2018-06-20
US10911771B2 (en) 2021-02-02
KR20140049498A (ko) 2014-04-25
US20130336404A1 (en) 2013-12-19
JP5858953B2 (ja) 2016-02-10
CA2825730C (en) 2018-01-16
KR101846603B1 (ko) 2018-04-06
US9641859B2 (en) 2017-05-02
EP2675167A1 (en) 2013-12-18
US20240048751A1 (en) 2024-02-08
JP2013219813A (ja) 2013-10-24
US20170264912A1 (en) 2017-09-14
US20160050432A1 (en) 2016-02-18
JPWO2012108200A1 (ja) 2014-07-03
AU2012216026A1 (en) 2013-08-15
US11838536B2 (en) 2023-12-05
US20190110062A1 (en) 2019-04-11
CN103477637B (zh) 2017-04-26
CN103477637A (zh) 2013-12-25
US9819960B2 (en) 2017-11-14
CN107277542A (zh) 2017-10-20
JP6327568B2 (ja) 2018-05-23
EP2675167A4 (en) 2016-10-19
US8948261B2 (en) 2015-02-03
AU2012216026B2 (en) 2016-04-28
US20130315308A1 (en) 2013-11-28
US20180035124A1 (en) 2018-02-01
US10194164B2 (en) 2019-01-29
CA2825730A1 (en) 2012-08-16
JP5323273B2 (ja) 2013-10-23

Similar Documents

Publication Publication Date Title
JP7253709B2 (ja) 動画像復号方法及び動画像符号化方法
ES2687685T3 (es) Procedimiento de codificación de instantáneas en movimiento, dispositivo de codificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, dispositivo de decodificación de instantáneas en movimiento y dispositivo de codificación-decodificación de instantáneas en movimiento
JP6167409B2 (ja) 画像復号化方法および画像復号化装置
ES2780186T3 (es) Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, y dispositivo de decodificación de imágenes
ES2693676T3 (es) Procedimiento de codificación de imagen, procedimiento de decodificación de imagen, aparato de codificación de imagen y aparato de decodificación de imagen
ES2780188T3 (es) Método de codificación de imagen, método de decodificación de imagen, aparato de codificación de imagen y aparato de decodificación de imagen
ES2781868T3 (es) Procedimiento de decodificación de imágenes, procedimiento de codificación de imágenes, dispositivo de decodificación de imágenes, dispositivo de codificación de imágenes y dispositivo de codificación/decodificación de imágenes
ES2685945T3 (es) Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento
ES2971526T3 (es) Procedimiento de descodificación de vídeo, dispositivo de descodificación de vídeo
ES2959874T3 (es) Procedimiento de codificación de imágenes, aparato de codificación de imágenes, procedimiento de decodificación de imágenes, aparato de decodificación de imágenes
ES2950029T3 (es) Método de codificación de imágenes, dispositivo de codificación de imágenes, método de decodificación de imágenes, dispositivo de decodificación de imágenes y dispositivo de codificación/decodificación de imágenes
ES2959039T3 (es) Aparato, procedimiento y programa para codificar imágenes en movimiento
KR101913086B1 (ko) 동화상 부호화 방법 및 동화상 복호화 방법
JP6422011B2 (ja) 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
ES2967129T3 (es) Método de decodificación de vídeo y decodificador de vídeo
JP5893570B2 (ja) 画像符号化方法および画像復号化方法
WO2013128832A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
JP2018129808A (ja) 動画像復号化方法および動画像復号化装置
JPWO2012090495A1 (ja) 画像符号化方法および画像復号方法
WO2012073481A1 (ja) 動画像符号化方法および動画像復号化方法