ES2630211T3 - Método de codificación y descodificación escalable de imagen en movimiento usando predicción ponderada, sus dispositivos, sus programas, y medios de grabación que almacenan los programas - Google Patents

Método de codificación y descodificación escalable de imagen en movimiento usando predicción ponderada, sus dispositivos, sus programas, y medios de grabación que almacenan los programas Download PDF

Info

Publication number
ES2630211T3
ES2630211T3 ES08790789.5T ES08790789T ES2630211T3 ES 2630211 T3 ES2630211 T3 ES 2630211T3 ES 08790789 T ES08790789 T ES 08790789T ES 2630211 T3 ES2630211 T3 ES 2630211T3
Authority
ES
Spain
Prior art keywords
image area
signal
lower layer
weight coefficient
immediately lower
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08790789.5T
Other languages
English (en)
Inventor
Kazuya Hayase
Yukihiro Bandoh
Seishi Takamura
Kazuto Kamikura
Yoshiyuki Yashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Application granted granted Critical
Publication of ES2630211T3 publication Critical patent/ES2630211T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un método de codificación de video escalable para realización de codificación mediante predicción de una señal de capa superior usando una señal de capa inmediatamente inferior, teniendo la señal de capa superior una resolución espacial más alta que la señal de la capa inmediatamente inferior, estando el método caracterizado por comprender: una etapa (S3, S21) que calcula un primer coeficiente de peso para cada área de imagen de una tamaño unitario predeterminado en una búsqueda para estimación de un movimiento entre un área de imagen objetivo de codificación situada en la capa superior de una trama objetivo de codificación y un área de imagen de referencia situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de codificación, donde el primer coeficiente de peso se calcula en base a la variación de luminosidad entre un área de imagen, que pertenece a una capa inmediatamente inferior y tiene la misma posición espacial que el área de imagen objetivo de codificación, y el área de imagen de referencia; una etapa (S3, S22, S26) que realiza una estimación de movimiento usando una señal que se obtiene corrigiendo una señal descodificada del área de imagen de referencia por medio del primer coeficiente de peso, y que funciona como señal estimada en la estimación de movimiento, a efectos de calcular un vector de movimiento; una etapa (S4, S32) que calcula un segundo coeficiente de peso en base a una variación de luminosidad entre un área de imagen de referencia que está situada en la capa superior de la trama de referencia y que está indicada por el vector de movimiento calculado, y el área de imagen que pertenece a la capa inmediatamente inferior de la capa superior de la trama objetivo de codificación y tiene la misma posición espacial que el área de imagen objetivo de codificación; y una etapa (S4, S33) de compensación de movimiento que determina una señal, la cual se obtiene corrigendo una señal descodificada del área de imagen de referencia indicada por el vector de movimiento usando el segundo coeficiente de peso, para que sea una señal compensada en compensación de movimiento, que funciona como señal pronosticada del área de imagen objetivo de codificación.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Metodo de codificacion y descodificacion escalable de imagen en movimiento usando prediccion ponderada, sus dispositivos, sus programas, y medios de grabacion que almacenan los programas
Campo tecnico
La presente invencion se refiere a un metodo de codificacion y un metodo de descodificacion de video escalable, a aparatos para los mismos, programas para los mismos, y medios de almacenaje que almacenan los programas.
Tecnica anterior
En metodos ordinarios de codificacion de video, la prediccion de movimiento se realiza mediante emparejamiento de bloque en base a la minimizacion de las diferencias entre valores de pixel entre tramas, con el fin de mejorar el rendimiento de la codificacion. Sin embargo, en una imagen (que tenga un efecto de desvanecimiento o similar) cuya luminosidad varia con el tiempo, la prediccion residual aumenta de acuerdo con la variacion de luminosidad, lo que devalua el rendimiento de la codificacion.
Por lo tanto, H.264/AVC (vease el documento no patente 1) emplea prediccion de movimiento ponderado para multiplicar adaptativamente una imagen de referencia para la prediccion de movimiento mediante un coeficiente de ponderacion. Una senal de referencia pronosticada, en la que ha sido corregida la variacion temporal de luminosidad, se obtiene en virtud de la prediccion de movimiento ponderado anterior, mejorando con ello el rendimiento de codificacion.
La prediccion de movimiento ponderado en H.264/AVC tiene dos modos de transmision de coeficientes, tales como (i) un modo explicito para codificar y transmitir el coeficiente de ponderacion, y (ii) un modo implicito para generar indirectamente un coeficiente de ponderacion comun entre el codificador y el descodificador en base a informacion acerca de la trama de referencia. La tabla 1 muestra los tipos y los metodos de prediccion de la prediccion de movimiento ponderado para secciones P y B.
Tabla 1: Tipo y metodos de prediccion de movimiento ponderado en H.264/AVC
Tipo
Tipo de prediccion Senal pronosticada Transmision de coeficiente
seccion P
— z = W0-y0 + d0 transmitir W0 y d0 (Explicito)
seccion B
prediccion L0/L1 z = W0-y0 + d0 (prediccion L0) transmitir W0, d0, W1 y d1 (Explicito)
z = W1-y1 + d1 (prediccion L1)
prediccion bi-predictiva
z = W0-y0 + W1-y1 + d (d = 1/2(d0 + d1)) transmitir W0, d0, W1 y d1 (Explicito)
z = WQ-yQ + W1-y1 + d
calculo de coeficiente en base a la distancia desde la imagen de referencia (Implicito)
En la tabla 1, z representa una senal pronosticada de movimiento ponderado; y, y0 e y1 representan senales de referencia para la prediccion de movimiento ponderado, y w, W0, W1, d0 y d1 representan coeficientes de ponderacion. La operacion de conmutacion para la prediccion de movimiento ponderado y la seleccion de modo para la transmision de coeficiente, se realizan para cada seccion.
La figura 1 es un diagrama usado para explicar una prediccion de movimiento ponderado (modo implicito) en H.264/AVC. El modo implicito se aplica solamente a la prediccion bi-predictiva para secciones B, y los coeficientes de ponderacion se generan en el codificador y el descodificador relevantes, segun se muestra en la figura 1, donde tb y td indican distancias entre tramas.
En este caso, se supone que la variacion de luminosidad entre una trama objetivo de codificacion y dos tramas de referencia, es lineal. Los coeficientes W0 y W1 proporcionales se calculan conforme a la distancia desde la imagen de referencia. El coeficiente de desviacion d se define como establecido en 0.
W0 = I - W1
W1 = tb/td
d = 0
Aunque la figura 1 muestra un ejemplo de calculo de coeficiente proporcional por medio de division interior en conformidad con la distancia desde la imagen de referencia, se puede realizar una operacion similar cuando se
5
10
15
20
25
30
35
40
45
50
55
60
65
emplea division exterior. Si la luminosidad de la imagen relevante varia linealmente, se pueden calcular coeficientes de ponderacion apropiados incluso en el modo implicito, y se puede reducir la cantidad de codigo requerido para informacion de coeficiente.
Actualmente se emplea la misma prediccion de movimiento ponderado mediante JSVC (un metodo escalable extendido) de H.264/AVEX (vease el documento no patente 2), que es examinada en JTD (una parte conjunta de ISO e ITU-T).
La prediccion de movimiento ponderado mostrada en la tabla 1 se emplea tambien en el codificador de referencia JSVM (programa) mostrado en el documento no patente 3.
Tambien se conoce una tecnica mostrada en el documento patente 1, en la que se detecta una variacion general de luminancia de imagen de video a efectos de realizar compensacion de luminancia. Con el fin de gestionar un caso en el que la variacion de luminosidad no es constante sobre la imagen completa, la tecnica del documento patente 1 utiliza una cantidad de variacion general de luminancia sobre la imagen completa, y aplica una banderola que indica si la variacion de luminancia esta compensada o no en cada area pequena.
Documento no patente 1: ITU-T: “Codificacion avanzada de video para servicios audiovisuales genericos”, ITU-T Rec. H.264, pp. 129-133, 2003.
Documento no patente 2: T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz y M. Wien: Borrador Conjunto 9 de Enmienda de SVC”, ISO/IEC JTC1/SC29/WG11 e ITU-T SG16 Q.6, JVT-V201, pp. 166-170, 2006.
Documento no patente 3: J. Reichel, H. Schwarz y M. Wien: Modelo de Video Escalable Conjunto JSVM-8.0”, ISO/IEC JTC1/SC29/WG11 e ITU-T SG16 Q.6, JVT-U202, 2006.
El documento de Pen Ying et al., “Prediccion ponderada localizada para codificacion de video”, CONFERENCE PROCEEDING/IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS (ISAC), 23-26 de Mayo de 2005, INTERNATIONAL CONFERENCE CENTER, KOBE, JAPON, IEEE SERVICE CENTER, PISCATAWAY, NJ, 23 de Mayo de 1005 (), paginas 4365-4368, XP010816640, DOI: 10. 1109/ISCAS. 2005. 1465598, ISBN: 978-0-7803-8834-5” divulga un metodo de compresion para manejar variaciones de iluminacion locales en secuencias de video. Este metodo no codifica explicitamente ni transmite parametros ponderados usados para predecir el bloque actual.
El documento XP 030080342 (Prediccion Ponderada en Codificacion de Video Escalable, 25 (Purvin Pandit; Peng Ying; Jill Boyce; Thomson Corporate Reseach; NJ) Simposio de Codificacion de Imagen; 24-4-2006 - 26-4-2006; Beijing, 20060424; es una divulgacion que especifica la relacion entre los factores de ponderacion usados en la capa de base y los usados en la capa de mejora para las etapas de prediccion y actualizacion para el Estandar de Codificacion de Video Escalable.
Documento patente 1: Solicitud de patente japonesa sin examinar, primera publicacion num. H10-32824.
Divulgacion de la invencion Problema a ser resuelto por la invencion
Segun se ha descrito en lo que antecede, la prediccion de movimiento ponderado en H.264/AVC se aplica a cada seccion. Por lo tanto, si la variacion de luminosidad ocurre en una parte de la seccion o no es constante dentro de la seccion, el rendimiento de prediccion de la prediccion de movimiento ponderado en H.264/AVC se degrada. Un ejemplo especifico es una variacion de luminosidad debida a la sombra de un objeto en movimiento, que degrada el rendimiento de la prediccion.
Si se calculan los coeficientes de peso para cada macrobloque que sea una unidad mas pequena que la seccion, y se ejecuta prediccion de movimiento ponderado, la cantidad de codigo requerida para los coeficientes de peso se incrementa considerablemente en el modo explicito. En ese caso, es preferible calcular los coeficientes de peso en el modo implicito. Sin embargo, segun se ha descrito con anterioridad, el modo implicito de la prediccion de movimiento ponderado en H.264/AVC se aplica solamente a la prediccion bi-predictiva para secciones B.
Adicionalmente, en el modo implicito de la prediccion de movimiento ponderado, los coeficientes de peso se calculan sobre la suposicion de que la variacion de luminosidad sobre una trama objetivo de codificacion y dos tramas de referencia, es lineal. Por lo tanto, si la variacion de luminosidad sobre las tres tramas no es lineal, no se calculan coeficientes de peso apropiados, lo que degrada el rendimiento de la prediccion. Ejemplos especificos son una imagen de desvanecimiento que tiene una variacion de luminosidad no lineal o una imagen de flash que incluye un destello y tiene un cambio temporal en la luminosidad. JSVC emplea directamente la prediccion de movimiento ponderado en H.264/AVC, y por lo tanto, tiene los mismos problemas que se han descrito con anterioridad.
5
10
15
20
25
30
35
40
45
50
55
60
65
Adicionalmente, la tecnica divulgada en el documento patente 1 necesita transmitir informacion de banderola para cada area pequena, y por lo tanto tiene el problema de una reduccion en el rendimiento de codificacion. Incluso cuando la variacion para un area pequena sea grande y difiera considerablemente de la variacion de luminancia general, la variacion de luminancia para el area pequena no puede ser compensada, degradando con ello el rendimiento de codificacion.
En vista de las circunstancias que anteceden un objeto de la presente invencion consiste en establecer un metodo de diseno de un codificador escalable y de un descodificador escalable, usados en codificacion espacial escalable en base a un capa de base que tiene resolucion espacial y a una o mas capas de mejora, teniendo cada una de ellas una resolucion mas alta que la capa de base, donde el metodo de diseno incluye generar un coeficiente de peso para prediccion de movimiento ponderado en base a informacion de variacion de luminosidad temporal entre una senal descodificada de una trama de referencia para la prediccion de movimiento y una senal descodificada de la capa inmediatamente inferior de la trama objetivo de codificacion, y realizar la prediccion de movimiento ponderado usando un coeficiente de peso comun entre el codificador y el descodificador, sin transmitir informacion del coeficiente de peso.
Medios para resolver el problema
El procedimiento de prediccion de movimiento ponderado de la presente invencion va a ser descrito en lo que sigue.
El metodo conforme a la invencion consiste en un metodo de codificacion de video escalable para llevar a cabo codificacion por prediccion de una senal de capa superior usando una senal de capa inmediatamente inferior, teniendo la senal de capa superior una resolucion espacial mas alta que la senal de capa inmediatamente inferior, comprendiendo el metodo:
una etapa de calculo de un primer coeficiente de peso por cada area de imagen de un tamano de unidad predeterminado en una busqueda para estimar un movimiento entre un area de imagen objetivo de codificacion situada en la capa superior de una trama objetivo de codificacion, y un area de imagen de referencia situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de codificacion, donde el primer coeficiente de peso se calcula en base a una variacion de luminosidad entre un area de imagen, que pertenece a una capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, y el area de la imagen de referencia;
una etapa que realiza una estimacion de movimiento usando una senal que se obtiene corrigiendo una senal descodificada del area de imagen de referencia mediante el primer coeficiente de peso y funciona como una senal estimada en la estimacion de movimiento, con el fin de calcular un vector de movimiento;
una etapa que calcula un segundo coeficiente de peso en base a una variacion de luminosidad entre un area de imagen de referencia que esta situada en la capa superior de la trama de referencia y que esta indicada por medio del vector de movimiento calculado, y el area de imagen que pertenece a la capa inmediatamente inferior de la capa superior de la trama de imagen de codificacion y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, y
una etapa de compensacion de movimiento que determina una senal, que se obtiene corrigiendo una senal descodificada del area de imagen de referencia indicada por el vector de movimiento usando el segundo coeficiente de peso, para que sea una senal compensada en cuanto a compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de codificacion.
La prediccion de movimiento ponderado consiste en dos etapas: una es la estimacion de movimiento ponderado, y la otra es la compensacion de movimiento ponderado.
La estimacion de movimiento ponderado consiste en buscar un movimiento entre una trama objetivo de procesamiento y una trama de referencia de prediccion de movimiento mientras se corrige la variacion de luminosidad entre las dos tramas, y presentar a la salida informacion de movimiento obtenida mediante la busqueda relevante, como vector de movimiento.
La compensacion de movimiento ponderado consiste en recuperar informacion de vector de movimiento, corregir un valor de senal indicado por el vector de movimiento relevante con respecto a la variacion de luminosidad, y presentar a la salida el valor de la senal corregido como senal pronosticada para la trama objetivo de procesamiento.
En el proceso de codificacion, se detecta un vector de movimiento por medio de la estimacion de movimiento ponderado, y el vector de movimiento se recupera de modo que se ejecuta compensacion de movimiento ponderado.
Por otra parte, en el proceso de descodificacion, los datos codificados se descodifican a efectos de recuperar el vector de movimiento relevante y ejecutar la compensacion de movimiento ponderado.
5
10
15
20
25
30
35
40
45
50
55
60
65
El calculo de coeficiente de peso puede aplicarse a un area de imagen unitaria deseada tal como una trama, una seccion, un macrobloque o similar.
Puesto que la transmision de coeficiente resulta innecesaria, cada area de imagen unitaria tiene la misma sobrecarga para la prediccion de movimiento ponderado. Por lo tanto, cuanto mas pequena sea el area de imagen unitaria, mayor es el rendimiento de prediccion de la prediccion de movimiento ponderado.
Actualmente, se van a explicar ejemplos de calculo del coeficiente de peso para cada macrobloque a modo de unidad. Sin embargo, otra area de imagen unitaria puede ser sometida a prediccion de movimiento ponderado de acuerdo con una operacion similar. Adicionalmente, la operacion no depende del tipo de senal, es decir, se puede aplicar una operacion similar a cada una de entre la senal de luminancia y la senal de crominancia.
El metodo segun la invencion ha sido implementado por medio de un aparato de codificacion de video escalable de realizacion de codificacion pronosticando una senal de capa superior que usa una senal de capa inmediatamente inferior, teniendo la senal de capa superior una resolucion espacial mas alta que la senal de la capa inmediatamente inferior, comprendiendo el aparato:
un dispositivo que calcula un primer coeficiente de peso para cada area de imagen de tamano unidad predeterminada en una busqueda para estimacion de movimiento entre un area de imagen objetivo de codificacion situada en la capa superior de una trama objetivo de codificacion y un area de imagen de referencia situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de codificacion, donde el primer coeficiente de peso se calcula en base a una variacion de luminosidad entre un area de imagen, que pertenece a una capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, y el area de imagen de referencia;
un dispositivo que realiza una estimacion de movimiento usando una senal que se obtiene corrigiendo una senal descodificada de la imagen de referencia mediante el primer coeficiente de peso y que funciona como una senal estimada en la estimacion de movimiento, con el fin de calcular un vector de movimiento;
un dispositivo que calcula un segundo coeficiente de peso en base a una variacion de luminosidad entre un area de imagen de referencia que esta situada en la capa superior de la trama de referencia y esta indicada por el vector de movimiento calculado, y el area de imagen que pertenece a la capa inmediatamente inferior de la capa de la trama objetivo de codificacion y tiene la misma posicion espacial que el area objetivo de codificacion, y
un dispositivo de compensacion de movimiento que determina una senal que se obtiene corrigiendo una senal descodificada del area de imagen de referencia indicada por el vector de movimiento usando el segundo coeficiente de peso, como que es una senal compensada en compensacion de movimiento, que funciona como una senal pronosticada del area de imagen objetivo de codificacion.
Efecto de la invencion
De acuerdo con la presente invencion, se pueden calcular los coeficientes de peso para cada area local deseada. Por lo tanto, incluso cuando la luminosidad cambia en una parte de una imagen a causa de una sombra de un objeto en movimiento o similar, la prediccion de movimiento ponderado segura puede ser materializada por medio del modo implicito que no realiza ninguna transmision de coeficiente de peso.
La figura 18 es un diagrama que muestra un ejemplo de la estructura de un procesador de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion bi-predictiva;
La figura 19 es un diagrama que muestra un ejemplo de la estructura de un procesador de correccion de coeficiente
de peso de componente base de DC de prediccion bi-predictiva;
La figura 20 es un diagrama que muestra un ejemplo de la estructura de un procesador de correccion de coeficiente
de peso de minimizacion de base de error cuadratico de prediccion de trama simple;
La figura 21 es un diagrama que muestra un ejemplo de la estructura de un procesador de correccion de coeficiente
proporcional de componente base de DC de prediccion de trama simple;
La figura 22 es un diagrama que muestra un ejemplo de estructura de un procesador de correccion de desviacion de componente base de DC de prediccion de trama simple;
La figura 23 es un diagrama que muestra una variacion en DB-bit (como ejemplo experimental) para imagenes de desvanecimiento;
La figura 24 es un diagrama que muestra variaciones de luminancia media y un coeficiente de desviacion media
5
10
15
20
25
30
35
40
45
50
55
60
65
(como ejemplos experimentales) para imageries de desvanecimiento;
La figura 25 es un diagrama que muestra una variacion en BD-bit (como ejemplo experimental) para imagenes de flash;
La figura 26 es un diagrama que muestra variaciones en la luminancia media y un coeficiente de desviacion media (como ejemplos experimentales) para imagenes de flash.
101 unidad de determinacion de metodo de prediccion
102 predictor de intra-trama;
103 predictor de movimiento no ponderado
104 predictor de inter-capa
105 estimador de movimiento ponderado
106 compensador de movimiento ponderado
107 generador de senal residual de prediccion
108 codificador de senal residual de prediccion
109 descodificador
110 unidad de almacenaje de senal descodificada de capa de mejora relevante
111 unidad de almacenaje de senal descodificada de capa inmediatamente inferior
201 descodificador de metodo de prediccion
202 unidad de almacenaje de modo de prediccion
203 unidad de determinacion de metodo de prediccion
204 predictor de intra-trama
205 predictor de movimiento no ponderado
206 predictor de inter-capa
207 descodificador de informacion de vector de movimiento
208 unidad de almacenaje de vector de movimiento
209 compensador de movimiento ponderado
210 unidad de almacenaje de senal descodificada de capa inmediatamente inferior
211 descodificador de senal residual
212 unidad de almacenaje de senal residual
213 generador de senal descodificada
214 unidad de almacenaje de senal descodificada de capa de mejora relevante Mejor modo de llevar a cabo la invencion
En lo que sigue se va a explicar una operacion tipica de acuerdo con la presente invencion.
Estimacion de movimiento ponderado
En estimacion de movimiento ponderado, para cada area de imagen unitaria (por ejemplo, un macrobloque) de la trama objetivo de codificacion, se busca una trama de referencia para estimacion para un macrobloque de
5
10
15
20
25
30
35
40
45
50
55
60
65
emparejamiento.
En la operacion de busqueda, cada vez que se cambia el macrobloque objetivo para la busqueda, se calcula un coeficiente de peso para indicar la variacion de luminosidad entre los bloques relevantes de las tramas, y se corrige una senal descodificada del macrobloque objetivo para la busqueda mediante el coeficiente de peso. La senal corregida se usa como senal comparativa para la determinacion del emparejamiento.
El macrobloque que se determina como que es el bloque de emparejamiento, esta referenciado mediante un vector de movimiento, y funciona como un macrobloque de referencia en la compensacion de movimiento.
Un ejemplo de dispositivo para determinar el emparejamiento es un dispositivo de determinacion que usa minimizacion de coste de Lagrangiana para la cantidad de codigo y la distorsion de codificacion, segun se muestra en el documento no patente 1.
Compensacion de movimiento ponderado
En compensacion de movimiento ponderado, por cada macrobloque objetivo de codificacion o descodificacion, se restablece la informacion de vector de movimiento del macrobloque objetivo.
A continuacion, se calcula un coeficiente de peso para indicar una variacion de luminosidad entre un macrobloque de referencia disenado por el vector de movimiento y el macrobloque objetivo de codificacion o descodificacion.
La senal descodificada del macrobloque de referencia se corrige usando el coeficiente de peso, y la senal corregida se usa como senal pronosticada para la codificacion o descodificacion del macrobloque objetivo.
Calculo de coeficientes de peso
Tipicamente, los coeficientes de peso usados para la estimacion de movimiento ponderado y la compensacion de movimiento ponderado para codificacion escalable, se calculan mediante el procedimiento que se explica a continuacion.
En el modo implicito convencional, se estima la variacion de luminosidad temporal dentro de una capa simple por medio de interpolacion o extrapolacion segun sea la distancia desde la trama de referencia, calculando con ello los coeficientes de peso.
En la presente invencion, la variacion de luminosidad temporal se estima usando informacion de una senal descodificada de un macrobloque de la capa inmediatamente inferior, mejorando con ello la precision de la estimacion.
Antes de explicar el procedimiento, se muestran los signos usados para la explicacion. Una trama objetivo de codificacion o descodificacion (denominada “trama objetivo de correccion”), en la capa de mejora relevante, esta representada por “f”; una trama de referencia de estimacion o compensacion de movimiento ponderado (denominada “trama corregida”) para secciones P y prediccion de L0 de secciones B, esta representada por %”; y la trama corregida para prediccion de L1de secciones B, esta representada por “fi”.
Adicionalmente, una trama en la capa inmediatamente inferior al mismo tiempo que la trama f objetivo de correccion, esta representada por “g”; una trama en la capa inmediatamente inferior al mismo tiempo que la trama corregida f0, esta representada por “g0”; y una trama en la capa inmediatamente inferior al mismo tiempo que la trama corregida fi, esta representada por “gi”.
Adicionalmente, un valor de senal pronosticado aplicado a las coordenadas (i, j) de un bloque objetivo de codificacion o descodificacion (denominado “bloque objetivo de correccion”) en la trama f, esta representado por z(i, j); y un valor de senal descodificada en las coordenadas (i, j) es un bloque de referencia de estimacion o compensacion de movimiento ponderado (denominado “bloque corregido”) de trama f0, esta representado por yj(i, j).
Adicionalmente, un valor de senal descodificada en las coordenadas (i, j) en un bloque de trama g, que tiene la misma posicion espacial que el bloque objetivo de correccion de trama f, esta representado por x(i, j); y un valor de senal obtenido al someter x(i, j) a un muestreo para obtener la resolucion de la capa de mejora relevante por medio de un filtro de muestreo especifico, esta representado por x’(i, j).
De forma similar, un valor de senal descodificada en las coordenadas (i, j) en un bloque de una trama g0, que tiene la misma posicion espacial que el bloque corregido de la trama f0, esta representado por X0(i, j); y un valor obtenido al someter X0(i, j) a muestreo para obtener la resolucion de la capa de mejora relevante por medio de un filtro de muestreo especifico, esta representado por Xo(i, j).
Los metodos de obtencion de yi(i, j), xi(i, j) y xi(i, j) corresponden a los de obtencion de y0(i, j), X0(i, j) y X0(i, j).
5
10
15
20
25
30
35
40
45
50
55
La definicion anterior va a ser mostrada en la figura 2, donde la relacion de resolucion entre la capa de mejora relevante y la capa inmediatamente inferior es de 2:1 en ambas direcciones vertical y horizontal. Se pueden realizar operaciones similares para otras relaciones de resolucion distintas de 2:1.
Adicionalmente, una componente de DC (corriente continua) del bloque conectado en la trama f0 esta representada por Y0, y una componente de DC de un bloque de la trama g, el cual tiene la misma posicion espacial que el bloque objetivo de correccion en la trama f, esta representada por X. Para la figura 2, esas componentes se calculan como sigue:
[Formula 1]
| n-1 n-I
Yo = (1)
n i=o,=o
, T-l T-l
X = (2)
t 2 1 1=0 j=0
Los metodos para proporcionar X0, X0’, X1, X1’ e Y1, corresponden a los metodos para proporcionar X e Y0.
Metodo de calculo de coeficientes de peso para seccion P y prediccion de L0/L1 para seccion B
En una prediccion aplicada a una sola seccion (por ejemplo, prediccion para la seccion P o prediccion de L0/L1 de la seccion B), el valor z(i, j) de senal pronosticado se calcula como sigue.
Para la seccion P o prediccion de la seccion B:
z(i, j) = W0-y0(i, j) + d0
Para prediccion de L1 de la seccion B:
imagen1
A continuacion, se van a mostrar tres metodos de calculo para los coeficientes de peso W0 y d0, o W1 y d1.
La explicacion que sigue se refiere a prediccion para la seccion P o prediccion de L0 de la seccion B. Para prediccion de L1 de la seccion B, los elementos relativos a las tramas f0 y g0 se convierten en los de las tramas f y g1.
Los tres metodos de calculo se basan en la siguiente suposicion. Puesto que las tramas f y g son informacion obtenida al mismo tiempo, se pronostica que ambos tienen valores de luminosidad de senal similares. Por lo tanto, la informacion de luminosidad de la trama g conocida se usa para pronosticar indirectamente una variacion de luminosidad desde la trama corregida f0 hasta la trama f objetivo de correccion.
Metodo 1-1: Correccion de coeficiente proporcional usando componente de DC en prediccion de trama simple En este metodo, se calculan los coeficientes de peso como sigue: w0 = X / Yo (4)
d0 = 0 (5)
En la Formula (4), X puede ser sustituido por la componente X de DC de la senal muestreada relevante. Adicionalmente, las anteriores X y X’ pueden ser sustituidas por una componente corregida usando una relacion de componente de DC entre la trama corregida f0 y la trama g0 de la capa inmediatamente inferior a la misma.
Ejemplos de una correccion de ese tipo son una componente obtenida al multiplicar X o X’ por una relacion de componente de DC de Y0/X0 para la trama corregida f0, y una componente obtenida por adicion de X o X’ y una diferencia de componente de DC X0-Y0 para la trama corregida f0.
Metodo 1-2: Correccion de coeficiente de desviacion usando componente de DC en prediccion de trama simple
5
10
15
20
25
30
35
40
45
En este metodo, se calculan los coeficientes de peso como sigue:
w0 = 1 (6)
d0 = X-Y0 (7)
De forma similar al metodo 1-1, se puede reemplazar X en la Formula (7) por la componente X’ de DC de la senal muestreada. Adicionalmente, las anteriores X o X’ pueden ser sustituidas por una componente corregida usando una relacion de componente de DC entre la trama corregida f0 y la trama g0 de la capa inmediatamente inferior de la misma. Los ejemplos de dicha correccion son similares a los del metodo 1 -1.
Metodo 1-3: correccion de coeficiente de peso usando el metodo de cuadrados minimos en prediccion de trama simple
En este metodo, los coeficientes de peso se calculan como sigue, donde W0 y d0, a las que se aplican tildes, son aplicadas como variables usadas parta obtener W0 y d0.
[Formula 2]

Ti—1 n—1 2

£ = ^^(u>oyo(i,j) + do-x'(iJ)j (8)
i=0 j=o '

(u;o,do) = arginine (9)
En la Formula (8), x(i, j) puede ser sustituida por una componente corregida usando una relacion de senal descodificada entre la trama corregida f0 y la trama g0 de la capa inmediatamente inferior de la misma.
Ejemplos de correccion de ese tipo son una componente obtenida al multiplicar x’(i, j) por una relacion de senal descodificada “y0(i, j)/Xo(i, j)” para la trama corregida f0 y una componente obtenida por adicion de x’(i, j) y una diferencia de senal descodificada “y0(i, j) - Xo(i, j) para la trama corregida f0.
Los coeficientes de peso (W0, d0) para la provision del valor minimo de £ pueden ser adquiridos como soluciones de las ecuaciones lineales simultaneas siguientes:
[Formula 3]
imagen2
(10)
(11)
Metodo de calculo de coeficientes para prediccion bi-predictiva de seccion B
En la prediccion bi-predictiva de secciones B, el valor de senal pronosticado z(i, j) se calcula como sigue:
z(i j) = w0-y0 0 j) + wryi(i j) + d (12)
A continuacion se van a mostrar dos metodos de calculo para los coeficientes de peso W0, W1 y d.
Los tres metodos de calculo estan basados en la siguiente suposicion. Dado que las tramas f y g son informacion obtenida al mismo tiempo, se pronostica que ambas tienen valores de luminosidad de senal cercanos. Por lo tanto, la informacion de luminosidad de la trama g conocida se usa para pronosticar indirectamente una variacion de luminosidad desde las tramas corregidas f0 y f hasta la trama f objetivo corregida.
Metodo 2-1: Correccion de coeficiente de peso usando un bloque de componente de DC en prediccion bi-predictiva En este metodo, los coeficientes de peso se calculan como sigue:
5
10
15
20
25
30
35
40
W0 = 1 - Wj (13)
Wi=tb/td (14)
do = X-w0-Yo-wrYi (15)
En las formulas anteriores, tb indica una distancia inter-trama desde la trama corregida f0 hasta la trama f objetivo de correccion, y td indica una distancia inter-trama desde la trama corregida f0 hasta la trama corregida fi.
En la Formula (15), X puede ser sustituida por la componente X’ de DC de la senal muestreada. Adicionalmente, la X o X’ anteriores pueden ser sustituidas por una componente corregida con el uso de componentes de DC de la trama corregida f0 y la trama g0 de la capa inmediatamente inferior de la misma, o componentes de DC de la trama corregida fi y la trama gi de la capa inmediatamente inferior de la misma. El metodo de correccion es similar a los mostrados para el metodo 1 -1 anterior.
Metodo 2-2: correccion de coeficiente de peso usando el metodo de minimos cuadrados en prediccion bi-predictiva En este metodo, se calculan los coeficientes de peso como sigue:
[Formula 4]

n— 1 r»—1 2

e = yi (wo - irt)(i, j) + U/I ■ yi(j, j) -f d - x'(i, j)) (16)
i=o j=o

(w0, wltd) - arg min (17)
Wo,W] ,d
En la Formula (16), x’(i, j) puede ser sustituida por una componente corregida con el uso de senales descodificadas de la trama corregida f0 y la grama g0 de la capa inmediatamente inferior de la misma, o senales descodificadas de la trama corregida f y la trama g1 de la capa inmediatamente inferior de la misma.
Ejemplos de esa correccion son una componente obtenida al multiplicar x’(i, j) por una relacion de senal descodificada “y0(i, j)/Xo(i, j)” para la trama corregida f0, y una componente obtenida al sumar x’(i, j) y una diferencia de senal descodificada “y0(i, j) - Xo(i, j) para la trama corregida f0. El metodo de correccion es similar a los mostrados para el metodo 1 -3 anterior.
Los coeficientes de peso (W0, W1, d) para proporcionar el valor minimo de £ pueden ser adquiridos como soluciones de las siguientes ecuaciones lineales simultaneas:
[Formula 5]
de dwo
n—1 r»-l = (too- Vo(hj) + m - + x’ihj)) =0 t=0 j-0 (18)
de dwi
n—1 «—1 = 2y^y*yi(t, j) fiy0 ■ yo(*,;) + “1 -yi(*. J) + 4- x'(i,j)J = 0 i=0 j= 0 (19)
de dJ
= [Vo ■ ya(i,j) + + =0 i—0>=0 (20)
En la prediccion de movimiento ponderado convencional de H.264/AVC, la conmutacion de coeficiente de peso se realiza para cada seccion. En la presente invencion, el coeficiente de peso puede ser calculado para cualquier area unitaria rectangular, mejorando con ello la precision de la prediccion de movimiento ponderado.
Adicionalmente, en la tecnica convencional, resulta necesaria la transmision de informacion de coeficiente de peso para bloques a los que se aplica prediccion unidireccional. Por el contrario, en la presente invencion, incluso para los bloques a los que se aplica prediccion unidireccional, es innecesaria la transmision de informacion de coeficiente de peso, y se puede realizar prediccion ponderada precisa.
En la tecnica convencional, con el fin de realizar prediccion ponderada precisa cuando la luminosidad de la imagen de video objetivo varia de forma no lineal, es necesario transmitir informacion de coeficiente de peso incluso para la
5
10
15
20
25
30
35
40
45
50
55
60
65
prediccion bi-predictiva. Por el contrario, en la presente invencion, con independencia de la manera de variacion temporal de la luminosidad de la imagen de video objetivo, es innecesario transmitir informacion de coeficiente de peso, y se puede realizar prediccion ponderada precisa.
En particular, cuando la relacion del valor de la senal entre una senal descodificada de un bloque de referencia de prediccion y la senal original del bloque actual es constante dentro del bloque, se pueden calcular coeficientes de peso precisos mediante el metodo 1-1 que antecede, y de ese modo este metodo resulta preferible.
Adicionalmente, cuando la diferencia de valor de senal entre una senal descodificada de un bloque de referencia de prediccion y la senal original del bloque actual es constante dentro del bloque, se pueden calcular coeficientes de peso precisos adicionales mediante el metodo 1-2 que antecede, y de ese modo este metodo resulta preferible.
Cuando todas las componentes de la frecuencia espacial incluidas en la senal original del bloque actual estan proximas a las componentes de frecuencia espacial incluidas en una senal interpolada de un bloque espacialmente correspondiente de la capa inmediatamente inferior, se pueden calcular coeficientes de peso precisos mediante los metodos 1-1, 1-2 y 2-1 que anteceden.
Los metodos 1-3 y 2-2 anteriores pueden proporcionar coeficientes de peso precisos solamente cuando las componentes de DC incluidas en la senal original del bloque actual son cercanas a las componentes de DC incluidas en la senal interpolada de un bloque espacialmente correspondiente de la capa inmediatamente inferior.
Flujo de operacion
Una realizacion de la operacion de codificacion conforme a la presente invencion va a ser explicada con referencia a la figura 3. La realizacion explicada es una operacion de codificacion aplicada a un macrobloque. Los datos codificados de una imagen de video se producen sometiendo todos los macrobloques a la operacion relevante.
Etapa S1: Se determina si el macrobloque actual de la capa de mejora relevante es o no up macrobloque objetivo para prediccion de movimiento ponderado. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S3, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S2.
La determinacion anterior puede ser llevada a cabo en base a condiciones predeterminadas, que no se limitan a la presente realizacion.
Etapa S2: Se genera una senal pronosticada conforme a informacion de modo de prediccion del macrobloque actual, la cual es presentada a la salida por la etapa S1. El metodo de prediccion de la etapa S2 puede ser prediccion intra-trama, prediccion de movimiento ordinario (es decir, no ponderado), o prediccion inter-capa. El metodo de prediccion en JSMV mostrado en el documento no patente 3 es un ejemplo de metodo de prediccion.
Etapa S3: Cuando el macrobloque actual es un objetivo para la prediccion de movimiento ponderado, la senal original del macrobloque actual, se recupera una senal descodificada de macrobloque de la capa inmediatamente inferior del mismo, y una senal descodificada de un macrobloque objetivo de busqueda (en una trama de referencia), de modo que se realiza estimacion de movimiento ponderado e informacion de vector de movimiento que se presentan a la salida. Este proceso ha sido mostrado con detalle en la figura 5 (que se explica mas adelante).
Etapa S4: Se obtienen la presentacion a la salida de informacion de vector de movimiento de la etapa S3 y la senal de macrobloque descodificada de la capa inmediatamente inferior del mismo, de modo que se realiza compensacion de movimiento ponderado y se presenta a la salida la senal pronosticada de movimiento ponderado. Este proceso ha sido mostrado en la figura 6 (que se explica mas adelante).
Etapa S5: Se obtiene la presentacion a la salida de la senal pronosticada por la etapa S2 o S4, y se genera una senal diferencial entre la senal pronosticada y la senal original del presente macrobloque. La senal diferencial se codifica a continuacion. El metodo de codificacion en JSVM mostrado en el documento no patente 3, es un ejemplo de metodo de codificacion.
Una realizacion de la operacion de descodificacion de acuerdo con la presente invencion va a ser explicada con referencia a la figura 4. La realizacion explicada es una operacion de descodificacion aplicada a un macrobloque. Se produce una senal descodificada de una imagen de video sometiendo todos los macrobloques a la operacion relevante.
Etapa S11: Se recuperan datos codificados para el modo de prediccion del macrobloque actual de la capa de mejora relevante y se someten a un proceso de descodificacion, presentando con ello a la salida informacion de modo de prediccion.
5
10
15
20
25
30
35
40
45
50
55
60
65
Etapa S12: Se determina si el macrobloque actual de la capa de mejora relevante es o no un macrobloque objetivo para la prediccion de movimiento ponderado. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S14, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S13.
Etapa S13: Se genera una senal pronosticada de acuerdo con la informacion de modo de prediccion del macrobloque actual, la cual se presenta a la salida por medio de la etapa S11. El metodo de prediccion en la etapa S13 puede ser prediccion intra-trama, prediccion de movimiento ordinario (es decir, no ponderado), o prediccion inter-capa. El metodo de prediccion en JSVM mostrado en el documento no patente 3, es un ejemplo de metodo de prediccion.
Etapa S14: Cuando el macrobloque actual es un macrobloque objetivo para la prediccion de movimiento ponderado, se recuperan datos codificados para el vector de movimiento del macrobloque actual y se someten a un proceso de descodificacion, presentando con ello a la salida informacion de vector de movimiento.
Etapa S15: Se obtienen la presentacion a la salida de informacion de vector de movimiento en la etapa S14 y la senal descodificada de macrobloque de la capa inmediatamente inferior, de modo que se realiza compensacion de movimiento ponderado y se presenta a la salida una senal pronosticada de movimiento ponderado. Este proceso ha sido mostrado tambien con detalle en la figura 6 (que se explica mas adelante).
Etapa S16: Se obtiene la presentacion a la salida de la senal pronosticada por medio de la etapa S13 o S15 y se suma a una senal residual de prediccion descodificada, produciendo y presentando a la salida una senal descodificada.
Una realizacion de la estimacion de movimiento ponderado (etapa S3) de acuerdo con la presente invencion, va a ser explicada con referencia a la figura 5.
Etapa S21: Se recuperan una senal descodificada de un macrobloque de la capa inmediatamente inferior y una senal descodificada del macrobloque objetivo de busqueda actual (en la trama de referencia), y los coeficientes de peso definidos entre ambos macrobloques son calculados y presentados a la salida. Este proceso ha sido mostrado con detalle en la figura 7 (que se explica mas adelante).
Etapa S22: Se obtiene la presentacion a la salida de informacion de coeficiente de peso por medio de la etapa S21, y se corrige el macrobloque objetivo de busqueda actual por medio de los coeficientes de peso relevantes. El valor de senal corregida se presenta a la salida.
Etapa S23: Se calcula un costo de codificacion determinado entre el valor de senal en la etapa 22 y la senal original del macrobloque actual, por medio de la cantidad relevante de codigo y de la cantidad de distorsion de codificacion, y el costo calculado se presenta a la salida.
Etapa S24: Se determina si todos los macrobloques objetivo de busqueda han sido sometidos o no a busqueda relevante. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S26, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S25.
Etapa S25: Se establece que el siguiente bloque objetivo es un objetivo de procesamiento, de modo que se repite la operacion de la etapa S21.
Etapa S26: Se obtiene la informacion del costo de codificacion presentado a la salida por la etapa S23, y se selecciona un macrobloque que tenga el minimo costo de codificacion entre los macrobloques que fueron buscados. Se presenta a la salida una diferencia de posicion coordenada entre el macrobloque seleccionado y el macrobloque actual, como vector de movimiento.
Una realizacion de la compensacion de movimiento ponderado (etapa S4 y etapa S15) conforme a la presente invencion, va a ser explicada con referencia a la figura 6.
Etapa S31: Se recupera informacion de vector de movimiento del macrobloque actual y se presenta a la salida. La informacion de vector de movimiento se recupera a partir de: (i) una senal de salida desde un estimador de movimiento ponderado en la compensacion de movimiento ponderado durante un proceso de codificacion, o (ii) una senal de salida desde un procesador de descodificacion de vector de movimiento en la compensacion de movimiento ponderado durante un proceso de descodificacion.
Etapa S32: Se obtienen una senal descodificada de un macrobloque de la capa inmediatamente inferior y la informacion de vector de movimiento presentada a la salida en la etapa S31, y se calculan los coeficientes de peso definidos entre un macrobloque de referencia indicado por el vector de movimiento relevante y el macrobloque actual, y se presentan a la salida. Este proceso ha sido mostrado con detalle en la figura 7 (que se explica mas adelante).
5
10
15
20
25
30
35
40
45
50
55
60
65
En el proceso de codificacion, los coeficientes de peso calculados en el proceso de estimacion ponderada mostrado en la figura 5, pueden ser almacenados junto con la informacion de vector de movimiento y presentados a la salida.
Etapa S33: Se obtiene la informacion de salida de coeficiente de peso de la etapa S32, y se corrige la senal descodificada del macrobloque de referencia mediante los coeficientes de peso relevantes. El valor de senal corregido se presenta a continuacion en la salida.
Una realizacion del calculo de coeficiente de peso (etapa S21 y etapa S32), de acuerdo con la presente invencion, va a ser explicada con referencia a la figura 7.
Etapa S41: Se determina si se ha determinado o no que la seccion a la que pertenece el macrobloque actual es una seccion B, y se realiza prediccion bi-predictiva. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S52, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S45.
Etapa S42: Se determina si un metodo de calculo de coeficiente de peso (para el macrobloque actual) designado por un dispositivo externo, es o no un metodo de correccion de coeficiente de peso basado en minimizacion de error cuadratico para la prediccion bi-predictiva de seccion B. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S43, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S44.
Ejemplos de como proporcionar la informacion de designacion del metodo de calculo de coeficientes de peso desde un dispositivo externo, son (i) definir inicialmente el metodo como establecimiento de una condicion del proceso de codificacion y almacenarla en un conjunto de parametros de imagen, y (ii) seleccionar un metodo adecuado para cada seccion por medio de un procesamiento multi-paso.
Etapa S43: Se calculan y se presentan a la salida coeficientes de peso para minimizacion del error cuadratico entre una senal corregida formada por senales descodificadas de los dos macrobloques corregidos y la senal descodificada del macrobloque relevante de la capa inmediatamente inferior. Este proceso ha sido mostrado con detalle en la figura 8 (que se explica mas adelante).
Etapa S44: Se calcula un coeficiente proporcional en base a la distancia inter-trama entre las dos tramas corregidas y la trama actual, y se calcula un coeficiente de desviacion en base a componentes de DC de las senales descodificadas de los dos macrobloques corregidos y la senal descodificada del macrobloque de la capa inmediatamente inferior. Los coeficientes calculados se presentan a la salida. Este proceso ha sido mostrado con detalle en la figura 9 (que se explica mas adelante).
Etapa S45: Se determina si un metodo de calculo de un coeficiente de peso (para el macrobloque actual) designado por un dispositivo externo es o no un metodo de correccion de coeficiente de peso en base a una minimizacion de error cuadratico para secciones P o la prediccion de L0/L1 de la seccion B. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S46, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S47.
De forma similar a la etapa S42, ejemplos de como proporcionar la informacion de designacion del metodo de calculo de coeficiente de peso desde un dispositivo externo son: (i) definir inicialmente el metodo como una condicion de establecimiento del proceso de codificacion y almacenarla en un conjunto de parametros de imagen, y (ii) seleccionar un metodo apropiado para cada seccion por medio de procesamiento multi-paso.
Etapa S46: Se calculan y se presentan a la salida coeficientes de peso para minimizar el error cuadratico entre una senal corregida formada por una senal descodificada del macrobloque corregido y la senal descodificada del macrobloque relevante de la capa inmediatamente inferior. Este proceso ha sido mostrado en la figura 10 (que se explica mas adelante).
Etapa S47: Se determina si un metodo de calculo de coeficiente de peso (para el macrobloque actual) designado por un dispositivo externo es o no un metodo de correccion de coeficiente proporcional basado en componentes de DC para secciones P o en la prediccion de L0/L1 de la seccion B. Si el resultado de la determinacion es SI, se ejecuta el proceso de la etapa S48, y si el resultado de la determinacion es NO, se ejecuta el proceso de la etapa S49.
De forma similar a las etapas S42 y S45, ejemplos de como proporcionar la informacion de designacion del metodo de calculo de coeficiente de peso desde un dispositivo externo son: (i) definir inicialmente el metodo como una condicion de establecimiento del proceso de codificacion y almacenarla en un conjunto de parametros de imagen, y (ii) seleccionar un metodo apropiado para cada seccion por medio de procesamiento multi-paso.
Etapa S48: Se calcula una relacion de componentes de DC entre la senal descodificada del macrobloque corregido y la senal descodificada del macrobloque de la capa inmediatamente inferior, y se presenta a la
5
10
15
20
25
30
35
40
45
50
55
60
65
salida como un coeficiente proporcional. Este proceso ha sido mostrado con detalle en la figura 11 (que se explica mas adelante).
Etapa S49: Se calcula una diferencia de componentes de DC entre la senal descodificada del macrobloque corregido y la senal descodificada del macrobloque de la capa inmediatamente inferior, y se presenta a la salida como coeficiente de desviacion. Este proceso ha sido mostrado con detalle en la figura 12 (que se explica mas adelante).
Una realizacion del proceso de la etapa S43 de la figura 7 va a ser explicada con referencia a la figura 8.
Etapa S51: Se recuperan la senal descodificada del macrobloque de la capa inmediatamente inferior y las senales descodificadas de los dos macrobloques corregidos, y se almacenan en un memoria intermedia.
Etapa S52: Se obtienen la senal descodificada del macrobloque de la capa inmediatamente inferior y las senales descodificadas de los dos macrobloques corregidos desde la memoria intermedia, y se genera una ecuacion simultanea para adquirir el menor error cuadratico entre una imagen corregida formada por las senales descodificadas de los dos macrobloques corregidos y la senal descodificada del macrobloque de la capa inmediatamente inferior. La ecuacion simultanea generada se almacena en un registro.
Etapa S53: La ecuacion simultanea generada en la etapa S52 se recupera desde el registro, y se calcula la solucion de la misma de modo que puedan ser calculados y presentados a la salida un coeficiente proporcional y un coeficiente de desviacion. La solucion puede ser obtenida usando un metodo de eliminacion de Gauss. El proceso anterior se realiza usando las formulas (16) y (17) descritas en lo que antecede.
Una realizacion del proceso de la etapa S44 de la figura 7, va a ser explicada con referencia a la figura 9.
Etapa S61: Se recuperan la senal descodificada del macrobloque de la capa inmediatamente inferior y las senales descodificadas de los dos macrobloques corregidos, y se almacenan en una memoria intermedia.
Etapa S62: Se obtienen la senal descodificada del macrobloque de la capa inmediatamente inferior y las senales descodificadas de los dos macrobloques corregidos desde la memoria intermedia, y se calculan componentes de DC de la senal descodificada del macrobloque de la capa inmediatamente inferior y de las senales descodificadas de los dos macrobloques corregidos. Las componentes de DC calculadas se almacenan en un registro.
Etapa S63: Las componentes de DC calculadas en la etapa S62 se recuperan desde el registro. Se calcula un coeficiente proporcional en base a una distancia entre las tramas de referencia, y se calcula un coeficiente de desviacion de acuerdo con las formulas (13) a (15) descritas en lo que antecede. Los coeficientes calculados se presentan a la salida.
Una realizacion del proceso de la etapa S46 de la figura 7 va a ser explicada con referencia a la figura 10.
Etapa S71: Se recuperan la senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido, y se almacenan en una memoria intermedia.
Etapa S72: Se obtienen la senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido, desde la memoria intermedia, y se genera una ecuacion simultanea para adquirir el menor error cuadratico entre una senal corregida formada por la senal descodificada del macrobloque corregido y la senal descodificada del macrobloque de la capa inmediatamente inferior. La ecuacion simultanea generada se almacena en un registro.
Etapa S73: La ecuacion simultanea generada en la etapa S72 se recupera desde el registro, y se calcula la solucion de la misma de modo que se calculan y se presentan a la salida un coeficiente proporcional y un coeficiente de desviacion. La solucion puede ser obtenida usando el metodo de eliminacion de Gauss. El proceso anterior se lleva a cabo usando las formulas (8) y (9) descritas con anterioridad.
Una realizacion del proceso de la etapa S48 de la figura 7 va a ser explicada con referencia a la figura 11.
Etapa S81: La senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido, se recuperan y se almacenan en una memoria intermedia.
Etapa S82: Se obtienen la senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido desde la memoria intermedia, y se calculan las componentes de DC de la senal descodificada del macrobloque de la capa inmediatamente inferior y de la senal descodificada del macrobloque corregido. Las componentes de DC calculadas se almacenan en un registro.
5
10
15
20
25
30
35
40
45
50
55
60
65
Etapa S83: Se recuperan del registro las componentes de DC calculadas en la etapa S82. Se calcula una relacion entre ambas componentes de DC como coeficiente proporcional, y el coeficiente de desviacion se establece en cero. Los coeficientes calculados se presentan a la salida. El proceso se lleva a cabo usando las formulas (4) y (5) descritas en lo que antecede.
Una realizacion del proceso de la etapa S49 va a ser explicada con referencia a la figura 12.
Etapa S91: Se recuperan la senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido, y se almacenan en una memoria intermedia.
Etapa S92: Se obtienen la senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido desde la memoria intermedia, y se calculan las componentes de DC de la senal descodificada del macrobloque de la capa inmediatamente inferior y la senal descodificada del macrobloque corregido. Las componentes de DC calculadas se almacenen en un registro.
Etapa S93: Se recuperan las componentes de DC calculadas en la etapa S92 desde el registro. Se calcula una diferencia entre ambas componentes de DC como coeficiente de desviacion, y el coeficiente proporcional se establece en 1. Los coeficientes calculados se presentan a la salida. El proceso se lleva a cabo usando las formulas (6) y (7) descritas con anterioridad.
Aparatos de procesamiento
Un ejemplo de estructura de un aparato de codificacion conforme a la presente invencion, ha sido mostrado en la figura 13, el cual procesa un macrobloque simple.
Unidad 101 de determinacion de metodo de prediccion: Esta recupera informacion de designacion del metodo de prediccion para el macrobloque actual. De acuerdo con la informacion de designacion, el dispositivo de procesamiento actual es conmutado a un predictor 102 de intra-trama para prediccion intra-trama, a un predictor 103 de movimiento no ponderado para prediccion de movimiento ordinario no ponderado, a un predictor 104 de inter-capa para prediccion inter-capa, o a un estimador 105 de movimiento ponderado para prediccion de movimiento ponderado.
Predictor 102 de intra-trama: Este recupera la senal original y una senal descodificada de una trama objetivo de codificacion, y realiza prediccion intra-trama con el fin de generar una senal pronosticada. El predictor 102 intra-trama presenta a la salida la senal pronosticada para un generador 107 de senal residual de prediccion. La prediccion intra-trama en JSVM mostrada en el documento no patente 3, es un ejemplo de metodo de prediccion de intra-trama.
Predictor 103 de movimiento no ponderado: Este recupera la senal original de la trama objetivo de codificacion y una senal descodificada de una trama de referencia, y realiza prediccion de movimiento ordinario no ponderado con el fin de generar una senal pronosticada, la cual se presenta a la salida para el generador 107 de senal residual de prediccion. La prediccion de movimiento no ponderado en JSVM del documento no patente 3, es un ejemplo de un metodo de prediccion de movimiento no ponderado.
Predictor 104 de inter-capa: Este recupera la senal original de la trama objetivo de codificacion y una senal descodificada de la capa inmediatamente inferior, y realiza prediccion inter-capa con el fin de generar una senal pronosticada, la cual se presenta a la salida para el generador 107 de senal residual de prediccion. La prediccion de inter-capa en JSVM del documento no patente 3, es un ejemplo de un metodo de prediccion de inter-capa.
Estimador 105 de movimiento ponderado: Este recupera la senal original de la trama objetivo de codificacion, una senal descodificada de una trama de referencia que se presenta a la salida desde una unidad 110 de almacenaje de senal descodificada de capa de mejora relevante, y una senal descodificada de la capa inmediatamente inferior que se presenta a la salida desde una unidad 111 de almacenaje de senal descodificada de capa inmediatamente inferior, y realiza estimacion de movimiento ponderado con el fin de generar un vector de movimiento, que se presenta a la salida para un compensador 106 de movimiento ponderado. La estructura detallada del estimador 105 de movimiento ponderado ha sido mostrada en la figura 15 (que se explica mas adelante).
Compensador 106 de movimiento ponderado: Este recupera la senal descodificada de la trama de referencia presente en la salida de la unidad 110 de almacenaje de senal descodificada de capa de mejora relevante y la senal descodificada de la capa inmediatamente inferior presentada en la salida de la unidad 111 de almacenaje de senal descodificada de capa inmediatamente inferior, y realiza compensacion de movimiento ponderado con el fin de generar una senal pronosticada, que se presenta a la salida para el generador 107 de senal residual de prediccion. La estructura detallada del compensador 106 de movimiento ponderado ha sido mostrada en la figura 16 (que se explica mas adelante).
5
10
15
20
25
30
35
40
45
50
55
60
65
Generador 107 de senal residual de prediccion: Este recupera la senal original de la trama objetivo de codificacion y la senal pronosticada presente a la salida del predictor 102 de intra-trama, del predictor 103 de movimiento no ponderado, del predictor 104 de inter-capa, o del compensador 106 de movimiento ponderado, y genera una senal diferencial entre las mismas, la cual se presenta a la salida para un codificador 108 de senal residual de prediccion.
Codificador 108 de senal residual de prediccion: Este recupera la senal residual de prediccion presente en la salida del generador 107 de senal residual de prediccion, y la somete a codificacion, presentando con ello en la salida datos codificados. Simultaneamente, el codificador 108 de senal residual de prediccion introduce los datos codificados en una memoria intermedia a efectos de introducir los datos codificados en un descodificador 109. Un procesamiento serie de transformacion ortogonal, cuantificacion y codificacion de longitud variable en JSVM del documento no patente 3, es un ejemplo de proceso de codificacion de una senal residual de prediccion.
Descodificador 109: Este recupera los datos codificados desde la memoria intermedia anterior, y somete los datos codificados a descodificacion. La senal descodificada obtenida se presenta a la salida para la unidad 110 de almacenaje de senal descodificada de capa de mejora relevante. El proceso de descodificacion se realiza en base al metodo de descodificacion de la presente invencion. La estructura detallada de un aparato de descodificacion para llevar a cabo la descodificacion, ha sido mostrada en la figura 14 (que se explica mas adelante).
Unidad 111 de almacenaje de senal descodificada de capa inmediatamente inferior: Esta recupera la senal descodificada obtenida por medio del proceso de descodificacion aplicado a los datos codificados de la capa inmediatamente inferior, y presenta a la salida la senal descodificada obtenida en una memoria intermedia.
Un ejemplo de estructura de un aparato de descodificacion de acuerdo con la presente invencion, ha sido mostrado en la figura 14, el cual procesa un macrobloque simple.
Descodificador 201 de metodo de prediccion: Este recupera datos codificados del modo de prediccion del macrobloque relevante, y somete los datos codificados a un proceso de descodificacion. La informacion de modo de prediccion obtenida se presenta a la salida para una unidad 202 de almacenaje de modo de prediccion.
Unidad 203 de determinacion del modo de prediccion. Esta recupera la informacion de modo de prediccion desde la unidad 202 de almacenaje de modo de prediccion. De acuerdo con la informacion de designacion correspondiente, la unidad 203 de determinacion de metodo de prediccion selecciona un dispositivo de conexion que es un predictor 204 de intra-trama para prediccion de intra-trama, un predictor 205 de movimiento no ponderado para prediccion de movimiento ordinario no ponderado, un predictor 206 de inter- capa para prediccion de inter-capa, o un descodificador 207 de informacion de vector de movimiento para prediccion de movimiento ponderado.
Predictor 204 de intra-trama: Este recupera la senal original y una senal descodificada de una trama objetivo de codificacion, y realiza prediccion intra-trama con el fin de generar una senal pronosticada. El predictor 204 de intra-trama presenta a la salida la senal pronosticada para un generador 213 de senal descodificada.
Predictor 205 de movimiento no ponderado: Este recupera la senal original de la trama objetivo de codificacion y una senal descodificada de una trama de referencia, y realiza prediccion de movimiento ordinario no ponderado con el fin de generar una senal pronosticada, la cual se presenta a la salida para el generador 213 de senal descodificada.
Predictor 206 de inter-capa: Este recupera la senal original de la trama objetivo de codificacion y una senal descodificada de la capa inmediatamente inferior, y realiza prediccion de inter-capa con el fin de generar una senal pronosticada, la cual se presenta a la salida para el generador 213 de senal descodificada.
Descodificador 207 de informacion de vector de movimiento: Este recupera datos codificados para un vector de movimiento del macrobloque relevante, y somete los datos codificados a un proceso de descodificacion. La informacion de vector de movimiento obtenida se presenta a la salida para una unidad 208 de almacenaje de vector de movimiento.
Compensador 209 de movimiento ponderado: Este recupera una senal descodificada de una trama de referencia presente en la salida de una unidad 214 de almacenaje de senal descodificada de capa de mejora relevante y una senal descodificada de la capa inmediatamente inferior presente en la salida de una unidad 210 de almacenaje de senal descodificada de capa inmediatamente inferior, y realiza compensacion de movimiento ponderado con el fin de generar una senal pronosticada, la cual se presenta a la salida para el generador 213 de senal descodificada. La estructura detallada del compensador 209 de movimiento
5
10
15
20
25
30
35
40
45
50
55
60
65
ponderado ha sido mostrada en la figura 16 (que se explica mas adelante).
Unidad 210 de almacenaje de senal descodificada de capa inmediatamente inferior: Esta recibe la senal descodificada obtenida por descodificacion de informacion codificada de la capa inmediatamente inferior, y almacena la senal descodificada en una memoria intermedia.
Descodificador 211 de senal residual: Este recupera datos codificados para una senal residual del macrobloque actual, y descodifica los datos codificados. La senal residual obtenida se presenta a la salida para una unidad 212 de almacenaje de senal residual.
Generador 213 de senal descodificada: Este recibe la senal pronosticada presente en la salida del predictor 204 de intra-trama, del predictor 205 de movimiento no ponderado, del predictor 206 de inter-capa, o del compensador 209 de movimiento ponderado, y sintetiza la senal pronosticada y la senal residual recibida desde la unidad 212 de almacenaje de senal residual, con el fin de generar una senal descodificada y presentarla a la salida para un dispositivo externo. El generador 213 de senal descodificada almacena simultaneamente la senal descodificada en la unidad 214 de almacenaje de senal descodificada de capa de mejora relevante.
Un ejemplo de estructura del estimador 105 de movimiento ponderado de la figura 13 ha sido mostrado en la figura 15. Es decir, la figura 15 es un diagrama que muestra un aparato que aplica estimacion de movimiento ponderado a un macrobloque de la capa de mejora relevante.
Unidad 301 de establecimiento de bloque objetivo de busqueda: Esta recupera la senal descodificada de la trama de referencia, la cual es una senal descodificada de la capa de mejora relevante, y determina un macrobloque como objetivo de busqueda para estimacion de movimiento. La unidad 301 de establecimiento de bloque objetivo de busqueda presenta a la salida una senal descodificada del macrobloque relevante para una unidad 302 de calculo de coeficiente de peso.
Unidad 302 de calculo de coeficiente de peso: Esta recibe la senal descodificada del macrobloque objetivo de busqueda presente a la salida de la unidad 301 de establecimiento de bloque objetivo de busqueda y la senal descodificada del bloque relevante de la capa inmediatamente inferior, y calcula coeficientes de peso que indican una variacion de luminosidad entre ambos bloques, y son presentados a la salida para una unidad 303 de almacenaje de coeficiente de peso.
Generador 304 de senal estimada de movimiento ponderado: Esta recupera los coeficientes de peso desde la unidad 303 de almacenaje de coeficiente de peso, y corrige la senal descodificada del bloque objetivo de busqueda en base a los coeficientes de peso. La senal corregida se presenta a la salida para una unidad 305 de almacenaje de senal estimada de movimiento ponderado.
Unidad 306 de calculo de costo de codificacion: Esta recupera la senal estimada de movimiento ponderado desde la unidad 305 de almacenaje de senal estimada de movimiento ponderado, y calcula un costo de codificacion para la senal original del macrobloque actual. El costo calculado se presenta a la salida para una unidad 307 de almacenaje de costo de codificacion.
Unidad 308 de determinacion de busqueda completada: Esta determina si la busqueda de la trama de referencia en la estimacion de movimiento ponderado para el macrobloque actual ha sido realizada o no a traves de toda el area de busqueda designada. Si el resultado de la determinacion es verdadero, se selecciona una unidad 309 de establecimiento de bloque de referencia para ser conectada a la unidad 308 de determinacion de terminacion de busqueda, mientras que si el resultado de la determinacion es falso, se selecciona la unidad 301 de establecimiento de bloque objetivo de busqueda.
Unidad 309 de decision de bloque de referencia: Esta recupera un conjunto de datos de costo de codificacion para todos los macrobloques objetivo de busqueda desde la unidad 307 de almacenaje de costo de codificacion, y decide uno de los macrobloques objetivo de busqueda que tenga el minimo costo de codificacion para que sea el bloque de referencia. La unidad 309 de decision de bloque de referencia presenta a la salida un diferencia de posicion coordenada entre el bloque de referencia y el macrobloque actual.
Un ejemplo de estructura del compensador 106 de movimiento ponderado de la figura 13 y del compensador 209 de movimiento ponderado de la figura 14, ha sido mostrado en la figura 16. Es decir, la figura 16 es un diagrama que muestra un aparato que aplica compensacion de movimiento ponderado a un macrobloque de la capa de mejora relevante.
Unidad 401 de establecimiento de senal de bloque de referencia: Esta recupera la senal decidida de la trama de referencia, la cual es una senal descodificada de la capa de mejora relevante, y la informacion de vector de movimiento determina un macrobloque de referencia, y presenta a la salida la senal del macrobloque para
5
10
15
20
25
30
35
40
45
50
55
60
65
una unidad 402 de calculo de coeficiente de peso.
La informacion de vector que antecede se suministra desde (i) el estimador 105 de movimiento ponderado (en la figura 13) cuando el compensador de movimiento ponderado relevante ha sido previsto en el aparato de codificacion, o (ii) la unidad 208 de almacenaje de vector de movimiento (en la figura 14) para almacenar la informacion de vector de movimiento descodificado cuando el compensador de movimiento ponderado ha sido previsto en el aparato de descodificacion.
Unidad 402 de calculo de coeficiente de peso: Esta recibe la senal descodificada del macrobloque de referencia presente a la salida desde la unidad 401 de establecimiento de senal de bloque de referencia y la senal descodificada del bloque relevante en la capa inmediatamente inferior, y calcula coeficientes de peso que indican una variacion de luminosidad entre ambos bloques, y son presentados a la salida para una unidad 403 de almacenaje de coeficientes de peso. En la compensacion de movimiento ponderado durante la operacion de codificacion, los coeficientes de peso calculados en el estimador 105 de movimiento ponderado (en la figura 13) pueden ser almacenados junto con la informacion de vector de movimiento, y presentados a la salida para la unidad 403 de almacenaje de coeficiente de peso.
Generador 404 de senal pronosticada de movimiento ponderado: Este recupera los coeficientes de peso desde la unidad 403 de almacenaje de coeficiente de peso, y corrige la senal descodificada del bloque de referencia en base a los coeficientes de peso. La senal corregida se presenta a la salida para una unidad 405 de almacenaje de senal pronosticada de movimiento ponderado.
Un ejemplo de estructura de la unidad 302 de calculo de coeficiente de peso de la figura 15 y de la unidad 402 de calculo de coeficiente de peso de la figura 16, ha sido mostrado en la figura 17. Es decir, la figura 17 es un diagrama que muestra un aparato que aplica calculo de coeficiente de peso a una macrobloque de una capa de mejora relevante.
Unidad 501 de determinacion de metodo de calculo de coeficiente de peso: Esta conecta con un procesador que ejecuta calculo de coeficiente de peso de acuerdo con un metodo de calculo de coeficiente de peso designado por el dispositivo externo.
Ejemplos de como proporcionar la informacion de designacion del metodo de calculo de coeficiente de peso desde un dispositivo externo son: (i) definir inicialmente el metodo como condicion de establecimiento del proceso de codificacion y almacenarla en un conjunto de parametros de imagen, y (ii) seleccionar un metodo apropiado para cada seccion por medio de procesamiento multi-paso.
Procesador 502 de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion bi-predictiva: Este recibe senales descodificadas de los dos macrobloques corregidos relevantes y una senal descodificada del macrobloque objetivo de correccion de una capa inmediatamente inferior, y calcula y presenta a la salida coeficientes de peso usando el metodo de minimos cuadrados. La figura 18 muestra una estructura detallada de este procesador, y el proceso anterior se realiza usando las formulas (16) y (17) descritas en lo que antecede.
Procesador 503 de correccion de coeficiente de peso de componente base de DC de prediccion bi-predictiva: Este recibe las senales descodificadas de los dos macrobloques corregidos y la senal descodificada del macrobloque objetivo de correccion de la capa inmediatamente inferior, y calcula y presenta a la salida coeficientes usando las componentes de DC de las senales recuperadas. La figura 19 muestra una estructura detallada de este procesador, y el proceso que antecede se realiza usando las formulas (13) a (15) descritas con anterioridad.
Procesador 504 de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion de trama simple: Este recibe una senal descodificada del macrobloque corregido relevante y la senal descodificada del macrobloque objetivo de correccion de la capa inmediatamente inferior, y calcula y presenta a la salida coeficientes de peso para minimizar el error cuadratico entre una senal corregida formada por la senal descodificada del macrobloque actual y la senal descodificada del macrobloque objetivo de correccion en la capa inmediatamente inferior. Este proceso se realiza usando las formulas (8) y (9) descritas con anterioridad.
Procesador 505 de correccion de coeficiente proporcional de componente base de DC de prediccion de trama simple: Este recupera la senal descodificada del macrobloque corregido y la senal descodificada del macrobloque objetivo de correccion de la capa inmediatamente inferior, calcula la componente de DC de cada bloque relevante, calcula una relacion entre ambas componentes de DC, y presenta a la salida la relacion como un coeficiente proporcional. El proceso anterior se realiza usando las formulas (4) y (5) descritas en lo que antecede.
Procesador 506 de correccion de desviacion de componente base de DC de prediccion de trama simple: Este
5
10
15
20
25
30
35
40
45
50
55
60
65
recibe la senal descodificada del macrobloque corregido y la senal descodificada del macrobloque objetivo de correccion de la capa inmediatamente inferior, calcula la componente de DC de cada bloque relevante, calcula una diferencia entre ambas componentes de DC, y presenta a la salida la diferencia como coeficiente de desviacion. Este proceso se realiza usando las formulas (6) y (7) que anteceden.
La figura 18 es un diagrama que muestra un ejemplo de estructura del procesador 502 de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion bi-predictiva de la figura 17. A continuacion se va a explicar la operacion del procesador 502 de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion bi-predictiva, con referencia a la figura 18.
Generador 601 de ecuacion simultanea: Este recupera la senal descodificada del macrobloque objetivo de correccion de la capa inmediatamente inferior y las senales descodificadas de los dos macrobloques corregidos, y genera una ecuacion simultanea para adquirir el menor error cuadratico entre una senal corregida formada por las senales descodificadas (es decir, senales descodificadas de referencia) de los dos macrobloques corregidos y la senal descodificada del macrobloque de la capa inmediatamente inferior. La ecuacion simultanea generada se presenta a la salida para una unidad 602 de solucion de ecuacion simultanea.
Unidad 602 de solucion de ecuacion simultanea: Esta recibe la ecuacion simultanea presente en la salida del generador 601 de ecuacion simultanea, y obtiene la solucion de la misma, calculando con ello un coeficiente proporcional y un coeficiente de desviacion, los cuales son presentados a la salida. La solucion puede ser obtenida usando el metodo de eliminacion de Gauss. El proceso anterior se lleva a cabo usando las formulas (16) y (17) descritas con anterioridad.
La figura 19 es un diagrama que muestra un ejemplo de estructura del procesador 503 de correccion de coeficiente de peso de componente base de DC de prediccion bi-predictiva de la figura 17. A continuacion, se va a explicar la operacion del procesador 503 de correccion de coeficiente de peso de componente base de DC de prediccion bi- predictiva, con referencia a la figura 19.
Unidad 701 de calculo de componente de DC de senal descodificada de capa inmediatamente inferior: Esta recupera la senal descodificada del macrobloque de la capa inmediatamente inferior desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 702 de calculo de componente de DC de senal_1 descodificada relevante: Esta recupera la senal descodificada de un macrobloque corregido desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 703 de calculo de componente de DC de la senal_2 descodificada de referencia: Esta recupera la senal descodificada del macrobloque corregido distinto del procesado por medio de la unidad 702 de calculo de componente de DC de senal_1 descodificada de referencia desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 704 de calculo de coeficiente proporcional: Esta recupera un numero de trama de referencia, calcula un coeficiente proporcional, y presenta a la salida el coeficiente proporcional para una unidad 705 de almacenaje de coeficiente proporcional.
Unidad 706 de calculo de coeficiente de desviacion: Esta recupera cada componente de DC desde el registro relevante, y el coeficiente proporcional desde la unidad 705 de almacenaje de coeficiente proporcional, y calcula un coeficiente de desviacion que se presenta a la salida para una unidad 707 de almacenaje de coeficiente de desviacion. El coeficiente de desviacion se calcula usando las formulas (13) a (15).
La figura 20 es un diagrama que muestra un ejemplo de estructura del procesador 504 de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion de trama simple, de la figura 17. A continuacion, se va a explicar la operacion del procesador 504 de correccion de coeficiente de peso de minimizacion base de error cuadratico de prediccion de trama simple, con referencia a la figura 20.
Generador 801 de ecuacion simultanea: Este recupera la senal descodificada del macrobloque objetivo de correccion en la capa inmediatamente inferior y la senal descodificada del macrobloque corregido, y genera una ecuacion simultanea para adquirir el menor error cuadratico entre una senal corregida formada por la senal descodificada del macrobloque corregido y la senal descodificada del macrobloque de la capa inmediatamente inferior. La ecuacion simultanea generada se presenta a la salida para una unidad 802 de ecuacion simultanea.
Unidad 802 de solucion de ecuacion simultanea: Esta recibe la ecuacion simultanea presente a la salida del generador 801 de ecuacion simultanea, y obtiene la solucion de la misma, calculando con ello un coeficiente
5
10
15
20
25
30
35
40
45
50
55
60
65
proporcional y un coeficiente de desviacion, que son presentados a la salida. La solucion puede ser obtenida usando un metodo de eliminacion de Gauss. El proceso anterior se lleva a cabo usando las formulas (8) y (9) descritas en lo que antecede.
La figura 21 es un diagrama que muestra un ejemplo de estructura del procesador 505 de correccion de coeficiente proporcional de componente base de DC de prediccion de trama simple de la figura 17. A continuacion, se va a explicar la operacion del procesador 505 de correccion de coeficiente proporcional de componente base de DC de prediccion de trama simple con referencia a la figura 21.
Unidad 901 de calculo de componente de DC de senal descodificada de capa inmediatamente inferior: Esta recupera la senal descodificada del macrobloque de la capa inmediatamente inferior desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 902 de calculo de componente de DC de senal descodificada de referencia: Esta recupera la senal descodificada del macrobloque corregido desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 903 de calculo de coeficiente proporcional: Esta recupera los dos valores de la componente de DC desde los registros, calcula una relacion entre ambas componentes de DC, y presenta a la salida la relacion como coeficiente proporcional. Este proceso se lleva a cabo usando las formulas (4) y (5) descritas en lo que antecede.
La figura 22 es un diagrama que muestra un ejemplo de estructura del procesador 506 de correccion de desviacion de componente base de DC de prediccion de trama simple de la figura 17. A continuacion, se va a explicar la operacion del procesador 506 de correccion de desviacion de componente base de DC de trama simple con referencia a la figura 22.
Unidad 1001 de calculo de componente de DC de senal descodificada de capa inmediatamente inferior: Esta recupera la senal descodificada del macrobloque de la capa inmediatamente inferior desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 1002 de calculo de componente de DC de senal descodificada de referencia: Esta recupera la senal descodificada del macrobloque corregido desde la memoria intermedia relevante, calcula la componente de DC de la misma, y almacena la componente de DC en un registro.
Unidad 1003 de calculo de coeficiente de desviacion: Esta recupera los dos valores de la componente de DC desde los registros, calcula una diferencia entre ambas componentes de DC, y presenta a la salida la diferencia como coeficiente de desviacion. Este proceso se lleva a cabo usando las formulas (6) y (7) descritas en lo que antecede.
Las operaciones descritas en lo que antecede de codificacion y descodificacion de video escalable pueden ser implementadas, no solo mediante recursos de hardware o firmware, sino que tambien se puede hacer con un ordenador y un programa de software. Dicho programa puede ser proporcionado almacenado en un medio de almacenaje legible con ordenador, o a traves de una red.
Experimento
Con el fin de verificar los efectos de la presente invencion, se aplico el metodo conforme a la presente invencion a un software de referencia de JSVC, el JSVM 8.0 (vease el documento no patente 3), con el fin de comparar el metodo de la presente invencion con el modo implicito de JSVM. En ambos metodos, el descodificador realizo descodificacion multi-bucle. Adicionalmente, en ambos metodos, la estimacion de movimiento se ejecuto limitadamente con una precision integral. Bajo las condiciones descritas con anterioridad, se verificaron los efectos para imagenes de desvanecimiento y de flash.
A continuacion, en el metodo de calculo de coeficiente de peso para prediccion bi-predictiva de secciones B, se muestra un ejemplo de experimento de correccion de coeficiente de peso usando el bloque de componente de DC en la prediccion bi-predictiva (explicado en el metodo 2-1). Se obtuvieron resultados similares de verificacion preferible cuando se uso otro metodo cualquiera conforme a la presente invencion.
Resultados de verificacion de imagenes de desvanecimiento
La tabla 2 muestra las condiciones del experimento
Tabla 2: condiciones del experimento para imagenes de desvanecimiento
5
10
15
20
25
30
35
40
Secuencia
City, Foreman, Soccer
Num. de Tramas
33 tramas (fundidas en blanco)
Resolucion
BL (QCIF (EL) CIF
Tasa de Trama
30 fps
GOP
16 (Jerarquica B)
OP
21,24, 27, 30
WP
(Seccion-B) apagada (Seccion-B) activada
En el experimento, se usaron las imageries (fundidas) obtenidas por aplicacion de un efecto de fundido en blanco (sobre 33 imagenes) para cada una de las tres imagenes estandar de JSVC. Tales imagenes fundidas en blanco fueron generadas como sigue
g(t) = (I-f(t))a(t) + f(t)b(t)
En la formula anterior, g(t) indica una imagen fundida, a(t) indica una imagen de un solo color (blanco), b(t) indica una imagen original, y f(t) es una funcion para calcular un coeficiente de mezcla.
En el presente experimento, se usaron dos tipos de f(t): uno fue f(t) = t/T (desvanecimiento lineal), y el otro fue f(t) = (t/T)2 (desvanecimiento cuadratico). En este caso, T indica una seccion de desvanecimiento. Las 33 imagenes de desvanecimiento fueron objetivos de codificacion, y una trama correspondia a una seccion.
La tabla 3 muestra los resultados del experimento.
Tabla 3: rendimiento de codificacion de imagen B para imagenes^ de desvanecimiento
Secuencia
Desvanecimiento DB-bit [%] DB-snr [dB]
City
Lineal -1,23 0,038
Cuadratico
-6,28 0,215
Foreman
Lineal -0,03 0,001
Cuadratico
-6,15 0,187
Soccer
Lineal -0,50 0,018
Cuadratico
-2,34 0,095
Como criterios para evaluar el rendimiento, se uso “Bjontegaard Delta” en el siguiente documento: G. Bjontegaard: “Calculo de diferencias medias de PNSR entre curvas RD”, ITU-T SG 16 Q.6, VCEG, VCEG-M33, pp. 1-4, 2001. Este es un metodo de calculo de las diferencias en la cantidad de codigo y PSNR (relacion de senal de pico respecto a ruido) entre dos curvas RD.
En la tabla 3, para el metodo de la presente invencion, “BD-bit” y “BD-snr” indican, respectivamente, una tasa creciente de la cantidad de codigo y una tasa creciente del PSNR del DSVM para imagenes B. La presente invencion implemento (i) una reduccion del 0,59% (media) en la cantidad de codigo y una mejora de 0,019 dB en la relacion SN para las imagenes de desvanecimiento Lineal, y (ii) una reduccion del 4,92% (media) en la cantidad de codigo y una mejora de 0.166 dB en la relacion SN para las imagenes de desvanecimiento Cuadratico.
La figura 23 muestra una variacion temporal en BD-bit entre imagenes B de desvanecimiento Cuadratico para la imagen “City”.
La figura 24 muestra una variacion temporal en la luminancia media (Ave. Of Lum.) para imagenes “City” fundidas y una variacion temporal en un coeficiente de desviacion media (Ave. Of Offset) obtenidas cuando se codifican las imagenes fundidas usando un QP (parametro de cuantificacion) de 24.
Debido a la estructura de imagen B jerarquica, cuanto mas bajo sea el nivel temporal de la trama B relevante, mas grande es la desviacion desde una forma lineal para la variacion de luminancia de la senal de referencia, de modo que la presente invencion resulta mas efectiva.
Con referencia a la figura 23, se puede confirmar que se implemento una gran reduccion (de mas del 10%) en la cantidad de codigo para tramas B que tenian un nivel temporal relativamente bajo.
5
10
15
20
25
30
35
40
45
En ese caso, se puede confirmar tambien, mediante referencia a la figura 24, que un valor distinto de cero fue presentado a la salida como coeficiente de desviacion, lo que indica que el coeficiente de desviacion podria corregir preferiblemente la variacion de luminancia.
Resultados de verificacion para imagenes flash
Para imagenes flash, se empleo una imagen estandar “Crew” de JAVC y se codificaron 300 imagenes, donde GOP (grupo de imagenes) fue 8. Las otras condiciones del experimento fueron las mismas que se muestran en la tabla 2.
La figura 25 muestra una variacion temporal en BD-bit para imagenes B, y la figura 26 muestra la luminancia media de las imagenes originales y una variacion temporal de los coeficientes de desviacion media cuando se codifican las imagenes usando un QP de 24.
En la figura 26, cada trama (denominada “trama flash”) que tuvo un cambio repentino en la luminancia media, tuvo un flash. Adicionalmente, cada trama a la que no se aplico el modo implicito conforme a la invencion, tuvo un coeficiente de desviacion de cero.
Con referencia a la figura 25, se puede confirmar que se implemento una reduccion de aproximadamente un 10% (maximo 36’2%) en la cantidad de codigo para tramas flash y tramas de las proximidades de las mismas. Para la totalidad de las imagenes B en la secuencia relevante, BD-bit = -1,14% y BD-snr = 0,043 dB.
Cuando se compila la senal de luminancia con el coeficiente de desviacion, de forma similar a la variacion en BD-bit, se puede confirmar que se calcularon coeficientes de desviacion distintos de cero para las tramas flash, y las tramas de las proximidades de las mismas.
Para cada trama flash, se asigno un coeficiente de desviacion positivo correspondiente a un incremento de la luminancia. Para cada trama (de las proximidades de la trama flash relevante) a la que se refiere la trama flash para prediccion, la desviacion desde una prediccion lineal debido a la referencia a la trama flash que tenia una luminancia alta, fue corregida usando un coeficiente de desviacion negativo.
Se puede confirmar tambien que los coeficientes de desviacion calculados corrigieron preferentemente las imagenes flash.
Aplicabilidad industrial
De acuerdo con la presente invencion, se pueden calcular coeficientes de peso para cada area local deseada. Por lo tanto, incluso cuando la luminosidad cambia en una parte de una imagen debido a una sombra de un objeto en movimiento o similar, se puede materializar prediccion de movimiento ponderado precisa con el modo implicito que no realiza ninguna transmision de coeficiente de peso.
Tambien, en la prediccion de L0/L1 para secciones P y B, que convencionalmente tiene solo el modo Explicito, es posible llevar a cabo prediccion de movimiento ponderado por medio del modo Implicito.
Adicionalmente, de acuerdo con la correccion en consideracion a la informacion de luminosidad de la capa inmediatamente inferior, incluso para imagenes (por ejemplo, imagenes que tienen un flash e imagenes de desvanecimiento que tienen una variacion no lineal) que tienen un cambio de luminosidad no lineal entre una trama objetivo de codificacion o descodificacion y tramas de referencia de prediccion, es posible llevar a cabo prediccion de movimiento ponderado por medio del modo Implicito. De acuerdo con tal mejora en el rendimiento de la prediccion de movimiento ponderado, se puede mejorar la eficacia de codificacion.

Claims (35)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. - Un metodo de codificacion de video escalable para realizacion de codificacion mediante prediccion de una senal de capa superior usando una senal de capa inmediatamente inferior, teniendo la senal de capa superior una resolucion espacial mas alta que la senal de la capa inmediatamente inferior, estando el metodo caracterizado por comprender:
    una etapa (S3, S21) que calcula un primer coeficiente de peso para cada area de imagen de una tamano unitario predeterminado en una busqueda para estimacion de un movimiento entre un area de imagen objetivo de codificacion situada en la capa superior de una trama objetivo de codificacion y un area de imagen de referencia situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de codificacion, donde el primer coeficiente de peso se calcula en base a la variacion de luminosidad entre un area de imagen, que pertenece a una capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, y el area de imagen de referencia;
    una etapa (S3, S22, S26) que realiza una estimacion de movimiento usando una senal que se obtiene corrigiendo una senal descodificada del area de imagen de referencia por medio del primer coeficiente de peso, y que funciona como senal estimada en la estimacion de movimiento, a efectos de calcular un vector de movimiento;
    una etapa (S4, S32) que calcula un segundo coeficiente de peso en base a una variacion de luminosidad entre un area de imagen de referencia que esta situada en la capa superior de la trama de referencia y que esta indicada por el vector de movimiento calculado, y el area de imagen que pertenece a la capa inmediatamente inferior de la capa superior de la trama objetivo de codificacion y tiene la misma posicion espacial que el area de imagen objetivo de codificacion; y
    una etapa (S4, S33) de compensacion de movimiento que determina una senal, la cual se obtiene corrigendo una senal descodificada del area de imagen de referencia indicada por el vector de movimiento usando el segundo coeficiente de peso, para que sea una senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de codificacion.
  2. 2. - El metodo de codificacion de video escalable conforme a la reivindicacion 1, en donde:
    en cada etapa (S48) de calculo de coeficiente de peso, el coeficiente de peso se calcula determinando una relacion entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion para que sea un coeficiente proporcional, y estableciendo un coeficiente de desviacion de modo que sea cero.
  3. 3. - El metodo de codificacion de video escalable conforme a la reivindicacion 1, en donde:
    en cada etapa (S49) de calculo de coeficiente de peso, el coeficiente de peso se calcula determinando una distancia entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion para que sea un coeficiente de desviacion, y estableciendo un coeficiente proporcional de modo que sea 1.
  4. 4. - El metodo de codificacion de video escalable conforme a la reivindicacion 1, en donde:
    en cada etapa (S46) de calculo de coeficiente de peso, el coeficiente de peso calculado minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, de modo que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo una senal descodificada del area de imagen de referencia mediante el coeficiente de peso.
  5. 5. - El metodo de codificacion de video escalable conforme a la reivindicacion 1, en donde:
    en la etapa (S44) que calcula el primer coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes, el calculo del coeficiente de peso se realiza de tal manera que se calculan dos coeficientes proporcionales en conformidad con las distancias inter- trama entre el area de imagen objetivo de codificacion y las areas de imagen de referencia individuales, y se calcula un coeficiente de desviacion restando valores, que se obtienen al multiplicar respectivamente componentes de DC de las dos areas de imagen de referencia por los coeficientes proporcionales, a partir de una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion;
    en la etapa que realiza estimacion de movimiento, se usa una senal que se obtiene corrigiendo una senal
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    descodificada de cada una de las areas de imagen de referencia por medio del primer coeficiente de peso y funciona como la senal estimada en la estimacion de movimiento, con el fin de calcular dos vectores de movimiento para las areas de imagen de referencia individuales;
    en la etapa (S44) que calcula el segundo coeficiente de peso, el calculo del coeficiente de peso se realiza de una manera tal que se calculan dos coeficientes proporcionales en conformidad con las distancias inter-trama entre el area de imagen objetivo de codificacion y dos areas de imagen de referencia individuales indicadas por los vectores de movimiento calculados, y se calcula un coeficiente de desviacion restando valores, que se obtienen multiplicando respectivamente componentes de DC de las dos areas de imagen de referencia, que estan indicadas por los vectores de movimiento, por los coeficientes proporcionales, a partir de una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion; y
    la etapa de compensacion de movimiento determina una senal, que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el segundo coeficiente de peso, para que sea la senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de codificacion.
  6. 6. - El metodo de codificacion de video escalable conforme a la reivindicacion 1, en donde:
    en la etapa (S43) que calcula el primer coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes, se calcula el coeficiente de peso que minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, de modo que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo senales descodificadas de las dos areas de imagen de referencia por medio del coeficiente de peso;
    en la etapa que realizacion la estimacion de movimiento, se usa una senal que se obtiene corrigiendo una senal descodificada de cada una de las areas de imagen de referencia por medio del primer coeficiente de peso y funciona como senal estimada en la estimacion de movimiento, con el fin de calcular dos vectores de movimiento para las areas de imagen de referencia individuales;
    en la etapa (S34) que calcula el segundo coeficiente de peso, se calcula el segundo coeficiente de peso que minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo senales descodificadas de dos areas de imagen de referencia individuales indicadas por los vectores de movimiento calculados por medio del segundo coeficiente de peso; y
    la etapa de compensacion de movimiento determina una senal, que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el segundo coeficiente de peso, para que sea la senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de codificacion.
  7. 7. - El metodo de codificacion de video escalable conforme a una cualquiera de las reivindicaciones 2 y 3, en donde en vez de usar la componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, el calculo del coeficiente de peso se realiza usando una de entre:
    una componente de DC de un area de imagen obtenida por muestreo del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion;
    una componente obtenida al corregir la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior;
    una componente obtenida al corregir la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen obtenida muestreando un area de imagen correspondiente al area de imagen de referencia de la capa inmediatamente inferior;
    una componente obtenida al corregir una componente de DC de un area de imagen, que se obtiene muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre el area de imagen de referencia
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    y un area de imagen correspondiente de la capa inmediatamente inferior; y
    una componente obtenida corrigiendo una componente de DC de un area de imagen, que se obtiene muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen obtenida muestreando un area de imagen correspondiente al area de imagen de referencia en la capa inmediatamente inferior.
  8. 8. - El metodo de codificacion de video escalable conforme a la reivindicacion 5, en donde en vez de usar la componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, el calculo del coeficiente de peso se realiza usando una de entre:
    una componente de DC de un area de imagen obtenida muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion;
    una componente obtenida corrigiendo la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior;
    una componente obtenida corrigiendo la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen obtenida por muestreo de un area de imagen correspondiente al area de imagen de referencia relevante de la capa inmediatamente inferior;
    una componente obtenida corrigiendo una componente de DC de un area de imagen, que se obtiene por muestreo del area de imagen que pertenecer a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objeto de codificacion, usando una relacion componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior, y
    una componente obtenida corrigiendo una componente de DC de un area de imagen, que se obtiene por muestreo del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen obtenida muestreando un area de imagen correspondiente al area de imagen de referencia relevante de la capa inmediatamente inferior.
  9. 9. - El metodo de codificacion de video escalable conforme a la reivindicacion 4, en donde en vez de usar la senal muestreada obtenida por muestreo de la senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, para que tenga la resolucion espacial de la capa actual, el calculo del coeficiente de peso se realiza usando una de entre:
    una senal obtenida por correccion de la senal muestreada usando una relacion de senal descodificada entre el area de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior, y
    una senal obtenida corrigiendo la senal muestreada usando una relacion entre el area de imagen de referencia y una senal obtenida por muestreo de una senal descodificada de un area de imagen correspondiente de la capa inmediatamente inferior, para que tenga la resolucion espacial de la capa actual.
  10. 10. - El metodo de codificacion de video escalable conforme a la reivindicacion 6, en donde en vez de usar la senal muestreada obtenida por muestreo de la senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, para que tenga la resolucion espacial de la capa actual, el calculo del coeficiente de peso se realiza usando una de entre:
    una senal obtenida al corregir la senal muestreada usando una relacion de senal descodificada entre una cualquiera de las areas de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior, y
    una senal obtenida corrigiendo la senal muestreada usando una relacion entre una cualquiera de las areas de imagen de referencia y una senal obtenida por muestreo de una senal descodificada de un area de imagen correspondiente de la capa inmediatamente inferior para que tenga la resolucion espacial de la capa actual.
  11. 11. - Un metodo de descodificacion de video escalable para realizar descodificacion por prediccion de una senal de capa superior usando una senal de capa inmediatamente inferior, teniendo la senal de capa superior una resolucion espacial mas alta que la senal de la capa inmediatamente inferior, estando el metodo caracterizado por comprender:
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    una etapa (S15, S31, S32) que descodifica datos codificados para cada area de imagen de un tamano unitario predeterminado, recupera un vector de movimiento descodificado, y calcula un coeficiente de peso en base a una variacion de luminosidad entre un area de imagen, que tiene la misma posicion espacial que el area de imagen objetivo de descodificacion situada en la capa superior de una trama objetivo de descodificacion y pertenece a una capa inmediatamente inferior, y un area de imagen de referencia que esta situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de descodificacion, y esta indicada por el vector de movimiento, y
    una etapa (S15, S33) de compensacion de movimiento que determina una senal, que se obtiene corrigiendo una senal descodificada del area de imagen de referencia indicada por el vector de movimiento usando el coeficiente de peso, para que sea una senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de descodificacion.
  12. 12. - El metodo de descodificacion de video escalable conforme a la reivindicacion 11, en donde:
    en la etapa (S48) de calculo del coeficiente peso, el coeficiente de peso se calcula determinando una relacion entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion para que sea un coeficiente proporcional, y estableciendo un coeficiente de desviacion que sea cero.
  13. 13. -. El metodo de descodificacion de video escalable conforme a la reivindicacion 11, en donde:
    en la etapa (S49) de calculo del coeficiente de peso, el coeficiente de peso se calcula determinando una diferencia entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion para que sea un coeficiente de desviacion, y estableciendo un coeficiente proporcional para que sea 1.
  14. 14. - El metodo de descodificacion de video escalable conforme a la reivindicacion 11, en donde:
    en la etapa (S46) de calculo de coeficiente de peso, el coeficiente de peso calculado minimiza un error cuadratico entre una senal obtenida muestreando una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo una senal decodificada del area de imagen de referencia por medio del coeficiente de peso.
  15. 15. - El metodo de descodificacion de video escalable conforme a la reivindicacion 11, en donde:
    en la etapa (S44) de calculo de coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes y estan indicadas por dos de los vectores de movimiento descodificado, el calculo del coeficiente de peso se realiza de una manera tal que se calculan dos coeficientes proporcionales en conformidad con distancias inter-trama entre el area de imagen objetivo de descodificacion y las areas de imagen de referencia individuales indicadas por los vectores de movimiento, y se calcula un coeficiente de desviacion restando valores, que se obtienen multiplicando respectivamente componentes de DC de las dos areas de imagen de referencia, que estan indicadas por los vectores de movimiento, por los coeficientes proporcionales, a partir de una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, y
    la etapa de compensacion de movimiento determina una senal, que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el coeficiente de peso, para que sea la senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de descodificacion.
  16. 16. - Metodo de descodificacion de video escalable conforme a la reivindicacion 1, en donde:
    en la etapa (S43) de calculo de coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes y estan indicadas por dos de los vectores de movimiento descodificado, se calcula el coeficiente de peso que minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida por correccion de senales descodificadas de las dos areas de imagen de referencia indicadas por los vectores de movimiento mediante el coeficiente de peso, y
    la etapa de compensacion de movimiento determina una senal, que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el coeficiente de peso, para que sea la senal compensada en compensacion de movimiento que funciona como senal pronosticada del area de
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    imagen objetivo de descodificacion.
  17. 17. - El metodo de descodificacion de video escalable conforme a una cualquiera de las reivindicaciones 12 y 13, en donde en vez de usar la componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, el calculo del coeficiente de peso se realiza usando una de entre:
    una componente de DC de un area de imagen obtenida muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion;
    una componente obtenida corrigiendo la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior;
    una componente obtenida por correccion de la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen obtenida muestreando un area de imagen correspondiente al area de imagen de referencia de la capa inmediatamente inferior;
    una componente obtenida corrigiendo una componente de DC de un area de imagen, que se obtiene muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior; y
    una componente obtenida por correccion de una componente de DC de un area de imagen, que se obtiene muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre el area de imagen de referencia y un area de imagen obtenida muestreando un area de imagen correspondiente al area de imagen de referencia de la capa inmediatamente inferior.
  18. 18. - El metodo de descodificacion de video escalable conforme a la reivindicacion 15, en donde en vez de usar la componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, se calcula el coeficiente de peso usando una de entre:
    una componente de DC de un area de imagen obtenida por muestreo del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion;
    una componente obtenida corrigiendo la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen correspondiente de la capa inmediatamente inferior;
    una componente obtenida corrigiendo la componente de DC del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen obtenida muestreando un area de imagen correspondiente al area de imagen de referencia relevante en la capa inmediatamente inferior;
    una componente obtenida corrigiendo una componente de DC de un area de imagen, que se obtiene por muestreo del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen correspondiente en la capa inmediatamente inferior; y
    una componente obtenida corrigiendo una componente de DC de un area de imagen, que se obtiene muestreando el area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, usando una relacion de componentes de DC entre una cualquiera de las areas de imagen de referencia y un area de imagen obtenida por muestreo de un area de imagen correspondiente al area de imagen de referencia relevante en la capa inmediatamente inferior.
  19. 19. - El metodo de descodificacion de video escalable conforme a la reivindicacion 14, en donde en vez de usar la senal muestreada obtenida muestreando la senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, para que tenga la resolucion espacial de la capa actual, el calculo del coeficiente de peso se realiza usando una de entre:
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    una senal obtenida corrigiendo la senal muestreada usando una relacion de senal descodificada entre el area de imagen de referencia y un area de imagen correspondiente en la capa inmediatamente inferior, y
    una senal obtenida corrigiendo la senal muestreada usando una relacion entre el area de imagen de referencia y una senal obtenida muestreando una senal descodificada de un area de imagen correspondiente de la capa inmediatamente inferior para que tenga la resolucion espacial de la capa actual.
  20. 20. - El metodo de descodificacion de video escalable conforme a la reivindicacion 16, en donde en vez de usar la senal muestreada obtenida al muestrear la senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, para que tenga la resolucion espacial de la capa actual, el calculo del coeficiente de peso se realiza usando una de entre:
    una senal obtenida corrigiendo la senal muestreada usando una relacion de senal descodificada entre una cualquiera de las areas de imagen de referencia y un area de imagen correspondiente en una capa inmediatamente inferior, y
    una senal obtenida corrigiendo la senal muestreada usando una relacion entre una cualquiera de las areas de imagen de referencia y una senal obtenida muestreando una senal descodificada de un area de imagen correspondiente en la capa inmediatamente inferior para que tenga la resolucion espacial de la capa actual.
  21. 21. - Un aparato de codificacion de video escalable para realizar codificacion por prediccion de una senal de capa superior usando una senal de capa inmediatamente inferior, teniendo la senal de capa superior una resolucion espacial mas alta que la senal de capa inmediatamente inferior, estando el aparato caracterizado por comprender:
    un dispositivo (105, 302) que calcula un primer coeficiente de peso para cada area de imagen de un tamano unitario predeterminado en una busqueda para estimacion de un movimiento entre un area de imagen objetivo de codificacion situada en la capa superior de una trama objetivo de codificacion, y un area de imagen de referencia situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de codificacion, donde el primer coeficiente de peso se calcula en base a la variacion de luminosidad entre un area de imagen, que pertenece a una capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, y el area de imagen de referencia;
    un dispositivo (105, 304) que realiza una estimacion de movimiento usando una senal que se obtiene corrigiendo una senal descodificada del area de imagen de referencia por medio del primer coeficiente de peso y funciona como senal estimada en una estimacion de movimiento, con el fin de calcular un vector de movimiento;
    un dispositivo (106, 402) que calcula un segundo coeficiente de peso en base a una variacion de luminosidad entre un area de imagen de referencia que esta situada en la capa superior de la trama de referencia y esta indicada por el vector de movimiento calculado y el area de imagen que pertenece a la capa inmediatamente inferior de la capa superior de la trama objetivo de codificacion y tiene la misma posicion espacial que el area de imagen objetivo de codificacion; y
    un dispositivo (106, 404) de compensacion de movimiento que determina una senal que se obtiene corrigiendo una senal descodificada del area de imagen de referencia indicada por el vector de movimiento usando el segundo coeficiente de peso, para que sea una senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de codificacion.
  22. 22. - El aparato de codificacion de video escalable conforme a la reivindicacion 21, en donde:
    en cada dispositivo (505) de calculo de coeficiente de peso, el coeficiente de peso se calcula determinando una relacion entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion para que sea un coeficiente proporcional, y estableciendo un coeficiente de desviacion que sea cero.
  23. 23. - El aparato de codificacion de video escalable conforme a la reivindicacion 21, en donde:
    en cada dispositivo (506) de calculo de coeficiente de peso, el coeficiente de peso se calcula determinando una diferencia entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion para que sea un coeficiente de desviacion, y estableciendo un coeficiente proporcional que sea 1.
  24. 24. - Un aparato de codificacion de video escalable conforme a la reivindicacion 21, en donde:
    en cada dispositivo (504) de calculo de coeficiente de peso, el coeficiente de peso calculado minimiza un error
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida al corregir una senal descodificada del area de imagen de referencia mediante el coeficiente de peso.
  25. 25. - El aparato de codificacion de video escalable conforme a la reivindicacion 21, en donde:
    en el dispositivo (503) que calcula el primer coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes, el calculo del coeficiente de peso se realiza de una manera tal que se calculan dos coeficientes proporcionales en conformidad con distancias inter- trama entre el area de imagen objetivo de codificacion y las areas de imagen de referencia individuales, y se calcula un coeficiente de desviacion restando valores, que se obtienen multiplicando respectivamente componentes de DC de las dos areas de imagen de referencia por los componentes proporcionales, a partir de una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion;
    en el dispositivo que realiza la estimacion de movimiento, se usa una senal que se obtiene corrigiendo una senal descodificada de cada una de las areas de imagen de referencia mediante el primer coeficiente de peso y funciona como senal estimada en la estimacion de movimiento, con el fin de calcular dos vectores de movimiento para las areas de imagen de referencia individuales;
    en el dispositivo (503) que calcula el segundo coeficiente de peso, el calculo del coeficiente de peso se realiza de una manera tal que se calculan dos coeficientes proporcionales en conformidad con distancias inter-trama entre el area de imagen objetivo de codificacion y dos areas de imagen de referencia individuales indicadas por los vectores de movimiento calculados, y se calcula un coeficiente de desviacion restando valores, que se obtienen multiplicando respectivamente componentes de DC de las dos areas de imagen de referencia, que estan indicadas por los vectores de movimiento, por los coeficientes proporcionales, a partir de una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion; y
    el dispositivo de compensacion de movimiento determina una senal que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el segundo coeficiente de peso, de modo que sea la senal compensada en compensacion de movimiento, que funciona como la senal pronosticada del area de imagen objetivo de codificacion.
  26. 26. - El aparato de codificacion de video escalable conforme a la reivindicacion 21, en donde:
    en el dispositivo (502) que calcula el primer coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes, se calcula el primer coeficiente de peso que minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo senales descodificadas de las dos areas de imagen de referencia mediante el primer coeficiente de peso;
    en el dispositivo que realiza la estimacion de movimiento, se usa una senal que se obtiene corrigiendo una senal descodificada de cada una de las areas de imagen de referencia mediante el primer coeficiente de peso y funciona como una senal estimada en la estimacion de movimiento, con el fin de calcular dos vectores de movimiento para areas de imagen de referencia individuales;
    en el dispositivo (502) que calcula el segundo coeficiente de peso, se calcula el segundo coeficiente de peso que minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de codificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo senales descodificadas de dos areas de imagen de referencia individuales indicadas por los vectores de movimiento calculados mediante el segundo coeficiente de peso; y
    el dispositivo de compensacion de movimiento determina una senal que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el segundo coeficiente de peso, para que sea la senal de compensacion en la compensacion de movimiento, que funciona como la senal pronosticada del area de imagen objetivo de codificacion.
  27. 27. - Un aparato de descodificacion de video escalable para realizar descodificacion por prediccion de una senal de capa superior usando una senal de capa inmediatamente inferior, teniendo la senal de capa superior una resolucion espacial mas alta que la senal de capa inmediatamente inferior, estando el aparato caracterizado por comprender:
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    un dispositivo (209, 402) que descodifica datos codificados para cada area de imagen de un tamano unitario predeterminado, recupera un vector de movimiento descodificado, y calcula un coeficiente de peso en base a una variacion de luminosidad entre un area de imagen, que tiene la misma posicion espacial que el area de imagen objetivo de descodificacion situada en la capa superior de una trama objetivo de descodificacion y pertenece a una capa inmediatamente inferior, y un area de imagen de referencia que esta situada en la capa superior de una trama de referencia, siendo la trama de referencia una trama diferente de la trama objetivo de descodificacion, y esta indicada por el vector de movimiento, y
    un dispositivo (209, 404) de compensacion de movimiento que determina una senal, que se obtiene corrigiendo una senal descodificada del area de imagen de referencia indicada por el vector de movimiento usando el coeficiente de peso, para que sea una senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de descodificacion.
  28. 28. - El aparato de descodificacion de video escalable conforme a la reivindicacion 27, en donde:
    en el dispositivo (505) de calculo de coeficiente de peso, el coeficiente de peso se calcula determinando una relacion entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion para que sea un coeficiente proporcional, y estableciendo una coeficiente de desviacion de modo que sea cero.
  29. 29. - El aparato de descodificacion de video escalable conforme a la reivindicacion 27, en donde:
    en el dispositivo (506) de calculo de coeficiente de peso, el coeficiente de peso se calcula determinando una diferencia entre una componente de DC del area de imagen de referencia y una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion para que sea un coeficiente de desviacion, y estableciendo un coeficiente proporcional de modo que sea 1.
  30. 30. - El aparato de descodificacion de video escalable conforme a la reivindicacion 27, en donde:
    en el dispositivo (504) de calculo de coeficiente de peso, el coeficiente de peso calculado minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo la senal descodificada del area de imagen de referencia mediante el coeficiente de peso.
  31. 31. - El aparato de descodificacion de video escalable conforme a la reivindicacion 27, en donde:
    en el dispositivo (503) de calculo de coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes y estan indicadas por dos de los vectores de movimiento descodificados, el calculo del coeficiente de peso se realiza de una manera tal que se calculan dos coeficientes proporcionales de acuerdo con distancias inter-trama entre el area de imagen objetivo de descodificacion y las areas de imagen de referencia indicadas por los vectores de movimiento, y se calcula un coeficiente de desviacion restando valores, que se obtienen multiplicando respectivamente componentes de DC de las dos areas de imagen de referencia, que estan indicadas por los vectores de movimiento, por los coeficientes proporcionales, a partir de una componente de DC del area de imagen que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, y
    el dispositivo de compensacion de movimiento determina una senal, que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el coeficiente de peso, de modo que sea la senal compensada en compensacion de movimiento, que funciona como la senal pronosticada del area de imagen objetivo de descodificacion.
  32. 32. - El aparato de descodificacion de video escalable conforme a la reivindicacion 27, en donde:
    en el dispositivo (502) de calculo de coeficiente de peso, cuando existen dos de las areas de imagen de referencia en la capa superior que pertenecen a tramas de referencia diferentes y estan indicadas por dos vectores de movimiento descodificado, se calcula un coeficiente de peso que minimiza un error cuadratico entre una senal obtenida por muestreo de una senal descodificada del area de imagen, que pertenece a la capa inmediatamente inferior y tiene la misma posicion espacial que el area de imagen objetivo de descodificacion, para que tenga la resolucion espacial de la capa actual, y una senal corregida obtenida corrigiendo senales descodificadas de las dos areas de imagen de referencia indicadas por los vectores de movimiento mediante el coeficiente de peso, y
    el dispositivo de compensacion de movimiento determina una senal, que se obtiene corrigiendo senales descodificadas de las areas de imagen de referencia indicadas por los vectores de movimiento usando el coeficiente
    de peso, para que sea la senal compensada en compensacion de movimiento, que funciona como senal pronosticada del area de imagen objetivo de descodificacion.
  33. 33. - Un programa de codificacion de video escalable mediante el que un ordenador ejecuta el metodo de 5 codificacion de video escalable conforme a la reivindicacion 1.
  34. 34. - Un programa de descodificacion de video escalable mediante el que un ordenador ejecuta el metodo de descodificacion de video escalable conforme a la reivindicacion 11.
    10 35.- Un medio de almacenaje legible con ordenador que almacena un programa de codificacion de video escalable
    mediante el que un ordenador ejecuta el metodo de codificacion de video escalable conforme a la reivindicacion 1.
  35. 36.- Un medio de almacenaje legible con ordenador que almacena un programa de descodificacion de video escalable mediante el que un ordenador ejecuta el metodo de descodificacion de video escalable conforme a la 15 reivindicacion 11.
ES08790789.5T 2007-07-02 2008-07-01 Método de codificación y descodificación escalable de imagen en movimiento usando predicción ponderada, sus dispositivos, sus programas, y medios de grabación que almacenan los programas Active ES2630211T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007174161 2007-07-02
JP2007174161 2007-07-02
PCT/JP2008/061926 WO2009005071A1 (ja) 2007-07-02 2008-07-01 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
ES2630211T3 true ES2630211T3 (es) 2017-08-18

Family

ID=40226115

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08790789.5T Active ES2630211T3 (es) 2007-07-02 2008-07-01 Método de codificación y descodificación escalable de imagen en movimiento usando predicción ponderada, sus dispositivos, sus programas, y medios de grabación que almacenan los programas

Country Status (11)

Country Link
US (1) US9386322B2 (es)
EP (1) EP2164266B1 (es)
JP (1) JP5185266B2 (es)
KR (1) KR101103724B1 (es)
CN (1) CN101690237B (es)
BR (1) BRPI0813122A2 (es)
CA (1) CA2692224C (es)
ES (1) ES2630211T3 (es)
RU (1) RU2434359C2 (es)
TW (1) TWI499304B (es)
WO (1) WO2009005071A1 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2634162T3 (es) 2007-10-25 2017-09-26 Nippon Telegraph And Telephone Corporation Método de codificación escalable de vídeo y métodos de decodificación que utilizan predicción ponderada, dispositivos para ello, programas para ello, y medio de grabación donde se graba el programa
KR101540138B1 (ko) * 2007-12-20 2015-07-28 퀄컴 인코포레이티드 적응적 조사영역을 갖는 모션추정 장치 및 방법
CN101953167B (zh) * 2007-12-20 2013-03-27 高通股份有限公司 减少光晕的图像插值
US20100296579A1 (en) * 2009-05-22 2010-11-25 Qualcomm Incorporated Adaptive picture type decision for video coding
JP5216710B2 (ja) * 2009-07-24 2013-06-19 日立コンシューマエレクトロニクス株式会社 復号化処理方法
US20130003843A1 (en) * 2010-03-12 2013-01-03 Mediatek Singapore Pte. Ltd. Motion Prediction Method
US8537283B2 (en) 2010-04-15 2013-09-17 Qualcomm Incorporated High definition frame rate conversion
CN102739417B (zh) 2011-04-01 2014-08-20 华为技术有限公司 流媒体业务处理系统及故障检测方法
JP5786478B2 (ja) * 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
US20130107962A1 (en) * 2011-10-26 2013-05-02 Intellectual Discovery Co., Ltd. Scalable video coding method and apparatus using inter prediction mode
WO2013069117A1 (ja) * 2011-11-09 2013-05-16 株式会社東芝 予測画像生成方法、符号化方法及び復号方法
BR112014015171B1 (pt) * 2011-12-22 2020-10-06 Samsung Electronics Co., Ltd Aparelho de decodificação de vídeo
WO2013169025A1 (ko) * 2012-05-09 2013-11-14 엘지전자 주식회사 스케일러블 비디오 인코딩/디코딩 방법 및 장치
WO2014009603A1 (en) * 2012-07-02 2014-01-16 Nokia Corporation Method and apparatus for video coding
US9854259B2 (en) * 2012-07-09 2017-12-26 Qualcomm Incorporated Smoothing of difference reference picture
US9906786B2 (en) 2012-09-07 2018-02-27 Qualcomm Incorporated Weighted prediction mode for scalable video coding
JP5952733B2 (ja) * 2012-12-28 2016-07-13 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体
KR20150079742A (ko) * 2012-12-28 2015-07-08 니폰 덴신 덴와 가부시끼가이샤 영상 부호화 장치 및 방법, 영상 복호 장치 및 방법, 및 그 프로그램
US9270991B2 (en) * 2013-01-07 2016-02-23 Qualcomm Incorporated Inter-layer reference picture generation for HLS-only scalable video coding
JP6087747B2 (ja) * 2013-06-27 2017-03-01 Kddi株式会社 映像符号化装置、映像復号装置、映像システム、映像符号化方法、映像復号方法、およびプログラム
JPWO2015053001A1 (ja) * 2013-10-11 2017-03-09 ソニー株式会社 画像処理装置及び画像処理方法
KR102274321B1 (ko) 2014-01-09 2021-07-07 삼성전자주식회사 스케일러블 비디오 부호화/복호화 방법 및 장치
MX2017014914A (es) * 2015-05-21 2018-06-13 Huawei Tech Co Ltd Aparato y metodo de compensacion de movimiento de video.
JP6708749B2 (ja) * 2016-11-10 2020-06-10 日本電信電話株式会社 画像評価装置、画像評価方法及び画像評価プログラム
US11592656B2 (en) * 2017-05-17 2023-02-28 Kripton Co., Ltd. Image processing apparatus, image processing program, and image processing method
WO2024037645A1 (en) * 2022-08-19 2024-02-22 Mediatek Inc. Boundary sample derivation in video coding

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032824A (ja) 1996-07-16 1998-02-03 Nippon Telegr & Teleph Corp <Ntt> 動画像の輝度変化検出方法、動画像の輝度変化補償方法、動画像の位置検出方法および動画像符号化・復号装置
RU2201654C2 (ru) 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
KR100491530B1 (ko) 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
PL375705A1 (en) 2002-10-01 2005-12-12 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
EP1769640A1 (en) * 2004-07-15 2007-04-04 Samsung Electronics Co., Ltd. Scalable motion information encoding/decoding apparatus and method and scalable video encoding/decoding apparatus and method using them
JP4232976B2 (ja) 2004-08-16 2009-03-04 Kddi株式会社 動き予測情報検出装置
KR100703770B1 (ko) * 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
US20070014348A1 (en) * 2005-04-12 2007-01-18 Nokia Corporation Method and system for motion compensated fine granularity scalable video coding with drift control
EP1878261A1 (en) 2005-04-29 2008-01-16 Samsung Electronics Co., Ltd. Video coding method and apparatus supporting fast fine granular scalability
KR100763182B1 (ko) 2005-05-02 2007-10-05 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100714696B1 (ko) 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
AU2006277008B2 (en) 2005-07-21 2011-11-10 Interdigital Vc Holdings, Inc. Method and apparatus for weighted prediction for scalable video coding
CN101288311B (zh) 2005-10-12 2011-05-11 汤姆森特许公司 用于可分级视频编码和解码中的加权预测的方法和装置

Also Published As

Publication number Publication date
EP2164266A1 (en) 2010-03-17
RU2434359C2 (ru) 2011-11-20
US9386322B2 (en) 2016-07-05
BRPI0813122A2 (pt) 2015-08-04
WO2009005071A1 (ja) 2009-01-08
TW200915882A (en) 2009-04-01
JP5185266B2 (ja) 2013-04-17
EP2164266B1 (en) 2017-03-29
EP2164266A4 (en) 2011-08-17
RU2009147448A (ru) 2011-07-10
KR101103724B1 (ko) 2012-01-11
KR20100022073A (ko) 2010-02-26
CA2692224C (en) 2016-01-12
US20100329344A1 (en) 2010-12-30
CA2692224A1 (en) 2009-01-08
TWI499304B (zh) 2015-09-01
CN101690237A (zh) 2010-03-31
CN101690237B (zh) 2012-03-21
JPWO2009005071A1 (ja) 2010-08-26

Similar Documents

Publication Publication Date Title
ES2630211T3 (es) Método de codificación y descodificación escalable de imagen en movimiento usando predicción ponderada, sus dispositivos, sus programas, y medios de grabación que almacenan los programas
JP6698077B2 (ja) モデルベースの映像符号化用の知覚的最適化
JP6261660B2 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP6905093B2 (ja) 映像コーディングにおける動き補償予測のオプティカルフロー推定
JP5081305B2 (ja) フレーム間予測符号化の方法および装置
TWI571108B (zh) 動畫像編碼裝置、動畫像解碼裝置、動畫像編碼方法及動畫像解碼方法
CN110225346A (zh) 一种编解码方法及其设备
JP2011528533A (ja) 動き推定反復検索のための推測的開始点選択
JP2022548650A (ja) 履歴ベースの動きベクトル予測
CN111064964B (zh) 一种编解码方法、装置及其设备
CN117501689A (zh) 视频处理的方法、设备和介质
Zhao et al. Fast inter-layer mode decision in scalable video coding
Varma et al. Search range reduction for uni-prediction and bi-prediction in HEVC
CN118355659A (zh) 用于视频处理的方法、装置和介质
JP2013098713A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
WO2024175000A1 (en) Methods and apparatus of multiple hypothesis blending for cross-component model merge mode in video codingcross reference to related applications
KR100293445B1 (ko) 움직임벡터코딩방법
CN117529913A (zh) 视频处理的方法、设备和介质
CN117242479A (zh) 用于视频处理的方法、装置和介质
Lei et al. Direct migration motion estimation and mode decision to decoder for a low-complexity decoder Wyner–Ziv video coding
Lu et al. Dual prediction based fractional pixel motion estimation for video coding