ES2711614T3 - Método y aparato para procesar una señal de vídeo - Google Patents

Método y aparato para procesar una señal de vídeo Download PDF

Info

Publication number
ES2711614T3
ES2711614T3 ES11777580T ES11777580T ES2711614T3 ES 2711614 T3 ES2711614 T3 ES 2711614T3 ES 11777580 T ES11777580 T ES 11777580T ES 11777580 T ES11777580 T ES 11777580T ES 2711614 T3 ES2711614 T3 ES 2711614T3
Authority
ES
Spain
Prior art keywords
prediction
block
unit
fusion
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11777580T
Other languages
English (en)
Inventor
Seungwook Park
Joonyoung Park
Jungsun Kim
Younghee Choi
Yongjoon Jeon
Jaewon Sung
Byeongmoon Jeon
Jaehyun Lim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Application granted granted Critical
Publication of ES2711614T3 publication Critical patent/ES2711614T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

Método de descodificación de un flujo continuo de bits de una señal de vídeo con un aparato de descodificación, que comprende: (S910, S1030) obtener información de bandera de fusión de un bloque de predicción (X; X1, X2) a partir del flujo continuo de bits de la señal de vídeo, indicando la información de bandera de fusión si el bloque de predicción (X; X1, X2) está codificado o no en un modo de fusión; constituir candidatos a la fusión para el bloque de predicción con un bloque vecino izquierdo (710), un bloque vecino superior (720), bloques vecinos de las esquinas (C, C-1, C-2) y un bloque (D) correspondiente al bloque de predicción en otra imagen, en donde el bloque vecino izquierdo (710) se excluye de los candidatos a la fusión cuando un bloque de codificación 2N x 2N se segmenta en dos bloques de N x 2N y el bloque de predicción (X2) es un bloque de N x 2N situado en una parte derecha del bloque de codificación, siendo el bloque vecino izquierdo un bloque de N x 2N situado en una parte izquierda del bloque de codificación; (S1050) obtener información de índice de fusión del bloque de predicción (X; X1, X2) a partir del flujo continuo de bits de la señal de vídeo, especificando la información de índice de fusión un candidato a la fusión destinado a fusionarse con el bloque de predicción, de entre los candidatos a la fusión constituidos; (S950, S970, S1060) obtener información de predicción del bloque de predicción (X; X1, X2) basándose en los candidatos a la fusión constituidos y la información de índice de fusión obtenida, de manera que información de predicción del candidato a la fusión especificado por la información de índice de fusión obtenida se usa como información de predicción del bloque de predicción, incluyendo la información de predicción un vector de movimiento y un índice de representación visual de referencia; y predecir el bloque de predicción (X; X1, X2) usando la información de predicción obtenida.

Description

DESCRIPCION
Metodo y aparato para procesar una senal de v^deo
Campo tecnico
La presente invencion se refiere a un metodo y un aparato para procesar una senal de video, y, mas particularmente, a un metodo y un aparato para codificar o descodificar una senal de video.
Antecedentes de la tecnica
La codificacion por compresion se refiere a una tecnologfa de procesado de senales para transmitir informacion digitalizada a traves de una lmea de comunicaciones o almacenar dicha informacion en un formato que resulte adecuado para un soporte de almacenamiento. La voz, las imagenes, el texto, etcetera, se pueden codificar por compresion, y, en particular, a la tecnologfa para llevar a cabo una codificacion de imagenes por compresion se le denomina compresion de imagenes de video. La codificacion por compresion de una senal de video se puede llevar a cabo mediante la eliminacion de informacion sobrante teniendo en cuenta la correlacion espacial, la correlacion temporal, la correlacion probabilfstica, etcetera. No obstante, con el desarrollo reciente de diversos soportes y medios de transmision de datos, existe una necesidad de un metodo y un aparato de procesado de senales de video de alta eficiencia.
Uno de los documentos relevantes de la tecnica anterior es: JCT-VC: “Test Model under Consideration (TMuC)”, 1. JCT-VC MEETING; 15-4-2010-23-4-2010; DRESDEN; (JOINTCOLLABORATIVE TEAM ON VIDEO CODING OF ISO/IEC JTC1/SC29/WG11 AND ITU-TSG.16); URL: HTTP://WFTP3.ITU.INT/AV-ARCH/JCTVC-SITE/, n.° JCTVC-A205, 23 de abril de 2010 (2010-04-23), XP030007586; ISSN: 0000-0049.
Exposicion
Problema tecnico
Uno de los objetivos de la presente invencion concebida para resolver el problema reside en la reduccion de informacion de prediccion transmitida restaurando una unidad en curso a traves de un modo de fusion que usa informacion de prediccion de otra unidad ya restaurada en la prediccion inter de la unidad en curso.
Otro de los objetivos de la presente invencion concebida para resolver el problema reside implementar eficientemente un modo de prediccion y, predecir de manera mas precisa informacion de prediccion de un bloque en curso.
Todavfa otro objetivo de la presente invencion concebida para resolver el problema reside en seleccionar unidades candidatas a la fusion adecuadas y determinar eficientemente una unidad a fusionar teniendo en cuenta caractensticas de la unidad en curso y areas vecinas fusionadas.
Todavfa otro objetivo de la presente invencion concebida para resolver el problema reside en proporcionar un metodo para mejorar la eficiencia en un metodo de senalizacion destinado a implementar un modo de prediccion.
Solucion tecnica
La presente invencion se ha disenado para resolver los problemas anteriores, y el metodo para procesar una senal de video de acuerdo con la presente invencion usa una estructura para segmentar (partitioning) de manera recursiva una unidad de codificacion en varias unidades de codificacion, y un metodo para ello. Ademas, dicha unidad de codificacion se divide en varias formas de unidades de prediccion, y, de este modo, puede mejorarse la precision de la compensacion en la prediccion de movimiento.
La presente invencion puede usar un modo de fusion para incrementar la eficiencia de codificacion. En este caso, se presenta un metodo de seleccion de unidades candidatas a la fusion en diversas posiciones.
La presente invencion presenta un metodo de senalizacion eficiente para especificar una unidad a fusionar entre unidades candidatas a la fusion. Ademas, la presente invencion presenta un metodo para deducir una unidad a fusionar sin transmitir la informacion. Con este fin, se puede usar un metodo de determinacion adaptativa de una unidad a fusionar teniendo en cuenta varias condiciones, tales como la posicion de una unidad en curso y unidades vecinas, el tamano de la unidad, informacion de movimiento, etcetera.
Efectos ventajosos
Segun un metodo para procesar una senal de video de acuerdo con la presente invencion, la complejidad, que es necesaria para adquirir informacion de movimiento de una unidad en curso, se puede reducir mediante la fusion entre unidades al llevar a cabo una prediccion inter, y la eficiencia de codificacion se puede mejorar al no transmitir informacion de prediccion de la unidad en curso.
Ademas, caractensticas de imagenes u objetos dentro de las imagenes pueden verse bien reflejadas por la prediccion y la fusion en diversos tamanos de unidad y unidades de particion, y es posible una prediccion mas precisa.
Ademas, la flexibilidad de la fusion se puede ampliar seleccionando unidades vecinas de diversas posiciones como unidades a fusionar, y se puede adquirir informacion de prediccion mas precisa.
Ademas, se pueden determinar de manera eficiente y adaptativa unidades candidatas a la fusion y/o unidades a fusionar teniendo en cuenta diversas condiciones, tales como las posiciones de una unidad en curso y de unidades vecinas, el tamano de la unidad, informacion de movimiento, etcetera.
Ademas, se establece la transmision de informacion necesaria para un modo de fusion unicamente cuando es necesario, y se eliminan los casos innecesariamente redundantes, mejorando asf la eficiencia de codificacion. Descripcion de los dibujos
La FIG. 1 es un diagrama de bloques esquematico de un dispositivo codificador de senales de video de acuerdo con una realizacion ejemplificativa de la presente invencion.
La FIG. 2 es un diagrama de bloques esquematico de un dispositivo descodificador de senales de video segun una realizacion ejemplificativa de la presente invencion.
La FIG. 3 ilustra un ejemplo de segmentacion de una unidad de codificacion de acuerdo con una realizacion ejemplificativa de la presente invencion.
La FIG. 4 ilustra diversos metodos de segmentacion de una unidad de prediccion y denominaciones de los tipos de particion.
La FIG. 5 ilustra un caso de segmentacion asimetrica de una unidad de prediccion.
La FIG. 6 ilustra un caso de segmentacion geometrica de una unidad de prediccion.
La FIG. 7 ilustra candidatos a la fusion en diversas posiciones para una unidad en curso.
La FIG. 8 ilustra un metodo para seleccionar candidatos a la fusion teniendo en cuenta un tamano de unidad. La FIG. 9 es un diagrama de flujo que ilustra un metodo para seleccionar una unidad a fusionar cuando hay dos candidatos a la fusion.
La FIG. 10 es un diagrama de flujo que ilustra un proceso de obtencion de informacion que es necesario para un modo de fusion usando el numero de candidatos a la fusion disponibles.
La FIG. 11 ilustra un metodo para determinar una unidad que se puede fusionar usando informacion de movimiento de una particion vecina cuando el modo de particion es del tipo NxN.
Las FIGs. 12 a 13 ilustran un metodo para deducir una unidad a fusionar.
Las FIGs. 14 a 17 ilustran un metodo para deducir una unidad a fusionar en una particion espedfica.
Modo optimo
La invencion se expone en las reivindicaciones.
Modo correspondiente a la invencion
A continuacion se hara referencia detalladamente a las realizaciones preferidas de la presente invencion, ilustrandose ejemplos de las mismas en los dibujos adjuntos. En primer lugar, las terminologfas o vocablos usados en esta memoria descriptiva y las reivindicaciones no se consideran como limitados a los significados generales o del diccionario, y deben considerarse de manera que presentan significados y conceptos que se corresponden con la idea tecnica de la presente invencion sobre la base del principio de que un inventor puede definir adecuadamente los conceptos de las terminologfas para describir una invencion de la mejor manera posible. La realizacion dada a conocer en esta exposicion y las configuraciones mostradas en los dibujos adjuntos son simplemente una realizacion preferida, y no representan todas las ideas tecnicas de la presente invencion. Por lo tanto, se entiende que la presente invencion abarca las modificaciones y variaciones de esta invencion siempre que se situen dentro del alcance de las reivindicaciones adjuntas y sus equivalentes en el momento de presentar esta solicitud.
Los siguientes terminos en la presente invencion se pueden interpretar basandose en los siguientes criterios, e incluso terminos que no se manifiestan pueden interpretarse de acuerdo con la intencion que se describe a continuacion. “Codificacion” puede interpretarse como codificacion o descodificacion en funcion de la situacion, e “ informacion” incluye valores, parametros, coeficientes, elementos, etcetera, y puede interpretarse como un concepto adecuado en funcion de la situacion. “Pantalla” o “representacion visual” se refiere en general a una unidad para indicar una imagen en una zona de tiempo espedfica, y franja (slice), cuadro, etcetera, es una unidad destinada a formar parte de una representacion visual en la codificacion de una senal de video concreta, pero puede ser intercambiable. “Pixel” o “Pel” se refiere a una unidad minima para constituir una imagen. “Muestra” se puede usar como termino para indicar el valor de un pixel espedfico. “Muestra” se puede dividir en elementos de Luma y de Croma, pero, en general, se usa como un termino que incluye a ambos elementos. En lo anterior, “croma” indica una diferencia entre colores determinados, y comprende, en general, Cb y Cr. “Unidad” se ha usado para significar la unidad basica de un procesado de imagenes o una posicion espedfica de una imagen, y se puede usar junto con terminos tales como “bloque” o “area”.
La presente invencion se refiere a un metodo y un aparato para codificar o decidir una senal de video. La FIG. 1 es un diagrama de bloques esquematico de un dispositivo de codificacion de senales de video de acuerdo con una realizacion ejemplificativa de la presente invencion. En referencia a la FIG. 1, el dispositivo 100 de codificacion de la presente invencion incluye una unidad 110 de transformada, una unidad 115 de cuantificacion, una unidad 120 de cuantificacion inversa, una unidad 125 de transformada inversa, una unidad 130 de filtrado, una unidad 150 de prediccion y/o una unidad 160 de codificacion entropica.
La unidad 110 de transformada obtiene un coeficiente de transformada transformando un valor de pixel correspondiente a una senal de video de entrada. Algunos ejemplos de un metodo de transformada del tipo mencionado son la transformada discreta de coseno (DCT), la transformada discreta de seno (DST), la transformada por ondfculas, etcetera. La unidad 110 de transformada lleva a cabo una transformada segmentando una senal de imagen de entrada en unidades de un cierto tamano. A la unidad basica en la transformada se le denomina unidad de transformada. La eficiencia de la codificacion se puede cambiar de acuerdo con la distribucion y los atributos de valores dentro del area de la transformada.
La unidad 115 de cuantificacion cuantifica un valor de coeficiente de transformada obtenido a la salida de la unidad 110 de transformada. La unidad 120 de cuantificacion inversa cuantifica inversamente el valor de coeficiente de transformada, y la unidad 125 de transformada inversa restaura un valor de pixel usando el valor de coeficiente de transformada cuantificado inversamente.
La unidad 130 de filtrado lleva a cabo una operacion de filtrado con vistas a una mejora objetiva o subjetiva de la calidad de una imagen. Algunos ejemplos de los filtros usados en la unidad de filtrado son un filtro antibloques y/o un filtro de bucle adaptativo, etcetera. La unidad 156 de almacenamiento almacena una imagen a la cual se ha aplicado el filtrado, para dar salida a la imagen o usar la imagen como imagen de referencia.
En una codificacion de video general, una senal de imagen no se codifica como sf misma para mejorar la eficiencia de codificacion, sino que se utiliza un metodo de prediccion de una imagen usando un area ya codificada, y obteniendo una imagen restaurada mediante la adicion de un valor residual entre la imagen original y la imagen predicha a la imagen predicha. Algunos ejemplos del metodo de prediccion de una imagen son la prediccion intra (prediccion dentro de una pantalla), la prediccion inter (prediccion entre pantallas), etcetera, y, por lo tanto, la unidad de prediccion puede incluir una unidad 152 de prediccion intra y una unidad 154 de prediccion inter. La unidad 152 de prediccion intra lleva a cabo una prediccion intra a partir de areas restauradas dentro de la imagen en curso, transmitiendo asf la informacion de codificacion dentro de la pantalla a la unidad 160 de codificacion entropica. La unidad 154 de prediccion inter obtiene un valor de vector de movimiento del area en curso, y lleva a cabo una compensacion de movimiento entre pantallas en referencia a un area espedfica, es decir, area de referencia, de otra imagen restaurada usando el valor de vector de movimiento obtenido. Ademas, la unidad 154 de prediccion inter transmite informacion de ubicacion del area de referencia (informacion de sistema de referencia, vector de movimiento, etcetera), a la unidad 160 de codificacion entropica, de manera que la informacion se puede incluir en el flujo continuo de bits.
La unidad 160 de codificacion entropica genera un flujo continuo de bits de senal de video codificando entropicamente un coeficiente de transformada cuantificado, informacion de codificacion inter, informacion de codificacion intra, informacion de area de referencia, etcetera. La unidad 160 de codificacion entropica puede usar una codificacion de longitud variable (VLC), una codificacion aritmetica, etcetera. El metodo de codificacion de longitud variable transforma sfmbolos de entrada en palabras de codigo consecutivas, y la longitud de la palabra de codigo puede ser variable, por ejemplo, los sfmbolos generados de manera frecuente se expresan en forma de palabras de codigo cortas, y los sfmbolos generados de manera no frecuente se expresan en forma de palabras de codigo largas. Como metodo de codificacion de longitud variable se puede usar la Codificacion de Longitud Variable Adaptativa basada en el Contexto (CAVLC). La codificacion aritmetica transforma sfmbolos de datos consecutivos en un numero primo, y puede obtener un bit de numero primo optimo para expresar cada sfmbolo. Como codificacion aritmetica, se puede usar la Codificacion Aritmetica Binaria Adaptativa basada en el Contexto (CABAC).
La FIG. 2 es un diagrama de bloques esquematico de un dispositivo 200 de descodificacion de senales de video de acuerdo con una realizacion ejemplificativa de la presente invencion. El funcionamiento del dispositivo 200 de descodificacion se corresponde con el funcionamiento de cada parte del codificador, y lleva a cabo un proceso inverso de la operacion correspondiente. En referencia a la FlG. 2, el dispositivo 200 de descodificacion de la presente invencion puede incluir una unidad 210 de descodificacion entropica, una unidad 220 de cuantificacion inversa, una unidad 225 de transformada inversa, una unidad 230 de filtrado y/o una unidad 250 de prediccion, etcetera.
La unidad 210 de descodificacion entropica descodifica entropicamente un flujo continuo de bits de senal de video, y de este modo extrae el coeficiente de la transformada e informacion de prediccion, etcetera, para cada area. La unidad 220 de cuantificacion inversa cuantifica inversamente el coeficiente de transformada descodificado entropicamente, y la unidad 220 de cuantificacion inversa cuantifica inversamente el coeficiente de transformada descodificado entropicamente y restaura el valor de pixel original usando el coeficiente de transformada cuantificado inversamente.
Ademas, la unidad 230 de filtrado mejora la calidad de la imagen filtrando la misma. En este caso, se pueden incluir un filtro antibloques para reducir el fenomeno de distorsion de bloques y/o un filtro de bucle adaptativo para eliminar la distorsion de la imagen completa, etcetera. La imagen, que ha sido filtrada, se obtiene a la salida o se almacena en la unidad 256 de almacenamiento para usarse como imagen de referencia.
Ademas, la unidad 250 de prediccion de la presente invencion incluye una unidad 252 de prediccion intra y una unidad 254 de prediccion inter, y restaura una imagen de prediccion utilizando informacion, tal como un tipo de codificacion descodificado a traves de la unidad 210 de descodificacion entropica antes mencionada, un coeficiente de transformada correspondiente a cada area, un vector de movimiento, etcetera.
En este caso, la unidad 252 de prediccion intra lleva a cabo una prediccion intra a partir de la muestra descodificada dentro de la imagen en curso, generando, asf, una imagen de prediccion. La unidad 254 de prediccion inter genera una imagen de prediccion usando un vector de movimiento, y una imagen de referencia almacenada en la unidad 256 de almacenamiento. Cuando se obtiene un vector de movimiento, puede utilizarse un metodo tal como la prediccion de vectores de movimiento y la competicion de vectores de movimiento, etcetera.
El cuadro de video restaurado se genera sumando el valor residual correspondiente a cada pixel restaurado a partir de la unidad de transformada inversa a la imagen de prediccion, a la cual se da salida desde la unidad 252 de prediccion intra o la unidad 254 de prediccion inter. Posteriormente se describira el funcionamiento de la unidad 254 de prediccion inter, en particular diversos metodos de procesado en el modo de fusion.
En lo sucesivo en la presente, se describira, en referencia a las FIGs. 3 a 5, un metodo de segmentacion de una unidad de codificacion y una unidad de prediccion, etcetera, en el funcionamiento del dispositivo 100 de codificacion y el dispositivo 200 de descodificacion. Unidad de codificacion se refiere a una unidad basica para procesar una imagen en un proceso tal como el proceso antes descrito de procesado de una senal de video, por ejemplo, prediccion intra o inter, transformada, cuantificacion, codificacion entropica, etcetera. El tamano de la unidad de codificacion usada en la codificacion de una imagen puede que no sea homogeneo. La unidad de codificacion puede tener una forma cuadrilatera, y una unidad de codificacion se puede segmentar en varias unidades de codificacion.
La FIG. 3 ilustra un ejemplo de segmentacion de una unidad de codificacion de acuerdo con una realizacion ejemplificativa de la presente invencion. Por ejemplo, una unidad de codificacion que tiene un tamano de 2N x 2N se puede segmentar en cuatro unidades de codificacion que tienen un tamano de N x N. Una segmentacion de la unidad de codificacion de este tipo se puede llevar a cabo recursivamente, y no es necesario que todas las unidades de codificacion se segmenten de la misma manera. No obstante, por comodidad en el proceso de codificacion y procesado, puede haber una restriccion sobre el tamano maximo 310 y el tamano mmimo 320. Si se determina el tamano maximo de la unidad de codificacion, al tamano maximo se le denomina tamano maximo de unidad de codificacion, si se determina el tamano mmimo, al tamano mmimo se le denomina tamano mmimo de unidad de codificacion.
Para una unidad de codificacion se puede indicar informacion sobre si la unidad de codificacion se segmenta. Por ejemplo, si el valor de la bandera que indica si la unidad de codificacion se va a segmentar es 1, el bloque correspondiente al nodo se segmenta de nuevo en cuatro bloques, y si el valor de la bandera es 0, el bloque ya no se segmenta, y puede llevarse a cabo el proceso de procesado de la unidad de codificacion.
El bloque no se tiene que segmentar necesariamente en cuatro areas directas. En tal caso, codigos sobre metodos de segmentacion predeterminados se pueden mapear con informacion de segmentacion. Por ejemplo, si el valor de la informacion es 1, el bloque se puede dividir en dos subbloques rectangulares horizontales, si el valor es 2, el bloque se puede dividir en dos subbloques rectangulares verticales, y si el valor es 3, el bloque se puede dividir en cuatro subbloques cuadrados. Un metodo de este tipo revela algunos ejemplos del metodo de particion, pero la presente invencion no se limita a ellos.
La estructura de la unidad de codificacion antes descrita se puede indicar usando una estructura de arbol recursiva. Es decir, la unidad de codificacion, que se segmenta en otras unidades de codificacion usando la imagen individual o la unidad de codificacion de tamano maximo como rafz, acaba teniendo nodos hijo correspondientes al numero de unidades de codificacion segmentadas. Portanto, la unidad de codificacion, que ya no se segmenta mas, se convierte en un nodo hoja. Suponiendo que, para una unidad de codificacion, solamente es posible una segmentacion de tipo cuadrado, una unidad de codificacion se puede segmentar en un maximo de otras 4 unidades de codificacion, y por lo tanto el arbol, que indica la unidad de codificacion, puede ser de un formato de arbol cuaternario. En lo sucesivo en la presente, por comodidad de explicacion, a la unidad de codificacion que tiene el tamano de unidad de codificacion maximo se le denomina unidad de codificacion mas grande (LCU), y a la unidad de codificacion que tiene el tamano de unidad de codificacion mmimo se le denomina unidad de codificacion mas pequena (SCU).
En el codificador, el tamano optimo de la unidad de codificacion se puede seleccionar de acuerdo con las caractensticas de una imagen de video (por ejemplo, la resolucion) o teniendo en cuenta la eficiencia de la codificacion, y, en el flujo continuo de bits, se puede incluir informacion de la misma e informacion para dibujarla. Por ejemplo, se pueden definir el tamano de la unidad de codificacion maxima y la profundidad maxima del arbol. En el caso de una segmentacion de tipo cuadrado, la altura y la anchura de la unidad de codificacion son la mitad de la altura y la anchura de la unidad de codificacion del nodo padre, y, por lo tanto, el tamano mmimo de la unidad de codificacion se puede calcular usando la informacion anterior. Ademas, y a la inversa, el tamano mmimo de la unidad de codificacion y la profundidad maxima del arbol se pueden definir de antemano, y el tamano de la unidad de codificacion maxima se puede deducir usando la informacion definida. En la segmentacion de tipo cuadrado, el tamano de la unidad se cambia a un formato de un multiplo de 2, y, por lo tanto, el tamano de la unidad de codificacion concreta se indica como un valor logantmico que tiene 2 como base, mejorandose asf la eficiencia de transmision.
En el descodificador se puede obtener informacion que indica si la unidad de codificacion en curso antes descrita se ha segmentado. La eficiencia se puede mejorar si dicha informacion se obtiene (o transmite) unicamente bajo una condicion espedfica. Por ejemplo, si la unidad de codificacion en curso es el tamano de unidad de codificacion mmimo, la unidad no se segmenta en unidades de codificacion mas pequenas, y, por lo tanto, en tal caso, no es necesario obtener informacion sobre si la unidad se ha segmentado.
Si la informacion indica que la unidad de codificacion se ha segmentado, el tamano de la unidad de codificacion a segmentar se convierte en la mitad del tamano de la unidad de codificacion en curso, y la unidad de codificacion se segmento en cuatro unidades de codificacion de tipo cuadrado sobre la base de la ubicacion de procesado en curso. El procesado anterior se puede repetir para cada unidad de codificacion segmentada.
La prediccion de la imagen para la codificacion se lleva a cabo para la unidad de codificacion que ya no se segmenta mas (es decir, el nodo hoja del arbol de la unidad de codificacion). La unidad de codificacion se divide en una o mas unidades de prediccion (PU), bloques o particiones de prediccion, y a una division de este tipo se le denomina tambien particion. La forma en la que una unidad se ha segmentado se puede indicar mediante la informacion de tipo de unidad de prediccion o la informacion de tipo de segmentacion, etcetera. La FIG. 4 ilustra diversos metodos de segmentacion de la unidad de prediccion y un ejemplo de la denominacion de tipo de segmentacion. En referencia a la FIG. 4, una unidad de prediccion que tiene un tamano de 2N x 2N puede no segmentarse (tipo 2N x 2N), se puede segmentar en dos particiones rectangulares que tengan un tamano de 2N x N (tipo 2N x N), se puede segmentar en dos particiones rectangulares que tengan un tamano de N x 2N (tipo N x 2N), o se puede segmentar en cuatro particiones cuadrilateras que tengan un tamano de N x N (tipo N x N). La unidad de prediccion es una unidad basica para llevar a cabo la prediccion, y la forma de segmentacion de una unidad de prediccion posible se puede definir de manera diferente en la unidad de codificacion intra y la unidad de codificacion inter. Por ejemplo, en la unidad de codificacion intra, solamente se puede permitir una segmentacion de tipo 2N x 2N o N x N, y la unidad de codificacion inter, se puede permitir una segmentacion de tipo 2N x 2N, 2 N x N , N x 2 N , o N x N .
Si el tamano de la unidad de codificacion en curso es mayor que el tamano mmimo predeterminado de la unidad de codificacion, la segmentacion de tipo N x N no se puede permitir por que, en este caso, puede obtenerse el mismo resultado que en el caso en el que la unidad de codificacion se segmenta nuevamente.
La segmentacion no se lleva a cabo necesariamente de manera simetrica. La FIG. 5 ilustra un caso de segmentacion asimetrica de una unidad de prediccion.
Ademas, la segmentacion de la unidad de prediccion tambien es posible geometricamente. Tal como se muestra en la FIG. 6, pueden generarse particiones con formas diversas diferentes a una forma cuadrilatera. En este caso, la unidad de prediccion se puede segmentar en dos particiones 610 y 620 a traves de una lmea 600 de segmentacion arbitraria. La informacion de segmentacion se puede expresar en forma de una distancia (p) desde el centro, y un angulo (0) entre una lmea perpendicular desde el centro (O) a la lmea de segmentacion y el eje basico (por ejemplo, eje x), etcetera. Dicha diversidad de formas de la segmentacion de la unidad de prediccion es ventajosa por cuanto es posible una prediccion mas precisa para una diversidad de formas de objetos incluidos en la imagen.
En la presente memoria descriptiva, a la unidad a codificar se le denomina unidad en curso, y a la imagen que incluye la unidad en curso se le denomina imagen en curso. Para restaurar la unidad en curso, se puede utilizar la informacion descifrada dentro de la imagen en curso o se puede utilizar la porcion descifrada de otras imagenes. A la imagen (franja (slice)), que utiliza unicamente la imagen en curso para la restauracion, es decir, lleva a cabo unicamente una prediccion intra (prediccion dentro de la pantalla), se le denomina representacion visual intra o representacion visual (franja) I, a la imagen (franja), que usa un maximo de un vector de movimiento o mdice de referencia para predecir cada unidad, se le denomina representacion visual predictiva o representacion visual (franja) P, y a la imagen (franja), que usa un maximo de dos vectores de movimiento e indices de referencia, se le denomina representacion visual de biprediccion o representacion visual (franja) B.
En la unidad de prediccion intra, se lleva a cabo la prediccion intra, la cual predice el valor de pixel de la unidad en cuestion a partir de las areas restauradas dentro de la imagen en curso. Por ejemplo, el valor de pixel de la unidad en curso se puede predecir a partir de los pfxeles codificados de las unidades, que estan ubicadas en los lados superior, izquierdo, superior izquierdo y/o superior derecho, sobre la base de la unidad en curso.
El modo intra se puede clasificar, en terminos generales, en un modo vertical, un modo horizontal, un modo DC, un modo angular, etcetera, en funcion de la direccion del area de referencia en la que estan ubicados los pfxeles de referencia que se usan en la prediccion de los valores de pixel, y del metodo de prediccion. El modo vertical usa el valor de un area vecina en vertical de la unidad en cuestion como valor de prediccion de la unidad en curso, y el modo horizontal usa, como area de referencia, el area vecina en horizontal. En el modo DC, como valor de prediccion se usa el valor medio de las areas de referencia. Ademas, el modo angular es un caso en el que el area de referencia esta ubicada en una direccion arbitraria, y la direccion se puede indicar por el angulo entre el pixel en curso y el pixel de referencia. Por comodidad, se pueden usar el angulo predeterminado y el numero de modo de prediccion, y el numero de angulos usados se puede cambiar en funcion del tamano de la unidad en cuestion.
En relacion con dicha diversidad de metodos de prediccion se pueden definir y utilizar varios modos espedficos. El modo de prediccion se puede transmitir con el propio valor que indica el modo, aunque, para mejorar la eficiencia de transmision, puede utilizarse el metodo de prediccion del valor del modo de prediccion de la unidad en curso. En este caso, el modo de prediccion de la unidad en curso se puede obtener sobre la base de la informacion sobre si el valor predicho en el modo de prediccion se usa el mismo propiamente dicho en el descodificador y la diferencia con el valor real.
En la unidad de prediccion inter, se lleva a cabo la prediccion inter la cual predice el valor de pixel de la unidad en cuestion usando informacion de imagenes ya restauradas diferentes a la imagen en curso. A la imagen usada en la prediccion se le denomina representacion visual de referencia. El area de referencia que se utiliza en la prediccion de la unidad en curso en el proceso de prediccion inter se puede indicar usando el mdice que indica la imagen de referencia que incluye el area de referencia (a la que, en lo sucesivo en la presente, se referira como “mdice de referencia”) e informacion de vector de movimiento, etcetera.
Algunos ejemplos de la prediccion inter (prediccion entre pantallas) son la prediccion en sentido directo, la prediccion en sentido retrogrado y la biprediccion. La prediccion en sentido directo es una prediccion que utiliza una representacion visual de referencia visualizada (o a la que se ha dado salida) temporalmente antes de la representacion visual en curso, y la prediccion retrograda es una prediccion que usa una representacion visual de referencia visualizada (o a la que se ha dado salida) temporalmente despues de la representacion visual en curso. Con este fin, puede que sea necesario un conjunto de informacion de movimiento (por ejemplo, un vector de movimiento y un mdice de representacion visual de referencia). En la biprediccion, puede utilizarse un maximo de dos areas de referencia, y estas dos areas de referencia pueden existir en la misma representacion visual de referencia, y pueden existir en representaciones visuales diferentes. Las representaciones visuales de referencia se pueden visualizar (o se les puede dar salida) temporalmente tanto antes como despues de la representacion visual en curso. En el metodo de biprediccion, puede utilizarse un maximo de dos conjuntos de informacion de movimiento (por ejemplo, un vector de movimiento y un mdice de representacion visual de referencia).
La informacion de movimiento de la unidad de prediccion en curso puede incluir la informacion de vector de movimiento y el mdice de representacion visual de referencia. Informacion de vector de movimiento puede significar el vector de movimiento, el valor de prediccion del vector de movimiento, o el vector de movimiento diferencial, o tambien puede significar informacion de mdice que especifique un valor de prediccion del vector de movimiento. Vector de movimiento diferencial significa una diferencia entre el vector de movimiento y un valor de prediccion del vector de movimiento.
El bloque de referencia de la unidad de prediccion en curso se puede obtener usando el vector de movimiento y el mdice de representacion visual de referencia. El bloque de referencia existe dentro de la representacion visual de referencia que tiene el mdice de representacion visual de referencia. Ademas, el valor de pixel del bloque especificado por el vector de movimiento se puede utilizar como predictor de la unidad de prediccion en curso. Es decir, se usa la compensacion por movimiento, la cual predice la imagen de la unidad de prediccion en curso estimando el movimiento a partir de la representacion visual descodificada previamente.
Ademas de la imagen en curso, la lista de imagenes de referencia puede estar constituida por imagenes usadas para la prediccion inter. La franja B necesita dos listas de imagenes de referencia, y las listas se denominan, respectivamente, lista de referencia 0 y lista de referencia 1. Entre las franjas B, a la franja en la que la lista de referencia 0 es igual a la lista de referencia 1 se le denomina, en particular, franja GPB.
Para reducir el volumen de transmision en relacion con el vector de movimiento, el valor de prediccion del vector de movimiento se puede obtener usando la informacion de movimiento de las unidades codificadas, y se puede transmitir solamente la diferencia del vector de movimiento. En el descodificador, el valor de prediccion del vector de movimiento de la unidad en curso se puede obtener usando informacion de movimiento de otras unidades descodificadas, y el valor del vector de movimiento en la unidad en curso se puede obtener usando la diferencia transmitida. Cuando se tiene el valor de prediccion del vector de movimiento, puede usarse un metodo de competicion de vectores de movimiento, metodo que obtiene diversos valores de candidatos de vector de movimiento usando la informacion de movimiento de las unidades ya codificadas y obtiene un valor de prediccion de vector de movimiento entre los valores candidatos.
La informacion de prediccion (por ejemplo, el mdice de referencia, el vector de movimiento, el sentido de la prediccion, etcetera), que se requiere en la prediccion inter de la unidad en curso, no se incluye directamente en el flujo continuo de bits cuando se transmite, y se puede deducir usando la unidad vecina. Usando un metodo de este tipo, la tasa de compresion se puede mejorar usando el numero de bits asignados a la informacion de prediccion. Espedficamente, como informacion de prediccion de la unidad en curso se puede utilizar la informacion de prediccion de la unidad vecina codificada usando la prediccion inter. Cuando se usa un metodo de este tipo, se expresa que la unidad en curso se ha fusionado con la unidad vecina que entrego informacion de prediccion, y a dicho metodo de prediccion se le denomina modo de fusion.
Para el modo de fusion, el flujo continuo de bits puede incluir informacion que indica si la unidad en curso se ha fusionado (por ejemplo, una bandera como bandera_fusion (merge_flag)), informacion de fusion que indique que unidad vecina se ha fusionado con la unidad en curso (por ejemplo, una bandera que indique si la unidad en curso se ha fusionado con un cierto vecino, o informacion de mdice que indique un cierto vecino, etcetera), etcetera. La informacion que indica que unidad vecina se ha fusionado con la unidad en curso se puede establecer de manera que se obtenga unicamente cuando se indique que la unidad en curso se ha fusionado (en el ejemplo anterior, cuando bandera_fusion sea verdadero o 1).
Ademas, cuando se usa el modo de prediccion inter, se puede aplicar el modo de omision en unidades de la unidad de codificacion. El modo de omision es un metodo de prediccion que transmite unicamente cierta informacion (por ejemplo, informacion que indica cual de los diversos candidatos de prediccion por vectores de movimiento se usara) entre informacion para la restauracion por prediccion de las unidades en curso. En este caso, se puede utilizar en sf misma informacion de otras unidades ya codificadas. Cuando se usa el modo de omision, se puede reducir el volumen de informacion transmitida y, por lo tanto, en primer lugar, se determina si la unidad de codificacion esta en el modo de omision y, en caso contrario, se puede usar otro modo (por ejemplo, un modo de fusion, un modo de prediccion directa o un modo de prediccion inter general).
El modo de fusion se puede aplicar en unidades de la unidad de codificacion, o se puede aplicar en unidades de la unidad de prediccion. En caso de que el modo de fusion se aplique en unidades de la unidad de codificacion, se transmite una bandera que indica si aplicar fusion a cada unidad de codificacion minima que usa un modo de prediccion inter. Tal como se ha descrito anteriormente, el modo de omision se puede aplicar a la unidad de codificacion y, por tanto, despues de comprobar, en primer lugar, si el modo de omision se va a aplicar en unidades de la unidad de codificacion minima (por ejemplo, usando un metodo tal como analisis sintactico y comprobacion de la bandera que indica si aplicar el modo de omision), unicamente cuando no se aplica el modo de omision, se puede obtener la bandera de aplicacion del modo de fusion.
Tal como se ha descrito anteriormente, la unidad de codificacion se puede segmentar de diversas maneras en unidades de la unidad de prediccion. En caso de aplicar el modo de fusion en unidades de la unidad de prediccion, la bandera de fusion se obtiene, respectivamente, para todas las particiones de modo inter en las cuales no se aplica el modo de omision (o el modo de prediccion directa).
En lo sucesivo en la presente se describe el funcionamiento espedfico del modo de fusion. Cuando se trabaja en el modo de fusion, la unidad que se tomara como objetivo puede incluir tanto las unidades de la unidad de codificacion como la unidad de prediccion (segmentacion).
A las unidades que se pueden fusionar con la unidad en curso se les denomina candidatos a la fusion. Los candidatos a la fusion se pueden seleccionar como unidades adyacentes a la unidad en curso entre unidades ya restauradas. A la unidad que se fusiona con la unidad en curso, es decir, la unidad que lleva la informacion de prediccion, se le denomina unidad a fusionar. Con el fin de determinar la unidad a fusionar, se puede utilizar informacion, obtenida a partir del flujo continuo de bits, que indique que unidad vecina se ha fusionado, y la unidad a fusionar se puede deducir usando una regla espedfica.
En lo sucesivo en la presente, se describiran, en referencia a las FIGs. 7 y 8, los tipos de unidades que se pueden convertir en candidatos a la fusion basandose en la unidad en curso, se describira, en referencia a las FIGs. 9 y 10, el metodo para transmitir informacion necesaria para la fusion, y se describiran, en referencia a las FIGs. 11 a 17, diversas realizaciones para deducir la unidad a fusionar entre unidades candidatas a la fusion.
La FIG. 7 ilustra candidatos a la fusion en diversas posiciones para una unidad en curso. Los candidatos a la fusion pueden existir dentro de la imagen 700 en curso en la que esta ubicada la unidad en curso, o pueden existir dentro de otra imagen ya restaurada 750. A las unidades dentro de la imagen en curso se les puede denominar candidatos a la fusion espaciales, y a las unidades dentro de otra imagen se les puede denominar candidatos a la fusion temporales. Algunos ejemplos de candidatos a la fusion espaciales son las unidades 710 del area izquierda adyacente a la unidad en curso, las unidades 720 del area superior, y/o las unidades del area de las esquinas (C, C-1, C-2). Los candidatos a la fusion temporales pueden llegar a ser unidades (D) ubicadas en una posicion espedfica de otra imagen, por ejemplo, una posicion correspondiente a la unidad en curso, etcetera. Aun cuando la FIG. 7 ilustra unidades de un tamano espedfico, el tamano de cada unidad puede variar en funcion del nivel fragmentado segun se ha descrito anteriormente.
Con vistas a la eficiencia en la codificacion, los candidatos a la fusion se pueden seleccionar como un cierto numero de unidades teniendo en cuenta la eficiencia de codificacion y la complejidad del calculo entre las posiciones.
Algunos ejemplos de los candidatos a la fusion son la unidad superior (A) entre las unidades del area izquierda, una unidad (A-1) seleccionada entre las unidades del area izquierda excepto A, la unidad de mas a la izquierda (B) entre las unidades del area superior, una unidad (B-1) seleccionada entre las unidades del area superior excepto B, la unidad (C) en la esquina superior derecha, la unidad (C-1) en la esquina superior izquierda, la unidad (C-2) en la esquina superior izquierda, y una unidad (D) correspondiente a otra imagen. Es evidente que, cuando hay solamente una unidad adyacente a la unidad en curso en el area izquierda o superior, no se produce ninguna unidad seleccionada adicionalmente.
De manera similar, es posible constituir candidatos a la fusion con la unidad seleccionada del area izquierda, la unidad seleccionada del area superior, las unidades del area de las esquinas (C, C-1, C-2) y la unidad (D) correspondiente a otra imagen, etcetera. En este caso, el numero de unidades que se seleccionan en el area izquierda o superior puede ser preferentemente uno (en este caso, el numero maximo de candidatos a la fusion sena 6), o un numero espedfico predeterminado. Las unidades del area de las esquinas tambien se pueden usar seleccionando solamente algunas de las unidades en funcion de las necesidades.
Para simplificar, como candidatos a la fusion se puede determinar el numero menor de unidades. Por ejemplo, la unidad superior (A) entre las unidades del area izquierda, la unidad de mas a la izquierda (B) entre las unidades del area superior, la unidad (C) en la esquina superior derecha, la unidad (C-1) en la esquina inferior izquierda, y una unidad (D) correspondiente a otra imagen, etcetera, pueden convertirse en candidatas a la fusion. En este caso, el numero maximo de candidatos a la fusion sena 5.
En su expresion mas sencilla, unicamente dos unidades, por ejemplo, la unidad superior (A; a la que en lo sucesivo en la presente se hara referencia como unidad vecina superior) entre las unidades del area izquierda, y la unidad de mas a la izquierda (B; a la que, en lo sucesivo en la presente, se hara referencia como unidad vecina izquierda) entre las unidades del area superior pueden llegar a ser los candidatos a la fusion.
Tal como se ha mencionado anteriormente, el tamano de la unidad puede variar en funcion del nivel de segmentacion o del modo de segmentacion. Por lo tanto, los candidatos a la fusion se pueden determinar teniendo en cuenta el tamano de la unidad asf como la posicion (mas a la izquierda o superior, etcetera). Por ejemplo, la seleccion se puede realizar basandose en la longitud del borde adyacente a la unidad en curso. Es decir, se selecciona la unidad que es tangente al contorno mas largo entre las unidades de las areas izquierda o superior adyacentes a la unidad en curso. En referencia a la FIG. 8, por ejemplo, las unidades B, C, y D estan posicionadas en el area superior adyacente a la unidad en curso X. Tal como se ha descrito anteriormente, las unidades B y C pueden ser unidades de codificacion que se han segmentado una vez mas en comparacion con la unidad D, o se pueden haber segmentado en un modo (N x N) diferente al modo de la unidad D (2N x 2N). Entre las unidades B, C y D, la unidad D es tangente a la unidad en curso X por el contorno mas largo, y, por lo tanto, la unidad D se selecciona como candidata a la fusion entre las unidades vecinas superiores. Tambien es posible seleccionar una o mas unidades en el orden anterior entre las unidades vecinas superiores B, C, y D. Los candidatos a la fusion tambien se pueden seleccionar teniendo en cuenta el area de la unidad ademas de la longitud del contorno adyacente.
En caso de que el numero maximo de los candidatos a la fusion sea 2, la informacion sobre cual de los dos candidatos se fusionara puede venir indicada por una bandera de un bit. La FIG. 9 es un diagrama de flujo que ilustra un proceso de seleccion de una unidad a fusionar en el ejemplo anterior, en el cual la unidad vecina izquierda A o la unidad vecina derecha B se convierte en el candidato a la fusion. En primer lugar, se obtiene (S901) una bandera de fusion A (bandera_fusion) que indica si la unidad en curso esta codificada en un modo de fusion. Si la unidad en curso esta codificada en un modo de fusion sobre la base de la informacion de la bandera de fusion (es decir, bandera_fusion = VERDADERO o 1), se obtiene (S930) la bandera de sentido de fusion (bandera_fusion_izquierda) (merge_left_flag)) que indica con que unidad se ha fundido. La bandera de sentido de fusion presenta el valor VERDADERO (o 1) cuando se fusiona con la unidad vecina izquierda, y presenta el valor FALSO (o 9) cuando se fusiona con la unidad vecina superior. Por tanto, si el valor de la bandera de sentido de fusion es 1 (S940), como informacion de prediccion de la unidad en curso X se usa la informacion de prediccion de la unidad vecina izquierda A (S950), y si el valor de la bandera de sentido de fusion es 0, como informacion de prediccion de la unidad en curso X se usa la informacion de prediccion de la unidad vecina superior B (S970). En caso de que la bandera de fusion indique un caso diferente al modo de fusion, la informacion de prediccion de la unidad en curso se obtiene usando un modo de prediccion general (S960). En lo anterior, la bandera de sentido de fusion es meramente una cierta realizacion, y, por lo tanto, dicha bandera no indica necesariamente la fusion con la unidad vecina izquierda y se puede usar en un formato que indique si se va a producir una fusion con una unidad espedfica entre candidatos a la fusion.
En caso de que el numero maximo de candidatos a la fusion sea dos o mayor, la unidad a fusionar no se puede especificar solamente con la informacion de la bandera, y, por lo tanto, es necesario utilizar otros metodos. Por ejemplo, se puede usar informacion de mdice (mdice de fusion) sobre que unidad entre los candidatos a la fusion se fusionara, es decir, informacion que especifica la unidad a fusionar. El mdice se puede fijar en un cierto orden, o se puede cambiar de manera adaptativa de acuerdo con la situacion.
Ademas, segun una realizacion ejemplificativa de la presente invencion, la informacion anterior se puede transmitir de manera mas eficiente en funcion del caso. Es decir, en una cierta condicion en la que la informacion anterior no necesita ser transmitida, puede omitirse la transmision de esta informacion.
La FIG. 10 es un diagrama de flujo que ilustra un proceso de obtencion de informacion que es necesaria para un modo de fusion usando el numero de candidatos a la fusion disponibles. En primer lugar, se determina el numero de candidatos a la fusion (NumCandidatos (NumCandidate)) que puede ser usado por la unidad en curso, comprobando las posiciones de los candidatos a la fusion antes descritos (S1010). Estar disponible significa aqm que la unidad en curso puede obtener informacion de prediccion a partir de la unidad candidata a la fusion. Es decir, este es el caso en el que la unidad existe en la posicion, la unidad esta codificada en el modo inter y tiene informacion de prediccion, y ya ha sido descodificada. Si el numero de candidatos a la fusion disponibles es 0, no se puede aplicar el modo de fusion, y, por lo tanto, no es necesario transmitir la bandera de fusion (bandera_fusion), que indica si se va a producir fusion. En este caso, la informacion de prediccion de la unidad en curso se obtiene usando un modo de prediccion inter general (S1070). Por lo tanto, comprobando la magnitud del numero de candidatos a la fusion disponibles (NumCandidatos) (S1020), la bandera de fusion (bandera_fusion) se obtiene unicamente cuando el numero de los candidatos a la fusion es mayor que 0 (S1030).
1
En el caso en el que el numero de los candidatos a la fusion es 1, como unidad a fusionar se puede determinar un candidato a la fusion. Portanto, no es necesario transmitir por separado informacion (bandera o mdice) sobre la unidad con la que se fusiona la unidad en curso, y, de este modo, solamente en el caso en el que la bandera que indica si se va a producir fusion es 1 y el numero de candidatos a la fusion es mayor que 1 (S1040), se obtiene dicha informacion de fusion (S1050). La unidad a fusionar se determina basandose en la informacion de fusion obtenida, y la informacion de prediccion de la unidad a fusionar se usa como informacion de prediccion de la unidad en curso (S1060).
En el caso en el que el tipo de segmentacion de la unidad de codificacion de un tamano 2N x 2N sea 2N x 2N, es decir, en el caso en el que la unidad de codificacion este constituida por una particion, puede usarse el modo de prediccion directa. Por lo tanto, en este caso, el numero de candidatos a la fusion (NumCandidatos (NumCandidates)) se fija a cero con independencia de la informacion de movimiento de la unidad vecina, y, de este modo, el modo de fusion se puede fijar de manera que no se aplique a la unidad de codificacion y la informacion relacionada tambien se puede fijar de manera que no sea transmitida.
No obstante, en este caso, puede que resulte imposible que la informacion de prediccion de la unidad en curso (sentido de prediccion, mdice de referencia, vector de movimiento, etcetera) se exprese con el modo de prediccion de sentido 2N x 2N. Tambien puede que resulte necesario usar un modo mejorado de prediccion de sentido para compensar una perdida generada en tal caso.
De acuerdo con una realizacion ejemplificativa de la presente invencion, puede ejecutarse una senalizacion variable en funcion del numero de candidatos a la fusion. Por ejemplo, en caso de que el numero de candidatos a la fusion, que sean posibles para la unidad en curso, sea 3, se transmite informacion para distinguir de 0 a 2, y en el caso en el que el numero de los posibles candidatos a la fusion sea 2, se transmite unicamente informacion para distinguir 0 y 1. En este caso, se produce la ventaja de que el numero de bits asignados al mdice se puede reducir cuando el numero de candidatos a la fusion es pequeno.
Es posible usar un metodo de cambio de las unidades que pertenecen a los candidatos a la fusion despues de fijar el numero maximo de candidatos. Por ejemplo, posiciones predeterminadas se comprueban en orden, y solamente las unidades correspondientes, en cuanto a numero, al numero maximo de candidatos se convierten en los candidatos a la fusion, y la unidad a fusionar se selecciona solamente entre los candidatos a la fusion. Por ejemplo, se supone que el numero maximo de candidatos es 4, y los candidatos a la fusion se comprueban en el orden de A, B, C, C-1 y D. Si esta disponible la totalidad de las unidades anteriores, las cuatro unidades A, B, C y C-1 se convierten en los candidatos a la fusion de acuerdo con dicho orden. Si la unidad C no esta disponible en el ejemplo anterior, como candidatos a la fusion se determinaran cuatro unidades A, B, C-1 y D. Si el numero de candidatos a la fusion disponibles es menor que el numero maximo de candidatos, es posible usar el metodo de senalizacion variable antes explicado, en funcion del numero de candidatos a la fusion.
Cuando el modo de segmentacion es del tipo N x N, es decir, la unidad de codificacion esta constituida por cuatro particiones cuadrilateras, la condicion para determinar candidatos a la fusion disponibles se puede anadir en la cuarta particion. Una condicion de este tipo se puede usar en el proceso de contar el numero de candidatos a la fusion disponibles o deducir las unidades a fusionar. En referencia a la FIG. 11, por ejemplo, en el caso de la particion n.° 3, la particion con la cual la particion en curso se puede fusionar de manera adaptativa se determina de acuerdo con la informacion de movimiento de otras tres particiones (particion n.° 0 a 2).
Por ejemplo, cuando la particion n.° 0 y la particion n.° 1 tienen la misma informacion de movimiento, y la particion n.° 2 tiene una informacion de movimiento diferente, la particion n.° 3 no se puede fusionar con la particion n.° 2 ya que, en tal caso, la segmentacion sena redundante con la segmentacion de un tipo 2N x N. Por lo tanto, en este caso, la particion n.° 2 queda exenta de los candidatos a la fusion.
Cuando la particion n.° 0 y la particion n.° 2 tienen la misma informacion de movimiento, y la particion n.° 1 tiene informacion de movimiento diferente, la particion n.° 3 no se puede fusionar con la particion n.° 1 debido a que, en tal caso, la segmentacion sena redundante con la segmentacion de un tipo N x 2N. Por lo tanto, en este caso, la particion n.° 3 queda exenta de los candidatos a la fusion.
Cuando la particion n.° 0, la particion n.° 1 y la particion n.° 2 tienen, todas ellas, la misma informacion de movimiento, la particion n. 3 no se puede fusionar con ninguna de la particion n.° 1 y la particion n.° 2 ya que, en tal caso, la fragmentacion sena redundante con la fragmentacion del tipo 2N x 2N. Por lo tanto, en este caso, la particion n.° 1 y la particion n.° 2 quedan exentas de los candidatos a la fusion.
Ademas, con el fin de reducir el numero de bits para la transmision de informacion con vistas a determinar una unidad a fusionar, en lugar de transmitir la informacion, puede usarse un metodo de deduccion de la unidad a fusionar de acuerdo con una cierta regla. En lo sucesivo en la presente, en referencia a la FIG. 12, se describira un metodo de determinacion de la unidad a fusionar entre unidades candidatas a la fusion disponibles. En la FIG.
12, se supone que solamente las unidades A y B son unidades candidatas a la fusion para facilitar la explicacion, aunque las unidades de las diversas posiciones antes descritas pueden llegar a ser candidatos a la fusion.
De acuerdo con una realizacion ejemplificativa de la presente invencion, la unidad a fusionar se puede seleccionar sobre la base de la longitud del contorno segun el cual la unidad en curso es tangente a la unidad vecina. En referencia a la FIG. 12(a), por ejemplo, el contorno entre la unidad en curso X y la unidad vecina superior A es mayor que el contorno entre la unidad en curso A y la unidad vecina izquierda B, y, por lo tanto, la unidad a fusionar se selecciona como unidad vecina superior A. Es decir, la unidad en curso X se fusiona con la unidad vecina superior A, y, como informacion de prediccion de la unidad en curso X, se usa la informacion de prediccion de la unidad vecina superior A.
De acuerdo con una realizacion ejemplificativa de la presente invencion, como unidad a fusionar de la unidad actual se puede seleccionar la unidad que tiene un vector de movimiento mas similar a la unidad vecina de una cierta posicion (por ejemplo, superior izquierda) entre las unidades vecinas de la unidad en curso. En referencia a la FIG. 12(b), por ejemplo, la unidad vecina superior A tiene un vector de movimiento que es mas similar a la unidad vecina superior izquierda C que la unidad vecina izquierda B, y, por lo tanto, como unidad a fusionar, se selecciona la unidad vecina superior A.
De acuerdo con una realizacion ejemplificativa de la presente invencion, como unidad a fusionar se puede seleccionar la unidad con un area mas amplia entre los candidatos a la fusion. En referencia a la FIG. 12(c), por ejemplo, el area de la unidad vecina izquierda B es mayor que la unidad superior A, y, por tanto, como unidad a fusionar se selecciona la unidad vecina izquierda B.
Ademas, las realizaciones anteriores se pueden combinar con un cierto orden de prioridad.
De acuerdo con una realizacion ejemplificativa de la presente invencion, cuando se usa un modo de fusion, la unidad en curso se segmenta geometricamente de manera automatica, y cada area de segmentacion se fusiona con la unidad vecina adyacente. En referencia a la FIG. 13, por ejemplo, la unidad en curso se segmenta en forma de X1 y X2 segun la lmea de segmentacion 1300. La lmea de segmentacion 1300 se determina usando la distancia euclfdea de las unidades vecinas A y B que son candidatos a la fusion. Consecuentemente, X1 se fusiona con A, y X2 se fusiona con B.
Ademas, en la unidad segmentada, cuando no hay ningun area adyacente o hay solamente un area adyacente, la unidad a fusionar se puede deducir sin transmitir informacion espedfica.
De acuerdo con una realizacion ejemplificativa de la presente invencion, en el caso de una segmentacion geometrica, puede que no haya ningun area restaurada adyacente. La FIG. 14 ilustra un caso en el que la unidad en curso se ha segmentado geometricamente. En este caso, la unidad en curso se segmenta en dos particiones, es decir, X1 y X2, y X2 no es adyacente a la region reconstruida. Aqrn, en el caso de la particion X2, no se puede permitir la fusion con X1. Esto es debido a que, cuando X1 y X2, que pertenecen a la misma unidad de codificacion, tienen la misma informacion de prediccion debido a la fusion, no hay necesidad de segmentacion. Por lo tanto, en una situacion de este tipo, el modo de fusion no se puede aplicar a la particion X2. En este caso, como en el caso en el que el numero de candidatos a la fusion disponibles es 0, no se pueden obtener ni la bandera que indica si se va a producir fusion ni la informacion que indica la unidad a fusionar.
La FIG. 15 ilustra un caso en el que la unidad en curso se segmenta en dos particiones rectangulares. En referencia a la FIG. 15(a), en el caso de la particion X2, el area superior es adyacente al area restaurada, pero el area izquierda es adyacente a la particion X1 que pertenece a la misma unidad de codificacion. De manera similar a la descripcion anterior, la situacion en la que la particion X2 se fusiona con la particion X1, que pertenece a la misma unidad de codificacion, y que acaba teniendo la misma informacion de prediccion, es redundante con el caso sin segmentacion, y, por lo tanto, es necesario que dicho caso quede exento. Por lo tanto, en el caso de X2, puede que resulte necesario aplicar el modo de fusion, pero las unidades del area izquierda no pueden ser candidatos a la fusion. Cuando se cuenta el numero de candidatos a la fusion disponibles, pueden tenerse en cuenta dichos puntos. Tal como se ha descrito anteriormente, si solamente dos tipos, es decir, la unidad izquierda y la unidad superior, pueden llegar a ser candidatos a la fusion (es decir, si se transmite informacion de tipo bandera para indicar la unidad a fusionar), la transmision de la bandera para indicar la unidad a fusionar no es necesaria con respecto a X2. El numero de candidatos a la fusion es grande, y cuando se usa informacion de mdice adaptativa que se ha descrito anteriormente, esto resulta ventajoso por cuanto se reduce el volumen de la informacion a usar en el mdice.
Ademas, la unidad que tiene informacion de prediccion que es igual a la informacion de prediccion de otra particion X1, que pertenece a la unidad de codificacion igual que la unidad en curso, no puede ser un candidato a la fusion disponible. Cuando la misma unidad de codificacion se segmenta en dos particiones, es decir, X1 y X2, el caso en el que X2 se fusiona con una cierta unidad y llega a tener el mismo valor que la informacion de prediccion de X2 conduce a un resultado igual que en la fusion con X1. Por tanto, en este caso, resulta que la segmentacion de una unidad de codificacion en X1 y X2 no tiene sentido. Por esta razon, en la presente invencion, de los candidatos a unidad de fusion disponibles se eliminan las unidades que buscan la misma informacion de prediccion que X1 entre unidades candidatas a la fusion de diversas posiciones que pueden llegar a convertirse en candidatos de prediccion en lo anterior. Es decir, el numero de candidatos a unidades de fusion que pueden ser usados por la particion en curso, se reduce por el numero de candidatos a fusion que tienen una informacion de prediccion igual a la de otra particion X1 que pertenece a la misma unidad de codificacion. De esta manera, el numero de unidades candidatas a la fusion disponibles se convierte en 0, y puede que no sea necesario transmitir la bandera de fusion que indica si aplicar el modo de fusion. Por ejemplo, en referencia a la FIG. 15(a), en el caso en el que la informacion de prediccion de la unidad vecina superior A es igual a la de X1, X2 no se puede fusionar con ninguna de entre A y X1. Por tanto, en este caso, puesto que no hay ninguna unidad candidata a la fusion disponible, no es necesario transmitir ni la bandera que indica si aplicar el modo de fusion ni informacion que indica la unidad a fusionar. Es decir, esto es igual al caso en el que el numero de candidatos a la fusion disponibles es 0.
Por contraposicion, en el caso de la FIG. 15(b), el lado izquierdo de la particion X2 es adyacente a la region restaurada, pero el lado superior no es adyacente a la region restaurada y resulta adyacente a otra particion X1 que pertenece a la misma unidad de codificacion. Por tanto, en este caso, X2 no se fusiona con X1, y unicamente el area izquierda se convierte en un candidato a la fusion disponible. En el caso del ejemplo de la FIG. 15(b), el candidato a la fusion que queda es solamente la unidad A, y, por tanto, no es necesario transmitir la informacion de tipo bandera para designar la unidad a fusionar. Asimismo, las unidades que tienen la misma informacion de prediccion que X1 no se pueden fusionar con X2, y, por lo tanto, en el caso en el que el area adyacente izquierda A de X2 tiene la misma informacion de prediccion que la correspondiente de X1, no queda ninguna unidad candidata a la fusion disponible, y no es necesario transmitir la informacion de bandera de fusion que indica si aplicar el modo de fusion.
La FIG. 16 ilustra varios ejemplos en el caso en el que una unidad se segmenta de manera asimetrica en dos particiones. En este caso, una particion, que ocupa un area mas pequena, se puede fijar de manera que se fusione con solamente una unidad adyacente al lado largo. En el caso de la FIG. 16(a), el lado largo de X1 es el area izquierda, y en el caso en el que se seleccione una de entre el area izquierda o el area superior, la unidad a fusionar se determina como unidad A sin transmitir la bandera (bandera_fusion_izquierda) que designa la unidad. En el caso de la FIG. 16(b), el lado largo de la X1 es el area derecha, y la unidad a fusionar se determina como unidad A en la misma situacion que la anterior.
La FIG. 17 ilustra varios ejemplos en el caso en el que una unidad se segmenta geometricamente en dos particiones. En este caso, la unidad a fusionar se puede deducir de acuerdo con el tipo de segmentacion. Aqrn, el tipo de segmentacion se puede considerar usando la longitud de la lmea de borde entre la particion y la region reconstruida. En referencia a la FIG. 17, con respecto a la primera particion geometrica X1, se supone que la longitud de la lmea de borde entre X1 y el area restaurada izquierda es a, la longitud de la lmea de borde entre X1 y el area restaurada superior es b, y c1 y c2 son ciertos umbrales predeterminados. Las FIGs. 17(a) y 17(b) indican los tipos de segmentacion de diversas segmentaciones geometricas, y esto se puede especificar como un valor espedfico usando a y b, por ejemplo, un valor como a/b. Ademas, la unidad a fusionar se determina usando la relacion entre este valor y el umbral.
Por ejemplo, tal como se muestra en la FIG. 17(a), en el caso en el que a/b es mayor que c1 (a/b > c1), la unidad a fusionar de X1 se determina como A. Por contraposicion, tal como se muestra en la FIG. 17(b), en el caso en el que a/b es menor que c2 (a/b < c2), la unidad a fusionar de X1 se determina como B. En estos dos casos, no es necesario transmitir informacion que indique cual de A y B se fusiona. Tal como se muestra en la FIG. 17(c), en el caso en el que a/b esta entre c1 y c2 (c2 <= a/b <= c1), se transmite informacion aparte que indica cual de A y B es la unidad a fusionar.
Las realizaciones ejemplificativas antes descritas son combinaciones de elementos y caractensticas de la presente invencion. Los elementos o caractensticas se pueden considerar selectivos a no ser que se mencione lo contrario. Cada elemento o caractenstica se puede llevar a la practica sin combinarse con otros elementos o caractensticas. Ademas, una realizacion de la presente invencion se puede constituir combinando partes de los elementos y/o caractensticas. Los ordenes de operaciones que se han descrito en realizaciones de la presente invencion se pueden reorganizar. Algunas construcciones de una realizacion cualquiera se pueden incluir en otra realizacion, y se pueden sustituir con construcciones correspondientes de otra realizacion.
Un metodo de descodificacion/codificacion, en el que se aplica la presente invencion, se configura con un programa para ejecucion en ordenador y, a continuacion, se almacena en un soporte de grabacion legible por ordenador. Ademas, se pueden almacenar, en soporte de grabacion legible por ordenador, datos multimedia que presenten una estructura de datos de la presente invencion. Los soportes de grabacion legibles por ordenador incluyen todos los tipos de dispositivos de almacenamiento para almacenar datos que pueden ser lefdos por un
1
sistema de ordenador. Los soportes de grabacion legibles por ordenador incluyen ROM, RAM, CD-ROM, cintas magneticas, discos flexibles, dispositivos de almacenamiento optico de datos, etcetera, y tambien incluye un dispositivo implementado con ondas portadoras (por ejemplo, transmision por internet). Ademas, el flujo continuo de bits generado por el metodo de codificacion se almacena en un soporte de grabacion legible por ordenador o se transmite a traves de una red de comunicaciones por cable/inalambrica.
Diversas realizaciones descritas en la presente se pueden implementar en un soporte legible por ordenador usando, por ejemplo, software de ordenador, hardware, o alguna combinacion de los mismos. Para una implementacion en hardware, las realizaciones descritas en la presente se pueden implementar en uno o mas circuitos integrados de aplicacion espedfica (ASICs), procesadores de senal digital (DSPc), dispositivos de procesado de senales digitales (DSPDs), dispositivos de logica programable (PLDs), matrices de puertas programables in situ (FPGAs), procesadores, controladores, microcontroladores, microprocesadores, otras unidades electronicas disenadas para llevar a cabo las funciones descritas en la presente, o una combinacion selectiva de los mismos. En algunos casos, dichas realizaciones son implementadas mediante controlador.
Para una implementacion en software, las realizaciones descritas en la presente se pueden implementar con modulos de software independientes, tales como procedimientos y funciones, cada uno de los cuales lleva a cabo una o mas de las funciones y operaciones descritas en este documento. Los codigos de software se pueden implementar con una aplicacion de software escrita en cualquier lenguaje de programacion adecuado y se pueden almacenar en memoria, y pueden ser ejecutados por un controlador.
Se pondra de manifiesto para aquellos versados en la materia que, en la presente invencion, pueden aplicarse diversas modificaciones y variaciones sin desviarse con respecto al alcance de la invencion. De este modo, se pretende que la presente invencion abarque las modificaciones y variaciones de la misma siempre que estas se situen dentro del alcance de las reivindicaciones adjuntas y sus equivalentes.
Aplicabilidad industrial
La presente invencion es aplicable a la codificacion o descodificacion de una senal de video.

Claims (1)

  1. REIVINDICACIONES
    1. Metodo de descodificacion de un flujo continuo de bits de una senal de video con un aparato de descodificacion, que comprende:
    (S910, S1030) obtener informacion de bandera de fusion de un bloque de prediccion (X; X1, X2) a partir del flujo continuo de bits de la senal de video, indicando la informacion de bandera de fusion si el bloque de prediccion (X; X1, X2) esta codificado o no en un modo de fusion;
    constituir candidatos a la fusion para el bloque de prediccion con un bloque vecino izquierdo (710), un bloque vecino superior (720), bloques vecinos de las esquinas (C, C-1, C-2) y un bloque (D) correspondiente al bloque de prediccion en otra imagen,
    en donde el bloque vecino izquierdo (710) se excluye de los candidatos a la fusion cuando un bloque de codificacion 2N x 2N se segmenta en dos bloques de N x 2N y el bloque de prediccion (X2) es un bloque de N x 2N situado en una parte derecha del bloque de codificacion, siendo el bloque vecino izquierdo un bloque de N x 2N situado en una parte izquierda del bloque de codificacion;
    (S1050) obtener informacion de mdice de fusion del bloque de prediccion (X; X1, X2) a partir del flujo continuo de bits de la senal de video, especificando la informacion de mdice de fusion un candidato a la fusion destinado a fusionarse con el bloque de prediccion, de entre los candidatos a la fusion constituidos;
    (S950, S970, S1060) obtener informacion de prediccion del bloque de prediccion (X; X1, X2) basandose en los candidatos a la fusion constituidos y la informacion de mdice de fusion obtenida, de manera que informacion de prediccion del candidato a la fusion especificado por la informacion de mdice de fusion obtenida se usa como informacion de prediccion del bloque de prediccion, incluyendo la informacion de prediccion un vector de movimiento y un mdice de representacion visual de referencia; y
    predecir el bloque de prediccion (X; X1, X2) usando la informacion de prediccion obtenida.
    2. Metodo de la reivindicacion 1, en el que los bloques vecinos de las esquinas incluyen un bloque vecino superior izquierdo (C-2), un bloque vecino superior derecho (C) y un bloque vecino inferior izquierdo (C-1).
    3. Metodo de una de las reivindicaciones 1 o 2, en el que el candidato a la fusion destinado a fusionarse con el bloque de prediccion se codifica en modo inter.
    4. Aparato de descodificacion de un flujo continuo de bits de una senal de video, que comprende:
    una unidad (210) de descodificacion entropica configurada para obtener informacion de bandera de fusion de un bloque de prediccion (X; X1, X2) a partir del flujo continuo de bits de la senal de video, indicando la informacion de bandera de fusion si el bloque de prediccion (X; X1, X2) esta codificado o no en un modo de fusion;
    una unidad (254) de prediccion inter configurada para constituir candidatos a la fusion para el bloque de prediccion (X; X1, X2) con un bloque vecino izquierdo (710), un bloque vecino superior (720), bloques vecinos de las esquinas (C, C-1, C-2) y un bloque (D) correspondiente al bloque de prediccion en otra imagen,
    en donde el bloque vecino izquierdo se excluye de los candidatos a la fusion cuando un bloque de codificacion 2N x 2N se segmenta en dos bloques de N x 2N y el bloque de prediccion (X; X1, X2) es un bloque de N x 2N ubicado en una parte derecha del bloque de codificacion, siendo el bloque vecino izquierdo un bloque de N x 2N situado en una parte izquierda del bloque de codificacion;
    la unidad (210) de descodificacion entropica esta configurada para obtener informacion de mdice de fusion del bloque de prediccion (X; X1, X2) a partir del flujo continuo de bits de la senal de video, especificando la informacion de mdice de fusion un candidato a la fusion destinado a fusionarse con el bloque de prediccion, de entre los candidatos a la fusion constituidos;
    la unidad (254) de prediccion inter esta configurada para obtener informacion de prediccion del bloque de prediccion (X; X1, X2) basandose en los candidatos a la fusion constituidos y la informacion de mdice de fusion obtenida, de manera que informacion de prediccion del candidato a la fusion especificado por la informacion de mdice de fusion obtenida se usa como informacion de prediccion del bloque de prediccion, incluyendo la informacion de prediccion un vector de movimiento y un mdice de representacion visual de referencia, y esta configurada para predecir el bloque de prediccion (X; X1, X2) usando la informacion de prediccion obtenida.
    5. Aparato de la reivindicacion 4, en el que los bloques vecinos de las esquinas incluyen un bloque vecino superior izquierdo (C-2), un bloque vecino superior derecho (C) y un bloque vecino inferior izquierdo (C-1).
    6. Aparato de una de las reivindicaciones 4 o 5, en el que el candidato a la fusion destinado a fusionarse con el bloque de prediccion se codifica en modo inter.
    1
ES11777580T 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo Active ES2711614T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US33090210P 2010-05-04 2010-05-04
US33327310P 2010-05-11 2010-05-11
US41280110P 2010-11-12 2010-11-12
US41443610P 2010-11-17 2010-11-17
PCT/KR2011/003350 WO2011139099A2 (ko) 2010-05-04 2011-05-04 비디오 신호의 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
ES2711614T3 true ES2711614T3 (es) 2019-05-06

Family

ID=44904230

Family Applications (3)

Application Number Title Priority Date Filing Date
ES11777580T Active ES2711614T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo
ES20176589T Active ES2936323T3 (es) 2010-05-04 2011-05-04 Método y aparato para codificar y descodificar una señal de vídeo
ES18192011T Active ES2823480T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo

Family Applications After (2)

Application Number Title Priority Date Filing Date
ES20176589T Active ES2936323T3 (es) 2010-05-04 2011-05-04 Método y aparato para codificar y descodificar una señal de vídeo
ES18192011T Active ES2823480T3 (es) 2010-05-04 2011-05-04 Método y aparato para procesar una señal de vídeo

Country Status (13)

Country Link
US (8) US9363520B2 (es)
EP (4) EP4135328A1 (es)
KR (9) KR102158700B1 (es)
CN (7) CN104811735B (es)
DK (2) DK3429205T3 (es)
ES (3) ES2711614T3 (es)
FI (1) FI3739883T3 (es)
HR (1) HRP20230139T1 (es)
HU (3) HUE052059T2 (es)
PL (3) PL3429205T3 (es)
PT (2) PT3429205T (es)
SI (1) SI3739883T1 (es)
WO (1) WO2011139099A2 (es)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619972B1 (ko) 2008-10-02 2016-05-11 한국전자통신연구원 이산 여현 변환/이산 정현 변환을 선택적으로 이용하는 부호화/복호화 장치 및 방법
HRP20230139T1 (hr) 2010-05-04 2023-03-31 Lg Electronics Inc. Postupak i uređaj za kodiranje i dekodiranje video signala
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
US9398308B2 (en) 2010-07-28 2016-07-19 Qualcomm Incorporated Coding motion prediction direction in video coding
CN106210737B (zh) 2010-10-06 2019-05-21 株式会社Ntt都科摩 图像预测解码装置、图像预测解码方法
US9066102B2 (en) * 2010-11-17 2015-06-23 Qualcomm Incorporated Reference picture list construction for generalized P/B frames in video coding
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
JP5982734B2 (ja) 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
ES2685945T3 (es) 2011-04-12 2018-10-15 Sun Patent Trust Procedimiento de codificación de video de movimiento, y aparato de codificación de video de movimiento
US8718389B2 (en) * 2011-04-13 2014-05-06 Huawei Technologies Co., Ltd. Image encoding and decoding methods and related devices
PT2717573T (pt) * 2011-05-24 2018-06-05 Velos Media Int Ltd Método de codificação de imagem, aparelho de codificação de imagem, método de descodificação de imagem, aparelho de descodificação de imagem e aparelho de codificação/descodificação de imagem
US9485518B2 (en) * 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
PL4007276T3 (pl) 2011-05-27 2023-12-11 Sun Patent Trust Sposób kodowania obrazów, urządzenie do kodowania obrazów, sposób dekodowania obrazów, urządzenie do dekodowania obrazów, i urządzenie do kodowania i dekodowania obrazów
SG194746A1 (en) * 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
CN106686378B (zh) 2011-06-14 2019-10-08 三星电子株式会社 对图像进行解码的方法和设备
KR20140011481A (ko) * 2011-06-15 2014-01-28 미디어텍 인크. 3d 비디오 코딩을 위한 움직임 벡터 및 변이 벡터의 예측과 보상 방법 및 장치
EP4228264A1 (en) 2011-06-23 2023-08-16 Sun Patent Trust Image decoding device, image encoding device
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
RU2603552C2 (ru) 2011-06-24 2016-11-27 Сан Пэтент Траст Способ декодирования изображения, способ кодирования изображения, устройство декодирования изображения, устройство кодирования изображения и устройство кодирования и декодирования изображения
US9106919B2 (en) * 2011-06-24 2015-08-11 Panasonic Intellectual Property Corporation Of America Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
MY169636A (en) 2011-06-27 2019-04-24 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
CN107105254B (zh) 2011-06-28 2020-03-20 太阳专利托管公司 编码方法及编码装置
MX2013010892A (es) 2011-06-29 2013-12-06 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
MX339141B (es) 2011-06-30 2016-05-13 Panasonic Ip Corp America Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
KR102060619B1 (ko) 2011-06-30 2019-12-30 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
EP2728878B1 (en) 2011-06-30 2020-02-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
WO2013005966A2 (ko) * 2011-07-01 2013-01-10 한국전자통신연구원 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
KR20130004173A (ko) * 2011-07-01 2013-01-09 한국항공대학교산학협력단 비디오 부호화 방법 및 복호화 방법과 이를 이용한 장치
HUE049138T2 (hu) 2011-07-11 2020-09-28 Sun Patent Trust Kép dekódolási eljárás, kép dekódoló berendezés
JP5830993B2 (ja) * 2011-07-14 2015-12-09 ソニー株式会社 画像処理装置及び画像処理方法
EP3487178A1 (en) 2011-08-03 2019-05-22 Sun Patent Trust Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
WO2013032074A1 (ko) 2011-08-29 2013-03-07 주식회사 아이벡스피티홀딩스 머지 모드 움직임 정보 복호화 장치
DK2755389T3 (en) * 2011-09-09 2019-04-01 Lg Electronics Inc Method of inter prediction and arrangement thereof
ES2487993B1 (es) 2011-09-09 2015-09-29 Kt Corporation Procedimiento de obtención de un vector temporal predictor de movimiento, y aparato que utiliza el procedimiento
WO2013047811A1 (ja) * 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
EP2942961A1 (en) * 2011-11-23 2015-11-11 HUMAX Holdings Co., Ltd. Methods for encoding/decoding of video using common merging candidate set of asymmetric partitions
US8792745B2 (en) * 2011-12-06 2014-07-29 Sony Corporation Encoder optimization of adaptive loop filters in HEVC
CN107566836B (zh) 2011-12-23 2020-04-07 韩国电子通信研究院 图像解码方法、图像编码方法和记录介质
EP2806635A4 (en) * 2012-01-18 2015-12-02 Korea Electronics Telecomm METHOD AND DEVICE FOR ENCODING AND DECODING AN IMAGE
CN104282030A (zh) * 2013-07-12 2015-01-14 富士通株式会社 图像压缩装置及方法
US9281611B2 (en) 2013-08-14 2016-03-08 Lear Corporation Electric connector with wire retainer tube
CN108989815B9 (zh) 2014-03-19 2021-06-04 株式会社Kt 针对多视图视频信号生成合并候选列表的方法及解码装置
USD794050S1 (en) 2014-08-19 2017-08-08 Fujifilm Corporation Display screen for digital camera with transitional graphical user interface
US10397611B2 (en) 2014-10-08 2019-08-27 Lg Electronics Inc. Method and device for encoding/decoding 3D video
CN112188207B (zh) * 2014-10-31 2023-10-20 三星电子株式会社 使用高精度跳过编码的视频编码设备和视频解码设备及其方法
CN116506600A (zh) * 2016-03-11 2023-07-28 数字洞察力有限公司 视频编码方法以及装置
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
CN109644267B (zh) * 2016-08-03 2023-07-04 株式会社Kt 视频信号处理方法和装置
CA3037685C (en) 2016-09-20 2023-03-28 Bae Keun Lee Method and apparatus for processing video signal
KR20190053238A (ko) * 2016-10-06 2019-05-17 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
JP6895247B2 (ja) * 2016-10-06 2021-06-30 日本放送協会 符号化装置、復号装置及びプログラム
KR102559061B1 (ko) * 2016-11-18 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11159793B2 (en) * 2017-10-16 2021-10-26 Digitalinsights Inc. Method, device, and recording medium storing bit stream, for encoding/decoding image
JP2021514162A (ja) 2018-02-22 2021-06-03 エルジー エレクトロニクス インコーポレイティド 映像コーディングシステムにおけるブロック分割構造による映像デコーディング方法及び装置
CN110505482B (zh) * 2018-05-16 2021-10-26 华为技术有限公司 一种编解码方法及装置
WO2019219066A1 (zh) * 2018-05-16 2019-11-21 华为技术有限公司 一种编解码方法及装置
US10616574B2 (en) * 2018-06-04 2020-04-07 Tencent America LLC Methods and apparatus for extended merge mode with adaptive grid size in video coding
US11412246B2 (en) * 2018-06-08 2022-08-09 Kt Corporation Method and apparatus for processing video signal
CN117499639A (zh) * 2018-06-27 2024-02-02 数字洞察力有限公司 图像编码/解码方法和用于发送图像信息的数据的方法
TWI750486B (zh) * 2018-06-29 2021-12-21 大陸商北京字節跳動網絡技術有限公司 運動資訊共用的限制
WO2020009419A1 (ko) * 2018-07-02 2020-01-09 인텔렉추얼디스커버리 주식회사 병합 후보를 사용하는 비디오 코딩 방법 및 장치
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
KR20210084479A (ko) 2018-11-06 2021-07-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 모션 정보의 위치 의존적 저장
CN113727101B (zh) * 2018-11-22 2022-10-11 华为技术有限公司 编码器、解码器及对应帧间预测方法
WO2020114405A1 (en) 2018-12-03 2020-06-11 Beijing Bytedance Network Technology Co., Ltd. Indication method of maximum number of candidates
KR20220113836A (ko) 2018-12-31 2022-08-16 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 비디오 코딩에서 움직임 병합 모드의 시그널링을 위한 시스템 및 방법
CN113056908B (zh) * 2019-01-29 2024-04-05 深圳市欢太科技有限公司 视频字幕合成方法、装置、存储介质及电子设备
US11533506B2 (en) * 2019-02-08 2022-12-20 Tencent America LLC Method and apparatus for video coding
US20200288175A1 (en) * 2019-03-06 2020-09-10 Qualcomm Incorporated Signaling of triangle merge mode indexes in video coding
US10742972B1 (en) * 2019-03-08 2020-08-11 Tencent America LLC Merge list construction in triangular prediction
CN115643400B (zh) * 2019-03-12 2023-06-20 北京达佳互联信息技术有限公司 用于视频解码的方法、装置和存储介质
WO2020198172A1 (en) * 2019-03-23 2020-10-01 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of video coding for triangle prediction
CN113994672B (zh) * 2019-04-25 2023-07-25 北京达佳互联信息技术有限公司 用于利用三角形预测进行视频编解码的方法和装置
WO2020227678A1 (en) * 2019-05-08 2020-11-12 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatuses for signaling of merge modes in video coding
WO2020251421A2 (en) * 2019-10-03 2020-12-17 Huawei Technologies Co., Ltd. Method and apparatus of high-level syntax for non-rectangular partitioning modes
CA3160471A1 (en) * 2019-11-05 2021-05-14 Lg Electronics Inc. Image/video coding method and device
WO2021091254A1 (ko) 2019-11-05 2021-05-14 엘지전자 주식회사 영상/비디오 코딩 시스템에서 픽처 헤더에서 슬라이스 타입에 관한 정보를 시그널링하는 방법 및 장치
AU2020380731B2 (en) * 2019-11-05 2024-03-07 Lg Electronics Inc. High level syntax signaling method and device for image/video coding
US11496755B2 (en) 2019-12-28 2022-11-08 Tencent America LLC Method and apparatus for video coding
CN114902663A (zh) * 2019-12-30 2022-08-12 鸿颖创新有限公司 用于编码视频数据的设备和方法
AU2021201606A1 (en) * 2020-01-14 2022-08-11 Huawei Technologies Co., Ltd. Method and apparatus of signaling the number of candidates for merge mode
WO2021196211A1 (zh) * 2020-04-03 2021-10-07 Oppo广东移动通信有限公司 一种帧间预测方法、编码器、解码器及存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100508798B1 (ko) 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
US20040081238A1 (en) * 2002-10-25 2004-04-29 Manindra Parhy Asymmetric block shape modes for motion estimation
KR100513732B1 (ko) 2002-12-05 2005-09-08 삼성전자주식회사 3차원 객체 데이터 부호화 및 복호화 방법 및 장치
EP1431919B1 (en) 2002-12-05 2010-03-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding three-dimensional object data by using octrees
WO2004064255A2 (en) 2003-01-07 2004-07-29 Thomson Licensing S.A. Mixed inter/intra video coding of macroblock partitions
US8761252B2 (en) 2003-03-27 2014-06-24 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
KR20060109247A (ko) 2005-04-13 2006-10-19 엘지전자 주식회사 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR20060105407A (ko) 2005-04-01 2006-10-11 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006333436A (ja) * 2005-01-07 2006-12-07 Ntt Docomo Inc 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び、動画像復号プログラム
EP1878249B1 (en) 2005-04-01 2020-03-04 LG Electronics, Inc. Method for scalably decoding a video signal
EP1878248A4 (en) 2005-04-01 2012-11-21 Lg Electronics Inc METHOD FOR SCALABLE CODING AND DECODING A VIDEO SIGNAL
WO2006104366A1 (en) 2005-04-01 2006-10-05 Lg Electronics Inc. Method for scalably encoding and decoding video signal
US8660180B2 (en) 2005-04-01 2014-02-25 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
WO2006109986A1 (en) 2005-04-13 2006-10-19 Lg Electronics Inc. Method and apparatus for encoding/decoding video signal using reference pictures
US7996041B2 (en) 2005-04-15 2011-08-09 Nokia Corporation Apparatus and method for requesting initiation of a communication session using capability configuration parameters with card application toolkit
JP5197003B2 (ja) 2005-04-19 2013-05-15 株式会社大塚製薬工場 人工髄液
US8755434B2 (en) 2005-07-22 2014-06-17 Lg Electronics Inc. Method and apparatus for scalably encoding and decoding video signal
CN101507280B (zh) * 2006-08-25 2012-12-26 汤姆逊许可公司 用于降低分辨率划分的方法和装置
CN104822062B (zh) 2007-01-08 2018-11-30 诺基亚公司 用于视频编码中扩展空间可分级性的改进层间预测
KR101165212B1 (ko) * 2007-01-08 2012-07-11 노키아 코포레이션 비디오 코딩에서 확장된 공간 스케일러빌러티를 위한 개선된 계층 예측
WO2008127597A2 (en) 2007-04-12 2008-10-23 Thomson Licensing Method and apparatus for context dependent merging for skip-direct modes for video encoding and decoding
JP5801054B2 (ja) 2007-06-12 2015-10-28 トムソン ライセンシングThomson Licensing スライスデータ用のマルチパスビデオのシンタックス構造をサポートする方法及び装置
WO2009032255A2 (en) 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
CN101472174A (zh) * 2007-12-29 2009-07-01 智多微电子(上海)有限公司 视频解码器中用于复原原始图像数据的方法及装置
HRP20230139T1 (hr) * 2010-05-04 2023-03-31 Lg Electronics Inc. Postupak i uređaj za kodiranje i dekodiranje video signala
JP2013545342A (ja) 2010-10-08 2013-12-19 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ブロック分割及びブロック統合をサポートする画像符号化
WO2013047811A1 (ja) * 2011-09-29 2013-04-04 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
TWI554079B (zh) * 2011-12-28 2016-10-11 Jvc Kenwood Corp Dynamic image decoding device, dynamic image decoding method, dynamic image decoding program
TW201334565A (zh) * 2011-12-28 2013-08-16 Jvc Kenwood Corp 動態影像編碼裝置、動態影像編碼方法及動態影像編碼程式、以及動態影像解碼裝置、動態影像解碼方法及動態影像解碼程式

Also Published As

Publication number Publication date
PL2568706T3 (pl) 2019-06-28
US11553185B2 (en) 2023-01-10
CN102870414B (zh) 2015-05-20
DK3429205T3 (da) 2020-09-07
KR20170122280A (ko) 2017-11-03
US10666947B2 (en) 2020-05-26
CN104811736A (zh) 2015-07-29
CN104811732B (zh) 2018-04-20
KR101789635B1 (ko) 2017-10-25
US9363520B2 (en) 2016-06-07
SI3739883T1 (sl) 2023-03-31
CN104811736B (zh) 2018-06-26
US11006123B2 (en) 2021-05-11
EP3739883A1 (en) 2020-11-18
HUE061303T2 (hu) 2023-06-28
US20190124336A1 (en) 2019-04-25
KR20200109386A (ko) 2020-09-22
US20200244967A1 (en) 2020-07-30
KR102158700B1 (ko) 2020-09-22
KR102219985B1 (ko) 2021-02-25
PL3739883T3 (pl) 2023-04-11
KR20220093407A (ko) 2022-07-05
CN104811737A (zh) 2015-07-29
CN104811733A (zh) 2015-07-29
CN104811735B (zh) 2018-11-09
KR20180100261A (ko) 2018-09-07
KR102355933B1 (ko) 2022-01-25
CN104811732A (zh) 2015-07-29
KR20220013472A (ko) 2022-02-04
US9936202B2 (en) 2018-04-03
KR102303515B1 (ko) 2021-09-16
PT2568706T (pt) 2019-02-13
PT3429205T (pt) 2020-08-28
PL3429205T3 (pl) 2021-02-08
CN104811737B (zh) 2018-06-15
KR20210115063A (ko) 2021-09-24
US9357218B2 (en) 2016-05-31
KR101878148B1 (ko) 2018-07-13
KR20180081838A (ko) 2018-07-17
WO2011139099A3 (ko) 2012-03-01
KR20210021152A (ko) 2021-02-24
CN104811734B (zh) 2018-04-13
EP4135328A1 (en) 2023-02-15
DK2568706T3 (en) 2019-03-11
EP3429205B1 (en) 2020-07-15
CN104811733B (zh) 2018-06-26
CN102870414A (zh) 2013-01-09
CN104811734A (zh) 2015-07-29
HUE043816T2 (hu) 2019-09-30
HRP20230139T1 (hr) 2023-03-31
EP3739883B1 (en) 2022-11-16
EP2568706A2 (en) 2013-03-13
KR102521802B1 (ko) 2023-04-13
US20130107959A1 (en) 2013-05-02
WO2011139099A2 (ko) 2011-11-10
US20210250588A1 (en) 2021-08-12
EP2568706A4 (en) 2016-03-02
ES2936323T3 (es) 2023-03-16
US20150163494A1 (en) 2015-06-11
US20160249054A1 (en) 2016-08-25
ES2823480T3 (es) 2021-05-07
US20180227582A1 (en) 2018-08-09
FI3739883T3 (fi) 2023-01-13
US20230135855A1 (en) 2023-05-04
KR101988327B1 (ko) 2019-06-12
EP3429205A1 (en) 2019-01-16
KR20130105783A (ko) 2013-09-26
US10397580B2 (en) 2019-08-27
HUE052059T2 (hu) 2021-04-28
KR102415787B1 (ko) 2022-06-30
CN104811735A (zh) 2015-07-29
EP2568706B1 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
ES2711614T3 (es) Método y aparato para procesar una señal de vídeo
ES2713477T3 (es) Método de predicción inter y aparato correspondiente
ES2724570A2 (es) Método y aparato para procesar señales de vídeo
ES2737845A2 (es) Metodo y aparato para procesar senal de video
KR20210149759A (ko) 적응적 모션 벡터 해상도를 이용한 비디오 신호 처리 방법 및 장치