ES2875906T3 - Procedimiento y aparato para derivación de un candidato a MV/MVP para modos de inter/salto/fusión - Google Patents

Procedimiento y aparato para derivación de un candidato a MV/MVP para modos de inter/salto/fusión Download PDF

Info

Publication number
ES2875906T3
ES2875906T3 ES11845162T ES11845162T ES2875906T3 ES 2875906 T3 ES2875906 T3 ES 2875906T3 ES 11845162 T ES11845162 T ES 11845162T ES 11845162 T ES11845162 T ES 11845162T ES 2875906 T3 ES2875906 T3 ES 2875906T3
Authority
ES
Spain
Prior art keywords
block
mvp
predictor
motion vector
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11845162T
Other languages
English (en)
Inventor
Jian-Liang Lin
Yu-Pao Tsai
Yi-Wen Chen
Yu-Wen Huang
Shaw-Min Lei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HFI Innovation Inc
Original Assignee
HFI Innovation Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/089,233 external-priority patent/US8711940B2/en
Application filed by HFI Innovation Inc filed Critical HFI Innovation Inc
Application granted granted Critical
Publication of ES2875906T3 publication Critical patent/ES2875906T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Un procedimiento de derivación de un predictor de vector de movimiento, MVP, para un vector de movimiento, MV, de un bloque actual de una imagen actual en modo Inter, en el que el vector de movimiento está asociado con el bloque actual y un correspondiente bloque de una imagen de referencia objetivo en una lista de referencia determinada, comprendiendo el procedimiento: determinar al menos dos bloques de referencia co-ubicados de un bloque co-ubicado (630) en la imagen de referencia objetivo, en el que el bloque co-ubicado (630), que es el área respectiva del bloque actual en la imagen de referencia, es un bloque en la imagen de referencia objetivo que tiene la misma ubicación de bloque que el bloque actual en la imagen actual; recibir al menos dos vectores de movimiento de referencia asociados con dichos al menos dos bloques de referencia co-ubicados, respectivamente; determinar el predictor MVP para el bloque actual en base a un conjunto de candidatos a predictores MVP espaciales/temporales, incluyendo el conjunto de candidatos dichos al menos dos vectores de movimiento de referencia como predictores MVP temporales; y proporcionar el predictor MVP para el bloque actual, en el que dichos al menos dos bloques de referencia co-ubicados en la imagen de referencia objetivo al menos comprenden un bloque vecino inferior derecho (610) del bloque co-ubicado (630) y un bloque de referencia interior (810, 910) del bloque co-ubicado (630), en el que se realiza una búsqueda de predictor MVP basada en el bloque vecino inferior derecho (610) y el bloque de referencia interior (810, 910) según un orden de búsqueda, y un vector de movimiento de referencia asociado con el bloque vecino inferior derecho (610) es utilizado como el predictor MVP si el bloque vecino inferior derecho es seleccionado para el bloque actual según el orden de búsqueda.

Description

DESCRIPCIÓN
Procedimiento y aparato para derivación de un candidato a MV/MVP para modos de inter/salto/fusión
REFERENCIA CRUZADA A APLICACIONES RELACIONADAS
La presente invención reivindica la prioridad de la solicitud de patente provisional de EE.UU. No.
61/417.798, presentada el 29 de noviembre de 2010, titulada "New Motion Vector Predictor Set", la solicitud de patente provisional de EE.UU. No. 61/431.454, presentada el 11 de enero de 2011, titulada "Improved Advanced Motion Vector Prediction", la solicitud de patente provisional de EE.UU. No. 61/452,541, presentada el 14 de marzo de 2011, titulada “A Temporal MV/m Vp Candidate for Inter, Skip and Merging Prediction Units in Video Compression”, y la solicitud de patente provisional de EE.UU. No. 13/089.233, presentada el 18 de abril de 2011, titulada "Method and Apparatus of Extended Motion Vector Predictor". Solicitud de patente no provisional, No. 13/206.891, presentada el 10 de agosto de 2011, titulada "Method and Apparatus for Derivation of MV/MVP Candidate for Inter/Skip/Merge Modes".
CAMPO TÉCNICO
La presente invención se refiere a codificación de vídeo. En particular, la presente invención se refiere a un procedimiento de derivación de un vector de movimiento.
El documento WO2009/115901A2 divulga una técnica para predicción de vectores de movimiento en sistemas de codificación de vídeo, en la que un predictor comprende un vector para un bloque vecino de un bloque co-ubicado en una segunda imagen. El documento JCTVC-A124 de JCT-VC, "Samsung's Response to the Call for Proposals on Video Compression Technology", Dresden del 15 al 23 de abril de 2010, XP030007573, divulga un procedimiento de derivación de un predictor de vector de movimiento.
ANTECEDENTES
En sistemas de codificación de vídeo, se explota una redundancia espacial y temporal utilizando una predicción espacial y temporal para reducir la información a transmitir. La predicción espacial y temporal utiliza píxeles decodificados de la misma imagen y de imágenes de referencia, respectivamente, para formar una predicción para píxeles actuales a codificar. En un sistema de codificación convencional, se puede tener que transmitir información lateral asociada con la predicción espacial y temporal, lo que ocupará parte del ancho de banda de los datos de vídeo comprimidos. La transmisión de vectores de movimiento para la predicción temporal puede requerir una parte notable de los datos de vídeo comprimidos, particularmente en aplicaciones de baja tasa de bits. Para reducir aún más la tasa de bits asociada con vectores de movimiento, en los últimos años se ha utilizado en el campo de la codificación de vídeo una técnica denominada Predicción de Vectores de Movimiento (MVP: Motion Vector Prediction). La técnica de predicción MVP explota la redundancia estadística entre vectores de movimiento vecinos espacial y temporalmente. En el resto de este documento, MVP puede denotar a veces "predicción de vectores de movimiento" y a veces "predictor de vectores de movimiento" según los contextos.
En el desarrollo de la codificación de vídeo de alta eficiencia (HEVC: High-Efficiency Video Coding), el organismo de normalización está considerando actualmente una técnica denominada predicción avanzada de vectores de movimiento (AMVP: Advanced Motion Vector Prediction). La técnica de predicción AMVP utiliza una señalización de predictor explícita para indicar el predictor MVP seleccionado de un conjunto de candidatos a predictores MVP. En la versión 2.0 del modelo de prueba HEVC (HM-2.0), el conjunto de candidatos a predictores MVP de la predicción AMVP incluye predictores MVP espaciales así como un predictor MVP temporal, en el que los predictores MVP espaciales incluyen dos predictores MVP seleccionados de dos respectivos grupos vecinos del bloque actual. El predictor MVP temporal se deriva a partir de vectores de movimiento de un área respectiva de una imagen de referencia mapeando el bloque actual en la imagen actual con la imagen de referencia. El área respectiva, es decir, el bloque co-ubicado, en la imagen de referencia puede no tener el mismo tamaño de bloque (tamaño de unidad de predicción (PU: Prediction Unit)) que el bloque actual. Cuando el área respectiva utiliza tamaños de bloque más pequeños que el bloque actual, se selecciona uno de los bloques en el bloque co-ubicado como bloque de referencia co-ubicado. En el HM-2.0, el predictor temporal está asociado con el bloque central del área respectiva, mientras que la versión anterior del HM utiliza el bloque de referencia superior izquierdo del bloque co-ubicado. Si el vector de movimiento del bloque de referencia co-ubicado no existe, el predictor MVP no se encuentra disponible. Es deseable desarrollar un esquema de derivación de predictor MVP que pueda mejorar la disponibilidad del predictor MVP temporal. El esquema de derivación de predictor MVP mejorado puede dar lugar a residuos de vector de movimiento más pequeños y, en consecuencia, a una mejor eficiencia de codificación. Además, es deseable que el esquema de derivación de predictor MVP permita derivar el candidato a predictor MVP en el decodificador en base a información decodificada, de modo que no se tiene que transmitir información lateral adicional.
RESUMEN
En las reivindicaciones independientes se definen un procedimiento y un aparato según la invención. El procedimiento según la invención es un procedimiento de derivación de un predictor de vector de movimiento (MVP) para un vector de movimiento (MV) de un bloque actual de una imagen actual en modo Inter, en el que el vector de movimiento está asociado con el bloque actual y un correspondiente bloque de una imagen de referencia objetivo en una lista de referencia determinada. En las reivindicaciones dependientes se definen características preferibles de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para los modos Inter y de Salto según la versión 2.0 del modelo de prueba de codificación de vídeo de alta eficiencia (HM-2.0).
La Figura 2 ilustra un ejemplo de predictor temporal mapeando el centro del bloque con un bloque co­ ubicado en lugar del origen del bloque.
La Figura 3 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para el modo de Fusión según e1HM-2.0.
La Figura 4 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para el modo de Fusión para una primera unidad de predicción de N x 2N según el HM-2.0.
La Figura 5 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para el modo de Fusión para una primera unidad de predicción de 2N x N según el HM-2.0.
La Figura 6 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial y temporal para los modos Inter y de Salto según una forma de realización que es útil para entender la presente invención.
La Figura 7 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para el modo de Fusión según una forma de realización que es útil para entender la presente invención.
La Figura 8 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para los modos Inter y de Salto según una forma de realización de la presente invención.
La Figura 9 ilustra una configuración de bloques vecinos para derivar un conjunto de candidatos de predicción de vectores de movimiento espacial/temporal para los modos Inter y de Salto según otra forma de realización de la presente invención.
DESCRIPCIÓN DETALLADA
En sistemas de codificación de vídeo, la redundancia espacial y temporal se explota utilizando una predicción espacial y temporal para reducir la tasa de bits a transmitir o almacenar. La predicción espacial utiliza píxeles decodificados de la misma imagen para formar una predicción para píxeles actuales a codificar. La predicción espacial se suele realizar bloque a bloque, tal como el bloque de 16 * 16 o de 4 * 4 para una señal de luminancia en una codificación Intra del estándar H.264/AVC. En secuencias de vídeo, las imágenes vecinas suelen tener grandes similitudes, y un simple uso de diferencias de imagen puede reducir eficazmente la información transmitida asociada con áreas de fondo estáticas. Sin embargo, los objetos en movimiento en la secuencia de vídeo pueden dar lugar a residuos sustanciales y requerirán una mayor tasa de bits para codificar los residuos. En consecuencia, a menudo se utiliza una Predicción Compensada de Movimiento (MCP: Motion Compensated Prediction) para explotar una correlación temporal en secuencias de vídeo.
La predicción compensada de movimiento se puede utilizar a modo de predicción hacia adelante, en la que se predice un bloque de imagen actual utilizando una imagen o imágenes decodificadas que son anteriores a la imagen actual en el orden de visualización. Además de la predicción hacia adelante, también se puede utilizar una predicción hacia atrás para mejorar el rendimiento de la predicción compensada de movimiento. La predicción hacia atrás utiliza una imagen o imágenes decodificadas después de la imagen actual en el orden de visualización. Desde que se finalizó la primera versión del estándar H.264/AVC en 2003, la predicción hacia delante y la predicción hacia atrás se han ampliado a la predicción de lista 0 y la predicción de lista 1, respectivamente, en las que tanto la lista 0 como la lista 1 pueden contener múltiples imágenes de referencia anteriores o/y posteriores a la imagen actual en el orden de visualización. A continuación se describe la configuración de lista de imágenes de referencia por defecto. En la lista 0, imágenes de referencia anteriores a la imagen actual tienen unos índices de imagen de referencia menores que los de las posteriores a la imagen actual. En la lista 1, imágenes de referencia posteriores a la imagen actual tienen unos índices de imagen de referencia menores que los de las anteriores a la imagen actual. Tanto para la lista 0 como para la lista 1, después de aplicar las reglas anteriores, la distancia temporal se considera de la siguiente manera: una imagen de referencia más cercana a la imagen actual tiene un índice de imagen de referencia menor. Para ilustrar la configuración de imágenes de referencia de lista 0 y de lista 1, se proporciona el siguiente ejemplo en el que la imagen actual es la imagen 5 y las imágenes 0, 2, 4, 6 y 8 son imágenes de referencia, en que los números denotan el orden de visualización. Las imágenes de referencia de la lista 0 con índices de imagen de referencia ascendentes y que comienzan con un índice igual a cero son las imágenes 4, 2, 0, 6 y 8. Las imágenes de referencia de la lista 1 con índices de imagen de referencia ascendentes y que comienzan con un índice igual a cero son las imágenes 6, 8, 4, 2 y 0. La primera imagen de referencia que tiene índice 0 se denomina imagen co-ubicada, y en este ejemplo con la imagen 5 como i magen actual, la imagen 6 es la imagen co-ubicada de la lista 1, y la imagen 4 es la imagen co-ubicada de la lista 0. Cuando un bloque en una imagen co-ubicada de la lista 0 o de la lista 1 tiene la misma ubicación de bloque que el bloque actual en la imagen actual, se denomina bloque co-ubicado de la lista 0 o de la lista 1, o se denomina bloque co-ubicado de la lista 0 o de la lista 1. La unidad utilizada para el modo de estimación de movimiento en estándares de vídeo anteriores, tales como MPEG-1, MPEG-2 y MPEG-4, se basa principalmente en un macrobloque. Para el estándar H.264/AVC, el macrobloque de 16 * 16 se puede segmentar en bloques de 16 * 16, 16 * 8, 8 * 16 y 8 * 8 para la estimación de movimiento. Además, el bloque de 8 * 8 se puede segmentar en bloques de 8 * 8, 8 * 4, 4 * 8 y 4 * 4 para la estimación de movimiento. Para el estándar de codificación de vídeo de alta eficiencia (HEVC) que está en desarrollo, la unidad para el modo de estimación/compensación de movimiento se denomina unidad de predicción (PU: Prediction Unit), en que la unidad de predicción se divide jerárquicamente a partir de un tamaño de bloque máximo. En el estándar H.264/AVC se selecciona un tipo de predicción MCP para cada corte (slice). Un corte en el que la predicción compensada de movimiento se restringe a la predicción de lista 0 se denomina corte P (P-slice). Para un corte B (B-slice), la predicción compensada de movimiento también incluye la predicción de lista 1 además de la predicción de lista 0.
En sistemas de codificación de vídeo, los vectores de movimiento (MV) y residuos codificados se transmiten a un decodificador para reconstruir el vídeo en el lado del decodificador. Además, en un sistema con una estructura de imágenes de referencia flexible, es posible que también se tenga que transmitir la información asociada con las imágenes de referencia seleccionadas. La transmisión de vectores de movimiento puede requerir una parte notable de todo el ancho de banda, especialmente en aplicaciones de baja tasa de bits o en sistemas en los que los vectores de movimiento son asociados con bloques más pequeños o con una mayor precisión de movimiento. Para reducir aún más la tasa de bits asociada con el vector de movimiento, en los últimos años se ha utilizado en el campo de la codificación de vídeo una técnica denominada Predicción de Vector de Movimiento (MVP: Motion Vector Prediction). En esta divulgación, MVP también se puede referir a un Predictor de Vector de Movimiento y la abreviatura se utiliza cuando no hay ambigüedad. La técnica de predictor MVP explota la redundancia estadística entre vectores de movimiento vecinos espacial y temporalmente. Cuando se utiliza un predictor MVP, se elige un predictor para el vector de movimiento actual y se transmite el residuo del vector de movimiento, es decir, la diferencia entre el vector de movimiento y el predictor. El residuo del vector de movimiento se suele denominar también diferencia del vector de movimiento (MVD: motion vector difference). El esquema de predictor MVP se puede aplicar en una disposición de bucle cerrado en la que el predictor es derivado en el decodificador en base a información decodificada y no hay que transmitir información lateral adicional. Alternativamente, se puede transmitir información lateral explícitamente en el flujo de bits para informar al decodificador sobre el predictor del vector de movimiento seleccionado.
En el estándar H.264/AVC, se admiten cuatro tipos diferentes de inter predicción para cortes B, que incluyen la predicción de lista 0, de lista 1, bi-predictiva y DIRECTA, en que la de lista 0 y la de lista 1 se refieren a una predicción que utiliza un grupo 0 y grupo 1 de imágenes de referencia respectivamente. Cuando sólo se utilizan imágenes de referencia de una lista de referencia (es decir, la lista 0 o la lista 1), la predicción se denomina modo uni-predicción. En el modo bi-predicción, la señal de predicción es formada por una media ponderada de unas señales de predicción de lista 0 y lista 1 compensadas por movimiento. El modo de predicción DIRECTA se infiere a partir de elementos de sintaxis transmitidos previamente y puede ser de predicción de lista 0 o de lista 1 o bi-predictiva. Por lo tanto, no es necesario transmitir información del vector de movimiento en el modo de predicción DIRECTA. En el caso de que no se transmita ninguna señal de error cuantificado, el modo de macrobloque DIRECTO se denomina modo de salto B y el bloque puede ser codificado eficazmente. De nuevo, un buen esquema de predictor MVP puede dar lugar a más residuos de vector de movimiento cero o a menores errores de predicción. En consecuencia, un buen esquema de predictor MVP puede aumentar el número de bloques codificados en modo de predicción DIRECTA y mejorar la eficiencia de la codificación.
En el estándar HEVC que está en desarrollo, se están considerando algunas mejoras de predicción de vector de movimiento sobre el estándar H.264/AVC. Para los modos Inter y de Salto en la versión 2.0 del modelo de prueba HEVC (HM-2.0), se juntan múltiples predictores MVP espaciales con un predictor MVP temporal para seleccionar un predictor MVP final para el bloque actual. En el modo de Fusión de1HM-2.0, también se juntan múltiples predictores MVP espaciales con un predictor MVP temporal para seleccionar un predictor MVP final para el bloque actual. En los modos de Fusión y de Salto, los predictores MVP finales son los vectores de movimiento finales porque sus diferencias MVD son cero por definición. En e1HM-2.0, los modos Inter y de Salto utilizan un algoritmo de Predicción Avanzada de Vectores de Movimiento (AMVP: Advanced Motion Vector Prediction) para seleccionar un predictor de vector de movimiento (MVP) final dentro de un conjunto de candidatos de predictores MVP. La predicción AMVP es una propuesta de McCann et al., titulada "Samsung's Response to the Call for Proposals on Video Compression Technology", Documento JCTVC-A124, Equipo Colaborativo Conjunto sobre Codificación de Video (JCT-VC) of ITU-T SG16 WP3 e ISO/IEC JTC1/SC29/WG1, Primera reunión: Dresde, Alemania, 15 - 23 de abril de 2010 . El índice del predictor MVP seleccionado es transmitido. En el modo de Salto de1HM-2.0, el índice de referencia siempre se establece igual a 0. En el modo Inter, el índice de referencia es transmitido explícitamente al decodificador.
En el estándar HEVC existente, el predictor MVP temporal se deriva en base a vectores de movimiento de un área respectiva de una imagen de referencia mapeando el bloque actual de la imagen actual con la imagen de referencia. El área respectiva, es decir, el bloque co-ubicado, en la imagen de referencia puede no tener el mismo tamaño de bloque (es decir, tamaño de unidad de predicción (PU)) que el bloque actual. Cuando el área respectiva utiliza tamaños de bloque más pequeños que el bloque actual, se selecciona uno de los bloques en el bloque co-ubicado como bloque de referencia co-ubicado. En e1HM-2.0, el predictor temporal se asocia con el bloque central del área respectiva. El bloque central tiene las coordenadas de su esquina inferior derecha mapeadas con el centro del bloque actual. Sin embargo, un bloque en la esquina superior izquierda del área respectiva ha sido asociado con la predicción temporal de la predicción AMVP en la versión anterior del HM. La Figura 1 ilustra el conjunto de candidatos de predictores MVP utilizado en el HM-2.0, que incluye dos predictores MVP espaciales y un predictor MVP temporal:
1. Predictor izquierdo (el primer vector de movimiento disponible de E, Am,...,Aü),
2. Predictor superior (el primer vector de movimiento disponible de C, Bn,...,Bü, D), y
3. Predictor temporal Tctr (un vector de movimiento temporal, encontrado mapeando el centro del bloque con su bloque co-ubicado).
Se señaliza un índice de predictor MVP para indicar qué predictor MVP del conjunto de candidatos se utiliza. Para el predictor izquierdo, se selecciona el predictor m Vp como el primer vector de movimiento disponible desde el bloque inferior hasta el bloque superior que tiene el mismo índice de imagen de referencia que el índice de imagen de referencia determinado (se establece igual a 0 para el modo de Salto en e1HM-2.0 y se transmite explícitamente al decodificador para el modo Inter) y la misma lista de referencia que la lista de referencia determinada. Para el predictor superior, se selecciona como el primer vector de movimiento disponible que no es idéntico al predictor izquierdo desde el bloque derecho hasta el bloque izquierdo en el HM-2.0, que tiene el mismo índice de imagen de referencia que el índice de imagen de referencia determinado y la misma lista de imágenes de referencia que la lista de referencia determinada. El predictor temporal se determina mapeando el centro del bloque con una imagen co-ubicada, en lugar del origen del bloque (es decir, el bloque superior izquierdo del área respectiva). En la Figura 2 se muestra la ubicación del centro para 3 tipos de particionado de una unidad de codificación de 32 x 32, es decir, 2N x 2N 210, 2N x N 220 y N x N 230. Los centros y orígenes de los bloques se indican con los números de referencia 214, 212, 224, 222, 234 y 232 respectivamente.
En el HM-2.0, si un bloque es codificado como un modo de Fusión, se señaliza un índice de predictor MVP para indicar qué predictor MVP del conjunto de candidatos se utiliza para este bloque a fusionar. La Figura 3 ilustra la configuración de bloques vecinos para derivar el predictor MVP para el modo de Fusión. El conjunto de candidatos incluye cuatro predictores MVP espaciales y un predictor MVP temporal:
1. Predictor izquierdo (A0),
2. Predictor superior (B0),
3. Predictor temporal Tctr (un vector de movimiento temporal, que se encuentra mapeando el centro del bloque con una imagen co-ubicada),
4. Predictor superior derecho (C), y
5. Predictor inferior izquierdo (E).
Para los predictores MVP espaciales en el modo de Fusión, el índice de imagen de referencia se establecerá igual al índice de imagen de referencia del bloque seleccionado. Por ejemplo, si se selecciona el bloque C de acuerdo con el índice de predictor MVP, se utilizan el vector de movimiento y el índice de imagen de referencia del bloque C para la fusión, es decir, se utilizan el vector de movimiento y el índice de imagen de referencia del bloque C para la unidad de predicción actual. Si el bloque tiene dos vectores de movimiento, se utilizan los dos vectores de movimiento y sus índices de imagen de referencia para la bi-predicción. En particular, cada unidad de codificación puede ser fusionada como un todo (es decir, fusión 2N x 2N) o fusionada parcialmente. Si se selecciona un tipo de partición de N x 2N o 2N x N para la unidad de codificación inter predicha, la primera partición (es decir, unidad de predicción) de esta unidad de codificación es forzada al modo de Fusión en el HM-2.0. Es decir, la primera unidad de predicción de una unidad de codificación de N x 2N o 2N x N no tendrá su propio vector de movimiento, sino que tiene que compartir uno de los vectores de movimiento de sus bloques vecinos. Mientras tanto, la segunda unidad de predicción de N x 2N o 2N x N puede estar en modo de Fusión o en modo Inter. Los predictores MVP para la primera unidad de predicción de N x 2N se muestran en la Figura 4, en la que los predictores MVP espaciales se indican con el número de referencia 410 y el predictor MVP temporal se indica con el número de referencia 420. Los predictores MVP para la fusión parcial de la primera unidad de predicción de 2N x N se muestran en la Figura 5, en la que los predictores m Vp espaciales se indican con el número de referencia 510 y el predictor MVP temporal se indica con el número de referencia 520.
Según se ha mencionado anteriormente, la predicción AMVP es un medio eficaz para reducir la información asociada con la transmisión de un vector de movimiento subyacente. La eficacia de la predicción AMVP depende de la disponibilidad de predictores MVP y de la calidad de los predictores MVP (es decir, de la precisión del predictor MVP). Cuando un predictor MVP no se encuentra disponible, el vector de movimiento subyacente tiene que ser transmitido sin predicción o con un valor de predicción igual a 0 u otro valor por defecto. Es deseable mejorar la disponibilidad y la calidad de los predictores MVP. En consecuencia, se divulga un esquema de búsqueda temporal extendida según diversas formas de realización de la presente invención. Según una forma de realización de la presente invención, los predictores MVP temporales para un vector de movimiento (MV) de un bloque actual de una imagen actual se deriva en base a uno o más bloques de referencia co-ubicados del bloque co-ubicado, en el que dicho uno o más bloques de referencia co-ubicados comprenden un bloque del bloque vecino inferior derecho del bloque co-ubicado. Por ejemplo, el bloque de referencia superior izquierdo 610 del bloque vecino inferior derecho 620 del bloque co-ubicado 630 de la imagen de referencia se puede utilizar como bloque de referencia co-ubicado en el modo Inter o de Salto, según se muestra en la Figura 6, la cual no representa una forma de realización de la invención. De modo similar, el bloque de referencia superior izquierdo 610 del bloque vecino inferior derecho 620 del bloque co-ubicado 630 de la imagen de referencia puede ser utilizado como un bloque de referencia co­ ubicado en el modo de Fusión según se muestra en la Figura 7, la cual no representa una forma de realización de la invención.
Mientras que el HM-2.0 y su versión anterior sólo utilizan un bloque de referencia co-ubicado, una forma de realización según la presente invención permite utilizar más de un bloque de referencia co-ubicado. La Figura 8 ilustra un ejemplo de uso de más de un bloque de referencia co-ubicado en que los bloques de referencia co-ubicados incluyen un bloque de referencia superior izquierdo 610, un bloque de referencia central 810 del bloque co-ubicado, un bloque de referencia de más a la izquierda 820 de un bloque vecino derecho 830 del bloque co-ubicado 630, y un bloque de referencia superior 840 de un bloque vecino inferior 850 del bloque co-ubicado 630 en el modo Inter o de Salto. Un bloque de referencia de más a la izquierda del bloque vecino derecho se refiere a un bloque de referencia que está en el lado más a la izquierda del bloque vecino derecho en esta divulgación. En otras palabras, el bloque de referencia de más a la izquierda del bloque vecino derecho es un bloque en el bloque vecino derecho que es adyacente al bloque co-ubicado. El bloque de referencia de más a la izquierda 820 que se muestra en la Figura 8 es el bloque de referencia superior de los bloques de referencia de más a la izquierda. Un bloque de referencia superior del bloque vecino inferior se refiere a un bloque de referencia que está en el lado superior del bloque vecino inferior en esta divulgación. En otras palabras, el bloque de referencia superior del bloque vecino inferior es un bloque en el bloque vecino inferior que es adyacente al bloque co-ubicado. El bloque de referencia superior 840 que se muestra en la Figura 8 es el bloque de referencia de más a la izquierda de los bloques de referencia superiores. Si bien el bloque de referencia central 810 dentro del bloque co-ubicado 630 se utiliza como un bloque de referencia co-ubicado, también se pueden utilizar otros bloques de referencia co-ubicados dentro del bloque co-ubicado 630. Un bloque de referencia co-ubicado dentro del bloque co-ubicado se denomina bloque de referencia interior. La Figura 9 ilustra otro ejemplo de uso de más de un bloque de referencia co­ ubicado en el que los bloques de referencia co-ubicados incluyen el bloque de referencia superior izquierdo 610, un bloque de referencia superior izquierdo 910 del bloque co-ubicado, un bloque de referencia de más a la izquierda 820 de un bloque vecino derecho 830 del bloque co-ubicado, y un bloque de referencia superior 840 de un bloque vecino inferior 850 del bloque co-ubicado en el modo Inter o de Salto. Con el fin de diferenciar los dos bloques de referencia superiores izquierdos 610 y 910 cuando sea necesario, el bloque de referencia superior izquierdo 610 del bloque vecino inferior derecho 620 del bloque co-ubicado 630 se denomina primer bloque de referencia superior izquierdo, mientras que el bloque de referencia superior izquierdo 910 del bloque co-ubicado 630 se denomina bloque de referencia superior izquierdo. Si bien los bloques de referencia co-ubicados que se muestran en la Figura 8 y la Figura 9 se utilizan para derivar un predictor MVP temporal en el modo Inter o de Salto, los bloques de referencia co-ubicados que se muestran en la Figura 8 y la Figura 9 también se pueden utilizar para derivar un predictor MVP temporal en el modo de Fusión.
En otra forma de realización según la presente invención, cuando se utilizan dos o más bloques de referencia co-ubicados, la derivación de predictor MVP iniciará una búsqueda de predictor MVP en base al primer bloque de referencia superior izquierdo 610 del bloque vecino inferior derecho 620 del bloque co­ ubicado 630. Si no se puede encontrar un predictor MVP, la derivación de predictor MVP continuará la búsqueda de predictor MVP en base a otros bloques de referencia co-ubicados. Si se sigue sin poder encontrar un predictor MVP, se puede establecer el predictor MVP igual a cero o igual a un valor por defecto.
En otra forma de realización según la presente invención, cuando el predictor MVP encontrado por la derivación de predictor MVP es el mismo que un predictor MVP encontrado previamente, la derivación de predictor MVP continuará para encontrar un predictor MVP diferente del predictor MVP encontrado previamente. Si se sigue sin poder encontrar el predictor MVP, se puede establecer el predictor MVP igual a cero o igual a un valor por defecto. El predictor MVP encontrado previamente es el predictor MVP que se ha encontrado durante la búsqueda en candidatos a predictores MVP espaciales, en que la búsqueda de predictor MVP se realiza primero en base a los bloques vecinos espaciales por encima del bloque actual y a la izquierda del bloque actual antes de realizar la búsqueda de predictor MVP en base al bloque co­ ubicado.
En esta divulgación, se han proporcionado configuraciones de ejemplo de bloques de referencia co­ ubicados para ilustrar formas de realización según la presente invención. Aunque se han proporcionado configuraciones de ejemplo distintas para el modo Inter/Salto y el modo de Fusión, la configuración de ejemplo para el modo Inter/Salto es aplicable al modo de Fusión, y vice versa. Además, se han proporcionado esquemas de búsqueda de ejemplo distintos para el modo Inter/Salto y el modo de Fusión. Sin embargo, el esquema de búsqueda para el modo Inter/Salto es aplicable al modo de Fusión, y vice versa. Además, aunque se ilustran diversas configuraciones de bloques de referencia co-ubicados como ejemplos, un experto en la materia puede llevar a la práctica la presente invención utilizando otras configuraciones sin apartarse del espíritu de la presente invención.
Una forma de realización de derivación de predictor MVP según la presente invención, según se ha descrito anteriormente, se puede implementar en diversos hardware, códigos de software o una combinación de ambos. Por ejemplo, una forma de realización de la presente invención puede ser un circuito integrado en un chip de compresión de vídeo o unos códigos de programa integrados en un software de compresión de vídeo para realizar el procesamiento que se describe en el presente documento. Una forma de realización de la presente invención también puede ser códigos de programa que se ejecutan en un procesador de señales digitales (DSP) para realizar el procesamiento que se describe en el presente documento. La invención también puede involucrar una serie de funciones a realizar por parte de un procesador informático, un procesador de señales digitales, un microprocesador o una matriz de puertas programables en campo (FPGA). Estos procesadores pueden ser configurados para realizar tareas particulares de acuerdo con la invención, ejecutando un código de software legible informáticamente o un código de firmware que define los procedimientos particulares definidos por la invención. El código de software o los códigos de firmware se pueden desarrollar en diferentes lenguajes de programación y en diferentes formatos o estilos. El código de software también puede ser compilado para diferentes plataformas objetivo. Sin embargo, los diferentes formatos de código, estilos y lenguajes de los códigos de software y otros medios de configuración del código para realizar las tareas de acuerdo con la invención no se apartarán del alcance de la invención.

Claims (9)

REIVINDICACIONES
1. Un procedimiento de derivación de un predictor de vector de movimiento, MVP, para un vector de movimiento, MV, de un bloque actual de una imagen actual en modo Inter, en el que el vector de movimiento está asociado con el bloque actual y un correspondiente bloque de una imagen de referencia objetivo en una lista de referencia determinada, comprendiendo el procedimiento:
determinar al menos dos bloques de referencia co-ubicados de un bloque co-ubicado (630) en la imagen de referencia objetivo, en el que el bloque co-ubicado (630), que es el área respectiva del bloque actual en la imagen de referencia, es un bloque en la imagen de referencia objetivo que tiene la misma ubicación de bloque que el bloque actual en la imagen actual;
recibir al menos dos vectores de movimiento de referencia asociados con dichos al menos dos bloques de referencia co-ubicados, respectivamente;
determinar el predictor MVP para el bloque actual en base a un conjunto de candidatos a predictores MVP espaciales/temporales, incluyendo el conjunto de candidatos dichos al menos dos vectores de movimiento de referencia como predictores MVP temporales; y
proporcionar el predictor MVP para el bloque actual,
en el que dichos al menos dos bloques de referencia co-ubicados en la imagen de referencia objetivo al menos comprenden un bloque vecino inferior derecho (610) del bloque co-ubicado (630) y un bloque de referencia interior (810, 910) del bloque co-ubicado (630),
en el que se realiza una búsqueda de predictor MVP basada en el bloque vecino inferior derecho (610) y el bloque de referencia interior (810, 910) según un orden de búsqueda, y
un vector de movimiento de referencia asociado con el bloque vecino inferior derecho (610) es utilizado como el predictor MVP si el bloque vecino inferior derecho es seleccionado para el bloque actual según el orden de búsqueda.
2. El procedimiento de la reivindicación 1, en el que dicho un vector de movimiento de referencia asociado con el bloque vecino inferior derecho es un vector de movimiento asociado con un bloque de referencia superior izquierdo del bloque vecino inferior derecho del bloque co-ubicado.
3. El procedimiento de la reivindicación 1, en el que el bloque de referencia interior (810, 910) es un bloque de referencia central (810) del bloque co-ubicado (630).
4. El procedimiento de la reivindicación 3, en el que dichos al menos dos bloques de referencia co-ubicados comprenden además un bloque de referencia de más a la izquierda (820) de un bloque vecino derecho del bloque co-ubicado (630), un bloque de referencia superior (840) de un bloque vecino inferior del bloque co­ ubicado (630).
5. El procedimiento de la reivindicación 1, en el que el bloque de referencia interior es un bloque de referencia superior izquierdo del bloque co-ubicado (630), y en el que dichos al menos dos bloques de referencia co-ubicados comprenden además un bloque de referencia de más a la izquierda de un bloque vecino derecho (820) del bloque co-ubicado (630) o un bloque de referencia superior de un bloque vecino inferior (840) del bloque co-ubicado (630).
6. Un aparato para derivar un predictor de vector de movimiento, MVP, para un vector de movimiento, MV, de un bloque actual de una imagen actual en modo Inter, en el que el vector de movimiento está asociado con el bloque actual y un correspondiente bloque de una imagen de referencia objetivo en una lista de referencia determinada, comprendiendo el aparato:
medios para determinar al menos dos bloques de referencia co-ubicados de un bloque co-ubicado (610) en la imagen de referencia objetivo, en el que el bloque co-ubicado (610), que es el área respectiva del bloque actual en la imagen de referencia, es un bloque en la imagen de referencia objetivo que tiene la misma ubicación de bloque que el bloque actual en la imagen actual;
medios para recibir al menos dos vectores de movimiento de referencia asociados con dichos al menos dos o más bloques de referencia co-ubicados, respectivamente;
medios para determinar el predictor MVP para el bloque actual en base a un conjunto de candidatos a predictores MVP espaciales/temporales, incluyendo el conjunto de candidatos dichos al menos dos vectores de movimiento de referencia como predictores MVP temporales; y
medios para proporcionar el predictor MVP para el bloque actual; en el que dichos al menos dos bloques de referencia co-ubicados en la imagen de referencia objetivo al menos comprenden un bloque vecino inferior derecho del bloque co-ubicado (610) y un bloque de referencia interior del bloque co-ubicado (610), en el que se realiza una búsqueda de predictor MVP basada en el bloque vecino inferior derecho y el bloque de referencia interior según un orden de búsqueda, y
un vector de movimiento de referencia asociado con el bloque vecino inferior derecho es utilizado como el predictor MVP si el bloque vecino inferior derecho es seleccionado para el bloque actual según el orden de búsqueda.
7. El aparato de la reivindicación 6, en el que dicho un vector de movimiento de referencia asociado con el bloque vecino inferior derecho es un vector de movimiento asociado con un bloque de referencia superior izquierdo del bloque vecino inferior derecho del bloque co-ubicado (630).
8. El aparato de la reivindicación 6, en el que el bloque de referencia interior es un bloque de referencia central del bloque co-ubicado (630).
9. El aparato de la reivindicación 8, en el que dichos al menos dos bloques de referencia co-ubicados comprenden además un bloque de referencia de más a la izquierda de un bloque vecino derecho (820) del bloque co-ubicado (630), un bloque de referencia superior de un bloque vecino inferior (840) del bloque co­ ubicado (630).
ES11845162T 2010-11-29 2011-10-13 Procedimiento y aparato para derivación de un candidato a MV/MVP para modos de inter/salto/fusión Active ES2875906T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US41779810P 2010-11-29 2010-11-29
US201161431454P 2011-01-11 2011-01-11
US201161452541P 2011-03-14 2011-03-14
US13/089,233 US8711940B2 (en) 2010-11-29 2011-04-18 Method and apparatus of motion vector prediction with extended motion vector predictor
US13/206,891 US9137544B2 (en) 2010-11-29 2011-08-10 Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
PCT/CN2011/080736 WO2012071949A1 (en) 2010-11-29 2011-10-13 Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes

Publications (1)

Publication Number Publication Date
ES2875906T3 true ES2875906T3 (es) 2021-11-11

Family

ID=46126643

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11845162T Active ES2875906T3 (es) 2010-11-29 2011-10-13 Procedimiento y aparato para derivación de un candidato a MV/MVP para modos de inter/salto/fusión

Country Status (10)

Country Link
US (1) US9137544B2 (es)
EP (1) EP2647206B8 (es)
JP (1) JP5770277B2 (es)
CN (1) CN103229504B (es)
AU (1) AU2011335668B2 (es)
CA (1) CA2802926C (es)
ES (1) ES2875906T3 (es)
HU (1) HUE054921T2 (es)
PL (1) PL2647206T3 (es)
WO (1) WO2012071949A1 (es)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RS66722B1 (sr) * 2010-09-02 2025-05-30 Lg Electronics Inc Uređaj za inter predikciju
CN107454419B (zh) * 2010-12-13 2020-12-29 韩国电子通信研究院 基于帧间预测对视频信号进行解码的方法
JP2012209911A (ja) * 2010-12-20 2012-10-25 Sony Corp 画像処理装置および方法
CN106060563B (zh) 2011-01-07 2019-06-21 Lg电子株式会社 编码和解码图像信息的方法和使用该方法的装置
KR102165666B1 (ko) * 2011-01-07 2020-10-14 가부시키가이샤 엔.티.티.도코모 움직임 벡터의 예측 부호화 방법, 예측 부호화 장치, 및 예측 부호화 프로그램, 그리고 움직임 벡터의 예측 복호 방법, 예측 복호 장치, 및 예측 복호 프로그램
CN103314590B (zh) * 2011-01-13 2018-02-27 日本电气株式会社 视频解码设备、视频解码方法
US9532066B2 (en) * 2011-01-21 2016-12-27 Qualcomm Incorporated Motion vector prediction
KR20120088488A (ko) * 2011-01-31 2012-08-08 한국전자통신연구원 시간적 움직임 벡터 저장 방법 및 그 장치
EP2675169B1 (en) 2011-02-09 2019-06-26 LG Electronics Inc. Method for encoding and decoding image data with a temporal motion vector predictor and device using same
GB2501836B (en) * 2011-03-09 2014-08-06 Canon Kk Video encoding
CN107105286B (zh) * 2011-03-14 2020-01-21 寰发股份有限公司 推导运动向量预测子的方法与装置
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9131239B2 (en) * 2011-06-20 2015-09-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
US9313494B2 (en) * 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
JP5954327B2 (ja) * 2011-06-30 2016-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
RU2600547C2 (ru) 2011-09-09 2016-10-20 Кт Корпорейшн Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
US20130070855A1 (en) * 2011-09-17 2013-03-21 Qualcomm Incorporated Hybrid motion vector coding modes for video coding
US9253498B2 (en) 2011-09-23 2016-02-02 Kt Corporation Method for inducing a merge candidate block and device using same
AU2016228184B2 (en) * 2011-09-23 2018-07-12 Kt Corporation Method for inducing a merge candidate block and device using same
IN2014CN02377A (es) 2011-09-29 2015-06-19 Sharp Kk
CN108632608B (zh) * 2011-09-29 2022-07-29 夏普株式会社 图像解码装置、图像解码方法、图像编码装置及图像编码方法
CN108040259B (zh) * 2011-10-05 2022-02-01 太阳专利托管公司 图像编码方法以及图像编码装置
US9571833B2 (en) * 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
KR20130050406A (ko) 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
KR20130050403A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 복원 블록 생성 방법
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
CN103108178B (zh) * 2011-11-11 2016-03-30 华为技术有限公司 视频图像编解码的方法及装置
KR102072831B1 (ko) 2011-12-16 2020-02-03 벨로스 미디어 인터내셔널 리미티드 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호 방법, 동화상 복호 장치, 및 동화상 부호화 복호장치
CN107659813B (zh) 2011-12-23 2020-04-17 韩国电子通信研究院 图像解码方法、图像编码方法和记录介质
US20130176390A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Multi-hypothesis disparity vector construction in 3d video coding with depth
US9729873B2 (en) * 2012-01-24 2017-08-08 Qualcomm Incorporated Video coding using parallel motion estimation
WO2014005280A1 (en) * 2012-07-03 2014-01-09 Mediatek Singapore Pte. Ltd. Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction
PL400344A1 (pl) * 2012-08-13 2014-02-17 Politechnika Poznanska Sposób wyznaczania predyktora wektora ruchu
US9124899B2 (en) 2012-09-28 2015-09-01 Sharp Laboratories Of America, Inc. Motion derivation and coding for scaling video
US20140092971A1 (en) * 2012-09-28 2014-04-03 Kiran Mukesh Misra Picture processing in scalable video systems
US20140092972A1 (en) * 2012-09-29 2014-04-03 Kiran Mukesh Misra Picture processing in scalable video systems
CN104704819B (zh) * 2012-10-03 2016-12-21 联发科技股份有限公司 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置
CN110545419B (zh) 2012-10-12 2022-11-22 韩国电子通信研究院 图像编码/解码方法和使用其的装置
EP2941867A4 (en) * 2013-01-07 2016-07-06 Mediatek Inc METHOD AND DEVICE FOR DERIVING A PREDICTION OF SPATIAL MOTION VECTORS FOR DIRECT AND SKIP MODES IN A THREE-DIMENSIONAL VIDEO-CORDING
US10904551B2 (en) * 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
US10003792B2 (en) 2013-05-27 2018-06-19 Microsoft Technology Licensing, Llc Video encoder for images
US9813730B2 (en) * 2013-12-06 2017-11-07 Mediatek Inc. Method and apparatus for fine-grained motion boundary processing
US9693077B2 (en) 2013-12-13 2017-06-27 Qualcomm Incorporated Controlling sub prediction unit (sub-PU) motion parameter inheritance (MPI) in three dimensional (3D) HEVC or other 3D coding
US10136140B2 (en) 2014-03-17 2018-11-20 Microsoft Technology Licensing, Llc Encoder-side decisions for screen content encoding
WO2015169200A1 (en) * 2014-05-06 2015-11-12 Mediatek Singapore Pte. Ltd. Method of block vector prediction for intra block copy mode coding
WO2016008157A1 (en) 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
EP3254463A4 (en) 2015-02-06 2018-02-21 Microsoft Technology Licensing, LLC Skipping evaluation stages during media encoding
WO2016165069A1 (en) * 2015-04-14 2016-10-20 Mediatek Singapore Pte. Ltd. Advanced temporal motion vector prediction in video coding
US10038917B2 (en) 2015-06-12 2018-07-31 Microsoft Technology Licensing, Llc Search strategies for intra-picture prediction modes
US10136132B2 (en) 2015-07-21 2018-11-20 Microsoft Technology Licensing, Llc Adaptive skip or zero block detection combined with transform size decision
US10404992B2 (en) * 2015-07-27 2019-09-03 Qualcomm Incorporated Methods and systems of restricting bi-prediction in video coding
WO2017076221A1 (en) * 2015-11-05 2017-05-11 Mediatek Inc. Method and apparatus of inter prediction using average motion vector for video coding
WO2018099269A1 (en) * 2016-11-29 2018-06-07 Mediatek Inc. Method and apparatus of merge mode derivation for video coding
US10484703B2 (en) * 2017-02-07 2019-11-19 Mediatek Inc. Adapting merge candidate positions and numbers according to size and/or shape of prediction block
KR20180098158A (ko) * 2017-02-24 2018-09-03 주식회사 케이티 비디오 신호 처리 방법 및 장치
KR102559063B1 (ko) 2017-02-24 2023-07-24 주식회사 케이티 비디오 신호 처리 방법 및 장치
US11272193B2 (en) 2017-04-24 2022-03-08 Sk Telecom Co., Ltd. Method and apparatus for estimating optical flow for motion compensation
CN110049322B (zh) * 2018-01-15 2021-02-05 北京金山云网络技术有限公司 模式选择的方法、装置、电子设备及存储介质
US10484688B2 (en) * 2018-01-23 2019-11-19 Aspeed Technology Inc. Method and apparatus for encoding processing blocks of a frame of a sequence of video frames using skip scheme
CN119946258A (zh) 2018-03-29 2025-05-06 世宗大学校产学协力团 用于对图像编码/解码的方法和设备
EP3817381A4 (en) * 2018-06-29 2022-04-27 Electronics and Telecommunications Research Institute Image encoding/decoding method and apparatus for throughput enhancement, and recording medium storing bitstream
CN112204982B (zh) 2018-06-29 2024-09-17 株式会社Kt 用于处理视频信号的方法和设备
CN110650348A (zh) * 2018-10-03 2020-01-03 北京达佳互联信息技术有限公司 运动矢量的推导方法和编码方法、装置、设备及介质
US12108051B2 (en) * 2018-12-21 2024-10-01 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium using intra block copy
CN116866605A (zh) * 2019-01-03 2023-10-10 北京大学 视频处理方法和装置
US10638130B1 (en) * 2019-04-09 2020-04-28 Google Llc Entropy-inspired directional filtering for image coding
CN110475116B (zh) 2019-08-19 2021-09-21 北京大学深圳研究生院 一种运动矢量导出方法、装置及电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
CN100337482C (zh) * 2005-06-09 2007-09-12 上海交通大学 基于对象边缘的形状快速运动估值的方法
US20070140353A1 (en) 2005-12-19 2007-06-21 Sharp Laboratories Of America, Inc. Intra prediction skipping in mode selection for video compression
KR20080066522A (ko) 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
WO2008123753A1 (en) * 2007-04-09 2008-10-16 Lg Electronics Inc. A method and an apparatus for processing a video signal
CN101653008A (zh) * 2007-04-09 2010-02-17 Lg电子株式会社 用于处理视频信号的方法和装置
JP2008283490A (ja) 2007-05-10 2008-11-20 Ntt Docomo Inc 動画像符号化装置、方法及びプログラム、並びに動画像復号化装置、方法及びプログラム
KR101403343B1 (ko) * 2007-10-04 2014-06-09 삼성전자주식회사 부화소 움직임 추정을 이용한 인터 예측 부호화, 복호화방법 및 장치
ES2812473T3 (es) 2008-03-19 2021-03-17 Nokia Technologies Oy Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo
JP2010016454A (ja) 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP5396600B2 (ja) 2008-07-01 2014-01-22 オランジュ 改善された予測を実施する画像符号化方法および装置と、対応する復号化方法および装置と、信号およびコンピュータ・プログラム
KR101279573B1 (ko) 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치

Also Published As

Publication number Publication date
CA2802926C (en) 2016-03-29
AU2011335668B2 (en) 2014-02-27
CN103229504A (zh) 2013-07-31
EP2647206A4 (en) 2014-08-27
JP5770277B2 (ja) 2015-08-26
CN103229504B (zh) 2016-08-17
US20120134416A1 (en) 2012-05-31
EP2647206A1 (en) 2013-10-09
CA2802926A1 (en) 2012-06-07
PL2647206T3 (pl) 2022-01-03
JP2013529878A (ja) 2013-07-22
AU2011335668A1 (en) 2013-01-10
EP2647206B8 (en) 2021-06-09
HUE054921T2 (hu) 2021-10-28
WO2012071949A1 (en) 2012-06-07
EP2647206B1 (en) 2021-05-05
US9137544B2 (en) 2015-09-15

Similar Documents

Publication Publication Date Title
ES2875906T3 (es) Procedimiento y aparato para derivación de un candidato a MV/MVP para modos de inter/salto/fusión
CN107105286B (zh) 推导运动向量预测子的方法与装置
US8755437B2 (en) Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
ES2841312T3 (es) Predicción de vectores de movimiento para modelos de movimiento afines en codificación de vídeo
US8711940B2 (en) Method and apparatus of motion vector prediction with extended motion vector predictor
US8824558B2 (en) Method and apparatus of spatial motion vector prediction
ES2729271T3 (es) Método y aparato de predictor de vector de movimiento extendido