ES2951398T3 - Construcción de listas de candidatos a fusión - Google Patents

Construcción de listas de candidatos a fusión Download PDF

Info

Publication number
ES2951398T3
ES2951398T3 ES21153579T ES21153579T ES2951398T3 ES 2951398 T3 ES2951398 T3 ES 2951398T3 ES 21153579 T ES21153579 T ES 21153579T ES 21153579 T ES21153579 T ES 21153579T ES 2951398 T3 ES2951398 T3 ES 2951398T3
Authority
ES
Spain
Prior art keywords
candidates
fusion
prediction
inter prediction
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21153579T
Other languages
English (en)
Inventor
Hiroya Nakamura
Shigeru Fukushima
Hideki Takehara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Application granted granted Critical
Publication of ES2951398T3 publication Critical patent/ES2951398T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Liquid Crystal Substances (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Una unidad de obtención de información de predicción (104) deriva los candidatos de información de interpredicción a partir de la información de interpredicción de un bloque de predicción vecino a un bloque de predicción de objetivo de codificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción de objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción del objetivo de codificación. Una unidad suplementaria de candidatos (135) complementa los candidatos de información de interpredicción que tienen el mismo modo de predicción, índice de referencia y vector de movimiento hasta que el número de candidatos de información de interpredicción alcanza el número designado de candidatos cuando el número de candidatos de información de interpredicción es menor que el número designado de candidatos. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Construcción de listas de candidatos a fusión
[CAMPO TÉCNICO]
La presente invención se refiere a una técnica de codificación y descodificación de imágenes en movimiento y, más en particular, a una técnica de codificación y descodificación de imágenes en movimiento usando predicción con compensación de movimiento.
La norma MPEG-4 AVC/H.264 es un esquema representativo de codificación de compresión de imágenes en movimiento . La norma MPEG-4 AVC/H.264 usa compensación de movimiento en la que una instantánea se particiona en una pluralidad de bloques rectangulares, instantáneas que se han codificado o decodificado se usan como instantáneas de referencia, y se predice un movimiento a partir de las instantáneas de referencia. Un procedimiento de predicción de un movimiento a base de esta compensación de movimiento se denomina como inter predicción o predicción con compensación de movimiento. En la inter predicción de la norma MPEG-4 AVC/H.264, la compensación de movimiento se realiza de tal manera que una pluralidad de instantáneas pueden usarse como instantáneas de referencia, y se selecciona una instantánea de referencia más probable en respectivos bloques de entre la pluralidad de instantáneas de referencia. Por lo tanto, se asigna un índice de referencia a respectivas instantáneas de referencia y las instantáneas de referencia se especifican por el índice de referencia. En instantáneas B, pueden seleccionarse dos instantáneas de referencia como máximo de entre instantáneas de referencia codificadas o decodificadas y usarse para inter predicción.
La predicción a partir de estas dos imágenes de referencia se clasifica en predicción L0 (predicción de lista 0) que se usa principalmente como predicción hacia delante y predicción L1 (predicción de lista 1) que se usa principalmente como predicción hacia atrás.
Además, también se define la bipredicción que usa dos modos de inter predicción de predicción L0 y predicción L1 simultáneamente. En el caso de la bipredicción, se realiza predicción bidireccional para obtener señales de inter predicción en modos de predicción L0 y L1, que se multiplican por un factor de ponderación y se superponen añadiendo un valor de desplazamiento para crear de este modo una señal de imagen de inter predicción final. Como el factor de ponderación y valores de desplazamiento usados para predicción ponderada, se establece un valor representativo para cada instantánea de referencia de listas y se codifica en respectivas instantáneas. La información de codificación relacionada con inter predicción incluye un modo de predicción para clasificar predicción L0, predicción L1 y bipredicción para cada bloque, un índice de referencia para especificar una imagen de referencia para cada lista de referencia de cada bloque, y un vector de movimiento que representa una dirección de movimiento y una cantidad de movimiento de un bloque. Estos artículos de información de codificación se codifican o decodifican. Además, en el esquema de MPEG-4 AVC/H.264, se define un modo directo de creación de información de inter predicción de bloque diana de codificación/descodificación a partir de información de inter predicción de un bloque codificado/descodificado. Dado que el modo directo no requiere codificación de información de inter predicción, se mejora la eficiencia de codificación.
Un modo directo temporal que usa correlación de información de inter predicción en la dirección temporal se describirá con referencia a la FIG. 36. Una imagen cuyo índice de referencia L1 se registra en "0" se refiere como una imagen de referencia colPic. Un bloque en la misma posición que un bloque objetivo de codificación/decodificación en la instantánea de referencia colPic se denomina como un bloque de referencia.
Si un bloque de referencia se codifica usando predicción L0, un vector de movimiento L0 del bloque de referencia se refiere como un vector de movimiento de referencia mvCol. Si el bloque de referencia no se codifica usando predicción L0, pero se codifica usando predicción L1, un vector de movimiento L1 del bloque de referencia se refiere como un vector de movimiento de referencia mvCol. Una imagen a la que el vector de movimiento de referencia mvCol se refiere como una imagen de referencia L0 del modo directo temporal, y la imagen de referencia colPic se refiere como una imagen de referencia L1 del modo directo temporal.
Un vector de movimiento L0 mvL0 y un vector de movimiento L1 mvL1 del modo directo temporal se derivan a partir del vector de movimiento de referencia mvCol realizando un procedimiento de escalado.
Un POC de una imagen de referencia L0 del modo directo temporal se resta de un POC de la imagen de referencia colPic para derivar una distancia de imagen a imagen td. Un p Oc es una variable asociada con una instantánea que hay que codificar y un valor que se incrementa en 1 en el orden de emisión/visualización de instantánea se establece como el POC. Una diferencia entre los POC de dos imágenes representa una distancia de imagen a imagen en una dirección de eje de tiempo.
td = (POC de la imagen de referencia colPic) - (POC de la imagen de referencia L0 del modo temporal directo)
El POC de una imagen de referencia L0 del modo directo temporal se resta del POC de una imagen diana de codificación/descodificación para derivar una distancia de imagen a imagen tb.
tb = (POC de la imagen diana de codificación/descodificación) -(POC de la imagen de referencia L0 del modo temporal directo)
Un vector de movimiento L0 mvL0 del modo directo temporal se deriva a partir del vector de movimiento de referencia mvCol realizando un procedimiento de escalado.
mvLO = tb/td*mvCol
Un vector de movimiento de referencia mvCol se resta del vector de movimiento L0 mvL0 del modo directo temporal para derivar un vector de movimiento L1 mvL1.
mvLl = mvLO - mvCol
Cuando un dispositivo de codificación de imágenes en movimiento y un dispositivo de descodificación de imágenes en movimiento tienen una capacidad de procesamiento baja, puede omitirse el procedimiento del modo directo temporal.
[LISTA DE LA TÉCNICA RELACIONADA]
[LITERATURA DE PATENTES]
Literatura de Patentes 1: Documento JP 2004-129191 A
[DIVULGACIÓN DE LA INVENCIÓN]
En una situación de este tipo, los inventores de la presente han reconocido la necesidad de comprimir adicionalmente información de codificación y reducir la totalidad de una cantidad de codificación en un esquema de codificación de imágenes en movimiento que usa predicción con compensación por movimiento.
La presente invención se ha realizado en vista de una situación de este tipo, y un objeto de la misma es proporcionar una técnica de codificación y descodificación de imágenes en movimiento para la reducción de una cantidad de codificación de información de codificación para mejorar la eficiencia de codificación derivando candidatos para información de predicción usada en predicción con compensación por movimiento de acuerdo con una situación.
Para lograr el objeto, un dispositivo de codificación de imágenes en movimiento de acuerdo con un aspecto de la presente invención es uno que codifica imágenes en movimiento usando predicción compensada por movimiento en unidades de bloques obtenidas por partición de cada imagen de las imágenes en movimiento, y el dispositivo de codificación de imágenes en movimiento incluye: una unidad de codificación de información de predicción (110) que codifica información que indica un número designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (104) que deriva los candidatos de información de inter predicción a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción diana de codificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción diana de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción diana de codificación; una unidad de construcción de listas de candidatos (130) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una unidad de complementación de candidatos (135) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción; y una unidad de predicción compensada por movimiento (105) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Otro aspecto de la presente invención proporciona un dispositivo de codificación de imágenes en movimiento. El dispositivo es un dispositivo de codificación de imágenes en movimiento que codifica imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de codificación de información de predicción (110) que codifica información que indica un número designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (104) que deriva los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una unidad de construcción de lista de candidatos (130) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una unidad de adición de candidatos (134) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción y que deriva uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno del modo de predicción, el índice de referencia y el vector de movimiento se modifican con respecto a los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número designado de candidatos de información de inter predicción y, además, añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una unidad de complementación de candidatos (135) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida es menor que el número designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción adicionalmente añadida; y una unidad de predicción compensada por movimiento (105) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un dispositivo de codificación de imágenes en movimiento. El dispositivo es un dispositivo de codificación de imágenes en movimiento que codifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de codificación de información de predicción (110) que codifica información que indica un número designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (104) que deriva los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o de un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una unidad de construcción de listas de candidatos (130) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una unidad de complementación de candidatos (135) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción, que derive uno o una pluralidad de candidatos de información de inter predicción de los cuales el modo de predicción y el vector de movimiento tengan el mismo valor y el índice de referencia se cambie del de los candidatos de información de inter predicción que tengan el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida sea menor que el número designado de candidatos de información de inter predicción y añada adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida, y que derive candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tengan valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente alcance el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente sea menor que el número designado de candidatos de información de inter predicción y añada adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida adicionalmente; y una unidad de predicción compensada por movimiento (105) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un dispositivo de codificación de imágenes en movimiento. El dispositivo es un dispositivo de codificación de imágenes en movimiento que codifica imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de derivación de información de predicción (104) que almacena e inicializa un número designado de candidatos de información de inter predicción que tienen un modo de predicción predeterminado, un índice de referencia y un vector de movimiento por adelantado en una lista de candidatos de información de inter predicción en la que se almacena el número designado de candidatos de información de inter predicción, y, a continuación, obtiene candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o de un bloque de predicción presente en la misma posición que el bloque de predicción objetivo de codificación o cerca de él en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; y una unidad de predicción compensada por movimiento (105) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un dispositivo de codificación de imágenes en movimiento. El dispositivo es un dispositivo de codificación de imágenes en movimiento que codifica imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de codificación de información de predicción (110) que codifica información que indica un número designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (104) que deriva candidatos de información de inter predicción basados en el número de candidatos designados como el número de candidatos de información de inter predicción de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una unidad de construcción de listas de candidatos (130) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados y una unidad de predicción compensada por movimiento (105) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción cuando el número designado de candidatos es mayor o igual a 1 y realiza la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado y que realiza la inter predicción del bloque de predicción del objetivo de codificación utilizando información de inter predicción que tiene un valor predeterminado cuando el número designado de candidatos es 0.
Aún otro aspecto de la presente invención proporciona un dispositivo de codificación de imágenes en movimiento. El dispositivo es un dispositivo de codificación de imágenes en movimiento que codifica imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de derivación de información de predicción (104) que deriva candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una unidad de complementación de candidatos (135) que complementa candidatos de información de inter predicción que tienen el mismo modo de predicción, índice de referencia y vector de movimiento hasta que el número de candidatos de información de inter predicción alcanza el número designado de candidatos cuando el número de candidatos de información de inter predicción es menor que el número designado de candidatos; y una unidad de predicción compensada por movimiento (105) que selecciona un candidato de información de inter predicción de los candidatos de información de inter predicción y realiza la inter predicción del bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención es un procedimiento de codificación de imágenes en movimiento. El procedimiento es un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de codificación de la información de predicción que indica un número designado de candidatos de información de inter predicción; una etapa de derivación de la información de predicción que deriva los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción del objetivo de codificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción del objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción del objetivo de codificación; una etapa de construcción de una lista de candidatos de información de inter predicción derivada; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de codificación de imágenes en movimiento. El procedimiento es un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de codificación del número de información de predicción para codificar información que indique un número designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción para derivar los candidatos de información de inter predicción a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una etapa de construcción de lista de candidatos para construir una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados; una etapa de adición de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción construida es menor que el número designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción construida, y derivar uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno de los modos de predicción, el índice de referencia, y el vector de movimiento se cambia de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número designado de candidatos de información de inter predicción y adicionalmente añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente es menor que el número designado de candidatos de información de inter predicción y añadir adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida adicionalmente; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de codificación de imágenes en movimiento. El procedimiento es un procedimiento de codificación de imágenes en movimiento para codificar una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de codificación del número de información de predicción para codificar información que indica un número designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción para derivar los candidatos de información de inter predicción a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una etapa de construcción de lista de candidatos para construir una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción construida es menor que el número designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción construida, derivando uno o una pluralidad de candidatos de información de inter predicción de los cuales el modo de predicción y el vector de movimiento tienen el mismo valor y el índice de referencia se cambia del de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida, y derivando candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida es menor que el número designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción adicionalmente añadida; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de codificación de imágenes en movimiento. El procedimiento es un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de derivación de información de predicción que consiste en almacenar e inicializar un número designado de candidatos de información de inter predicción que tienen un modo de predicción predeterminado, un índice de referencia y un vector de movimiento por adelantado en una lista de candidatos de información de inter predicción en la que se almacena el número designado de candidatos de información de inter predicción, y luego, derivar candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de codificación de imágenes en movimiento. El procedimiento es un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de codificación del número de información de predicción de la información de codificación que indica un número designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción de derivar candidatos de información de inter predicción basados en el número de candidatos designados como el número de candidatos de información de inter predicción de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una etapa de construcción de la lista de candidatos que consiste en construir una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados y una etapa de predicción compensada por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción cuando el número designado de candidatos es mayor o igual a 1 y realizar la inter predicción del bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado y realizar la inter predicción del bloque de predicción del objetivo de codificación utilizando información de inter predicción que tiene un valor predeterminado cuando el número designado de candidatos es 0.
Aún otro aspecto de la presente invención proporciona un transmisor. El transmisor incluye: un procesador de paquetes que empaqueta una corriente de bits codificada de acuerdo con un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento para obtener la corriente de bits empaquetada; y una unidad de transmisión que transmite la corriente de bits empaquetada. El procedimiento de codificación de imágenes en movimiento incluye: una etapa de codificación del número de información de predicción que indica un número designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción que deriva los candidatos de información de inter predicción de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una etapa de construcción de la lista de candidatos que construye una lista de candidatos de información de inter predicción de los candidatos de información de inter predicción derivados; una etapa de adición de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción construida es menor que el número designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción construida, y derivar uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno de los modos de predicción, el índice de referencia, y el vector de movimiento se cambia de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número designado de candidatos de información de inter predicción y adicionalmente añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente es menor que el número designado de candidatos de información de inter predicción y añadir adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida adicionalmente; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de transmisión.
El procedimiento incluye: una etapa de procesamiento de paquetes que consiste en empaquetar una corriente de bits codificada de acuerdo con un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento para obtener la corriente de bits empaquetada; y una etapa de transmisión de la corriente de bits empaquetada. El procedimiento de codificación de imágenes en movimiento incluye: una etapa de codificación del número de información de predicción que indica un número designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción que deriva los candidatos de información de inter predicción de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de codificación en una imagen codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación; una etapa de construcción de la lista de candidatos que construye una lista de candidatos de información de inter predicción de los candidatos de información de inter predicción derivados; una etapa de adición de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción construida es menor que el número designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción construida, y derivar uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno de los modos de predicción, el índice de referencia, y el vector de movimiento se cambia de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número designado de candidatos de información de inter predicción y adicionalmente añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente alcanza el número designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente es menor que el número designado de candidatos de información de inter predicción y añadir adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida adicionalmente; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de codificación utilizando el candidato de información de inter predicción seleccionado.
Un dispositivo de descodificación de imágenes en movimiento de acuerdo con un aspecto de la presente invención es un dispositivo de descodificación de imágenes en movimiento que decodifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de descodificación de información de predicción (202) que decodifica información que indica un número previamente designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (205) que deriva los candidatos de información de inter predicción a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción diana de descodificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción diana de descodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción diana de descodificación; una unidad de construcción de listas de candidatos (230) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una unidad de complementación de candidatos (235) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción alcanza el número previamente designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción; y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de descodificación utilizando el candidato de información de inter predicción seleccionado.
Otro aspecto de la presente invención proporciona un dispositivo de descodificación de imágenes en movimiento. El dispositivo es un dispositivo de decodificación de imágenes en movimiento que decodifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de decodificación de información de predicción (202) que decodifica información que indica un número previamente designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (205) que deriva los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una unidad de construcción de listas de candidatos (230) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una unidad de adición de candidatos (234) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción y que deriva uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno del modo de predicción, el índice de referencia, y el vector de movimiento se cambia del de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es más pequeño que el número designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una unidad de complementación de candidatos (235) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida alcanza el número previamente designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida es menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción adicionalmente añadida; y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un dispositivo de descodificación de imágenes en movimiento. El dispositivo es un dispositivo de decodificación de imágenes en movimiento que decodifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de decodificación de información de predicción (202) que decodifica información que indica un número previamente designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (205) que deriva los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una unidad de construcción de listas de candidatos (230) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una unidad de complementación de candidatos (235) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción, que derive uno o una pluralidad de candidatos de información de inter predicción de los cuales el modo de predicción y el vector de movimiento tengan el mismo valor y el índice de referencia se cambie del de los candidatos de información de inter predicción que tengan el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida sea menor que el número de candidatos de información de inter predicción previamente designado y añada adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida, y que derive candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tengan valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida alcance el número previamente designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida sea menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añada los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción adicionalmente añadida; y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un dispositivo de descodificación de imágenes en movimiento. El dispositivo es un dispositivo de decodificación de imágenes en movimiento que decodifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de decodificación de información de predicción (202) que decodifica un número designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (205) que almacena e inicializa un número designado de candidatos de información de inter predicción que tienen un modo de predicción predeterminado, un índice de referencia y un vector de movimiento por adelantado en una lista de candidatos de información de inter predicción en la que se almacena el número designado de candidatos de información de inter predicción, y, a continuación, obtiene candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción del objetivo de decodificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción del objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción del objetivo de decodificación; y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un dispositivo de descodificación de imágenes en movimiento. El dispositivo es un dispositivo de codificación de imágenes en movimiento que codifica imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de decodificación de información de predicción (202) que decodifica información que indica un número previamente designado de candidatos de información de inter predicción; una unidad de derivación de información de predicción (205) que deriva candidatos de información de inter predicción basados en el número de candidatos designados como el número de candidatos de información de inter predicción de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de codificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una unidad de construcción de listas de candidatos (230) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción cuando el número de candidatos previamente designado es mayor o igual a 1 y realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado y que realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando información de inter predicción que tiene un valor predeterminado cuando el número de candidatos previamente designado es 0.
Aún otro aspecto de la presente invención proporciona un dispositivo de descodificación de imágenes en movimiento. El dispositivo es un dispositivo de decodificación de imágenes en movimiento que decodifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una unidad de derivación de información de predicción (205) que deriva candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una unidad de complementación de candidatos (235) que complementa los candidatos de información de inter predicción que tienen el mismo modo de predicción, índice de referencia y valores de vector de movimiento hasta que el número de candidatos de información de inter predicción alcanza el número designado de candidatos cuando el número de candidatos de información de inter predicción es menor que el número designado de candidatos; y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de los candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de descodificación de imágenes en movimiento. El procedimiento es un procedimiento de decodificación de imágenes en movimiento para decodificar una corriente de bits obtenida mediante la decodificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de decodificación de información de predicción que indica un número previamente designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción que deriva los candidatos de información de inter predicción de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una etapa de construcción de lista de candidatos que construye una lista de candidatos de información de inter predicción derivada; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción alcanza el número previamente designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realizar una inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Otro aspecto de la presente invención proporciona un procedimiento de descodificación de imágenes en movimiento. El procedimiento es un procedimiento de decodificación de imágenes en movimiento para decodificar una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de decodificación del número de información de predicción para decodificar información que indica un número previamente designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción para derivar los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una etapa de construcción de la lista de candidatos que consiste en construir una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una etapa de adición de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción, y derivar uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno de los modos de predicción, el índice de referencia, y el vector de movimiento se cambia de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente alcanza el número de candidatos de información de inter predicción previamente designado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente es menor que el número de candidatos de información de inter predicción previamente designado y añadir adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida adicionalmente; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realizar una inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de descodificación de imágenes en movimiento. El procedimiento es un procedimiento de decodificación de imágenes en movimiento para decodificar una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de decodificación del número de información de predicción para decodificar información que indica un número previamente designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción para derivar los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una etapa de construcción de la lista de candidatos que consiste en construir una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados una etapa de adición de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción, derivando uno o una pluralidad de candidatos de información de inter predicción de los cuales el modo de predicción y el vector de movimiento tienen el mismo valor y el índice de referencia se cambia del de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida, y derivando candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida alcanza el número previamente designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida es menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción adicionalmente añadida; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realizar una inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de descodificación de imágenes en movimiento. El procedimiento es un procedimiento de decodificación de imágenes en movimiento para decodificar una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de decodificación del número de información de predicción para decodificar un número designado de candidatos de información de inter predicción; una etapa de derivación de información de predicción que consiste en almacenar e inicializar un número designado de candidatos de información de inter predicción que tienen un modo de predicción predeterminado, un índice de referencia y un vector de movimiento por adelantado en una lista de candidatos de información de inter predicción en la que se almacena el número designado de candidatos de información de inter predicción, y luego derivar los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción y realizar la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Aún otro aspecto de la presente invención proporciona un procedimiento de descodificación de imágenes en movimiento. El procedimiento es un procedimiento de codificación de imágenes en movimiento que utiliza la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento, incluyendo: una etapa de decodificación de la información de predicción que indica un número previamente designado de candidatos de información de inter predicción; una etapa de derivación de la información de predicción que deriva los candidatos de información de inter predicción basados en el número de candidatos designados como el número de candidatos de información de inter predicción de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una etapa de construcción de la lista de candidatos que consiste en construir una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados y una etapa de predicción compensada por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción cuando el número de candidatos previamente designado es mayor o igual a 1 y realizar la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado y realizar la inter predicción en el bloque de predicción del objetivo de decodificación utilizando información de inter predicción que tiene un valor predeterminado cuando el número de candidatos previamente designado es 0.
Otro aspecto de la presente invención proporciona un receptor. El receptor es un receptor que recibe y decodifica una corriente de bits obtenida mediante la codificación de imágenes en movimiento, incluyendo: una unidad de recepción que recibe una corriente de bits obtenida mediante el empaquetamiento de una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidas mediante la partición de cada imagen de las imágenes en movimiento; una unidad de reconstrucción que empaqueta la corriente de bits recibida para reconstruir una corriente de bits original; una unidad de decodificación de información de predicción (202) que decodifica la información que indica un número previamente designado de candidatos de información de inter predicción de la corriente de bits reconstruida; una unidad de derivación de información de predicción (205) que deriva los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una unidad de construcción de lista de candidatos (230) que construye una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados; una unidad de adición de candidatos (234) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añade los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción y que deriva uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno del modo de predicción, el índice de referencia, y el vector de movimiento se cambia del de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista añadida de candidatos de información de inter predicción es más pequeño que el número previamente designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista añadida de candidatos de información de inter predicción; una unidad de complementación de candidatos (235) que deriva candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia, y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida alcanza el número previamente designado de candidatos de información de inter predicción cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción adicionalmente añadida es menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añade los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción adicionalmente añadida; y una unidad de predicción compensada por movimiento (206) que selecciona un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realiza la inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Otro aspecto de la presente invención proporciona un procedimiento de recepción. El procedimiento es un procedimiento de recepción y decodificación de una corriente de bits obtenida mediante la codificación de imágenes en movimiento, que incluye: una etapa de recepción de una corriente de bits obtenida mediante el empaquetamiento de una corriente de bits obtenida mediante la codificación de imágenes en movimiento utilizando la predicción compensada por movimiento en unidades de bloques obtenidos mediante la partición de cada imagen de las imágenes en movimiento; una etapa de reconstrucción de el empaquetamiento de la corriente de bits recibida para reconstruir una corriente de bits original; una etapa de decodificación de la información de predicción de la decodificación de la información que indica un número previamente designado de candidatos de información de inter predicción de la corriente de bits reconstruida; una etapa de derivación de información de predicción que consiste en derivar los candidatos de información de inter predicción a partir de la información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o de un bloque de predicción presente en la misma posición o cerca del bloque de predicción objetivo de decodificación en una imagen decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación; una etapa de construcción de una lista de candidatos de información de inter predicción a partir de los candidatos de información de inter predicción derivados; una etapa de adición de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados cuando el número de candidatos de información de inter predicción incluidos en la lista construida de candidatos de información de inter predicción es menor que el número previamente designado de candidatos de información de inter predicción y añadir los candidatos de información de inter predicción derivados a la lista construida de candidatos de información de inter predicción, y derivar uno o una pluralidad de candidatos de información de inter predicción de los cuales al menos uno de los modos de predicción, el índice de referencia, y el vector de movimiento se cambia de los candidatos de información de inter predicción que tienen el valor predeterminado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida es menor que el número previamente designado de candidatos de información de inter predicción y adicionalmente añadir los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida; una etapa de complementación de candidatos que consiste en derivar candidatos de información de inter predicción de los cuales el modo de predicción, el índice de referencia y el vector de movimiento tienen valores predeterminados hasta que el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente alcanza el número de candidatos de información de inter predicción previamente designado cuando el número de candidatos de información de inter predicción incluidos en la lista de candidatos de información de inter predicción añadida adicionalmente es menor que el número de candidatos de información de inter predicción previamente designado y añadir adicionalmente los candidatos de información de inter predicción derivados a la lista de candidatos de información de inter predicción añadida adicionalmente; y una etapa de predicción con compensación por movimiento que consiste en seleccionar un candidato de información de inter predicción de entre los candidatos de información de inter predicción y realizar una inter predicción en el bloque de predicción del objetivo de decodificación utilizando el candidato de información de inter predicción seleccionado.
Una combinación opcional de los componentes constitutivos descritos anteriormente y una realización obtenida mediante el intercambio de expresiones de la presente invención entre procedimientos, dispositivos, sistemas, medios de registro, programas informáticos, y similares también son eficaces como aspectos de la presente invención.
De acuerdo con la presente invención, es posible reducir una cantidad de ocurrencia de codificación de información de codificación a ser transmitida para mejorar la eficiencia de codificación derivando candidatos para información de predicción usada en predicción con compensación por movimiento de acuerdo con una situación.
[BREVE DESCRIPCIÓN DE LOS DIBUJOS]
FIG. 1 es un diagrama de bloques que ilustra una configuración de un dispositivo de descodificación de imágenes en movimiento que ejecuta un procedimiento de predicción de vector de movimiento de acuerdo con una realización; FIG. 2 es un diagrama de bloques que ilustra una configuración de un dispositivo de descodificación de imágenes en movimiento que ejecuta un procedimiento de predicción de vector de movimiento de acuerdo con una realización; FIG. 3 es un diagrama para la descripción de un bloque de árbol y un bloque de codificación;
FIGS. 4A a 4H son diagramas para la descripción de un modo de partición de un bloque de predicción;
FIG. 5 es un diagrama de descripción de un bloque de predicción de un candidato de fusión espacial en un modo de fusión;
FIG. 6 es un diagrama de descripción de un bloque de predicción de un candidato de fusión espacial en un modo de fusión;
FIG. 7 es un diagrama de descripción de un bloque de predicción de un candidato de fusión espacial en un modo de fusión;
FIG. 8 es un diagrama de descripción de un bloque de predicción de un candidato de fusión espacial en un modo de fusión;
FIG. 9 es un diagrama de descripción de un bloque de predicción de un candidato de fusión temporal en un modo de fusión;
FIG. 10 es un diagrama de descripción de la sintaxis de un flujo de bits en respectivos bloques de predicción en un modo de fusión;
FIG. 11 es un diagrama de descripción de un ejemplo de un símbolo de entropía de un elemento de sintaxis de un índice de fusión;
FIG. 12 es un diagrama de bloques que ilustra una configuración detallada de una unidad de derivación de información de inter predicción de un dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con un primer ejemplo práctico;
FIG. 13 es un diagrama de bloques que ilustra una configuración detallada de una unidad de derivación de información de inter predicción de un dispositivo de descodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con un primer ejemplo práctico;
FIGS. 14A a 14H son diagramas para la descripción de un bloque de predicción vecino a un bloque de predicción diana de procesamiento en un modo de fusión;
FIG. 15 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión de un modo de fusión y un procedimiento de construcción de una lista de candidatos de fusión de acuerdo con el primer ejemplo práctico;
FIG. 16 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión espaciales de un modo de fusión;
Las FIGS. 17A a 17H son diagramas para la descripción de un bloque vecino al que se hace referencia en un procedimiento de derivación de un índice de referencia de un candidato de fusión temporal;
FIG. 18 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de índices de referencia de candidatos de fusión temporales de un modo de fusión;
FIG. 19 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión temporales de un modo de fusión;
FIG. 20 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de imágenes de tiempo diferente de un modo de fusión;
FIG. 21 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de bloques de predicción de imágenes de tiempo diferente de un modo de fusión;
FIG. 22 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión temporales de un modo de fusión;
FIG. 23 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión temporales de un modo de fusión;
FIG. 24 es un diagrama de flujo para la descripción del flujo de un procedimiento de escalamiento de vector de movimiento;
FIG. 25 es un diagrama de flujo para la descripción del flujo de un procedimiento de escalamiento de vector de movimiento;
FIG. 26 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión adicionales de un modo de fusión;
FIG. 27 es un diagrama de flujo para la descripción del flujo de un procedimiento de limitación de candidatos de fusión;
FIG. 28 es un diagrama de bloques que ilustra una configuración detallada de una unidad de derivación de información de inter predicción de un dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con los ejemplos prácticos segundo a séptimo;
FIG. 29 es un diagrama de bloques que ilustra una configuración detallada de una unidad de derivación de información de inter predicción de un dispositivo de descodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con los ejemplos prácticos segundo a séptimo;
FIG. 30 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión de un modo de fusión y un procedimiento de creación de una lista de candidatos de fusión de acuerdo con los segundos a séptimos ejemplos prácticos;
FIG. 31 es un diagrama de flujo para la descripción del flujo de un procedimiento de agregación de candidatos de fusión válidos de un modo de fusión de acuerdo con el segundo ejemplo práctico;
FIG. 32 es un diagrama de flujo para la descripción del flujo de un procedimiento de agregación de candidatos de fusión válidos de un modo de fusión de acuerdo con el tercer ejemplo práctico;
FIG. 33 es un diagrama de flujo para la descripción del flujo de un procedimiento de agregación de candidatos de fusión válidos de un modo de fusión de acuerdo con el cuarto ejemplo práctico;
FIG. 34 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidatos de fusión adicionales de un modo de fusión y un procedimiento de agregación de candidatos de fusión válidos de acuerdo con el quinto ejemplo práctico;
FIG. 35 es un diagrama de flujo para la descripción del flujo de un procedimiento de elaboración de información de inter predicción inicializada de un modo de fusión válido como un candidato de fusión de acuerdo con los sextos y séptimos ejemplos prácticos;
FIG. 36 es un diagrama para la descripción de un modo directo temporal de la norma MPEG-4 AVC/H.264 convencional;
FIG. 37 es un diagrama de flujo para la descripción del flujo del procedimiento de una unidad de selección de información de inter predicción de una unidad de derivación de información de inter predicción de un dispositivo de codificación de imágenes en movimiento; y
FIG. 38 es un diagrama de flujo para la descripción del flujo del procedimiento de una unidad de selección de información de inter predicción de una unidad de derivación de información de inter predicción de un dispositivo de descodificación de imágenes en movimiento.
[MEJOR MODO PARA LLEVAR A CABO LA INVENCIÓN]
La presente realización se refiere a una técnica de codificación de imágenes en movimiento, y particularmente, a una técnica de codificación de imágenes en movimiento de partición de una imagen en bloques rectangulares que tienen tamaños y formas opcionales y realización de compensación por movimiento entre imágenes en unidades de bloques. En esta técnica, se derivan una pluralidad de predictores de vector de movimiento a partir de un vector de movimiento de un bloque vecino a un bloque objetivo de codificación o un bloque de una instantánea codificada para mejorar la eficiencia de codificación, y una diferencia de vector entre un vector de movimiento del bloque objetivo de codificación y se deriva y codifica un predictor de vector de movimiento seleccionado para reducir la cantidad de codificación. Como alternativa, la información de codificación del bloque objetivo de codificación se deriva usando información de codificación de un bloque vecino al bloque objetivo de codificación o un bloque de una instantánea codificada para reducir de este modo una cantidad de codificación. Además, en el caso de codificación de instantáneas en movimiento, se derivan una pluralidad de predictores de vector de movimiento a partir de un vector de movimiento de un bloque vecino a un bloque objetivo de decodificación o un bloque de una instantánea decodificada, y un vector de movimiento del bloque objetivo de decodificación se deriva y decodifica a partir de una diferencia de vector decodificada de un flujo de bits y un predictor de vector de movimiento seleccionado. Como alternativa, se deriva información de codificación del bloque objetivo de decodificación usando información de codificación de un bloque vecino al bloque objetivo de decodificación o un bloque de una instantánea decodificada.
En primer lugar, se definen técnicas y términos usados en la presente realización.
(Bloque de árbol y bloque de codificación)
En las realizaciones, uno o una pluralidad de cortes obtenidos por la partición de una imagen es una unidad básica de codificación, y a cada corte se establece un tipo de corte que es información que indica el tipo de corte. Como se ilustra en la FIG. 3, un corte se particionó uniformemente en respectivas unidades cuadradas que tienen el mismo tamaño opcional. Esta unidad cuadrada se define como un bloque de árbol y se usa como una unidad básica de gestión de direcciones para especificar un bloque objetivo de codificación/decodificación en un corte (un bloque objetivo de codificación en procedimientos de codificación y un bloque objetivo de decodificación en procedimientos de decodificación; lo mismo es cierto para la siguiente descripción a no ser que se exponga de otra manera a continuación). Un bloque de árbol que excluye componentes monocromáticos incluye una señal de luminancia y dos señales de crominancia. El tamaño de un bloque de árbol puede establecerse libremente a la potencia de 2 de acuerdo con un tamaño de instantánea o la textura en una instantánea. Un bloque de árbol puede particionarse en bloques que tienen un tamaño de bloque pequeño particionando jerárquicamente la señal de luminancia y señales de crominancia en el bloque de árbol en cuatro partes (dos partes en direcciones verticales y horizontales) según sea necesario de acuerdo con la textura en la instantánea de modo que puede optimizarse un procedimiento de codificación. Este bloque se define como un bloque de codificación y es una unidad básica de procedimientos de codificación y decodificación. Un bloque de codificación que excluye componentes monocromáticos incluye una señal de luminancia y dos señales de crominancia. Un mayor tamaño de un bloque de codificación es el mismo que el tamaño de un bloque de árbol. Un bloque de codificación que tiene el tamaño más pequeño del bloque de codificación se denomina como un bloque de codificación más pequeño y puede establecerse libremente a la potencia de 2.
En la FIG. 3, un bloque de codificación A es un bloque de codificación obtenido sin particionar un bloque de árbol. Un bloque de codificación B es un bloque de codificación obtenido particionando un bloque de árbol en cuatro partes. Un bloque de codificación C es un bloque de codificación obtenido particionando en cuatro partes el bloque obtenido particionando el bloque de árbol en cuatro partes. Un bloque de codificación D es un bloque de codificación obtenido particionando dos veces en cuatro partes el bloque obtenido particionando el bloque de árbol en cuatro partes y es un bloque de codificación que tiene el tamaño más pequeño.
(Modo de predicción)
Intra predicción (MODE_INTRA) en el que se realiza predicción de señales de imágenes vecinas en un estado codificado/descodificado (usado en imágenes, bloques de predicción, señales de imágenes y similares obtenidos descodificando señales codificadas en el procedimiento de codificación e imágenes descodificadas, bloques de predicción, señales de imágenes y similares en el procedimiento de descodificación; lo mismo es cierto para la siguiente descripción a no ser que se exponga de otra manera a continuación) en una imagen diana de codificación/descodificación e inter predicción (MODE_INTER) en el que se realiza la predicción de señales de imágenes de imágenes codificadas/descodificadas se conmutan en respectivos bloques de codificación. Un modo de identificación de la intra predicción (MODE_INTRA) y la inter predicción (MODE_INTER) se define como un modo de predicción (PredMode). El modo de predicción (PredMode) tiene un valor de intra predicción (MODE_INTRA) o inter predicción (MODE_INTER) y puede seleccionarse y codificarse.
(Modo de partición, bloque de predicción y unidad de predicción)
Cuando una imagen se particiona en bloques para realizar intra predicción (MODE_INTRA) e inter predicción (MODE_INTER), se particiona un bloque de codificación de acuerdo con lo que sea necesario para realizar predicción para reducir de forma adicional las unidades de conmutación de intra predicción e inter predicción. Un modo de identificación de un procedimiento de particionamiento de la señal de luminancia y señales de crominancia de un bloque de codificación se define como un modo de partición (PartMode). Además, el bloque particionado se define como un bloque de predicción. Como se ilustra en la FIGS. 4A a 4H, se definen ocho modos de partición (PartMode) dependiendo de un procedimiento de partición de la señal de luminancia de un bloque de codificación.
Un modo de partición (PartMode) en el que la señal de luminancia de un bloque de codificación ilustrado en la FIG.
4A no está particionado, sino que se considera un solo bloque de predicción que se define como una partición de 2N*2N (PART_2Nx2N). Modos de partición (PartMode) en los que las señales de luminancia de los bloques de codificación ilustrados en las FIGS. 4E, 4C y 4D se particionan en dos bloques de predicción dispuestos en la dirección horizontal se definen como partición N*2N (PART_2NxN), partición nL*2N (PART_2NxnU) y partición nR*2N (PART_2NxnD), respectivamente. En este caso, la partición 2N*N (PART_2NxN) es un modo de partición en el que la señal de luminancia se particiona en la relación de 1 : 1 en la dirección vertical, la partición 2N*nU (PART_2NxnU) es un modo de partición en el que la señal de luminancia se particiona en la relación de 1 : 3 en la dirección vertical, y la partición 2N*nD (PART_2NxnD) es un modo de partición en el que la señal de luminancia se particiona en la relación de 3 : 1 en la dirección vertical. Modos de partición (PartMode) en los que las señales de luminancia de los bloques de codificación ilustrados en las FIGS. 4E, 4F y 4G se particionan en dos bloques de predicción dispuestos en la dirección horizontal que se definen como partición N*2N (PART_Nx2N), partición nL*2N (PART_nLx2N) y partición nR*2N (PART_nRx2N), respectivamente. En este caso, la partición N*2N (PART_Nx2N) es un modo de partición en el que la señal de luminancia se particiona en la relación de 1 : 1 en la dirección horizontal, la partición nL*2N (PART_nLx2N) es un modo de partición en el que la señal de luminancia se particiona en la relación de 1 : 3 en la dirección horizontal, y la partición nR*2N (PART_nRx2N) es un modo de partición en el que la señal de luminancia se particiona en la relación de 3 : 1 en la dirección horizontal. Un modo de partición (PartMode) en el que la señal de luminancia de un bloque de codificación ilustrado en la FIG. 4H se particiona en cuatro partes en las direcciones verticales y horizontales para obtener cuatro bloques de predicción se define como partición N*N (PART_NxN).
La señal de crominancia se particiona en las mismas relaciones de partición vertical y horizontal que la señal de luminancia en respectivos modos de partición (PartMode).
Para especificar cada bloque de predicción en un bloque de codificación, se asigna un número comenzando desde 0 a bloques de predicción presentes en el bloque de codificación en el orden de codificación. Este número se define como un índice de partición PartIdx. El número descrito en cada bloque de predicción del bloque de codificación ilustrado en las FIGS. 4A a 4H indica un índice de partición PartIdx del bloque de predicción. En la partición 2N*N (PART_2NxN), partición 2N*nU (PART_2NxnU), y partición 2N*nD (PART_2NxnD) ilustradas en las FiGS. 4B, 4C y 4D, los índices de partición PartIdx de los bloques de predicción superiores se establecen en 0 y los índices de partición PartIdx de los bloques de predicción inferiores se establecen en 1. En la partición 2N*N (PART_Nx2N), partición 2N*nU (PART_nLx2N) y partición 2N*nD (PART_nRx2N) ilustradas en las FIGS. 4E, 4F y 4G, los índices de partición PartIdx de los bloques de predicción izquierdos se establecen en 0 y los índices de partición PartIdx de los bloques de predicción derechos se establecen en 1. En la partición N*N (PART_NxN) ilustrada en la FIG. 4H, el índice de partición PartIdx del bloque de predicción superior izquierdo se establece en 0, el índice de partición PartIdx del bloque de predicción superior derecho se establece en 1, el índice de partición PartIdx del bloque de predicción inferior izquierdo se establece en 2, y el índice de partición PartIdx del bloque de predicción inferior derecho se establece en 3.
Cuando el modo de predicción (PredMode) es inter predicción (MODE_INTER), la partición 2N*2N (PART_2Nx2N), la partición 2N*N (pA r T_2Nx n ), la partición 2N*nU (PART_2NxnU), la partición 2N*nD (PART_2NxnD), la partición N*2N ((PART_Nx2N), la partición nL*2N (PART_nl_x2N) y la partición nR*2N (PART_nRx2N) se definen como los modos de partición (PartMode). Respecto a únicamente el bloque de codificación D que es el bloque de codificación más pequeño, la partición N*N (PART_NxN) puede definirse como el modo de partición (PartMode) además de la partición 2N*2N (PART_2Nx2N), la partición 2n *N (PART_2NxN), la partición 2N*nU (PART_2NxnU), la partición 2N*nD (PART_2NxnD), la partición N*2N ((PART_Nx2N), la partición nL*2N (PART_nLx2N) y la partición nR*2N (PART_nRx2N). Sin embargo, en la presente realización, la partición N*N (PART_NxN) no se define como el modo de partición (PartMode).
Cuando el modo de predicción (PredMode) es intra predicción (MODE_INTRA), la partición 2N*2N (PART_2Nx2N) únicamente se define para bloques de codificación diferentes del bloque de codificación D que es el bloque de codificación más pequeño como el modo de partición (PartMode), y la partición N*N (PART_NxN) se define para el bloque de codificación D únicamente que es el bloque de codificación más pequeño como el modo de partición (PartMode) además de la partición 2N*2n (PART_2Nx2N). La razón por la que la partición N*N (PART_NxN) no se define para bloques de codificación diferentes del bloque de codificación más pequeño es porque es posible particionar un bloque de codificación diferente del bloque de codificación más pequeño en cuatro partes para expresar bloques de codificación más pequeños.
(Posiciones de bloque de árbol, bloque de codificación, bloque de predicción, bloque de transformada)
Las posiciones de bloques que incluyen un bloque de árbol, un bloque de codificación, un bloque de predicción y un bloque de transformada de la presente realización se presentan de tal forma que la posición de un píxel de una señal de luminancia superior izquierda de una pantalla de la señal de luminancia se establece como el origen (0, 0), y la posición de un píxel de la señal de luminancia superior izquierda incluida en la región de cada bloque se representa mediante una coordinada de dos dimensiones (x, y). La dirección del eje de coordenadas se define de tal forma que la dirección hacia la derecha de la dirección horizontal y la dirección hacia abajo de la dirección vertical son las direcciones positivas, y la unidad es un píxel de la señal de luminancia. Cuando el formato de crominancia es 4:2:0 o 4:2:2 en el que el tamaño de imagen (el número de píxeles) es diferente de la señal de luminancia a señal de crominancia así como cuando el formato de crominancia es 4 : 4 : 4 en el que el tamaño de instantánea (el número de píxeles) es el mismo para la señal de luminancia y la señal de crominancia, la posición de cada bloque de la señal de crominancia se representa mediante la coordenada de un píxel de una señal de luminancia incluida en la región del bloque, y la unidad es un píxel de la señal de luminancia. De este modo, es posible especificar la posición de cada bloque de la señal de crominancia y entender claramente la relación posicional entre el bloque de la señal de luminancia y el bloque de la señal de crominancia simplemente comparando los valores de coordenada.
(Modo de inter predicción y lista de referencia)
En la realización de la presente invención, una pluralidad de imágenes descodificadas puede usarse como imágenes de referencia en inter predicción en la que se realiza predicción de señales de imágenes de imágenes codificadas/descodificadas. Para especificar instantáneas de referencia seleccionadas de una pluralidad de instantáneas de referencia, se asigna un índice de referencia a cada bloque de predicción. En cortes B, es posible seleccionar dos imágenes de referencia opcionales para cada bloque de predicción y realizar inter predicción, y los ejemplos del modo de inter predicción incluyen predicción L0 (Pred_L0), predicción L1 (Pred_L1) y bipredicción (Pred_BI). Las imágenes de referencia se gestionan por L0 (lista de referencia 0) y L1 (lista de referencia 1) de una estructura de lista, y una imagen de referencia puede especificarse designando el índice de referencia de L0 o L1. La predicción L0 (Pred_L0) es inter predicción que se refiere a imágenes de referencia gestionadas por L0, predicción L1 (Pred_L1) es inter predicción que se refiere a imágenes de referencia gestionadas por L1, y la bi predicción (Pred_BI) es inter predicción en la que se realizan tanto predicción L0 como predicción L1 y que se refiere a imágenes de referencia gestionadas por L0 y L1, respectivamente. La predicción L0 únicamente puede usarse en inter predicción de cortes P, y la predicción L0, la predicción L1 y la bi predicción (Pred_BI) en las que la predicción L0 y la predicción L1 se promedian o añaden con ponderación, pueden usarse en inter predicción de cortes B. En los siguientes procedimientos, se asume que los números enteros y las variables a las que se añade un carácter LX a la salida se procesan para cada uno de L0 y L1.
(Modo de fusión y candidato de fusión)
Un modo de fusión es un modo en el que en lugar de que se codifique y descodifique información de inter predicción tal como un modo de predicción, un índice de referencia o un vector de movimiento de un bloque de predicción diana de codificación/descodificación, se realiza inter predicción derivando información de inter predicción de un bloque de predicción diana de codificación/descodificación de información de inter predicción de bloques de predicción vecinos al bloque de predicción diana de codificación/descodificación en la misma imagen que el bloque de predicción diana de codificación/descodificación o un bloque de predicción presente en la misma posición que o próximo (a la posición vecina) a un bloque de predicción diana de codificación/descodificación de una imagen codificada/descodificada en una posición temporal diferente del bloque de predicción diana de codificación/descodificación. Un bloque de predicción vecino al bloque de predicción objetivo de codificación/decodificación en la misma instantánea que el bloque de predicción objetivo de codificación/decodificación e información de inter predicción del bloque de predicción se denominan como candidatos de fusión espaciales, y un bloque de predicción presente en la misma posición que o próximo a (la posición vecina) el bloque de predicción objetivo de codificación/decodificación de una instantánea codificada/decodificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación/decodificación e información de inter predicción derivada a partir de la información de inter predicción del bloque de predicción se denominan como candidatos de fusión temporales. Los respectivos candidatos de fusión se añaden a una lista de candidatos de fusión y un índice de fusión especifica un candidato de fusión usado para inter predicción.
(Bloque de predicción vecino)
Las FIGS. 5, 6, 7 y 8 son diagramas para la descripción de bloques de predicción vecinos a un bloque de predicción objetivo de codificación/decodificación en la misma imagen que el bloque de predicción objetivo de codificación/decodificación al que se hace referencia cuando se derivan candidatos de fusión espaciales e índices de referencia de candidatos de fusión temporales. La FIG. La FIG. 9 es un diagrama de descripción de bloques de predicción codificados/decodificados presentes en la misma posición que o próximos a un bloque de predicción objetivo de codificación/decodificación de una imagen codificada/decodificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación/decodificación al que se hace referencia cuando se derivan candidatos de fusión temporales. Los bloques de predicción vecinos en una dirección espacial de un bloque de predicción objetivo de codificación/decodificación y bloques de predicción en la misma posición de tiempo diferente se describirán usando las FIGS. 5, 6, 7, 8 y 9. 5, 6, 7, 8, y 9.
Como se ilustra en la FIG. 5, un bloque de predicción A vecino a un lado izquierdo de un bloque de predicción diana de codificación/descodificación en la misma imagen que el bloque de predicción diana de codificación/descodificación, un bloque de predicción B vecino a un lado superior del bloque de predicción diana de codificación/descodificación, un bloque de predicción C vecino a una esquina superior derecha del bloque de predicción diana de codificación/descodificación, un bloque de predicción D vecino a una esquina inferior izquierda del bloque de predicción diana de codificación/descodificación, y un bloque de predicción E vecino a una esquina superior izquierda del bloque de predicción diana de codificación/descodificación se definen como bloques de predicción vecinos en la dirección espacial.
Como se ilustra en la FIG. 6, cuando una pluralidad de bloques de predicción vecinos al lado izquierdo del bloque de predicción objetivo de codificación/decodificación están presentes y tienen un tamaño más pequeño que el bloque de predicción objetivo de codificación/decodificación, únicamente el bloque de predicción A10 inferior entre los bloques de predicción vecinos al lado izquierdo se denominará como el bloque de predicción A vecino al lado izquierdo en la presente realización.
De manera similar, cuando una pluralidad de bloques de predicción vecinos al lado superior del bloque de predicción diana de codificación/descodificación están presentes y tienen un tamaño más pequeño que el bloque de predicción diana de codificación/descodificación, únicamente el bloque de predicción B10 más a la derecha entre los bloques de predicción vecinos al lado izquierdo se denominará como el bloque de predicción B vecino al lado superior en la presente realización.
Como se ilustra en la FIG. 7, incluso cuando el tamaño del bloque de predicción F vecino al lado izquierdo del bloque de predicción diana de codificación/descodificación es mayor que el bloque de predicción diana de codificación/descodificación, de acuerdo con las condiciones, el bloque de predicción F es el bloque de predicción A si el bloque de predicción F vecino al lado izquierdo está junto al lado izquierdo del bloque de predicción diana de codificación/descodificación, el bloque de predicción D si el bloque de predicción F está junto a la esquina inferior izquierda del bloque de predicción diana de codificación/descodificación, y el bloque de predicción E si el bloque de predicción F está junto a la esquina superior izquierda del bloque de predicción diana de codificación/descodificación.
En el ejemplo de la FIG. 7, el bloque de predicción A, el bloque de predicción D y el bloque de predicción E son los mismos bloques de predicción.
Como se ilustra en la FIG. 8, incluso cuando el tamaño del bloque de predicción G vecino al lado superior del bloque de predicción diana de codificación/descodificación es mayor que el bloque de predicción diana de codificación/descodificación, de acuerdo con las condiciones, el bloque de predicción G es el bloque de predicción B si el bloque de predicción G vecino al lado superior está junto al lado superior del bloque de predicción diana de codificación/descodificación, el bloque de predicción C si el bloque de predicción G está junto a la esquina superior derecha del bloque de predicción diana de codificación/descodificación, y el bloque de predicción E si el bloque de predicción G está junto a la esquina superior izquierda del bloque de predicción diana de codificación/descodificación.
En el ejemplo de la FIG. 8, el bloque de predicción B, el bloque de predicción C y el bloque de predicción E son los mismos bloques de predicción.
Como se ilustra en la FIG. 9, en imágenes codificadas/descodificadas en posiciones temporalmente diferentes del bloque de predicción diana de codificación/descodificación, bloques de predicción codificados/descodificados T0 y T1 presentes en la misma posición que o próximos al bloque de predicción diana de codificación/descodificación se definen como bloques de predicción en la misma posición de tiempo diferente.
(POC)
Un POC es una variable asociada con una instantánea que hay que codificar y un valor que se incrementa en 1 en el orden de emisión/visualización de instantánea se establece como el POC. A base del valor de POC, es posible determinar si dos instantáneas son la misma instantánea, determinar una relación anteroposterior entre instantáneas en el orden de emisión/visualización y derivar una distancia de instantánea a instantánea. Por ejemplo, cuando dos instantáneas tienen el mismo valor de POC, puede determinarse que ambas instantáneas son la misma instantánea.
Cuando dos instantáneas tienen diferentes valores de POC, puede determinarse que una instantánea que tiene el valor de POC más pequeño es una instantánea que se emite y visualiza antes, y una diferencia entre los POC de dos instantáneas indica una distancia de instantánea a instantánea en una dirección de eje de tiempo. En adelante en la presente memoria, se describirá una realización de la presente invención con referencia a los dibujos. La Figura 1 es un diagrama de bloques que ilustra una configuración de un dispositivo de codificación de imágenes en movimiento de acuerdo con una realización de la presente invención. El dispositivo de codificación de instantáneas en movimiento de la realización incluye una memoria 101 de instantáneas, una unidad 117 de establecimiento de información de encabezamiento, un detector 102 de vectores de movimiento, una unidad 103 de derivación de diferencia de vector de movimiento, una unidad 104 de derivación de información de inter predicción, una unidad 105 de predicción con compensación de movimiento, una unidad 106 de intra predicción, una unidad 107 de determinación de procedimiento de predicción, una unidad 108 de creación de señal residual, una unidad 109 de transformación ortogonal y cuantificación, una primera unidad 118 de creación de flujo de bits, una segunda unidad 110 de creación de flujo de bits, una tercera unidad 111 de creación de flujo de bits, un multiplexor 112, una unidad 113 de decuantificación y transformación ortogonal inversa, una unidad 114 de superposición de señal de instantánea codificada, una memoria
115 de almacenamiento de información de codificación y una memoria 116 de instantáneas decodificadas.
La unidad 117 de establecimiento de información de encabezamiento establece información en secuencia, imagen, y unidades de corte. La información establecida en secuencia, instantánea y unidades de corte se suministra a la unidad
104 de derivación de información de inter predicción y la primera unidad 118 de creación de flujo de bits y se suministra también a todos los bloques aunque no se ilustra en el dibujo. La unidad 117 de establecimiento de información de encabezamiento también establece un mayor número de candidatos de fusión maxNumMergeCand descrito posteriormente.
La memoria 101 de imágenes almacena temporalmente señales de imágenes de imágenes diana de codificación suministradas en el orden del tiempo en el que se capturan y visualizan las imágenes. La memoria 101 de instantáneas suministra las señales de instantánea almacenada de instantáneas objetivo de codificación al detector 102 de vectores de movimiento, la unidad 107 de determinación de procedimiento de predicción y la unidad 108 de creación de señal residual en unidades de bloques de píxel predeterminados. En este caso, las señales de instantánea de las instantáneas almacenadas en el orden de captura/visualización se disponen en el orden de codificación y se emiten
de la memoria 101 de instantáneas en unidades de bloques de píxeles.
El detector 102 de vectores de movimiento detecta un vector de movimiento de cada tamaño de bloque de predicción y cada modo de predicción en respectivos bloques de predicción realizando concordancia de bloques entre las señales de imagen suministradas desde la memoria 101 de imágenes y las imágenes de referencia suministradas desde la memoria 116 de imágenes descodificadas y suministra el vector de movimiento detectado a la unidad 105 de predicción con compensación por movimiento, la unidad 103 de derivación de diferencia de vector de movimiento y la unidad 107 de determinación de procedimiento de predicción.
La unidad 103 de derivación de diferencia de vector de movimiento deriva una pluralidad de candidatos de pronóstico de vector de movimiento usando información de codificación de señales de imágenes codificadas almacenadas en la memoria 115 de almacenamiento de información de codificación para añadir los mismos en una lista de pronóstico de vector de movimiento, selecciona un pronóstico de vector de movimiento opcional entre la pluralidad de candidatos de pronóstico de vector de movimiento añadidos a la lista de pronóstico de vector de movimiento, deriva una diferencia de vector de movimiento a partir del pronóstico de vector de movimiento y el vector de movimiento detectado por el detector 102 de vectores de movimiento, y suministra la diferencia de vector de movimiento derivada a la unidad 107 de determinación de procedimiento de predicción. Además, la unidad 103 de derivación de diferencia de vector de movimiento suministra un índice de predictor de vector de movimiento para especificar el predictor de vector de movimiento seleccionado de entre los candidatos de predictor de vector de movimiento añadidos a la lista de predictor de vector de movimiento a la unidad 107 de determinación de procedimiento de predicción.
La unidad 104 de derivación de información de inter predicción deriva candidatos de fusión en un modo de fusión. La unidad 104 de derivación de información de inter predicción deriva una pluralidad de candidatos de fusión usando la información de codificación de los bloques de predicción codificados almacenados en la memoria 115 de almacenamiento de información de codificación para añadir los mismos a una lista de candidatos de fusión descrita posteriormente, selecciona un candidato de fusión óptimo entre la pluralidad de candidatos de fusión añadidos a la lista de candidatos de fusión, suministra información de inter predicción tal como las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 de cada bloque de predicción del candidato de fusión seleccionado, los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP] y los vectores de movimiento mvL0[xP][yP] y mvL1[xP][yP] a la unidad 105 de predicción con compensación por movimiento, y suministra un índice de fusión para especificar el candidato de fusión seleccionado a la unidad 107 de determinación de procedimiento de predicción. En este punto, xP e yP son índices que indican la posición del píxel superior izquierdo de un bloque de predicción en la instantánea. La configuración y operaciones detalladas de la unidad 104 de derivación de información de inter predicción se describirán posteriormente.
La unidad 105 de predicción con compensación por movimiento crea una señal de imagen de predicción realizando inter predicción (predicción con compensación por movimiento) a partir de imágenes de referencia usando el vector de movimiento detectado por el detector 102 de vectores de movimiento y la unidad 104 de derivación de información de inter predicción y suministra la señal de imagen de predicción a la unidad 107 de determinación de procedimiento de predicción. En la predicción L0 y la predicción L1, se realiza predicción en una dirección. En el caso de bipredicción (Pred_BI), se realiza predicción en dos direcciones para obtener señales de inter predicción en modos de predicción L0 y L1, que se multiplican de manera adaptativa por un factor de ponderación y se superponen añadiendo un valor de desplazamiento para crear de este modo una señal de imagen de predicción final.
La unidad 106 de intra predicción realiza intra predicción en modos de intra predicción respectivos. La unidad 106 de intra predicción crea señales de instantáneas de predicción realizando intra predicción a partir de las señales de instantánea decodificada almacenadas en la memoria 116 de instantáneas decodificadas, selecciona un modo de intra predicción óptimo entre una pluralidad de modos de intra predicción, y suministra una señal de instantánea de predicción que corresponde al modo de intra predicción seleccionado a la unidad 107 de determinación de procedimiento de predicción.
La unidad 107 de determinación de procedimiento de predicción evalúa información de codificación, una cantidad de codificación de una señal residual, y una cantidad de distorsión entre una señal de imagen de predicción y una señal de imagen de cada procedimiento de predicción para determinar de este modo un modo de partición PartMode y un modo de predicción PredMode para identificar el modo de predicción es inter predicción (PRED_INTER) o intra predicción (PRED_INTRA) para cada bloque de codificación óptimo entre una pluralidad de procedimientos de predicción, determinar si la inter predicción (PRED_INTER) es un modo de fusión en respectivos bloques de predicción, determinar un índice de fusión cuando la inter predicción es el modo de fusión, y determinar un modo de inter predicción, un índice de pronóstico de vector de movimiento, los índices de referencia L0 y L1, una diferencia de vector de movimiento y similares cuando la inter predicción no es el modo de fusión, y suministra información de codificación que corresponde a la determinación a la segunda unidad 110 de construcción de flujo de bits.
Además, la unidad 107 de determinación de procedimiento de predicción almacena información de codificación que incluye información que indica el procedimiento de predicción determinado y un vector de movimiento y similares que corresponden al procedimiento de predicción determinado en la memoria 115 de almacenamiento de información de codificación. La información de codificación almacenada en la presente memoria incluye un modo de predicción PredMode de cada bloque de codificación, un modo de partición PartMode, las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 de cada bloque de predicción, los índices de referencia L0 y L1 refldxL0[xP][yP] y refIdxL1[xP][yP], y vectores de movimiento l0 y L1 mvL0[xP][yP] y mvL1[xP][yP], en este punto, xP e yP son índices que indican la posición del píxel superior izquierdo de un bloque de predicción en la imagen. Cuando el modo de predicción PredMode es intra predicción (MODE_INTRA), tanto la bandera predFlagL0[xP][yP] que indica si usar o no predicción L0 y la bandera predFlagL1[xP][yP] que indica si usar o no predicción L1 son 0. Por el otro lado, cuando el modo de predicción PredMode es inter predicción (MODE INTER) y el modo de inter predicción es predicción L0 (Pred LO), la bandera predFlagL0[xP][yP] que indica si se utiliza o no la predicción L0 es 1 y el indicador predFlagLl[xP][yP] que indica si se utiliza o no la predicción L1 es 0. Cuando el modo de inter predicción es predicción L1 (Pred_L1), la bandera predFlagL0[xP][yP] que indica si usar o no predicción L0 es 0 y la bandera predFlagL1[xP][yP] que indica si usar o no predicción L1 es 1.
Cuando el modo de inter predicción es bi predicción (Pred_BI), tanto la bandera predFlagL0[xP][yP] que indica si usar o no predicción L0 y la bandera predFlagL1[xP][yP] que indica si usar o no predicción L1 son 1. La unidad 107 de determinación de procedimiento de predicción suministra la señal de instantánea de predicción que corresponde al modo de predicción determinado a la unidad 108 de creación de señal residual y la unidad 114 de superposición de señal de instantánea codificada.
La unidad 108 de construcción de señal residual crea una señal residual realizando una resta entre una señal de imagen a ser codificada y la señal de imagen de predicción y suministra la misma a la unidad 109 de transformación ortogonal y cuantificación.
La unidad 109 de transformación ortogonal y cuantificación realiza transformación ortogonal y cuantificación en la señal residual de acuerdo con un parámetro de descuantificación para crear una señal residual cuantificada y transformada ortogonalmente y suministra la misma a la tercera unidad 111 de construcción de flujo de bits y la unidad 113 de descuantificación y transformación ortogonal inversa. Además, la unidad 109 de transformación ortogonal y cuantificación almacena el parámetro de cuantificación en la memoria 115 de almacenamiento de información de codificación.
La primera unidad 118 de construcción de flujo de bits codifica la información en secuencia, imagen y unidades de corte establecidos por la unidad 117 de establecimiento de información de encabezamiento para crear un primer flujo de bits y suministra el mismo al multiplexor 112. La primera unidad 118 de creación de flujo de bits también codifica un mayor número de candidatos de fusión maxNumMergeCand descrito posteriormente.
La segunda unidad 110 de construcción de flujo de bits codifica la información de codificación que corresponde al procedimiento de predicción determinado por la unidad 107 de determinación de procedimiento de predicción para cada bloque de codificación y cada bloque de predicción. Específicamente, la segunda unidad 110 de construcción de flujo de bits codifica información de codificación de acuerdo con una regla de sintaxis predeterminada descrita posteriormente para crear un segundo flujo de bits y suministra el mismo al multiplexor 112, incluyendo la información de codificación información para identificar si cada bloque de codificación es un modo de salto, un modo de predicción PredMode para identificar inter predicción (PRED_INTER) e intra predicción (PRED_INTRA), un modo de partición PartMode, un modo de intra predicción cuando el modo de predicción es intra predicción (PRED_INTRA), una bandera para identificar si la inter predicción (PRED_INTER) es un modo de fusión, un índice de fusión cuando el modo de inter predicción es un modo de fusión, y un modo de inter predicción, un índice de pronóstico de vector de movimiento e información sobre la diferencia de vector de movimiento cuando el modo de inter predicción no es un modo de fusión. En la presente realización, cuando el bloque de codificación es un modo de salto (el elemento de sintaxis skip_flag[x0][y0] es 1), el valor del modo de predicción PredMode de un bloque de predicción es inter predicción (MODE_INTER), un modo de fusión (merge_flag[x0][y0] es 1) y el modo de partición (PartMode) es partición 2N*2N (PART_2Nx2N).
La tercera unidad 111 de construcción de flujo de bits realiza codificación por entropía en la señal residual cuantificada y transformada ortogonalmente de acuerdo con una regla de sintaxis predeterminada para crear un tercer flujo de bits y suministra el mismo al multiplexor 112. El multiplexor 112 multiplica el primer, segundo y tercer flujos de bits de acuerdo con la regla de sintaxis predeterminada y emite el flujo de bits multiplexado.
La unidad 113 de descuantificación y transformación ortogonal inversa realiza descuantificación y transformación ortogonal inversa en la señal residual cuantificada y transformada ortogonalmente suministrada desde la unidad 109 de transformación ortogonal y cuantificación para crear la señal residual y suministra la misma a la unidad 114 de superposición de señal de imagen codificada. La unidad 114 de superposición de señal de instantánea codificada superpone la señal de instantánea de predicción que corresponde a la determinación de la unidad 107 de determinación de procedimiento de predicción y la señal residual decuantificada y transformada ortogonalmente inversa por la unidad 113 de decuantificación y transformación ortogonal inversa para crear una instantánea decodificada y almacena la misma en la memoria 116 de instantáneas decodificadas. Un procedimiento de filtrado de reducción de la distorsión tal como distorsión de bloque que resulta de la codificación puede aplicarse a la instantánea decodificada y la instantánea resultante puede almacenarse en la memoria 116 de instantáneas decodificadas.
La FIG. 2 es un diagrama de bloques que ilustra una configuración de un dispositivo de decodificación de imágenes en movimiento de acuerdo con una realización de la presente invención, que corresponde al dispositivo de codificación de imágenes en movimiento de la FIG. 1. El dispositivo de decodificación de instantáneas en movimiento de la realización incluye un demultiplexor 201, un primer decodificador 212 de flujo de bits, un segundo decodificador 202 de flujo de bits, un tercer decodificador 203 de flujo de bits, una unidad 204 de derivación de vector de movimiento, una unidad 205 de derivación de información de inter predicción, una unidad 206 de predicción con compensación de movimiento, una unidad 207 de intra predicción, una unidad 208 de decuantificación y transformación ortogonal inversa, una unidad 209 de superposición de señal de instantánea codificada, una memoria 210 de almacenamiento de información de codificación y una memoria 211 de instantáneas decodificadas.
Dado que el procedimiento de descodificación del dispositivo de descodificación de imágenes en movimiento ilustrado en la FIG. 2 corresponde al procedimiento de decodificación realizado en el dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1, los componentes respectivos de la unidad de predicción con compensación por movimiento 206, la unidad de decuantificación y transformación ortogonal inversa 208, la unidad de superposición de la señal de imagen decodificada 209, la memoria de almacenamiento de información de codificación 210 y la memoria de imagen decodificada 211 ilustradas en la FIG. 2 tienen las funciones correspondientes a los respectivos componentes de la unidad de predicción con compensación por movimiento 105, la unidad de decuantificación y transformación ortogonal inversa 113, la unidad de superposición de la señal de imagen decodificada 114, la memoria de almacenamiento de información de codificación 115 y la memoria de imagen decodificada 116 del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1.
El flujo de bits suministrado al demultiplexor 201 se demultiplexa de acuerdo con una regla de sintaxis predeterminada y el flujo de bits demultiplexada se suministra al primer, segundo y tercer descodificadores de flujo de bits 212, 202 y 203.
El primer descodificador 212 de flujo de bits descodifica el flujo de bits suministrado para obtener información en secuencia, imagen, y unidades de corte. La información obtenida en secuencia, instantánea y unidades de corte se suministra a todos los bloques aunque no se ilustran en el dibujo. El primer decodificador 212 de flujo de bits también decodifica un mayor número de candidatos de fusión maxNumMergeCand descrito posteriormente.
El segundo descodificador 202 de flujo de bits descodifica el flujo de bits suministrado para obtener información en unidades de bloque de codificación e información de codificación en unidades de bloque de predicción. Específicamente, el segundo descodificador 202 de flujo de bits descodifica información de codificación de acuerdo con la regla de sintaxis predeterminada para obtener información de codificación, almacena la información de codificación tal como el modo de predicción descodificado PredMode y el modo de partición descodificado PartMode en la memoria 210 de almacenamiento de información de codificación, y suministra la misma a la unidad 204 de derivación de vector de movimiento, la unidad 205 de derivación de información de inter predicción, o la unidad 207 de intra predicción, la información de codificación que incluye información para identificar si cada bloque de codificación es un modo de salto, un modo de predicción PredMode para identificar si el modo de predicción es inter predicción (PRED_INTER) o intra predicción (PRED_INTRA), un modo de partición PartMode, una bandera para identificar si inter predicción (PRED_INTER) es un modo de fusión, un índice de fusión cuando la inter predicción es un modo de fusión, y un modo de inter predicción, un índice de pronóstico de vector de movimiento, y una diferencia de vector de movimiento cuando la inter predicción no es un modo de fusión. En la presente realización, cuando el bloque de codificación es un modo de salto (el elemento de sintaxis skip_flag[x0][y0] es 1), el valor del modo de predicción PredMode de un bloque de predicción es inter predicción (MODE_INTe R), un modo de fusión (merge_flag[x0][y0] es 1) y el modo de partición (PartMode) es partición 2N*2N (PART_2Nx2N).
El tercer descodificador 203 de flujo de bits descodifica el flujo de bits suministrado para derivar una señal residual cuantificada y transformada ortogonalmente y suministra la señal residual cuantificada y transformada ortogonalmente a la unidad 208 de descuantificación y transformación ortogonal inversa.
Cuando el modo de predicción PredMode de un bloque de predicción diana de descodificación no es la inter predicción (PRED_INTER) o el modo de fusión, la unidad 204 de derivación de vector de movimiento deriva una pluralidad de candidatos de pronóstico de vector de movimiento usando la información de codificación de la señal de imagen descodificada almacenada en la memoria 210 de almacenamiento de información de codificación para añadir la misma a una lista de pronóstico de vector de movimiento descrita posteriormente, y selecciona un pronóstico de vector de movimiento que corresponde al índice de pronóstico de vector de movimiento descodificado y suministrado por el segundo descodificador 202 de flujo de bits entre la pluralidad de candidatos de pronóstico de vector de movimiento añadidos en la lista de pronósticos de vector de movimiento, deriva un vector de movimiento a partir del pronóstico de vector de movimiento seleccionado y la diferencia de vector descodificada por el segundo descodificador 202 de flujo de bits, suministra la misma a la unidad 206 de predicción con compensación por movimiento junto con otros artículos de información de codificación, y almacena los mismos en la memoria 210 de almacenamiento de información de codificación. La información de codificación del bloque de predicción suministrado y almacenado en la presente memoria incluye las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1, los índices de referencia L0 y L1 refIdxL0[xP][yP] y refIdxL1[xP][yP], y vectores de movimiento L0 y L1 mvL0[xP][yP] y mvL1[xP][yP], en este punto, xP e yP son índices que indican la posición del píxel superior izquierdo de un bloque de predicción en la imagen. Cuando el modo de predicción PredMode es inter predicción (MODE_INTER) y el modo de inter predicción es predicción L0 (Pred_L0), una bandera predFlagL0 que indica si usar o no predicción L0 es 1 y una bandera predFlagL1 que indica si usar o no predicción L1 es 0. Cuando el modo de inter predicción es predicción L1 (Pred_L1), una bandera predFlagLO que indica si usar o no predicción L0 es 0 y una bandera predFlagLI que indica si usar o no predicción L1 es 1. Cuando el modo de inter predicción es bipredicción (Pred_BI), tanto la bandera predFlagL0 que indica si usar o no predicción L0 como la bandera predFlagL1 que indica si usar o no predicción L1 son 1.
La unidad 205 de derivación de información de inter predicción deriva candidatos de fusión cuando el modo de predicción PredMode de un bloque de predicción diana de descodificación es inter predicción (PRED_INTER) y un modo de fusión. La unidad 205 de derivación de información de inter predicción deriva una pluralidad de candidatos de fusión usando la información de codificación descodificada del bloque de predicción almacenado en la memoria 115 de almacenamiento de información de codificación para añadir la misma a una lista de candidatos de fusión descrita posteriormente, selecciona un candidato de fusión que corresponde al índice de fusión descodificado y suministrado por el segundo descodificador 202 de flujo de bits entre la pluralidad de candidatos de fusión añadidos a la lista de candidatos de fusión, suministra información de inter predicción que incluye las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 del candidato de fusión seleccionado, los índices de referencia L0 y L1 refIdxL0[xP][yP] y refIdxL1[xP][yP], y vectores de movimiento L0 y L1 mvL0[xP][yP] y mvL1[xP][yP] a la unidad 206 de predicción con compensación por movimiento, y almacena la misma en la memoria 210 de almacenamiento de información de codificación. En este punto, xP e yP son índices que indican la posición del píxel superior izquierdo de un bloque de predicción en la instantánea. La configuración y operaciones detalladas de la unidad 205 de derivación de información de inter predicción se describirán posteriormente.
La unidad 206 de predicción con compensación por movimiento crea una señal de imagen de predicción realizando inter predicción (predicción con compensación por movimiento) a partir de las imágenes de referencia almacenadas en la memoria 211 de imágenes descodificadas usando la información de inter predicción derivada por la unidad 204 de derivación de vector de movimiento o la unidad 205 de derivación de información de inter predicción y suministra la señal de imagen de predicción a la unidad 209 de superposición de señal de imagen codificada. En el caso de bi predicción (Pred_BI), la predicción con compensación por movimiento se realiza en dos modos de predicción L0 y predicción L1 para obtener señales de imágenes de predicción con compensación por movimiento que se multiplican de manera adaptativa por un factor de ponderación y se superponen para construir de este modo una señal de imagen de predicción final.
La unidad 207 de intra predicción realiza intra predicción cuando el modo de predicción PredMode del bloque de predicción diana de descodificación es intra predicción (PRED_INTRA). La información de codificación decodificada por el segundo decodificador 202 de flujo de bits incluye un modo de intra predicción, y la unidad 207 de intra predicción crea una señal de instantánea de predicción realizando intra predicción a partir de la señal de instantánea decodificada almacenada en la memoria 211 de instantáneas decodificadas de acuerdo con el modo de intra predicción y suministra la señal de instantánea de predicción a la unidad 209 de superposición de señal de instantánea codificada. Tanto las banderas predFlagL0[xP][yP] como predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 se establecen en 0 y se almacenan en la memoria 210 de almacenamiento de información de codificación. En este punto, xP e yP son índices que indican la posición del píxel superior izquierdo de un bloque de predicción en la instantánea.
La unidad 208 de descuantificación y transformación ortogonal inversa realiza descuantificación y transformación ortogonal inversa en la señal residual cuantificada y transformada ortogonalmente descodificada por el segundo descodificador 202 de flujo de bits para obtener una señal residual decuantificada y transformada ortogonalmente inversa.
La unidad 209 de superposición de señal de imagen codificada superpone la señal de imagen de predicción inter predicha por la unidad 206 de predicción con compensación por movimiento o la señal de imagen de predicción intra predicha por la unidad 207 de intra predicción en la señal residual decuantificada y transformada ortogonalmente inversa por la unidad 208 de descuantificación y transformación ortogonal inversa para descodificar una señal de imagen descodificada y almacena la misma en la memoria 211 de imágenes descodificadas. Cuando la señal de instantánea decodificada se almacena en la memoria 211 de instantáneas decodificadas, un procedimiento de filtrado de reducción de una distorsión de bloque o similar que resulta de la codificación puede realizarse en la instantánea decodificada y almacenada en la memoria 211 de instantáneas decodificadas.
(Sintaxis)
A continuación, se describirá una sintaxis que es una regla común de codificación y descodificación de un flujo de bits de imagen en movimiento que se codifica por un dispositivo de codificación de imágenes en movimiento que emplea un procedimiento de predicción de vector de movimiento de acuerdo con la presente realización y se descodifica por un dispositivo de descodificación.
En la presente realización, la unidad 117 de establecimiento de información de encabezamiento establece un mayor número de candidatos de fusión maxNumMergeCand añadidos a la lista de candidatos de fusión mergeCandList en secuencia, imagen o unidades de corte, y elementos de sintaxis se codifican por la primera unidad 118 de construcción de flujo de bits del dispositivo de codificación de imágenes en movimiento y se descodifican por el primer descodificador 212 de flujo de bits del dispositivo de descodificación de imágenes en movimiento. Puede establecerse un valor de 0 a 5 al mayor número de candidatos de fusión maxNumMergeCand, y principalmente, se establece un valor pequeño al mayor número de candidatos de fusión maxNumMergeCand cuando tiene que reducirse una cantidad de procesamiento del dispositivo de codificación de instantáneas en movimiento. Cuando se establece 0 al mayor número de candidatos de fusión maxNumMergeCand, información de inter predicción predeterminada se usa como un candidato de fusión. En la descripción de la presente realización, el mayor número de candidatos de fusión maxNumMergeCand se establece a 5.
La FIG. 10 ilustra una regla de sintaxis descrita en unidades de bloque de predicción. En la presente realización, cuando el bloque de codificación es un modo de salto (el elemento de sintaxis skip_flag[x0][y0] es 1), el valor del modo de predicción PredMode del bloque de predicción es inter predicción (m Od E_INTEr ) y el modo de fusión (merge_flag[x0][y0] es 1) y el modo de partición (PartMode) es partición 2N*2N (PART_2Nx2N). Cuando la bandera merge_flag[x0][y0] es 1, indica que el modo de predicción es un modo de fusión. Cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es mayor que 1, se proporciona un elemento de sintaxis merge_idx[x0][y0] de un índice de una lista de fusión que es la lista de candidatos de fusión a la que hacer referencia. Cuando la bandera skip_flag[x0][y0] es 1, indica que el bloque de codificación es un modo de salto. Cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es mayor que 1, se proporciona un elemento de sintaxis merge_idx[x0][y0] de un índice de una lista de fusión que es una lista de candidatos de fusión a la que hacer referencia.
Cuando el valor del modo de predicción PredMode de un bloque de predicción es inter predicción (MODE_INTER), se proporciona una bandera merge_flag[x0][y0] que indica si el bloque de predicción es un modo de fusión. En este caso, x0 e y0 son índices que indican la posición de un píxel en la esquina superior izquierda de un bloque de predicción en una imagen de una señal de luminancia, y la bandera merge_flag[x0][y0] es una bandera que indica si el bloque de predicción colocado en (x0, y0) en la imagen es un modo de fusión.
Posteriormente, cuando la bandera merge_flag[x0][y0] es 1, indica que el bloque de predicción es un modo de fusión. Cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 1, se proporciona un elemento de sintaxis merge_idx[x0][y0] de un índice de una lista de fusión que es una lista de candidatos de fusión a la que hacer referencia. En este punto, x0 e y0 son índices que indican la posición de un píxel en la esquina superior izquierda de un bloque de predicción en la imagen y un índice merge_idx[x0][y0] es un índice de fusión de un bloque de predicción colocado en (x0,y0) en la imagen. Cuando un índice de fusión se somete a codificación/decodificación por entropía, menor será el número de candidatos de fusión, menor será la cantidad de codificación y menor será la cantidad de procesamiento con los que puede realizarse la codificación/decodificación. La FIG. La FIG. 11 ilustra un ejemplo de un símbolo (código) de entropía del elemento de sintaxis merge_idx[x0][y0] de un índice de fusión. Cuando el mayor número de candidatos de fusión es 2 y los índices de fusión son 0 y 1, los símbolos del elemento de sintaxis merge_idx[x0][y0] del índice de fusión son '0' y '1', respectivamente. Cuando el mayor número de candidatos de fusión es 3 y los índices de fusión son 0, 1 y 2, los símbolos del elemento de sintaxis merge_idx[x0][y0] del índice de fusión son '0', '10' y '11', respectivamente. Cuando el mayor número de candidatos de fusión es 4 y los índices de fusión son 0, 1,2 y 3, los símbolos del merge_idx[x0][y0] del índice de fusión son '0', '10', '110' y '111', respectivamente. Cuando el mayor número de candidatos de fusión es 5 y los índices de fusión son 0, 1, 2, 3 y 4, los símbolos del merge_idx[x0][y0] del índice de fusión son '0', '10', '110', '1110' y '1111', respectivamente. Es decir, cuando se conoce el mayor número de candidatos de fusión maxNumMergeCand añadidos a la lista de candidatos de fusión mergeCandList, un índice de fusión que tiene el menor mayor número de candidatos de fusión maxNumMergeCand puede representarse con una cantidad de codificación más pequeña. En la presente realización, como se ilustra en la FIG. 11, la cantidad de codificación de los índices de fusión se reduce conmutando símbolos que indican los valores de los índices de fusión de acuerdo con el número de candidatos de fusión. En la presente realización, un índice de fusión que tiene un valor mayor que o igual al valor del mayor número de candidatos de fusión maxNumMergeCand no se codificará o decodificará. Cuando el mayor número de candidatos de fusión maxNumMergeCand es 1, el índice de fusión no se codifica/decodifica y el índice de fusión es 0. Además, el mayor número de candidatos de fusión es 0, no se requiere el índice de fusión dado que la información de inter predicción predeterminada se usa como el candidato de fusión.
Por otra parte, cuando la bandera merge_flag[x0][y0] es 0, indica que el modo de predicción no es un modo de fusión. Cuando el tipo de corte es el corte B, se proporciona un elemento de sintaxis inter_pred_flag[x0][y0] para identificar un modo de inter predicción, y la predicción L0 (Pred_L0), la predicción L1 (Pred_L1) y la bipredicción (Pred_BI) se identifican por el elemento de sintaxis. Para las respectivas listas L0 y L1 se proporcionan un elemento de sintaxis ref_idx_10[x0][y0] y ref_idx_l1[x0][y0] de un índice de referencia para identificar una imagen de referencia y un elemento de sintaxis mvd_10[x0][y0][j] y mvd_l1[x0][y0][j] de una diferencia de vector de movimiento que es una diferencia entre el pronóstico de vector de movimiento y el vector de movimiento del bloque de predicción obtenido por detección de vector de movimiento. En este punto, x0 e y0 son índices que indican la posición de un píxel en la esquina superior izquierda de un bloque de predicción en la imagen, ref_idx_l0[x0][y0] y mvd_10[x0][y0][j] son los índice de referencia L0 y diferencia de vector de movimiento del bloque de predicción colocado en (x0, y0) en la imagen, respectivamente, y ref_idx_l1[x0][y0] y mvd_l1[x0][y0][j] son el índice de referencia L1 y diferencia de vector de movimiento del bloque de predicción colocado en (x0, y0) en la imagen, respectivamente. Además, j indica el componente de la diferencia de vector de movimiento, j = 0 indica un componente x, y j = 1 indica un componente y.
Posteriormente, se proporciona un elemento de sintaxis mvp_idx_10[x0][y0] y mvp_idx_l1[x0][y0] de un índice de una lista de pronóstico de vector de movimiento que es una lista de candidatos de pronóstico de vector de movimiento a la que hacer referencia. En este punto, x0 e y0 son índices que indican la posición de un píxel en la esquina superior izquierda de un bloque de predicción en la imagen, y mvp_idx_10[x0][y0] y mvp_idx_l1[x0][y0] es un índice de pronóstico de vector de movimiento L0 y L1 del bloque de predicción colocado en (x0, y0) en la imagen. En la presente realización de la presente invención, el valor del número de estos candidatos se establece a 2.
Un procedimiento de derivación de información de inter predicción de acuerdo con la realización es realizado por la unidad de derivación de información de inter predicción 104 del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 y la unidad de derivación de información de inter predicción 205 del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2.
El procedimiento de derivación de información de inter predicción de acuerdo con la realización se describirá con referencia a los dibujos. Se realiza un procedimiento de predicción de vector de movimiento en el procedimiento de codificación y decodificación en unidades de bloques de predicción que constituyen un bloque de codificación. Cuando el modo de predicción PredMode de un bloque de predicción es inter predicción (MODE_iNt ER) y un modo de fusión que incluye un modo de salto, el procedimiento de predicción de vector de movimiento se realiza cuando se deriva un modo de predicción, un índice de referencia y un vector de movimiento de un bloque de predicción diana de codificación usando un modo de predicción, un índice de referencia y un vector de movimiento de un bloque de predicción codificado en el caso de codificación y se realiza cuando se deriva un modo de predicción, un índice de referencia y un vector de movimiento de un bloque de predicción diana de descodificación usando un modo de predicción, un índice de referencia y un vector de movimiento de un bloque de predicción descodificado en el caso de descodificación.
En el modo de fusión, los candidatos de fusión se derivan de bloques de predicción que incluyen un bloque de predicción Col (T0 o T1) presente en la misma posición de tiempo diferente o cerca de un bloque de predicción diana de codificación descrito con referencia a la FIG. 9 además de los cinco bloques de predicción del bloque de predicción A vecino al lado izquierdo, el bloque de predicción B vecino al lado superior, el bloque de predicción C vecino a la esquina superior derecha, el bloque de predicción D vecino a la esquina inferior izquierda, y el bloque de predicción E vecino a la esquina superior izquierda descritos con referencia a las FIGS. 5, 6, 7 y 8. La unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento añaden estos candidatos de fusión a la lista de candidatos de fusión en el mismo procedimiento predeterminado en los lados de codificador y decodificador. La unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento determina el índice de fusión para identificar los elementos de la lista de candidatos de fusión para realizar codificación con la ayuda de la segunda unidad 110 de creación de flujo de bits. La unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento recibe el índice de fusión decodificado por el segundo decodificador 202 de flujo de bits, selecciona el bloque de predicción que corresponde al índice de fusión de la lista de candidatos de fusión, y realiza predicción con compensación de movimiento usando la información de inter predicción tal como el modo de predicción, el índice de referencia y el vector de movimiento del candidato de fusión seleccionado.
Con referencia a los dibujos se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un primer ejemplo práctico de la realización. La FIG. La FIG. 12 es un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el primer ejemplo práctico de la realización. La FIG. La FIG. 13 es un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el primer ejemplo práctico de la realización.
Las porciones rodeadas por un marco representado por una línea sólida en negrita en las FIGS. 12 y 13 indican la unidad de derivación de información de inter predicción 104 y la unidad de derivación de información de inter predicción 205, respectivamente.
Además, las porciones rodeadas por una línea de puntos en negrita dentro de los marcos indican una unidad 120 de construcción de lista de candidatos de fusión del dispositivo de codificación de imágenes en movimiento y una unidad 220 de construcción de lista de candidatos de fusión del dispositivo de descodificación de imágenes en movimiento, que derivan candidatos de fusión para crear una lista de candidatos de fusión. Lo mismo se proporciona en un dispositivo de decodificación de instantáneas en movimiento que corresponde al dispositivo de codificación de instantáneas en movimiento de la realización de modo que se obtiene el mismo resultado de determinación consistente en codificación y decodificación.
En un procedimiento de derivación de información de inter predicción de acuerdo con la realización, en un procedimiento de derivación de candidato de fusión y un procedimiento de construcción de lista de candidatos de fusión de la unidad 120 de construcción de lista de candidatos de fusión del dispositivo de codificación de imágenes en movimiento y la unidad 220 de construcción de lista de candidatos de fusión del dispositivo de descodificación de imágenes en movimiento, se derivan candidatos de fusión de un bloque de predicción diana de procesamiento y se crea una lista de candidatos de fusión sin hacer referencia a un bloque de predicción incluido en el mismo bloque de codificación que un bloque de codificación que incluye el bloque de predicción diana de procesamiento. De este modo, cuando el modo de partición (PartMode) de un bloque de codificación no es la partición 2N*2N (PART_2Nx2N) (es decir, cuando una pluralidad de bloques de predicción están presentes en un bloque de codificación), el codificador puede realizar el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión en paralelo para cada bloque de predicción en un bloque de codificación.
El procedimiento paralelo de derivación de la lista de candidatos de fusión de cada bloque de predicción en un bloque de codificación se describirá para cada modo de partición (PartMode) con referencia a las FIGS. 14A a 14H. Las FIGs .
14A a 14H son diagramas para la descripción de un bloque de predicción vecino a un bloque de predicción diana de procesamiento para cada modo de partición (PartMode) de un bloque de codificación diana de procesamiento. En las FIGS. 14A a 14H, A0, B0, C0, D0 y E0 indican un bloque de predicción A vecino al lado izquierdo, un bloque de predicción B vecino al lado superior, un bloque de predicción C vecino a la esquina superior derecha, un bloque de predicción D vecino a la esquina inferior izquierda y un bloque de predicción E vecino a la esquina superior izquierda de cada bloque de predicción diana de procesamiento del cual el índice de partición PartIdx es 0, respectivamente. Además, A1, B1, c 1, D1 y E1 indican un bloque de predicción A vecino al lado izquierdo, un bloque de predicción B vecino al lado superior, un bloque de predicción C vecino a la esquina superior derecha, un bloque de predicción D vecino a la esquina inferior izquierda y un bloque de predicción E vecino a la esquina superior izquierda de cada bloque de predicción diana de procesamiento del cual el índice de partición PartIdx es 1, respectivamente.
Además, A2, B2, C2, D2 y E2 indican un bloque de predicción A vecino al lado izquierdo, un bloque de predicción B vecino al lado superior, un bloque de predicción C vecino a la esquina superior derecha, un bloque de predicción D vecino a la esquina inferior izquierda y un bloque de predicción E vecino a la esquina superior izquierda de cada bloque de predicción diana de procesamiento del cual el índice de partición PartIdx es 2, respectivamente. Además, A3, B3, C3, D3 y E3 indican un bloque de predicción A vecino al lado izquierdo, un bloque de predicción B vecino al lado superior, un bloque de predicción C vecino a la esquina superior derecha, un bloque de predicción D vecino a la esquina inferior izquierda y un bloque de predicción E vecino a la esquina superior izquierda de cada bloque de predicción diana de procesamiento del cual el índice de partición PartIdx es 3, respectivamente.
Las FIGS. 14B, 14C y 14D son diagramas que ilustran bloques de predicción vecinos cuando el modo de partición (PartMode) para partición de un bloque de codificación diana de procesamiento en dos bloques de predicción dispuestos en la dirección vertical es partición 2N*N (PART_2NxN), partición 2N*nU (PART_2NxnU) y partición 2N*nD (PART_2NxnD), respectivamente. Un bloque de predicción B1 vecino a un bloque de predicción diana de procesamiento que tiene el PartIdx 1 es un bloque de predicción que tiene el PartIdx 0. Por lo tanto, cuando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión se realizan para el bloque de predicción que tiene el PartIdx 1 haciendo referencia al bloque de predicción B1, los procedimientos no pueden realizarse a no ser que el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 0 que pertenece al mismo bloque de codificación que es el bloque de predicción B1 y se especifican los candidatos de fusión que hay que usar. Por lo tanto, en el procedimiento de derivación de información de inter predicción de acuerdo con la realización, cuando el modo de partición (PartMode) es partición N*2N (PART_2NxN), partición nL*2N (PART_2NxnU) y partición nR*2N (PART_2NxnD) y PartIdx del bloque de predicción diana de procesamiento es 1, realizando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 1 sin hacer referencia al bloque de predicción A1 que es el bloque de predicción que tiene el PartIdx 0, es posible realizar el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para dos bloques de predicción en el bloque de codificación en paralelo.
Las FIGS. 14B, 14F y 14G son diagramas que ilustran bloques de predicción vecinos cuando el modo de partición (PartMode) para la partición de un bloque de codificación diana de procesamiento en dos bloques de predicción dispuestos en la dirección vertical es partición 2N*N (PART_Nx2N), partición 2N*nU (PART_2NxnU) y partición 2N*nD (PART_2NxnD), respectivamente. Un bloque de predicción A1 vecino a un bloque de predicción diana de procesamiento que tiene el PartIdx 1 es un bloque de predicción que tiene el PartIdx 0. Por lo tanto, cuando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión se realizan para el bloque de predicción que tiene el PartIdx 1 haciendo referencia al bloque de predicción B1, los procedimientos no pueden realizarse a no ser que el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 0 que pertenece al mismo bloque de codificación que es el bloque de predicción B1 y se especifican los candidatos de fusión que hay que usar. Por lo tanto, en el procedimiento de derivación de información de inter predicción de acuerdo con la realización, cuando el modo de partición (PartMode) es partición N*2N (PART_Nx2N), partición nL*2N (PART_nLx2N) y partición nR*2N (PART_nRx2N) y PartIdx del bloque de predicción diana de procesamiento es 1, realizando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 1 sin hacer referencia al bloque de predicción A1 que es el bloque de predicción que tiene el PartIdx 0, es posible realizar el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para dos bloques de predicción en el bloque de codificación en paralelo. La FIG. 14H es un diagrama que ilustra bloques de predicción vecinos cuando el modo de partición (PartMode) de partición de un bloque de codificación diana de procesamiento en cuatro bloques de predicción tanto en las direcciones verticales como horizontales es la partición N*N (PART_NxN). Un bloque de predicción A1 vecino a un bloque de predicción diana de procesamiento que tiene el PartIdx 1 es un bloque de predicción que tiene el PartIdx 0. Por lo tanto, cuando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión se realizan para el bloque de predicción que tiene el PartIdx 1 haciendo referencia al bloque de predicción A1, los procedimientos no pueden realizarse a no ser que se completen el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 0 que pertenece al mismo bloque de codificación que es el bloque de predicción A1 y se especifiquen los candidatos de fusión a usar. Por lo tanto, en el procedimiento de derivación de información de inter predicción de acuerdo con la realización, cuando el modo de partición (PartMode) es partición N*N (PART_NxN) y PartIdx del bloque de predicción diana de procesamiento es 1, realizando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 1 sin hacer referencia al bloque de predicción A1 que es el bloque de predicción que tiene el PartIdx 0, es posible realizar el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para respectivos bloques de predicción en el bloque de codificación en paralelo. Un bloque de predicción B2 vecino a un bloque de predicción diana de procesamiento que tiene el PartIdx 2 es un bloque de predicción que tiene el PartIdx 0, y un bloque de predicción C2 es un bloque de predicción que tiene el PartIdx 1. Por lo tanto, cuando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión se realizan para el bloque de predicción que tiene el PartIdx 2 haciendo referencia a los bloques de predicción B2 y C2, los procedimientos no pueden realizarse a no ser que se completen el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para los bloques de predicción que tienen el PartIdx 0 y 1 que pertenece a los mismos bloques de codificación que son los bloques de predicción B2 y C2 y se especifiquen los candidatos de fusión que hay que usar. Por lo tanto, en el procedimiento de derivación de información de inter predicción de acuerdo con la realización, cuando el modo de partición (PartMode) es partición N*N (PART_NxN) y PartIdx del bloque de predicción diana de procesamiento es 2, realizando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 2 sin hacer referencia a los bloques de predicción E3, B2 y C2 que son los bloques de predicción que tienen el PartIdx 0, 1, y 1, es posible realizar el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para respectivos bloques de predicción en el bloque de codificación en paralelo. Un bloque de predicción E3 vecino a un bloque de predicción diana de procesamiento que tiene el PartIdx 3 es un bloque de predicción que tiene el PartIdx 0, un bloque de predicción B3 es un bloque de predicción que tiene PartIdx 1, y un bloque de predicción A3 es un bloque de predicción que tiene el PartIdx 2. Por lo tanto, cuando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión se realizan para el bloque de predicción que tiene el PartIdx 3 haciendo referencia a los bloques de predicción E3, B3 y A3, los procedimientos no pueden realizarse a no ser que se completen el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para los bloques de predicción que tienen el PartIdx 0, 1, y 2 que pertenece a los mismos bloques de codificación que son los bloques de predicción E3, B3 y A3 y se especifiquen los candidatos de fusión que hay que usar. Por lo tanto, en el procedimiento de derivación de información de inter predicción de acuerdo con la realización, cuando el modo de partición (PartMode) es partición N*N (PART_NxN) y PartIdx del bloque de predicción diana de procesamiento es 3, realizando el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para el bloque de predicción que tiene el PartIdx 3 sin hacer referencia a los bloques de predicción E3, B3 y A3 que son los bloques de predicción que tienen el PartIdx 0, 1, y 2, es posible realizar el procedimiento de derivación de candidato de fusión y el procedimiento de creación de lista de candidatos de fusión para respectivos bloques de predicción en el bloque de codificación en paralelo.
La unidad de derivación de información de inter predicción 104 del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 12 incluye una unidad 130 de construcción de lista de candidatos de fusión, una unidad 131 de construcción de candidato de fusión espacial, una unidad 132 de derivación de índice de referencia de candidato de fusión temporal, una unidad 133 de derivación de candidato de fusión temporal, una unidad 134 de derivación de candidato de fusión adicional, una unidad 136 de limitación de candidatos de fusión y una unidad 137 de selección de información de inter predicción.
La unidad de derivación de información de inter predicción 205 del dispositivo de descodificación de imágenes en movimiento ilustrado en la FIG. 13 incluye una unidad 230 de construcción de lista de candidatos de fusión, una unidad 231 de construcción de candidato de fusión espacial, una unidad 232 de derivación de índice de referencia de candidato de fusión temporal, una unidad 233 de derivación de candidato de fusión temporal, una unidad 234 de derivación de candidato de fusión adicional, una unidad 236 de limitación de candidatos de fusión y una unidad 237 de selección de información de inter predicción.
La FIG. La Figura 15 es un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de creación de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de creación de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 220 de creación de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento de acuerdo con el primer ejemplo práctico de la realización de la presente invención. En adelante en la presente memoria, los procedimientos respectivos se describirán en secuencia.
En la siguiente descripción, aunque se describe un caso en el que el tipo de corte es el corte B, a menos que se establezca lo contrario, lo mismo puede aplicarse al corte P. Sin embargo, cuando el tipo de corte slice_type es corte P, dado que el modo de inter predicción incluye predicción L0 (Pred_L0) únicamente y no incluye predicción L1 (Pred_L1) y bi predicción (Pred_BI), pueden omitirse los procedimientos asociados con L1. En la presente realización, en el dispositivo de codificación de imágenes en movimiento y el dispositivo de descodificación de imágenes en movimiento, cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0, pueden omitirse el procedimiento de derivación de candidato de fusión y el procedimiento de construcción de lista de candidatos de fusión de la FIG. puede omitirse.
En primer lugar, la unidad 130 de construcción de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 230 de construcción de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento crean una lista de candidatos de fusión mergeCandList (etapa SI00 de la FIG. 15). La lista de candidatos de fusión mergeCandList tiene una estructura de lista e incluye un índice de fusión que indica las ubicaciones en la lista de candidatos de fusión y un área de almacenamiento que almacena un candidato de fusión que corresponde a un índice como un elemento. El número de índice de fusión comienza con 0, y un candidato de fusión se almacena en el área de almacenamiento de la lista de candidatos de fusión mergeCandList. En el siguiente procedimiento, un bloque de predicción que sirve como un candidato de fusión que corresponde a un índice de fusión i añadido a la lista de candidatos de fusión mergeCandList se expresa como mergeCandList[i] para distinguir la notación de disposición de lista de candidatos de fusión mergeCandList. En la presente realización, se supone que la lista de candidatos de fusión mergeCandList puede añadir al menos cinco candidatos de fusión (información de inter predicción). Además, se establece 0 a una variable numMergeCand que indica el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList. La lista de candidatos de fusión creada mergeCandList se suministra a la unidad 131 de creación de candidato de fusión espacial de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 231 de creación de candidato de fusión espacial de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento.
La unidad 131 de construcción de candidato de fusión espacial de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 231 de construcción de candidato de fusión espacial de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento derivan los candidatos de fusión espaciales A, B, C, D y E de los bloques de predicción A, B, C, D y E vecinos al bloque diana de codificación/descodificación a partir de la información de codificación almacenada en la memoria 115 de almacenamiento de información de codificación del dispositivo de codificación de imágenes en movimiento o la memoria 210 de almacenamiento de información de codificación del dispositivo de descodificación de imágenes en movimiento y añaden los candidatos de fusión espaciales derivados a la lista de candidatos de fusión mergeCandList (etapa S101 de la FIG. 15). En este punto, se define N que indica A, B, C, D, E o uno cualquiera de los candidatos de fusión temporales Col. Puede usarse una bandera availableFlagN que indica si se derivan información de inter predicción de un bloque de predicción N como un candidato de fusión espacial N, un índice de referencia L0 refIdxL0N y un índice de referencia L1 refIdxL1N del candidato de fusión espacial N, una bandera de predicción L0 predFlagL0N que indica si realizar o no predicción L0, una bandera de predicción L1 predFlagL1N que indica si realizar o no predicción L1, un vector de movimiento L0 mvL0N y un vector de movimiento L1 mvL1N. Sin embargo, en la presente realización, dado que se derivan candidatos de fusión sin hacer referencia a un bloque de predicción incluido en el mismo bloque de codificación que el bloque de codificación que incluye un bloque de predicción objetivo de procesamiento, no se derivan los candidatos de fusión espaciales incluidos en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción objetivo de procesamiento. El flujo de un procedimiento detallado de la etapa S101 se describirá posteriormente con referencia al diagrama de flujo de la FIG. 16. La lista de candidatos de fusión mergeCandList se suministra a la unidad 133 de derivación de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 233 de derivación de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento.
Posteriormente, la unidad 132 de derivación de índice de referencia de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 232 de derivación de índice de referencia de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento derivan los índices de referencia de candidatos de fusión temporales a partir de bloques de predicción vecinos al bloque diana de codificación/descodificación y suministran los índices de referencia derivados a la unidad 133 de derivación de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 233 de derivación de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento (etapa S102 de la FIG. 15). Sin embargo, en la presente realización, los índices de referencia de candidatos de fusión temporales se derivan sin hacer referencia a un bloque de predicción incluido en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción objetivo de procesamiento. Cuando el tipo de corte slice_type es corte P y la inter predicción se realiza usando la información de inter predicción de los candidatos de fusión temporales, únicamente los índices de referencia L0 únicamente se derivan dado que se realiza predicción L0 (Pred_L0) únicamente. Cuando el tipo de corte slice_type es corte B y la inter predicción se realiza usando la información de inter predicción de candidatos de fusión temporales, los índices de referencia L0 y L1 se derivan dado que se realiza bipredicción (Pred_BI). El flujo de un procedimiento detallado de la etapa S102 se describirá en detalle posteriormente con referencia al diagrama de flujo de la FIG. 18.
Posteriormente, la unidad 133 de derivación de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 233 de derivación de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento derivan candidatos de fusión temporales a partir de imágenes de tiempo diferente y añaden los candidatos de fusión temporales derivados a la lista de candidatos de fusión mergeCandList (etapa S103 de la FIG. 15). Se derivan na bandera availableFlagCol que indica si pueden usarse candidatos de fusión temporales, una bandera de predicción L0 predFlagL0Col que indica si se realiza predicción L0, una bandera de predicción L1 predFlagL1Col que indica si se realiza predicción L1, un vector de movimiento L0 mvL0N y un vector de movimiento L1 mvL1N. El flujo de un procedimiento detallado de la etapa SI03 se describirá en detalle posteriormente con referencia al diagrama de flujo de la FIG. 19. La lista de candidatos de fusión mergeCandList se suministra a la unidad 134 de derivación de candidato de fusión adicional de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 234 de derivación de candidato de fusión adicional de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento.
Posteriormente, la unidad 134 de derivación de candidato de fusión adicional de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 234 de derivación de candidato de fusión adicional de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento derivan candidatos de fusión adicionales usando el mayor número de candidatos de fusión maxNumMergeCand como un límite superior cuando el número de candidatos de fusión numMergeCand añadidos a la lista de candidatos de fusión mergeCandList es menor que el mayor número de candidatos de fusión maxNumMergeCand y añaden los candidatos de fusión adicionales derivados a la lista de candidatos de fusión mergeCandList (etapa S104 de la FIG. 15). Usando el mayor número de candidatos de fusión maxNumMergeCand como un límite superior, para los cortes P, se añaden candidatos de fusión que tienen índices de referencia diferentes y de los cuales el vector de movimiento tiene el valor (0, 0) y el modo de predicción es predicción L0 (Pred_L0). Para los cortes B, se añaden candidatos de fusión que tienen índices de referencia diferentes y de los cuales el vector de movimiento tiene el valor (0, 0) y el modo de predicción es bipredicción (Pred_BI). El flujo de un procedimiento detallado de la etapa SI04 se describirá en detalle posteriormente con referencia al diagrama de flujo de la FIG. 26. Para los cortes B, pueden derivarse y añadirse candidatos de fusión que se han añadido y de los cuales las combinaciones de predicción L0 y predicción L1 se cambian y el modo de predicción es bipredicción (Pred_BI). La lista de candidatos de fusión mergeCandList se suministra a la unidad 136 de limitación de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 236 de limitación de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento.
Posteriormente, la unidad 136 de limitación de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 236 de limitación de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento limitan el valor del número de candidatos de fusión numMergeCand añadidos a la lista de candidatos de fusión mergeCandList al mayor número de candidatos de fusión maxNumMergeCand cuando el valor del número de candidatos de fusión numMergeCand añadidos a la lista de candidatos de fusión mergeCandList es mayor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S106 de la FIG. 15). La lista de candidatos de fusión mergeCandList se suministra a la unidad 137 de selección de información de inter predicción de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 237 de selección de información de inter predicción de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento. El flujo de un procedimiento detallado de la etapa S106 se describirá con referencia al diagrama de flujo de la FIG. 27.
Cuando el valor del número de candidatos de fusión numMergeCand añadidos a la lista de candidatos de fusión mergeCandList es mayor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S7101 de la FIG.
27: SÍ), el valor del número de candidatos de fusión numMergeCand se actualiza al mayor número de candidatos de fusión maxNumMergeCand (etapa S7102 de la FIG. 27). El procedimiento de la etapa S7102 significa inhibir el acceso a todos los candidatos de fusión de los cuales el índice de fusión en la lista de candidatos de fusión mergeCandList es mayor que (maxNumMergeCand -1 ) y limitar el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList al mayor número de candidatos de fusión maxNumMergeCand.
En la presente realización, el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList se establece en un número fijo en cortes respectivos. La razón por la que el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList es fijo es como se indica a continuación. Si el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList cambia dependiendo del estado de la lista de candidatos de fusión creada, la decodificación por entropía depende de la lista de candidatos de fusión creada. Por lo tanto, el decodificador no puede decodificar los índices de fusión mediante decodificación por entropía a no ser que se cree una lista de candidatos de fusión para respectivos bloques de predicción y se deriva el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList. Como resultado, la decodificación de índices de fusión se retarda y la decodificación por entropía se vuelve compleja. Además, si la decodificación por entropía depende del estado de una lista de candidatos de fusión creada que incluye candidatos de fusión Col derivados a partir de bloques de predicción de instantáneas de tiempo diferente, cuando se produce un error durante la decodificación de un flujo de bits de una instantánea diferente, un flujo de bits de la instantánea actual también se ve influenciado por el error. Por lo tanto, no es posible derivar el número de candidatos de fusión añadidos a una lista de candidatos de fusión normal mergeCandList y continuar la decodificación por entropía apropiadamente. Como en la presente realización, cuando el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList se establece a un valor fijo para respectivos cortes, no es necesario derivar el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList en respectivos bloques de predicción y es posible decodificar índices de fusión mediante decodificación por entropía independientemente de la creación de la lista de candidatos de fusión. Además, incluso si se produce un error durante la decodificación de un flujo de bits de otra instantánea, es posible continuar la decodificación por entropía de un flujo de bits de la instantánea actual sin verse influenciado por el error. En la presente realización, un elemento de sintaxis que indica el número de candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList se codifica para respectivos cortes, y el número de candidatos de fusión añadidos a la mergeCandList se define como el mayor número de candidatos de fusión maxNumMergeCand.
Posteriormente, se describirá en detalle un procedimiento de derivación de candidatos de fusión N a partir de bloques de predicción N vecino a un bloque diana de codificación/descodificación, que es el procedimiento de la etapa S101 de la FIG. 15. La FIG. La FIG. 16 es un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión espacial de la etapa S101 de la FIG. 15. N es una variable A (izquierda), B (superior), C (superior derecha), D (inferior izquierda) o E (superior izquierda) que indica la región de un bloque de predicción vecino. En la presente realización, se derivan cuatro candidatos de fusión espaciales como máximo a partir de cinco bloques de predicción vecinos.
En la FIG. 16, la información de codificación de un bloque de predicción A vecino al lado izquierdo de un bloque de predicción objetivo de codificación/decodificación usando la variable N establecida a A se investiga para derivar un candidato de fusión A, la información de codificación de un bloque de predicción B vecino al lado izquierdo de un bloque de predicción objetivo de codificación/decodificación usando la variable N establecida a B se investiga para derivar un candidato de fusión B, la información de codificación de un bloque de predicción C vecino al lado izquierdo de un bloque de predicción objetivo de codificación/decodificación usando la variable N establecida a C se investiga para derivar un candidato de fusión C, la información de codificación de un bloque de predicción D vecino al lado izquierdo de un bloque de predicción objetivo de codificación/decodificación usando la variable N establecida a D se investiga para derivar un candidato de fusión D, y la información de codificación de un bloque de predicción E vecino al lado izquierdo de un bloque de predicción objetivo de codificación/decodificación usando la variable N establecida a E se investiga para derivar un candidato de fusión E. Los candidatos de fusión derivados se añaden a la lista de candidatos de fusión (etapas S1101 a S1118 de la FIG. 16).
En primer lugar, cuando la variable N es E y la suma de los valores de las banderas availableFlagA, availableFlagB, availableFlagC y availableFlagD es 4 (etapa S1102 de la FIG. 16: SÍ) (es decir, se derivan cuatro candidatos de fusión espaciales), la bandera availableFlagE del candidato de fusión E se establece en 0 (etapa S1107 de la FIG. 16), ambos valores de los vectores de movimiento mvLON y mvLIN del candidato de fusión N se establecen en (0, 0) (etapa S1108 de la FIG. 16), ambos valores de las banderas predFlagLOE y predFlagL1E del candidato de fusión E se establecen en 0 (etapa S1109 de la FIG. 16). Después de eso, el flujo continúa a la etapa S1118 y el procedimiento de derivación de candidato de fusión espacial finaliza.
En la presente realización, dado que se derivan cuatro candidatos de fusión como máximo a partir de los bloques de predicción vecinos, cuando ya se han derivado cuatro candidatos de fusión espaciales, no es necesario realizar el procedimiento de derivación de candidato de fusión espacial de forma adicional. Por otra parte, cuando la variable N no es E o la suma de los valores de las banderas availableFlagA, availableFlagB, availableFlagC y availableFlagD no es 4 (etapa S1102 de la FIG. 16: NO) (es decir, no se derivan cuatro candidatos de fusión espaciales), el flujo continúa a la etapa S1103. Cuando el bloque de predicción vecino N se incluye en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción diana de derivación (etapa S1103 de la FIG. 16; SÍ), el valor de la bandera availableFlagN del candidato de fusión N se establece en 0 (etapa S1107 de la FIG. 16), ambos valores de los vectores de movimiento mvLON y mvLIN del candidato de fusión N se establecen en (0, 0) (etapa S1108 de la FIG. 16), ambos valores de las banderas predFlagLON y predFlagLIN del candidato de fusión N se establecen en 0 (etapa S1109 de la FIG. 16), y después, el flujo continúa a la etapa S1118. Cuando el bloque de predicción vecino N se incluye en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción objetivo de derivación (etapa S1103 de la FIG. 16: SÍ), no se hace referencia al bloque de predicción vecino N de modo que el procedimiento de derivación de candidato de fusión de bloque de predicción y el procedimiento de creación de lista de candidatos de fusión pueden realizarse en paralelo.
Específicamente, el bloque de predicción vecino B del cual el modo de partición (PartMode) es partición 2N*N (pA r T_2NxN), partición 2N*nU (PART_2NxnU) o partición 2N*nD (PART_2NxnD) y el PartIdx del bloque de predicción diana de procesamiento es 1 es el caso en el que el bloque de predicción vecino N se incluye en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción diana de derivación. En este caso, dado que el bloque de predicción vecino B es un bloque de predicción que tiene el PartIdx 0, no se hace referencia al bloque de predicción vecino B de modo que el procedimiento de derivación de candidato de fusión de bloque de predicción y el procedimiento de creación de lista de candidatos de fusión pueden realizarse en paralelo.
Además, el bloque de predicción vecino A del cual el modo de partición (PartMode) es partición N*2N (PART_Nx2N), partición nL*2N (PART_nLx2N) o partición nR*2N (PART_nRx2N) y el PartIdx del bloque de predicción diana de procesamiento es 1 es el caso en el que el bloque de predicción vecino N se incluye en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción diana de derivación. En este caso, dado que el bloque de predicción vecino A es el bloque de predicción que tiene el PartIdx 0, no se hace referencia al bloque de predicción vecino A de modo que el procedimiento de derivación de candidato de fusión de bloque de predicción y el procedimiento de creación de lista de candidatos de fusión pueden realizarse en paralelo.
Además, cuando el modo de partición (PartMode) es partición N*N (PART_NxN) y el PartIdx del bloque de predicción diana de procesamiento es 1, 2 o 3, el bloque de predicción vecino N puede incluirse en el mismo bloque de codificación que el bloque de codificación que incluye el bloque de predicción diana de derivación.
Por el otro lado, cuando el bloque de predicción vecino N no se incluye, el mismo bloque de codificación que incluye el bloque de predicción diana de procesamiento (etapa S1103 de la FIG. 16: NO), se especifican los bloques de predicción N vecinos al bloque de predicción diana de codificación/descodificación, y cuando los respectivos bloques de predicción N pueden usarse, la información de codificación de los bloques de predicción N se adquiere de la memoria 115 o 210 de almacenamiento de información de codificación (etapa S1104 de la FIG. 16).
Cuando el bloque de predicción vecino N no puede usarse (etapa S1105 de la FIG. 16: NO) o el modo de predicción PredMode del bloque de predicción N es intra predicción (Mo De_INTRA) (etapa S1106 de la FIG. 16: n O), el valor de la bandera availableFlagN del candidato de fusión N se establece en 0 (etapa S1107 de la FIG. 16), ambos valores de los vectores de movimiento mvLON y mvLIN del candidato de fusión N se establecen en (0, 0) (etapa S1108 de la FIG. 16), y ambos valores de las banderas predFlagLON y predFlagLIN del candidato de fusión N se establecen en 0 (etapa S1109). A continuación, el flujo continúa a la etapa S1118. En este punto, ejemplos específicos del caso en el que el bloque de predicción vecino N no puede usarse incluyen un caso en el que el bloque de predicción vecino N se coloca fuera de un corte objetivo de codificación/decodificación y un caso en el que no se completa un procedimiento de codificación/decodificación porque el bloque de predicción vecino N es posterior en el orden del procedimiento de codificación/decodificación.
Por otra parte, cuando el bloque de predicción vecino N está fuera del mismo bloque de codificación que el bloque de codificación del bloque de predicción diana de derivación (etapa S1104 de la FIG. 16: SÍ), puede usarse el bloque de predicción vecino N (etapa S1105 de la FIG. 16: SÍ), y el modo de predicción PredMode del bloque de predicción N no es la intra predicción (MODE_INTRA) (etapa S1106 de la FIG. 16: SÍ), la información entre predicciones del bloque de predicción N se utiliza como información entre predicciones del candidato de fusión N.
El valor de la bandera availableFlagN del candidato de fusión N (etapa S1110 de la FIG. 16) se establece en 1, los vectores de movimiento mvLON y mvLIN del candidato de fusión N se establecen en los mismos valores de los vectores de movimiento mvL0N[xN][yN] y mvL1N[xN][yN] de los vectores de movimiento del bloque de predicción N (etapa S1111 de la FIG. 16), los índices de referencia refldxLON y refldxLIN del candidato de fusión N se establecen en los mismos valores que los índices de referencia refIdxL0[xN][yN] y refIdxL1[xN][yN] del bloque de predicción N (etapa S1112 de la FIG. 16), y las banderas predFlagLON y predFlagLIN del candidato de fusión N se establecen en las banderas predFlagLO[xN][yN] y predFlagL1[xN][yN] del bloque de predicción N (etapa S1113 de la FIG. 16). En este punto, xN e yN son índices que indican la posición de un píxel en la esquina superior izquierda del bloque de predicción N en la imagen.
Posteriormente, las banderas predFlagL0N y predFlagL1N del candidato de fusión N, los índices de referencia refIdxL0N y refIdxL1N del candidato de fusión N y los vectores de movimiento mvL0N y mvL1N del candidato de fusión N se comparan con los de los candidatos de fusión que se han derivado (etapa S1114: FIG. La FIG. 16). Cuando el mismo candidato de fusión no está presente (etapa S1115 de la FIG. 16: SÍ), el candidato de fusión N se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList tiene el mismo valor que numMergeCand (etapa S1116 de la FIG. 16) y el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S1117 de la FIG. 16). Por otra parte, cuando el candidato de fusión está presente (etapa S1115 de la FIG.
16: n O), se saltan las etapas S1116 y S1117 y el flujo continúa a la etapa S1118.
Los procedimientos de las etapas S1102 a S1117 se realizan repetidamente para N = A, B, C, D y E (etapas S1101 a S1118 de la FIG. 16).
A continuación, se describirá en detalle un procedimiento de derivación de los índices de referencia de candidatos de fusión temporales de la etapa S102 de la FIG. 15. Se derivan los índices de referencia L0 y L1 de los candidatos de fusión temporales.
En la presente realización, los índices de referencia de los candidatos de fusión temporales se derivan usando los índices de referencia de candidatos de fusión espaciales (es decir, los índices de referencia usados en los bloques de predicción vecinos al bloque diana de codificación/descodificación). Esto es porque cuando se selecciona un candidato de fusión temporal, el índice de referencia del bloque de predicción objetivo de codificación/decodificación tiene una correlación alta con el índice de referencia de los bloques de predicción vecinos al bloque objetivo de codificación/decodificación que se vuelve el candidato de fusión espacial. En particular, en la presente realización, se usan los índices de referencia únicamente del bloque de predicción A vecino al lado izquierdo del bloque de predicción objetivo de codificación/decodificación. Esto es porque los bloques de predicción A y B vecinos al lado del bloque de predicción diana de codificación/descodificación entre los bloques de predicción vecinos A, B, C, D y E que también son candidatos de fusión espaciales tienen una mayor correlación que los bloques de predicción C, D y E vecinos a la esquina del bloque de predicción diana de codificación/descodificación. Dado que no se usan los bloques de predicción C, D y E que tienen una correlación relativamente baja y los bloques de predicción que hay que usar se limitan al bloque de predicción A, es posible mejorar la eficiencia de codificación que resulta de la derivación de los índices de referencia de candidatos de fusión temporales y reducir la cantidad de procesamiento y la cantidad de acceso de memoria asociada con el procedimiento de derivación de los índices de referencia de candidatos de fusión temporales.
Las FIGS. 17A a 17H son diagramas que ilustran bloques vecinos a los que se hace referencia en el procedimiento de derivación de índice de referencia de candidato de fusión temporal de la presente realización. En la presente realización, si hacer referencia o no al bloque de predicción vecino al lado izquierdo del bloque de predicción diana de derivación se cambia de acuerdo con el índice de partición PartIdx del bloque de predicción independientemente del modo de partición (PartMode) de un bloque de codificación. Cuando el índice de partición PartIdx del bloque de predicción es 0, se hace referencia al bloque de predicción vecino al lado izquierdo. Cuando el índice de partición PartIdx no es 0, no se hace referencia al bloque de predicción vecino, pero se usa un valor por defecto. Cuando el índice de partición PartIdx del bloque de predicción es 0, en cualquier modo de partición (PartMode), el bloque de predicción vecino al lado izquierdo no siempre pertenece al bloque de codificación. Cuando el índice de partición PartIdx del bloque de predicción no es 0, el bloque de predicción vecino al lado izquierdo pertenece al bloque de codificación dependiendo del modo de partición (PartMode). Cuando el modo de partición (PartMode) es una partición 2N*2N (PART _2Nx2N), como se ilustra en la FIG. 17A, se hace referencia a un bloque de predicción A0 vecino al lado izquierdo del bloque de predicción objetivo de derivación, y el índice de referencia LX del candidato de fusión temporal se establece al valor del índice de referencia LX del bloque de predicción A0.
Cuando el modo de partición (PartMode) para la partición de un bloque de codificación diana de procesamiento en dos bloques de predicción dispuestos en la dirección vertical es partición 2N*N (PART PART_2NxN), partición 2N*nU (PART PART_2NxnU) y la partición 2N*nD (PART PART_2NxnD) y el modo de partición (PartMode) para particionar un bloque de codificación diana de procesamiento en dos bloques de predicción dispuestos en la dirección horizontal es la partición N*2N ((PART_N*2N), la partición nL*2N (PAr T _nLx2N), y la partición nR*2N (PART _nRx2N), como se ilustra en las FIGS. 17B, 17C, 17D, 17E, 17F y 17Q, el bloque de predicción A0 vecino al lado izquierdo se refiere al bloque de predicción cuyo índice de partición PartIdx es 0, y el índice de referencia LX del candidato de fusión temporal se establece en el valor del índice de referencia LX del bloque de predicción A0. No se hace referencia al bloque de predicción vecino en el bloque de predicción del cual el índice de partición PartIdx diana de derivación es 1, y el índice de referencia LX del candidato de fusión temporal se establece en el valor por defecto 0. Dado que el bloque de predicción A0 al que hacer referencia no pertenece al bloque de codificación, los índices de referencia de los candidatos de fusión temporales de dos bloques de predicción de los cuales los índices de partición PartIdx son 0 y 1 pueden derivarse en paralelo.
Cuando el modo de partición (PartMode) para la partición de un bloque de codificación diana de procesamiento en cuatro bloques de predicción tanto en las direcciones verticales como horizontales es la partición N*N (PART_NxN), como se ilustra en la FIG. 17H, el bloque de predicción A0 vecino al lado izquierdo es referido en el bloque de predicción del cual el índice de partición objetivo derivado PartIdx es 0, el índice de referencia LX del candidato de fusión temporal se establece en el valor del índice de referencia LX del bloque de predicción A0. En los bloques de predicción de los cuales los índices de partición objetivo de derivación PartIdx son 1, 2 y 3, no se hace referencia al bloque de predicción vecino, y el índice de referencia LX del candidato de fusión temporal se establece en el valor por defecto 0. Dado que el bloque de predicción A0 al que hacer referencia no pertenece al bloque de codificación, los índices de referencia de los candidatos de fusión temporales de cuatro bloques de predicción de los cuales los índices de partición PartIdx son 0, 1, 1,2 y 3 se derivan en paralelo.
Sin embargo, cuando el bloque de predicción vecino A no realiza predicción LX, el valor del índice de refracción LX del candidato de fusión temporal LX se establece en el valor por defecto 0. La razón por la que el valor por defecto del índice de referencia LX del candidato de fusión temporal se establece en 0 cuando el bloque de predicción vecino A no realiza predicción LX y el índice de partición PartIdx del bloque de predicción diana de derivación es 1 es porque es más probable que se seleccione la imagen de referencia de la cual el valor del índice de referencia en inter predicción es 0. Sin embargo, la presente invención no se limita a esto, el valor por defecto del índice de referencia puede ser un valor (1, 2 o similar) distinto de 0, y un elemento de sintaxis que indica el valor por defecto del índice de referencia puede proporcionarse en un flujo de bits en secuencia, instantánea o niveles de corte y transmitirse de modo que el valor por defecto puede seleccionarse en el lado de codificador.
La FIG. 18 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidato de fusión temporal de la etapa S102 de la FIG. 15 de acuerdo con la presente realización. En primer lugar, cuando el índice de partición PartIdx es 0 (etapa S2104: SÍ), la información de codificación del bloque de predicción A vecino al lado izquierdo del bloque de predicción objetivo de derivación se adquiere de la memoria 115 o 210 de almacenamiento de información de codificación (etapa S2111).
Los procedimientos posteriores de las etapas S2113 a S2115 se realizan en las respectivas listas L0 y L1 (etapas 52112 a S2116). LX se establece en L0 cuando se deriva el índice de referencia L0 del candidato de fusión temporal y LX se establece en L1 cuando se deriva el índice de referencia L1 del candidato de fusión temporal. Sin embargo, cuando el tipo de corte slice_type es corte P, dado que el modo de inter predicción incluye predicción L0 (Pred_L0) únicamente y no incluye predicción L1 (Pred_L1) y bi predicción (Pred_BI), pueden omitirse los procedimientos asociados con L1.
Cuando la bandera predFlagLX[xA][yA] que indica si realizar o no predicción LX del bloque de predicción A no es 0 (etapa S2113: SÍ), el índice de referencia LX refIdxLXCol del candidato de fusión temporal se establece en el mismo valor que el valor del índice de referencia LX refIdxLX[xA][yA] del bloque de predicción A (etapa S2114). En este punto, xA e yA son índices que indican la posición de un píxel en la esquina superior izquierda del bloque de predicción A en la instantánea.
En la presente realización, en el bloque de predicción N (N = A, B), cuando el bloque de predicción N está fuera del corte objetivo de codificación/descodificación y no puede usarse, cuando el bloque de predicción N es posterior que el bloque de predicción diana de codificación/descodificación en el orden de codificación/descodificación y no puede usarse si se codifica/descodifica, o cuando el modo de predicción PredMode del bloque de predicción N es intra predicción (MODE_INTRA), tanto la bandera predFlagL0[xN][yN] que indica si usar o no predicción L0 como la bandera predFlagL1[xN][yN] que indica si usar o no predicción L1 del bloque de predicción N son 0. En este punto, xN e yN son índices que indican la posición de un píxel en la esquina superior derecha del bloque de predicción N en la imagen. Cuando el modo de predicción PredMode del bloque de predicción N es inter predicción (MODE_INTER) y el modo de inter predicción es predicción L0 (Pred_L0), la bandera predFlagL0[xN][yN] que indica si usar o no predicción L0 del bloque de predicción N es 1 y la bandera predFlagL1[xN][yN] que indica si usar o no predicción L1 es 0. Cuando el modo de inter predicción del bloque de predicción N es predicción L1 (Pred_L1), la bandera predFlagL0[xN][yN] que indica si usar o no predicción L0 del bloque de predicción N es 0 y la bandera predFlagL1 [xN][yN] que indica si usar o no predicción L1 es 1. Cuando el modo de inter predicción del bloque de predicción N es bipredicción (Pred_BI), tanto la bandera predFlagL0[xN][yN] que indica si usar o no predicción L0 del bloque de predicción N como la bandera predFlagL1[xN][yN] que indica si usar o no predicción L1 son 1. Cuando la bandera predFlagLX[xA][yA] que indica si realizar o no predicción LX del bloque de predicción A es 0 (etapa S2113: NO), el índice de referencia LX refIdxLXCol del candidato de fusión temporal se establece al valor por defecto 0 (etapa S2115). Los procedimientos de las etapas 52113 a S2115 se realizan para cada una de L0 y L1 (etapas S2112 a S2116), y el procedimiento de derivación de índice de referencia termina.
Por el otro lado, cuando el índice de partición PartIdx no es 0 (etapa S2104: NO), se realiza el procedimiento posterior de la etapa S2121 para cada una de L0 y L1 (etapas S2118 a S2122). LX se establece en L0 cuando tiene que derivarse el índice de referencia L0 del candidato de fusión temporal, y LX se establece en L1 cuando tiene que derivarse el índice de referencia L1. Sin embargo, cuando el tipo de corte slice_type es corte P, dado que el modo de inter predicción incluye predicción L0 (Pred_L0) únicamente y no incluye predicción L1 (Pred_L1) y bi predicción (Pred_BI), pueden omitirse los procedimientos asociados con L1.
El índice de referencia LX refIdxLXCol del candidato de fusión temporal se establece en el valor por defecto 0 (etapa S2121).
Los procedimientos hasta la etapa S2121 se realizan para cada una de L0 y L1 (etapas S2118 a S2122), y el procedimiento de derivación de índice de referencia termina.
En la presente realización, aunque se conmuta si hacer referencia o no al bloque de predicción vecino al lado izquierdo del bloque de predicción diana de derivación, si hacer referencia o no al bloque de predicción vecino al lado superior puede conmutarse en lugar del bloque de predicción vecino al lado izquierdo.
A continuación, se describirá en detalle un procedimiento de derivación de candidatos de fusión de tiempo diferente en la etapa S103 de la Figura 15. La FIG. La FIG. 19 es un diagrama de flujo para la descripción del flujo de un procedimiento de derivación de candidato de fusión temporal de la etapa S103 de la FIG. 15.
En primer lugar, se deriva una imagen colPic de tiempo diferente usando una bandera collocated_from_l0_flag que indica si la imagen colPic de tiempo diferente usada cuando se deriva el tipo de corte slice_type descrito en el encabezamiento de corte en respectivos cortes y un candidato de pronóstico de vector de movimiento en una dirección temporal, o un candidato de fusión usa una imagen de referencia añadida a una cualquiera de la lista de referencia L0 o lista de referencia L1 de una imagen en la cual se incluye el bloque de predicción diana de procesamiento (etapa S3101).
La FIG. 20 es un diagrama de flujo para describir el flujo de un procedimiento de derivación de la imagen colPic de tiempo diferente en la etapa S3101 de la FIG. 19. Cuando el tipo de corte slice_type es corte B y la bandera collocated_from_10_flag es 0 (etapa S3201: SÍ, etapa S3202: SÍ), una imagen de la cual la RefPicList1[0] (es decir, el índice de referencia de una lista de referencia L1) es 0 se vuelve la imagen colPic de tiempo diferente (etapa S3203). En otros casos, es decir, cuando el tipo de corte slice_type es corte B y la bandera collocated_from_l0_flag es 1 (etapa S3201: SÍ, etapa S3202: NO), o cuando el tipo de corte slice_type es corte P (etapa S3201: NO, etapa S3204: SÍ), una imagen de la cual la RefPicList0[0] (es decir, el índice de referencia de una lista de referencia L1) es 0 se vuelve la imagen colPic de tiempo diferente (etapa S3205).
Posteriormente, el flujo regresa al diagrama de flujo de la FIG. Posteriormente, el flujo vuelve al diagrama de flujo de la Figura 19, se deriva un bloque de predicción colPU de tiempo diferente y se adquiere información de codificación (etapa S3102).
La FIG. 21 es un diagrama de flujo para describir el flujo de un procedimiento de derivación de un bloque de predicción colPU de la imagen colPic de tiempo diferente en la etapa S3102 de la FIG. 19.
En primer lugar, un bloque de predicción colocado en la esquina inferior derecha (fuera) de la misma posición que el bloque de predicción diana de procesamiento en la imagen colPic de tiempo diferente se establece como el bloque de predicción colPU de tiempo diferente (etapa S3301). Este bloque de predicción corresponde al bloque de predicción T0 ilustrado en la FIG. 9.
Posteriormente, se adquiere la información de codificación del bloque de predicción colPU de tiempo diferente (etapa S3302). Cuando PredMode del bloque de predicción colPU de tiempo diferente no puede usarse o el modo de predicción PredMode del bloque de predicción colPU de tiempo diferente es intra predicción (MODE_INTRA) (etapa S3303: SÍ, etapa S3304: SÍ), un bloque de predicción colocado en la esquina superior izquierda del centro de la misma posición que el bloque de predicción objetivo de procesamiento en la instantánea colPic de tiempo diferente se establece como el bloque de predicción colPU de tiempo diferente (etapa S3305). Este bloque de predicción corresponde al bloque de predicción T1 ilustrado en la FIG. 9.
A continuación, el flujo regresa al diagrama de flujo de la FIG. 19, se deriva una bandera availableFlagL0Col que indica si el pronóstico de vector de movimiento L0 mvL0Col y el candidato de fusión temporal Col derivado a partir del bloque de predicción de una imagen diferente en la misma posición que el bloque de predicción diana de codificación/descodificación son válidos (etapa S3103), y se deriva una bandera availableFlagL1Col que indica si el pronóstico de vector de movimiento L1 mvL1Col y el candidato de fusión temporal Col son válidos (etapa S3104). Además, cuando la bandera availableFlagL0Col o la bandera availableFlagL1Col es 1, la bandera availableFlagCol que indica si el candidato de fusión temporal Col es válido se establece en 1.
La FIG. 22 es un diagrama de flujo para describir el flujo del procedimiento de derivación de información de inter predicción de candidatos de fusión temporales en las etapas S3103 y S3104 de la FIG. 19. La lista L0 o L1 diana de derivación de candidato de fusión temporal se refiere como LX y la predicción que usa LX se refiere como predicción LX. Lo mismo es cierto para la siguiente descripción a no ser que se exponga de otra manera a continuación. LX es L0 cuando se invoca la etapa S3103 que es el procedimiento de derivación de la lista L0 del candidato de fusión temporal, y LX es L1 cuando se invoca la etapa S3104 que es el procedimiento de derivación de la lista L1 del candidato de fusión temporal.
Cuando el modo de predicción PredMode del bloque de predicción colPU de tiempo diferente es intra predicción (MODE_INTRA) o no puede usarse (etapa S3401: NO, etapa S3402: NO), se supone que los candidatos de fusión temporales no están presentes. Tanto la bandera availableFlagLXCol como la bandera predFlagLXCol se establecen a 0 (etapa S3403), el vector de movimiento mvLXCol se establece a (0, 0) (etapa S3404), y el procedimiento de derivación de información de inter predicción de candidatos de fusión temporales finaliza.
Cuando puede usarse el bloque de predicción colPU y el modo de predicción PredMode no es intra predicción (MODE_INTRA) (etapa S3401: SÍ, etapa S3402: SÍ), mvCol, refIdxCol y availableFlagCol se derivan en el siguiente flujo.
Cuando la bandera PredFlagL0[xPCol][yPCol] que indica si se usa predicción L0 del colPU es 0 (etapa S3405: SÍ), dado que el modo de predicción del bloque de predicción colPU es Pred_L1, el vector de movimiento mvCol se establece en el mismo valor que MvL1[xPCol][yPCol] que es el vector de movimiento L1 del bloque de predicción colPU (etapa S3406), el índice de referencia refIdxCol se establece en el mismo valor que el índice de referencia L1 RefIdxL1[xPCol][yPCol] (etapa S3407), y la lista ListCol se establece en L1 (etapa S3408).
En este punto, xPCol e yPCol son índices que indican la posición de un píxel en la esquina superior izquierda del bloque de predicción colPU en la imagen colPic de tiempo diferente.
Por otra parte, cuando la bandera de predicción L0 PredFlagL0[xPCol][yPCol] del bloque de predicción colPU no es 0 (etapa S3405 de la FIG. 22: NO), se determina si la bandera de predicción L1 PredFlagL1 [xPCol][yPCol] del bloque de predicción colPU es 0. Cuando la bandera de predicción L1 PredFlagL1 [xPCol][yPCol] del bloque de predicción colPU es 0 (etapa S3409: SÍ), el vector de movimiento mvCol se establece en el mismo valor que MvL0[xPCol][yPCol] que es el vector de movimiento L0 del bloque de predicción colPU (etapa S3410), el índice de referencia refIdxCol se establece en el mismo valor que el índice de referencia L0 RefldxL0[xPCol][yPCol] (etapa S3411), y la lista ListCol se establece en L0 (etapa S3412).
Cuando tanto la bandera de predicción L0 PredFlagL0[xPCol][yPCol] del bloque de predicción colPU como la bandera de predicción L1 PredFlagLI [xPCol][yPCol] del bloque de predicción colPU no son 0 (etapa S3405: NO, etapa S3409: NO), dado que el modo de inter predicción del bloque de predicción colPU es bipredicción (Pred_BI), se selecciona uno de los dos vectores de movimiento L0 y L1 (etapa S3413).
La FIG. 23 es un diagrama de flujo que ilustra el flujo del procedimiento de derivación de información de inter predicción de candidatos de fusión temporales cuando el modo de inter predicción del bloque de predicción colPU es bi predicción (Pred_BI).
En primer lugar, se determina si los POC de todas las imágenes añadidas a todas las listas de referencia son menores que el POC de la imagen diana de codificación/descodificación actual (etapa S3501).
Cuando los POC de todas las imágenes añadidas a todas las listas de referencia L0 y L1 del bloque de predicción colPU son menores que el POC de la imagen diana de codificación/descodificación actual (etapa S3501: SÍ) y cuando LX es L0 (es decir, se han derivado los candidatos de predictor de vector del vector de movimiento L0 de la instantánea objetivo de codificación/decodificación) (etapa S3502: SÍ), se selecciona la información de inter predicción de la lista L0 del bloque de predicción colPU. En este caso, cuando LX es L1 (es decir, se han derivado los candidatos de pronóstico de vector del vector de movimiento L1 de la imagen diana de codificación/descodificación) (etapa S3502: NO), se selecciona la información de inter predicción de la lista L1 del bloque de predicción colPU. Por otra parte, cuando al menos uno de los POC de las imágenes añadidas a todas las listas de referencia L0 y L1 del bloque de predicción colPU es mayor que el POC de la imagen diana de codificación/descodificación actual (etapa S3501: NO) y cuando la bandera collocated_from_l0_flag es 0 (etapa S3503: SÍ), se selecciona la información de inter predicción de la lista L0 del bloque de predicción colPU. En este caso, cuando la bandera collocated_from_l0_flag es 1 (etapa S3503: NO), se selecciona la información de inter predicción de la lista L1 del bloque de predicción colPU. Cuando se selecciona la información de inter predicción de la lista L0 del bloque de predicción colPU (etapa 3502: SÍ, etapa S3503: YES), el vector de movimiento mvCol se establece al mismo valor que MvL0[xPCol][yPCol] (etapa S3504), el índice de referencia refIdxCol se establece al mismo valor que RefIdxL0[xPCol][yPCol] (etapa S3505), y la lista ListCol se establece a L0 (etapa S3506).
Cuando se selecciona la información de inter predicción de la lista L1 del bloque de predicción colPU (etapa S3502: NO, etapa S3503: NO), el vector de movimiento mvCol se establece en el mismo valor que MvL1[xPCol][yPCol] (etapa S3507), el índice de referencia refIdxCol se establece en el mismo valor que RefIdxL1[xPCol][yPCol] (etapa S3508), y la lista ListCol se establece en L1 (etapa S3509).
Volviendo a la FIG. 22, si la información de inter predicción puede adquirirse del bloque de predicción colPU, tanto la bandera availableFlagLXCol como la bandera predFlagLXCol se establecen en 1 (etapa S3414).
Posteriormente, el vector de movimiento mvCol se escala para obtener el vector de movimiento LX mvLXCol del candidato de fusión temporal (etapa S3415). La corriente de este procedimiento de escalamiento de vector de movimiento se describirá con referencia a las FIGS. 24 y 25.
La FIG. 24 es un diagrama de flujo que ilustra el flujo del procedimiento de escalamiento de vector de movimiento de la etapa S3415 de la FIG. 22.
El POC de la imagen de referencia que corresponde al índice de referencia refIdxCol al que se hace referencia por la lista ListCol del bloque de predicción colPU se resta del POC de la imagen colPic de tiempo diferente para derivar la distancia de imagen a imagen td (etapa S3601). Cuando el POC de la instantánea de referencia al que se hace referencia por la lista ListCol del bloque de predicción colPU es anterior en el orden de visualización que la instantánea colPic de tiempo diferente, la distancia de instantánea a instantánea td tiene un valor positivo. Cuando el POC de la imagen de referencia a la que se hace referencia por la lista ListCol del bloque de predicción colPU es posterior en el orden de visualización que la imagen colPic de tiempo diferente, la distancia de imagen a imagen td tiene un valor negativo.
td = (POC de la imagen colPic de tiempo diferente) -(POC de la imagen de referencia a la que se refiere la lista ListCol del bloque de predicción colPU)
El POC de la imagen de referencia correspondiente al índice de referencia LX del candidato a fusión temporal derivado en la etapa S102 de la FIG. 15 se resta del POC de la imagen objetivo de codificación/decodificación actual para obtener la distancia imagen-a-imagen tb (etapa S3602). Cuando la instantánea de referencia a la que se hace referencia por la lista LX de la instantánea objetivo de codificación/decodificación actual es anterior en el orden de visualización que la instantánea objetivo de codificación/decodificación actual, la distancia de instantánea a instantánea tb tiene un valor positivo. Cuando la imagen de referencia a la que se hace referencia por la lista LX de la imagen diana de codificación/descodificación actual es posterior en el orden de visualización que la imagen diana de codificación/descodificación actual, la distancia de imagen a imagen tb tiene un valor negativo.
tb = (POC de la imagen diana de codificación/descodificación actual) -(POC de la imagen de referencia correspondiente al índice de referencia LX del candidato de fusión temporal)
Posteriormente, se comparan las distancias de imagen a imagen td y tb (etapa S3603). Cuando las distancias de instantánea a instantánea td y tb son iguales (etapa S3603: SÍ), el vector de movimiento LX mvLXCol del candidato de fusión temporal se establece en el mismo valor que el vector de movimiento mvCol (etapa S3604), y el procedimiento de escalada finaliza. mvLXCol = mvCol
mvLXCol = mvCol
Por el otro lado, cuando las distancias de imagen a imagen td y tb no son iguales (etapa S3603: NO), mvCol se multiplica por un factor de escalado tb/td de acuerdo con la siguiente expresión para realizar el procedimiento de escalada (etapa S3605) para obtener el vector de movimiento LX escalado mvLXCol del candidato de fusión temporal.
mvLXCol = tb/td*mvCol
La FIG. 25 ilustra un ejemplo en el que el procedimiento de escala de la etapa S3605 se realiza con exactitud a nivel de número entero. Los procedimientos de las etapas S3606 a S3608 de la FIG. 25 corresponden al procedimiento de la etapa S3605 de la FIG. 24.
En primer lugar, de manera similar al diagrama de flujo de la FIG. 24, se derivan la distancia de imagen a imagen td y la distancia de imagen a imagen tb (etapas S3601 y S3602).
Posteriormente, se comparan las distancias de imagen a imagen td y tb (etapa S3603). Cuando las distancias de instantánea a instantánea td y tb son iguales (etapa S3603: SÍ), de forma similar al diagrama de flujo de la FIG. 24, el vector de movimiento LX mvLXCol del candidato de fusión temporal se establece en el mismo valor que el vector de movimiento mvCol (etapa S3604), y el procedimiento de escala termina.
mvLXCol = mvCol
Por el otro lado, cuando las distancias de imagen a imagen td y tb no son iguales (etapa S3603: NO), se deriva una variable tx de acuerdo con la siguiente expresión (etapa S3606). tx = (16384 Abs(td/2))/td
tx = (16384 Abs(td/2))/td
Posteriormente, se deriva un factor de escala DistScaleFactor de acuerdo con la siguiente expresión (etapa S3607).
DistScaleFactor = (tb*tx 32)»6
Posteriormente, se obtiene un vector de movimiento LX de escala mvLXCol del candidato de fusión temporal de acuerdo con la siguiente expresión (etapa S3608).
mvLXCol =
CliμMv(Sign(DistScaleFactor*mvCol)*((Abs(DistScaleFactor*mvCol) 127)»8))
Posteriormente, volviendo al diagrama de flujo de la FIG. 19, cuando hay un candidato a la fusión temporal (etapa S3105: SÍ), el candidato de fusión temporal se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList tiene el mismo valor que numMergeCand (etapa S3106), el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S3107), y el procedimiento de derivación de candidato de fusión temporal finaliza. Por otra parte, cuando el candidato de fusión temporal no está presente (etapa S3105: NO), se saltan las etapas S3106 y S3107 y el procedimiento de derivación de candidato de fusión temporal finaliza.
A continuación, se describirá en detalle un procedimiento para derivar candidatos de fusión adicionales que es el procedimiento de la etapa S104 de la FIG. 15, realizada por la unidad adicional de derivación de candidatos de fusión 134 de la FIG. 12 y la unidad adicional de derivación de candidatos de fusión 234 de la FIG. 13. La FIG. La FIG. 26 es un diagrama de flujo para la descripción del flujo del procedimiento de derivación de candidato de fusión adicional de la etapa S104 de la FIG. 15.
En el procedimiento de derivación de candidato de fusión adicional realizado por la unidad de derivación de candidato de fusión adicional 134 de la FIG. 12 y la unidad adicional de derivación de candidatos de fusión 234 de la FIG. 13, una pluralidad de candidatos de fusión que tienen valores diferentes de información de inter predicción se derivan y añaden a la lista de candidatos de fusión para ampliar las opciones para que los candidatos de fusión mejoren la eficiencia de codificación. En particular, en el procedimiento de derivación de candidato de fusión adicional de la FIG.
26, se fijan los valores del modo de predicción y el vector de movimiento, y se derivan una pluralidad de candidatos de fusión que tienen valores diferentes de índices de referencia y se añaden a la lista de candidatos de fusión (etapas S5101 a S5119 de la FIG. 26).
En primer lugar, cuando el tipo de corte es corte P (etapa S5101 de la FIG. 26: SÍ), el valor del número de índices de referencia L0 se establece en una variable numRefIdx que indica el número de índices de referencia (etapa S5102 de la FIG. 26). Por otra parte, cuando el tipo de corte o es corte P (etapa S5101 de la Figura 26: NO), es decir, cuando el tipo de corte es corte B, el valor más pequeño entre el número de índices de referencia L0 y el número de índices de referencia L1 se establece en la variable numRefIdx que indica el número de índices de referencia (etapa S5103 de la FIG. 26). Posteriormente, se establece en 0 en el índice de referencia i (etapa S5104 de la FIG. 26).
Posteriormente, se deriva un candidato de fusión adicional del cual el valor del vector de movimiento del modo de predicción que corresponde al tipo de corte es (0, 0) mientras se cambia el índice de referencia i y se añade a la lista de candidatos de fusión (etapas S5105 a S5119 de la FIG. 26).
En primer lugar, cuando el número de candidatos de fusión numMergeCand es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S5106 de la FIG. 26: SÍ), el flujo continúa a la etapa S5107. Cuando el número de candidatos de fusión numMergeCand no es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S5106 de la FIG. 26: NO), el procedimiento de derivación de candidato de fusión adicional finaliza.
Posteriormente, cuando el índice de referencia i es menor que la variable numRefIdx (etapa S5107 de la FIG. 26: SÍ), el flujo continúa a la etapa S5109. Cuando el índice de referencia i no es menor que la variable numRefIdx (etapa S5107 de la FIG. 26: NO), el procedimiento de derivación de candidato de fusión adicional finaliza.
Posteriormente, cuando el tipo de corte es corte P (etapa S5109 de la FIG. 26: SÍ), (0, 0) se establece en los vectores de movimiento mvLOZero y mvLlZero de los candidatos de fusión adicionales (etapa S5110 de la FIG. 26), el valor del índice de referencia i y -1 se establecen en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión adicionales, respectivamente (etapa S5111 de la FIG. 26), y 1 y 0 se establecen en las banderas predFlagLOZero y predFlagL1Zero de los candidatos de fusión adicionales, respectivamente (etapa S5112 de la FIG.
26). A continuación, el flujo continúa a la etapa S5116.
Por otra parte, cuando el tipo de corte no es corte P (etapa S5109 de la FIG. 26: NO) (es decir, cuando el tipo de corte es corte B), (0, 0) se establece en los vectores de movimiento mvLOZero y mvLlZero (etapa S5113 de la FIG. 26), el valor del índice de referencia i se establece en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión adicionales (etapa S5114 de la FIG. 26), y se establece en 1 en las banderas predFlagLOZero y predFlagL1Zero de los candidatos adicionales a la fusión (etapa S5115 de la FIG. 26). A continuación, el flujo continúa a la etapa S5116.
Posteriormente, el candidato de fusión adicional se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList se indica por el mismo valor que numMergeCand (etapa S5116 de la FIG. 26), y el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S5117 de la FIG. 26). Posteriormente, el índice i se incrementa en 1 (etapa S5118 de la FIG. SÍ), el flujo continúa a la etapa S5119.
Los procedimientos de las etapas S5106 a S5118 se realizan repetidamente para índices de referencia i respectivos (etapas S5105 a S5119 de la FIG. 26).
En la FIG. 26, aunque se fijan los valores del modo de predicción y el vector de movimiento y una pluralidad de candidatos de fusión que tienen valores diferentes de índices de referencia se derivan y añaden a la lista de candidatos de fusión, una pluralidad de candidatos de fusión de diferentes modos de predicción pueden derivarse y añadirse a la lista de candidatos de fusión, y candidatos de fusión que tienen valores diferentes de vectores de movimiento pueden derivarse y añadirse a la lista de candidatos de fusión. Cuando se cambia el valor del vector de movimiento, pueden añadirse candidatos de fusión mientras se cambia el valor del vector de movimiento en el orden de (0, 0), (1, 0), (-1, 0), (0, 1) y (0,-1), por ejemplo.
A continuación, se describirá la unidad 137 de selección de información de inter predicción de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento. La FIG. La FIG. 37 es un diagrama de flujo para describir el flujo del procedimiento de la unidad 137 de selección de información de inter predicción de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento. En la FIG. 12 del primer ejemplo práctico, en la unidad 137 de selección de información de inter predicción de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento, cuando el número de candidatos de fusión numMergeCand es mayor que 0 (etapa S8101 de la FIG. 37: SÍ), se selecciona un candidato de fusión entre candidatos de fusión válidos que se añaden a la lista de candidatos de fusión y de los cuales el índice de fusión está dentro del intervalo de 0 a (numMergeCand - 1), la información de inter predicción que incluye las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 de los respectivos bloques de predicción del candidato de fusión seleccionado, los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP], y los vectores de movimiento mvL0[xP][yP] y mvL1[xP][yP] se suministran a la unidad 105 de predicción con compensación por movimiento, y el índice de fusión para identificar el candidato de fusión seleccionado se suministra a la unidad 107 de determinación de procedimiento de predicción (etapa S8102 de la FIG. 37). Cuando el valor del índice de fusión mergeIdx es menor que el valor del número de candidatos de fusión numMergeIdx, el índice de fusión mergeIdx indica un candidato de fusión válido añadido a la lista de candidatos de fusión mergeCandList. Cuando el valor del índice de fusión mergeIdx es mayor o igual que el valor del número de candidatos de fusión numMergeIdx, el índice de fusión mergeIdx indica un candidato de fusión no válido que no se añade a la lista de candidatos de fusión mergeCandList. Aplicando reglas descritas posteriormente al lado de codificador, incluso cuando el índice de fusión mergeIdx indica un candidato de fusión no válido, es posible seleccionar un candidato de fusión válido.
Cuando se seleccionan candidatos de fusión, puede usarse el mismo procedimiento que el usado por la unidad 107 de determinación de procedimiento de predicción. Se derivan información de codificación, una cantidad de codificación de una señal residual y una distorsión de codificación entre una señal de instantánea de predicción y una señal de instantánea para respectivos candidatos de fusión y se determina un candidato de fusión que tiene la menor cantidad de codificación y distorsión de codificación. El elemento de sintaxis merge_idx del índice de fusión, que es la información de codificación del modo de fusión se codifica por entropía para respectivos candidatos de fusión para derivar una cantidad de codificación de la información de codificación. Además, se deriva una cantidad de codificación de una señal de predicción residual obtenida codificando una señal de predicción residual entre una señal de instantánea de predicción obtenida realizando compensación de movimiento usando la información de inter predicción de los candidatos de fusión de acuerdo con el mismo procedimiento que la unidad 105 de predicción con compensación de movimiento para respectivos candidatos de fusión y una señal de instantánea de un objetivo de codificación suministrada desde la memoria 101 de instantáneas. Una cantidad de codificación de ocurrencia total obtenida añadiendo una cantidad de codificación de la información de codificación (es decir, el índice de fusión) y una cantidad de codificación de la señal de predicción residual se deriva y usa como un valor de evaluación.
Además, después de que se codifica una señal de predicción residual de este tipo, la señal de predicción residual se descodifica para evaluación de una cantidad de distorsión, y una distorsión de codificación se deriva como una relación que representa un error de una señal de imagen original que resulta de la codificación. La cantidad de codificación de ocurrencia total y la distorsión de codificación se comparan para respectivos candidatos de fusión, de modo que se determina la información de codificación que tiene la menor cantidad de codificación de ocurrencia y distorsión de codificación. El índice de fusión que corresponde a la información de codificación determinada se codifica como una bandera merge_idx representada por un segundo patrón de sintaxis de unidades de bloque de predicción.
La cantidad de codificación de ocurrencia derivada en la presente memoria se obtiene preferentemente simulando el procedimiento de codificación, aunque puede obtenerse por aproximación o estimación.
Por otra parte, cuando el número de candidatos de fusión numMergeCand es 0 (etapa S8102 de la FIG. 37: NO), la información de inter predicción que tiene el valor por defecto que corresponde al tipo de corte predeterminado se suministra a la unidad 105 de predicción con compensación de movimiento (etapas S8103 a S8105). Cuando el tipo de corte es corte P (etapa S8103 de la FIG. 37: SÍ), el valor por defecto de la información de inter predicción se establece de tal forma que se usa predicción L0 (Pred_L0) (los valores de las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] son 1 y 0, respectivamente), el índice de referencia L0 es 0 (los valores de los índices de referencia refldxL0[xP][yP] y refIdxL1[xP][yP] son 0 y -1, respectivamente), y el valor de vector L0 mvL0[xP][yP] es (0, 0) (etapa S8104 de la FIG. 37). Por otra parte, cuando el tipo de corte no es corte P (etapa S8103: NO), (es decir, el tipo de corte es corte B), el valor por defecto de la información de inter predicción se establece de tal forma que el modo de inter predicción es bi predicción (Pred_BI) (ambos valores de las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] son 1), ambos índices de referencia son 0 (ambos valores de los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP] son 0), y ambos valores de vector L0 y L1 mvL0[xP][yP] y mvL1 [xP][yP] son (0, 0) (etapa S8105). Independientemente del tipo de corte, incluso cuando el tipo de corte es corte B, el valor por defecto de la información de inter predicción puede establecerse de tal forma que se usa predicción L0 (Pred_L0) (los valores de las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] son 1 y 0, respectivamente), el índice de referencia L0 es 0 (los valores de los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP] son 0 y -1, respectivamente), y el valor de vector L0 mvL0[xP][yP] es (0, 0).
A continuación, se describirá la unidad 237 de selección de información de inter predicción de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento. La FIG. La FIG. 38 es un diagrama de flujo para describir el flujo del procedimiento de la unidad 237 de selección de información de inter predicción de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento. En la FIG. 13 del primer ejemplo práctico, cuando el número de candidatos de fusión numMergeCand es mayor que 0 (etapa S9101 de la FIG. 38: SÍ), la unidad 237 de selección de información de inter predicción de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento selecciona un candidato de fusión que corresponde al índice de fusión mergeIdx suministrado desde el segundo descodificador 202 de flujo de bits entre los candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList, suministra la información de inter predicción que incluye las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 del candidato de fusión seleccionado, los índices de referencia L0 y L1 refIdxL0[xP][yP] y refIdxL1[xP][yP], y los vectores de movimiento L0 y L1 mvL0[xP][yP] y mvL1[xP][yP] a la unidad 206 de predicción con compensación por movimiento, y almacena la misma en la memoria 210 de almacenamiento de información de codificación (etapa S9102 de la FIG. 38).
Cuando en el lado del codificador se codifica un índice de fusión que indica un candidato de fusión no válido, se selecciona un candidato de fusión no válido en el lado del descodificador. En este caso, se realiza inter predicción usando la información de inter predicción no válida y pueden obtenerse señales de predicción inesperadas. Además, el modo de inter predicción puede tener un valor que no se ajusta a los estándares y el índice de referencia puede indicar una instantánea de referencia que no está presente de modo que puede producirse un error y la decodificación puede finalizar de forma anormal.
Por lo tanto, en el primer ejemplo práctico de la presente realización, cuando el valor del índice de fusión suministrado mergeldx es mayor o igual que el valor del número de candidatos de fusión numMergeldx, el valor del número de candidatos de fusión numMergeIdx se establece en el índice de fusión mergeIdx y, a continuación, se realiza el procedimiento. Cuando el valor del índice de fusión suministrado mergeIdx es mayor o igual que el número de candidatos de fusión numMergeIdx, el índice de fusión mergeIdx establecido en el lado de codificador indica un candidato de fusión no válido que no se añade a la lista de candidatos de fusión mergeCandList. Recortando el índice de fusión mergeIdx, es posible obtener un candidato de fusión que se añade el último a la lista de candidatos de fusión mergeCandList. Definiendo el procedimiento de corte en el índice de fusión mergeIdx, es posible evitar que el descodificador seleccione un candidato de fusión no válido que no se añade a la lista de candidatos de fusión mergeCandList.
Como alternativa, cuando el valor del índice de fusión suministrado mergeIdx es mayor o igual que el número de candidatos de fusión numMergeIdx, estableciendo la información de inter predicción del candidato de fusión a un valor predeterminado, es posible evitar que se seleccione un candidato de fusión no válido. La información de inter predicción predeterminada del candidato de fusión se establece de tal forma que el modo de predicción es predicción L0, el valor del índice de referencia es 0 y el valor del vector de movimiento es (0, 0). En el caso de cortes B, el modo de predicción puede establecerse a bipredicción.
Por el otro lado, cuando el número de candidatos de fusión numMergeCand es 0 (etapa S9102 de la FIG. 38: NO), la información de inter predicción que tiene el valor por defecto que corresponde al tipo de corte predeterminado se suministra a la unidad 206 de predicción con compensación por movimiento y se almacena en la memoria 210 de almacenamiento de información de codificación (etapas S9103 a S9105 de la FIG. 38). Cuando el tipo de corte es corte P (etapa S9103 de la FIG. 38: SÍ), el valor por defecto de la información de inter predicción se establece de tal forma que se usa predicción L0 (Pred_L0) (los valores de las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] son 1 y 0, respectivamente), el índice de referencia L0 es 0 (los valores de los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP] son 0 y -1, respectivamente), y el valor de vector L0 mvL0[xP][yP] es (0, 0) (etapa S9104 de la FIG.
38). Por otra parte, cuando el tipo de corte no es corte P (etapa S9103 de la FIG. 38: NO), (es decir, el tipo de corte es corte B), el valor por defecto de la información de inter predicción se establece de tal forma que el modo de inter predicción es bi predicción (Pred_BI) (ambos valores de las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] son 1), ambos índices de referencia son 0 (ambos valores de los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP] son 0), y ambos valores de vector L0 y L1 mvL0[xP][yP] y mvL1[xP][yP] son (0, 0) (etapa S9105 de la FIG. 38). Independientemente del tipo de corte, incluso cuando el tipo de corte es corte B, el valor por defecto de la información de inter predicción puede establecerse de tal forma que se usa predicción L0 (Pred_L0) (los valores de las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] son 1 y 0, respectivamente), el índice de referencia L0 es 0 (los valores de los índices de referencia refIdxL0[xP][yP] y refIdxL1[xP][yP] son 0 y -1, respectivamente), y el valor de vector L0 mvL0[xP][yP] es (0, 0).
A continuación, se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un segundo ejemplo práctico de la realización con referencia a los dibujos. La FIG. La FIG. 28 es un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el segundo ejemplo práctico de la realización. La FIG. La FIG. 29 es un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el segundo ejemplo práctico de la realización. La unidad de derivación de información de inter predicción 104 ilustrada en la FIG. 28 del segundo ejemplo práctico es diferente de la unidad de derivación de información de inter predicción 104 ilustrada en la FIG. 12 del primer ejemplo práctico en el que se añade una unidad complementaria candidata a la fusión válida 135. La unidad de derivación de información de inter predicción 205 ilustrada en la FIG. 29 del segundo ejemplo práctico es diferente de la unidad de derivación de información de inter predicción 205 ilustrada en la FIG. 13 del primer ejemplo práctico en el que se añade una unidad complementaria candidata a la fusión válida 235. En la presente realización, en el dispositivo de codificación de imágenes en movimiento y el dispositivo de decodificación de imágenes en movimiento, cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0, pueden omitirse el procedimiento de derivación de candidato de fusión y el procedimiento de construcción de lista de candidatos de fusión de la FIG. 30.
La FIG. 30 es un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de construcción de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de construcción de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 220 de construcción de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento de acuerdo con el cuarto ejemplo práctico de la realización de la presente invención. El diagrama de flujo de la FIG. 30 del segundo ejemplo práctico es diferente del diagrama de flujo de la FIG. 15 del primer ejemplo práctico en el que se añade un procedimiento de derivación de candidatos de fusión válidos de la etapa SI05.
De forma similar al primer ejemplo práctico, la unidad 130 de construcción de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 230 de construcción de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento crean la lista de candidatos de fusión mergeCandList (etapa S100 de la FIG. 30). La unidad 131 de construcción de candidato de fusión espacial de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 231 de construcción de candidato de fusión espacial de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento derivan los candidatos de fusión espaciales A, B, C, D y E de los bloques de predicción A, B, C, D y E vecinos al bloque objetivo de codificación/decodificación a partir de la información de codificación almacenada en la memoria 115 de almacenamiento de información de codificación del dispositivo de codificación de imágenes en movimiento o la memoria 210 de almacenamiento de información de codificación del dispositivo de decodificación de imágenes en movimiento y añaden los candidatos de fusión espaciales derivados a la lista de candidatos de fusión mergeCandList (etapa S101 de la FIG. 30). La unidad 132 de derivación de índice de referencia de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 232 de derivación de índice de referencia de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento derivan los índices de referencia de los candidatos de fusión temporales a partir de los bloques de predicción vecinos al bloque objetivo de codificación/decodificación y suministran los índices de referencia derivados a la unidad 133 de derivación de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 233 de derivación de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento (etapa S102 de la FIG. 30). La unidad 133 de derivación de candidato de fusión temporal de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 233 de derivación de candidato de fusión temporal de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento derivan los candidatos de fusión temporales a partir de imágenes de tiempo diferente y añaden los candidatos de fusión temporales derivados a la lista de candidatos de fusión mergeCandList (etapa S103 de la FIG. 30). La unidad 134 de derivación de candidato de fusión adicional de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 234 de derivación de candidato de fusión adicional de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento derivan candidatos de fusión adicionales usando el número de candidatos de fusión numMergeCand añadidos a la lista de candidatos de fusión mergeCandList como el mayor número de candidatos de fusión maxNumMergeCand cuando el número de candidatos de fusión numMergeCand añadidos a la lista de candidatos de fusión mergeCandList es menor que el mayor número de candidatos de fusión maxNumMergeCand y añaden los candidatos de fusión adicionales derivados a la lista de candidatos de fusión mergeCandList (etapa S104 de la FIG. 30). Los procedimientos anteriores son los mismos que los del primer ejemplo práctico. Posteriormente, en el segundo ejemplo práctico, la unidad 135 de agregación de candidato de fusión válido y la unidad 235 de agregación de candidato de fusión válido agregan un candidato de fusión válido para eliminar un candidato de fusión no válido dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por un valor de 0 a (maxNumMergeCand -1 ) (etapa S105 de la FIG. 30). Eliminando el candidato de fusión no válido dentro de un intervalo en el que el índice de fusión tiene un valor de 0 a (maxNumMergeCand - 1), se garantiza que no se selecciona un candidato de fusión no válido en el lado de decodificador y se selecciona únicamente un candidato de fusión válido.
Un procedimiento válido de derivación de candidatos de fusión que es el procedimiento de la etapa S105 de la FIG.
30 realizado por la unidad de agregación de candidatos de fusión válidos 135 ilustrada en la FIG. 28 y la unidad de complementación de candidatos de fusión válidos 235 ilustrada en la FIG. 29 ilustrada en la FIG. 30 del segundo ejemplo práctico de la presente realización se describirá en detalle con referencia al diagrama de flujo de la FIG. 31. La FIG. 31 es un diagrama de flujo para la descripción del flujo del procedimiento de derivación de candidato de fusión adicional de la etapa S105 de la FIG. 30 de acuerdo con el segundo ejemplo práctico de la presente realización.
En el procedimiento de derivación de candidatos de fusión válidos de la FIG. 31 del segundo ejemplo práctico, una pluralidad de candidatos de fusión que tienen el mismo valor de información de inter predicción se añaden a la lista de candidatos de fusión para añadir un candidato de fusión válido a la lista de candidatos de fusión con un procedimiento simple hasta que se elimine un candidato de fusión no válido dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por un valor de 0 a (maxNumMergeCand -1). Un candidato de fusión válido del cual el valor del vector de movimiento del modo de inter predicción que corresponde al tipo de corte es (0, 0) se añade a la lista de candidatos de fusión (etapas S6101 a S6113 de la FIG. 31).
En primer lugar, cuando el número de candidatos de fusión numMergeCand es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la FIG. 31: SÍ), el flujo continúa a la etapa S6103. Cuando el número de candidatos de fusión numMergeCand no es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la FIG. 31: NO), el procedimiento de derivación de candidato de fusión válido finaliza.
Posteriormente, cuando el tipo de corte es corte P (etapa S6103 de la FIG. 31: SÍ), los candidatos de fusión cuyo modo de inter predicción es predicción L0 (Pred_L0), el índice de referencia es 0 y el valor de vector es (0, 0) se usan como los candidatos de fusión válidos. (0, 0) se ajusta a los vectores de movimiento mvLOZero y mvLlZero de los candidatos de fusión válidos (etapa S6104 de la FIG. 31), 0 y -1 se establecen en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión válidos, respectivamente (etapa S6105 de la FIG. 31), y 1 y 0 se establecen en las banderas predFlagLOZero y predFlagL1Zero de los candidatos de fusión válidos, respectivamente (etapa S6106 de la FIG. 31). A continuación, el flujo continúa a la etapa S6110.
Por el otro lado, cuando el tipo de corte no es corte P (etapa S6103 de la FIG. 31: NO) (es decir, cuando el tipo de corte es corte B), los candidatos de fusión de los cuales el modo de inter predicción es bipredicción (Pred_BI), ambos índices de referencia son 0, ambos valores de vector son (0, 0) se usan como candidatos de fusión válidos. (0, 0) se ajusta a los vectores de movimiento mvLOZero y mvLlZero de los candidatos de fusión válidos (etapa S6107 de la FIG. 31), el valor del índice de referencia i se establece en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión válidos (etapa S6108 de la FIG. 31), y se establece en 1 en las banderas predFlagLOZero y predFlagL1Zero de los candidatos de fusión válidos (etapa S6109 de la FIG. 31). A continuación, el flujo continúa a la etapa S6110.
Posteriormente, el candidato de fusión válido se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList se indica por el mismo valor que numMergeCand (etapa S6110 de la Figura 31), y el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S6112 de la FIG. 31), y el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S6112 de la FIG. 31). A continuación, el flujo continúa a la etapa S6113.
Los procedimientos de las etapas S6102 a S6112 se realizan repetidamente hasta que el número de candidatos de fusión numMergeCand alcanza el mayor número de candidatos de fusión maxNumMergeCand (etapas S6101 a S6113 de la FIG. 31). Con estos procedimientos, en el segundo ejemplo práctico, los candidatos de fusión no válidos se eliminan dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1).
En la FIG. 28 del primer ejemplo práctico, cuando el número de candidatos de fusión numMergeCand es mayor que 0 (etapa S8101 de la FIG. 37: SÍ), de forma similar a la unidad de selección de información de inter predicción 137 de la ilustración de la FIG. 12 del primer ejemplo práctico, la unidad 137 de selección de información de inter predicción de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento selecciona candidatos de fusión entre los candidatos de fusión añadidos a la lista de candidatos de fusión, suministra la información de inter predicción que incluye las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 de los respectivos bloques de predicción del candidato de fusión seleccionado, los índices de referencia refldxL0[xP][yP] y refIdxL1[xP][yP], y los vectores de movimiento mvL0[xP][yP] y mvL1[xP][yP] se suministran a la unidad 105 de predicción con compensación por movimiento, y el índice de fusión para identificar el candidato de fusión seleccionado se suministra a la unidad 107 de determinación de procedimiento de predicción (etapa S8102 de la FIG. 37). Sin embargo, en el segundo ejemplo práctico, los candidatos de fusión no válidos no están presentes en el intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1 ) y todos los candidatos de fusión son candidatos de fusión válidos. Cuando el número de candidatos de fusión numMergeCand es 0 (etapa S8102: NO), la información de inter predicción que tiene el valor por defecto que corresponde al tipo de corte predeterminado se suministra a la unidad 105 de predicción con compensación de movimiento (etapas S8103 a S8105).
Por el otro lado, en la FIG. 29 del primer ejemplo práctico, cuando el número de candidatos de fusión numMergeCand es mayor que 0 (etapa S9101 de la FIG. 38: SÍ), de forma similar a la unidad de selección de información de inter predicción 237 de la ilustración de la FIG. 13 del primer ejemplo práctico, la unidad 237 de selección de información de inter predicción de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento selecciona un candidato de fusión que corresponde al índice de fusión mergeIdx suministrado desde el segundo descodificador 202 de flujo de bits entre los candidatos de fusión añadidos a la lista de candidatos de fusión mergeCandList, suministra la información de inter predicción que incluye las banderas predFlagL0[xP][yP] y predFlagL1[xP][yP] que indican si usar o no la predicción L0 y la predicción L1 del candidato de fusión seleccionado, los índices de referencia L0 y L1 refldxL0[xP][yP] y refIdxL1[xP][yP], y los vectores de movimiento L0 y L1 mvL0[xP][yP] y mvL1[xP][yP] a la unidad 206 de predicción con compensación por movimiento, y almacena la misma en la memoria 210 de almacenamiento de información de codificación (etapa S9102 de la FIG. Sin embargo, en el segundo ejemplo práctico, los candidatos de fusión no válidos no están presentes en el intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1 ) y todos los candidatos de fusión son candidatos de fusión válidos. Por otra parte, cuando el número de candidatos de fusión numMergeCand es 0 (etapa S9102 de la FIG. 38: NO), la información de inter predicción que tiene el valor por defecto que corresponde al tipo de corte predeterminado se suministra a la unidad 206 de predicción con compensación por movimiento y se almacena en la memoria 210 de almacenamiento de información de codificación (etapas S9103 a S9105 de la FIG. 38).
A continuación, se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un tercer ejemplo práctico de la presente realización. La FIG. La FIG. 28 es también un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el tercer ejemplo práctico de la realización. La FIG. La FIG. 29 es también un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el tercer ejemplo práctico de la realización. La FIG. La FIG. 30 es también un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de construcción de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de construcción de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 220 de construcción de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento de acuerdo con el tercer ejemplo práctico de la realización de la presente invención. En el tercer ejemplo práctico, de forma similar al segundo ejemplo práctico, la unidad de complementación de candidatos de fusión válida 135 ilustrada en la FIG. 28 y la unidad de complementación de candidatos de fusión válidos 235 ilustrada en la FIG. 29 añaden candidatos de fusión válidos para eliminar candidatos de fusión inválidos dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1 ) (etapa S105 de la FIG. 30). Eliminando el candidato de fusión no válido dentro de un intervalo en el que el índice de fusión tiene un valor de 0 a (maxNumMergeCand - -1), se garantiza que no se selecciona un candidato de fusión no válido en el lado de descodificador y se selecciona únicamente un candidato de fusión válido. Sin embargo, en el tercer ejemplo práctico, independientemente del tipo de corte, los candidatos de fusión de los cuales el modo de inter predicción es predicción L0 (Pred_L0), el índice de referencia es 0 y el valor de vector es (0, 0) se usan como los candidatos de fusión válidos. La unidad de construcción de la lista de candidatos de fusión 120 de la unidad de derivación de información de inter predicción 104 del dispositivo de codificación de imágenes en movimiento del segundo ejemplo práctico ilustrado en la FIG. 28 y la unidad de construcción de la lista de candidatos de fusión 220 de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrada en la FIG. 29 tienen la misma configuración que los del tercer ejemplo práctico. Sin embargo, el procedimiento de la etapa S105 de la FIG. 30 realizado por la unidad 135 de agregación de candidato de fusión válido y la unidad 235 de agregación de candidato de fusión válido es diferente que el del segundo y tercer ejemplos prácticos.
Un procedimiento válido de derivación de candidatos de fusión que es el procedimiento de la etapa S105 de la FIG.
30 realizado por la unidad de agregación de candidatos de fusión válidos 135 ilustrada en la FIG. 28 y la unidad de complementación de candidatos de fusión válidos 235 ilustrada en la FIG. 29 del tercer ejemplo práctico de la presente realización se describirá en detalle con referencia al diagrama de flujo de la FIG. 32. La f Ig . 32 es un diagrama de flujo para la descripción del flujo del procedimiento de derivación de candidato de fusión adicional de la etapa S105 de la FIG. 30 de acuerdo con el tercer ejemplo práctico de la presente realización.
En el procedimiento de derivación de candidatos de fusión válidos de la FIG. 32 del tercer ejemplo práctico, de forma similar al procedimiento de derivación de candidatos de fusión válidos de la FIG. 31 del segundo ejemplo práctico, una pluralidad de candidatos de fusión que tienen el mismo valor de información de inter predicción se añaden a la lista de candidatos de fusión para añadir un candidato de fusión válido a la lista de candidatos de fusión con un procedimiento simple hasta que se elimine un candidato de fusión no válido dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por un valor de 0 a (maxNumMergeCand -1). Sin embargo, en el tercer ejemplo práctico, independientemente del tipo de corte, estableciendo el modo de inter predicción a predicción L0 (Pred_L0), un candidato de fusión válido del cual el valor del vector de movimiento del modo de inter predicción que corresponde al tipo de corte es (0, 0) se añade a la lista de candidatos de fusión (etapas S6101 a S6113 de la FIG. 32).
En primer lugar, cuando el número de candidatos de fusión numMergeCand es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la FIG. 32: SÍ), el flujo continúa a la etapa S6103. Cuando el número de candidatos de fusión numMergeCand no es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la FIG. Primero, cuando el número de candidatos de fusión numMergeCand es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la Figura 32: NO), el procedimiento de derivación de candidato de fusión válido finaliza.
Posteriormente, los candidatos de fusión cuyo modo de inter predicción es predicción L0 (Pred_L0), el índice de referencia es 0 y el valor de vector es (0, 0) se usan como los candidatos de fusión válidos. (0, 0) se ajusta a los vectores de movimiento mvLOZero y mvLlZero de los candidatos de fusión válidos (etapa S6104 de la FIG. 32), 0 y -1 se establecen en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión válidos, respectivamente (etapa S6105 de la FIG. 32), y 1 y 0 se establecen en las banderas predFlagLOZero y predFlagL1Zero de los candidatos de fusión válidos, respectivamente (etapa S6106 de la FIG. 32).
Posteriormente, el candidato de fusión válido se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList se indica por el mismo valor que numMergeCand (etapa S6110 de la FIG. 32), y el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S6112 de la FIG. 32). A continuación, el flujo continúa a la etapa S6113.
Los procedimientos de las etapas S6102 a S6112 se realizan repetidamente hasta que el número de candidatos de fusión numMergeCand alcanza el mayor número de candidatos de fusión maxNumMergeCand (etapas S6101 a S6113 de la FIG. 32). Con estos procedimientos, en el tercer ejemplo práctico, los candidatos de fusión no válidos se eliminan dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1).
A continuación, se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un cuarto ejemplo práctico de la presente realización. La FIG. La FIG. 28 es también un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el cuarto ejemplo práctico de la realización. La FIG. La FIG. 29 es también un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el cuarto ejemplo práctico de la realización. La FIG. La Figura 30 es también un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de creación de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de creación de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 220 de creación de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento de acuerdo con el cuarto ejemplo práctico de la realización de la presente invención. En el cuarto ejemplo práctico, de forma similar a los ejemplos prácticos segundo y tercero, la unidad de complementación de candidatos de fusión válidos 135 ilustrada en la FIG.
28 y la unidad de complementación de candidatos de fusión válidos 235 ilustrada en la FIG. 29 añaden candidatos de fusión válidos para eliminar candidatos de fusión inválidos dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand - 1) (etapa S105 de la FIG. 30). Eliminando el candidato de fusión no válido dentro de un intervalo en el que el índice de fusión tiene un valor de 0 a (maxNumMergeCand - 1), se garantiza que no se selecciona un candidato de fusión no válido en el lado de decodificador y se selecciona únicamente un candidato de fusión válido. Sin embargo, en el cuarto ejemplo práctico, un candidato de fusión añadido el último a la lista de fusión se añade repetidamente a la lista de candidatos de fusión como un candidato de fusión válido. La unidad de construcción de la lista de candidatos de fusión 120 de la unidad de derivación de información de inter predicción 104 del dispositivo de codificación de imágenes en movimiento del segundo y tercer ejemplos prácticos ilustrados en la FIG. 28 y la unidad de construcción de la lista de candidatos de fusión 220 de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrada en la FIG. 29 tienen la misma configuración que los del cuarto ejemplo práctico. Sin embargo, el procedimiento de la etapa S105 de la FIG. 30 realizado por la unidad 135 de agregación de candidato de fusión válido y la unidad 235 de agregación de candidato de fusión válido es diferente que el del segundo y tercer ejemplos prácticos. Un procedimiento válido de derivación de candidatos de fusión que es el procedimiento de la etapa S105 de la FIG. 30 realizado por la unidad de agregación de candidatos de fusión válidos 135 ilustrada en la FIG. 28 y la unidad de complementación de candidatos de fusión válidos 235 ilustrada en la FIG. 29 del cuarto ejemplo práctico de la presente realización se describirá en detalle con referencia al diagrama de flujo de la FIG. 32. La FIG. 33 es un diagrama de flujo para la descripción del flujo del procedimiento de derivación de candidato de fusión adicional de la etapa S105 de la FIG. 30 de acuerdo con el cuarto ejemplo práctico de la presente realización.
En el procedimiento de derivación de candidatos de fusión válidos de la FIG. 33 del cuarto ejemplo práctico, de forma similar al procedimiento de derivación de candidatos a fusión válidos de las FIGS. 31 y 32 del segundo y tercer ejemplo práctico, respectivamente, una pluralidad de candidatos de fusión que tienen el mismo valor de información de inter predicción se añaden a la lista de candidatos de fusión para añadir un candidato de fusión válido a la lista de candidatos de fusión con un procedimiento simple hasta que se elimine un candidato de fusión no válido dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por un valor de 0 a (maxNumMergeCand -1). Sin embargo, en el cuarto ejemplo práctico, un candidato de fusión añadido el último a la lista de fusión se añade repetidamente a la lista de candidatos de fusión como un candidato de fusión válido (etapas S6101 a S6113 de la FIG.
33). En primer lugar, cuando el número de candidatos de fusión numMergeCand es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la FIG. 33: SÍ), el flujo continúa a la etapa S6111. Cuando el número de candidatos de fusión numMergeCand no es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6102 de la FIG. 33: NO), el procedimiento de derivación de candidato de fusión válido finaliza.
Posteriormente, el último candidato de fusión añadido a la lista de fusión se añade repetidamente a la lista de candidatos de fusión como un candidato de fusión válido (etapa S6111 de la FIG. 33).
Específicamente, un candidato de fusión del cual el modo de inter predicción, el índice de referencia y el valor de vector son los mismos que los del candidato de fusión añadido a la posición que corresponde al valor de índice (numMergeIdx -1 ) de la lista de candidatos de fusión se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList se indica por el mismo valor que numMergeCand que el candidato de fusión válido.
Posteriormente, el número de candidatos de fusión numMergeCand es incrementado en 1 (etapa S6112 de la FIG.
33), y el flujo continúa a la etapa S6113.
Los procedimientos de las etapas S6102 a S6112 se realizan repetidamente hasta que el número de candidatos de fusión numMergeCand alcanza el mayor número de candidatos de fusión maxNumMergeCand (etapas S6101 a S6113 de la FIG. 33). Con estos procedimientos, en el cuarto ejemplo práctico, los candidatos de fusión no válidos se eliminan dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1).
A continuación, se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un quinto ejemplo práctico de la presente realización. La FIG. La FIG. 28 es también un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el cuarto ejemplo práctico de la realización. La FIG. La FIG. 29 es también un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el cuarto ejemplo práctico de la realización. La FIG. La Figura 30 es también un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de creación de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de creación de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 220 de creación de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento de acuerdo con el cuarto ejemplo práctico de la realización de la presente invención. En el quinto ejemplo práctico, se realiza una combinación del procedimiento adicional de derivación de candidatos de fusión de la FIG. 26 del cuarto ejemplo práctico y el procedimiento de derivación de candidatos de fusión válidos de la FIG. 33.
Se describirá en detalle un procedimiento adicional de derivación de candidatos de fusión y candidatos de fusión válidos de la etapa S110 que es una combinación de las etapas S104 y S105 de la FIG. 30, realizado por un bloque de derivación de candidatos de fusión adicionales y candidatos de fusión válidos 121 que una combinación de los procedimientos realizados por la unidad de derivación de candidatos de fusión adicionales 134 y la unidad de complementación de candidatos de fusión válidos 135 de la FIG. 28 del quinto ejemplo práctico y un bloque de derivación de candidatos de fusión adicionales y candidatos de fusión válidos 221 que es una combinación de los procedimientos realizados por la unidad de derivación de candidatos de fusión adicionales 234 y la unidad de complementación de candidatos de fusión válidos 235 de la FIG. 29. La FIG. 34 es un diagrama de flujo para la descripción del flujo del procedimiento de derivación de candidato de fusión adicional de la etapa S110 de la FIG. 30 de acuerdo con el quinto ejemplo práctico de la presente realización.
En el procedimiento de derivación de candidatos de fusión adicionales y candidatos de fusión válidos de la FIG. 34, una pluralidad de candidatos de fusión que tienen valores diferentes de información de inter predicción se derivan y añaden a la lista de candidatos de fusión para ampliar las opciones para que los candidatos de fusión mejoren la eficiencia de codificación. Después de eso, una pluralidad de candidatos de fusión que tienen el mismo valor de información de inter predicción se añaden a la lista de candidatos de fusión para añadir un candidato de fusión válido a la lista de candidatos de fusión hasta que se elimine un candidato de fusión no válido dentro de un intervalo en el que el índice de fusión en la lista se indica por un valor de 0 a (maxNumMergeCand -1 ) (etapas S5101 a S5119 de la Figura 34).
En primer lugar, cuando el tipo de corte es corte P (etapa S5101 de la FIG. 34: SÍ), el valor del número de índices de referencia L0 se establece en una variable numRefIdx que indica el número de índices de referencia (etapa S5102 de la FIG. 34). Por otra parte, cuando el tipo de corte o es corte P (etapa S5101 de la Figura 34: NO), es decir, cuando el tipo de corte es corte B, el valor más pequeño entre el número de índices de referencia L0 y el número de índices de referencia L1 se establece en la variable numRefIdx que indica el número de índices de referencia (etapa S5103 de la FIG. 34). Posteriormente, se establece en 0 en el índice de referencia i (etapa S5104 de la FIG. 34).
Posteriormente, se deriva un candidato de fusión adicional del cual el valor del vector de movimiento del modo de predicción que corresponde al tipo de corte es (0, 0) mientras se cambia el índice de referencia i y se añade a la lista de candidatos de fusión (etapas S5105 a S5119 de la FIG. 34).
En primer lugar, cuando el número de candidatos de fusión numMergeCand es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S5106 de la FIG. 34: SÍ), el flujo continúa a la etapa S5107. Cuando el número de candidatos de fusión numMergeCand no es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S5106 de la FIG. 34: NO), el procedimiento de derivación de candidato de fusión adicional finaliza.
Posteriormente, cuando el índice de referencia i es menor que la variable numRefIdx (etapa S5107 de la FIG. 34: SÍ), el flujo continúa a la etapa S5109 y se realiza un procedimiento de adición de candidato de fusión adicional. Cuando el índice de referencia i no es menor que la variable numRefIdx (etapa S5107 de la FIG. 34: NO), (numRefldx -1 ) se establece en el índice de referencia i (etapa S5108 de la FIG. 34), el flujo continúa a la etapa S5109 y se realiza un procedimiento de adición de candidato de fusión adicional.
Posteriormente, cuando el tipo de corte es corte P (etapa S5109 de la FIG. 34: SÍ), (0, 0) se establece en los vectores de movimiento mvLOZero y mvLlZero de los candidatos de fusión adicionales (etapa S5110 de la FIG. 34), el valor del índice de referencia i y -1 se establecen en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión adicionales, respectivamente (etapa S5111 de la FIG. 34), y 1 y 0 se establecen en las banderas predFlagLOZero y predFlagL1Zero de los candidatos de fusión adicionales, respectivamente (etapa S5112 de la FIG.
34). A continuación, el flujo continúa a la etapa S5116.
Por el otro lado, cuando el tipo de corte no es corte P (etapa S5109 de la FIG. 34: NO) (es decir, cuando el tipo de corte es corte B), (0, 0) se establece en los vectores de movimiento mvLOZero y mvLlZero (etapa S5113 de la FIG.
34), el valor del índice de referencia i se establece en el índice de referencia refIdxL0Zero y refldxLlZero de los candidatos de fusión adicionales (etapa S5114 de la FIG. 34), y se establece en 1 en las banderas predFlagLOZero y predFlagLIZero de los candidatos adicionales a la fusión (etapa S5115 de la FIG. 34). A continuación, el flujo continúa a la etapa S5116.
Posteriormente, el candidato de fusión adicional se añade a la posición en la que el índice de fusión de la lista de candidatos de fusión mergeCandList se indica por el mismo valor que numMergeCand (etapa S5116 de la FIG. 34), y el número de candidatos de fusión numMergeCand se incrementa en 1 (etapa S5117 de la FIG. 34). Posteriormente, el índice i se incrementa en 1 (etapa S5118 de la FIG. 34), y el flujo continúa a la etapa S5119.
Los procedimientos de las etapas S5106 a S5118 se realizan repetidamente para respectivos índices de referencia i (etapas S5105 a S5119 de la FIG. 34). Con estos procedimientos, en el quinto ejemplo práctico, los candidatos de fusión no válidos se eliminan dentro de un intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1).
A continuación, se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un sexto ejemplo práctico de la presente realización. La FIG. La FIG. 28 es también un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el sexto ejemplo práctico de la realización. La FIG. La FIG. 29 es también un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el sexto ejemplo práctico de la realización. La FIG. La Figura 30 es también un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de creación de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de creación de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de instantáneas en movimiento y la unidad 220 de creación de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de instantáneas en movimiento de acuerdo con el sexto ejemplo práctico de la realización de la presente invención. Aunque un procedimiento de implementación del sexto ejemplo práctico es diferente que el del segundo ejemplo práctico, puede obtenerse la misma información de inter predicción en el lado de decodificador. En el sexto ejemplo práctico, información de inter predicción dentro del intervalo de todos los índices en la lista de candidatos de fusión o en la que el índice se indica por el valor de 0 a (maxMergeCand - 1) se inicializa a un valor predeterminado, y se realiza el procedimiento de derivación y adición de respectivos candidatos de fusión. Cuando el tipo de corte es corte P, la unidad de construcción de la lista de candidatos de fusión 130 de la FIG. 28 y la unidad de construcción de la lista de candidatos de fusión 230 de la FIG. 29 inicializan todos los elementos en la lista de candidatos de fusión estableciendo el modo de inter predicción en predicción L0 (Pred_L0), el índice de referencia a 0 y el valor de vector en (0, 0). Cuando el tipo de corte no es corte P (es decir, el tipo de corte es corte B), todos los elementos en la lista de candidatos de fusión se inicializan estableciendo el modo de inter predicción en bi predicción (Pred_BI), ambos índices de referencia en 0 y ambos valores de vector en (0, 0). Además, se establece 0 al número de candidatos de fusión numMergeCand.
Además, la unidad de agregación de candidatos de fusión válidos 135 de la FIG. 29 y la unidad de complementación de candidatos de fusión válidos 235 de la FIG. 30 de acuerdo con el sexto ejemplo práctico hacen que la información de inter predicción inicializada sea válida para que los candidatos de fusión sean utilizados como candidatos de fusión válidos. Un procedimiento de derivación de candidatos de fusión válidos que es el procedimiento de la etapa S105 de la FIG. 30 realizado por la unidad de complementación de candidatos a fusión válidos 135 ilustrada en la FIG. 28 y la unidad de complementación de candidatos de fusión válidos 235 ilustrada en la FIG. 29 del sexto ejemplo práctico de la presente realización se describirá en detalle con referencia al diagrama de flujo de la FIG. 35. La FIG. La FIG. 35 es un diagrama de flujo para describir el flujo del procedimiento de elaboración de la información de inter predicción inicializada válida como candidatos de fusión válidos de la etapa S105 de la FIG. 30 de acuerdo con el sexto ejemplo práctico de la presente realización. Cuando el número de candidatos de fusión numMergeCand no es menor que el mayor número de candidatos de fusión maxNumMergeCand (etapa S6201 de la FIG. 35), el valor del número de candidatos de fusión numMergeCand se actualiza al mayor número de candidatos de fusión maxNumMergeCand (etapa S6201 de la FIG. 35). Con este procedimiento, la unidad de construcción de la lista de candidatos de fusión 130 de la FIG. 29 y la unidad de construcción de la lista de candidatos de fusión 230 de la FIG. 30 validan la información inter predicción inicializada para que los candidatos de fusión sean utilizados como candidatos de fusión válidos.
A continuación, se describirá un procedimiento de derivación de información de inter predicción de acuerdo con un séptimo ejemplo práctico de la presente realización. La FIG. La FIG. 28 es también un diagrama que ilustra una configuración detallada de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento ilustrado en la FIG. 1 de acuerdo con el séptimo ejemplo práctico de la realización. La FIG. La FIG. 29 es también un diagrama que ilustra una configuración detallada de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento ilustrado en la FIG. 2 de acuerdo con el séptimo ejemplo práctico de la realización. La FIG. La FIG. 30 es también un diagrama de flujo para describir el flujo de un procedimiento de derivación de candidato de fusión y un procedimiento de construcción de lista de candidatos de fusión que son las funciones comunes de la unidad 120 de construcción de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 220 de construcción de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de decodificación de imágenes en movimiento de acuerdo con el tercer ejemplo práctico de la realización de la presente invención. Aunque un procedimiento de implementación del séptimo ejemplo práctico es diferente que el del tercer ejemplo práctico, puede obtenerse la misma información de inter predicción en el lado de decodificador. En el séptimo ejemplo práctico, de forma similar al sexto ejemplo práctico, información de inter predicción dentro del intervalo de todos los índices en la lista de candidatos de fusión o en la que el índice se indica por el valor de 0 a (maxMergeCand - 1) se inicializa a un valor predeterminado, y se realiza el procedimiento de derivación y adición de respectivos candidatos de fusión. Sin embargo, en el séptimo ejemplo práctico, la unidad de construcción de la lista de candidatos de fusión 130 de la FIG. 28 y la unidad de construcción de la lista de candidatos de fusión 230 de la FIG. Sin embargo, en el séptimo ejemplo práctico, la unidad 130 de creación de lista de candidatos de fusión de la Figura 28 y la unidad 230 de creación de lista de candidatos de fusión de la Figura 29 inicializan todos los elementos en la lista de candidatos de fusión estableciendo el modo de inter predicción a predicción L0 (Pred_L0), el índice de referencia a 0 y el valor de vector a (0, 0) independientemente del tipo de corte. Los otros procedimientos son los mismos que los del sexto ejemplo práctico.
Anteriormente en la presente memoria, se ha descrito la presente realización. Cuando en el lado de codificador se codifica un índice de fusión que indica un candidato de fusión no válido, se selecciona un candidato de fusión no válido en el lado de decodificador. En este caso, se realiza inter predicción usando la información de inter predicción no válida y pueden obtenerse señales de predicción inesperadas. Además, el modo de inter predicción puede tener un valor que no se ajusta a los estándares y el índice de referencia puede indicar una instantánea de referencia que no está presente de modo que puede producirse un error y la decodificación puede finalizar de forma anormal.
De acuerdo con el primer ejemplo práctico de la presente realización, incluso cuando en el lado de codificador se codifica un índice de fusión que indica un candidato de fusión no válido, en el lado de descodificador no se realizará inter predicción usando la información de inter predicción del candidato de fusión no válido. Dado que el dispositivo de codificación de instantáneas en movimiento de acuerdo con las reglas de la presente realización puede obtener la misma información de inter predicción y la misma señal de predicción, es posible obtener la misma instantánea decodificada.
De acuerdo con los segundos a séptimos ejemplos prácticos de la presente realización, el índice de fusión que indica un candidato de fusión no válido no se seleccionará y codificará en el lado de codificador, y se garantiza que en el lado de descodificador no se realiza inter predicción usando la información de inter predicción del candidato de fusión no válido. Dado que el dispositivo de decodificación de instantáneas en movimiento puede obtener la misma información de inter predicción y la misma señal de predicción, es posible obtener la misma instantánea decodificada.
De acuerdo con el segundo al quinto ejemplos prácticos de la presente realización, la unidad 135 de agregación de candidato de fusión válido del dispositivo de codificación de imágenes en movimiento y la unidad 235 de agregación de candidato de fusión válido del dispositivo de descodificación de imágenes en movimiento añaden candidatos de fusión válidos hasta que se elimina un candidato de fusión no válido dentro del intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1). Sin embargo, los candidatos de fusión válidos pueden añadirse hasta un intervalo predeterminado de (maxNumMergeCand -1 ) o más siempre que el candidato de fusión no válido no esté presente al menos en el intervalo de 0 a (maxNumMergeCand -1).
De acuerdo con los sextos y séptimos ejemplos prácticos de la presente realización, la unidad 120 de construcción de lista de candidatos de fusión de la unidad 104 de derivación de información de inter predicción del dispositivo de codificación de imágenes en movimiento y la unidad 220 de construcción de lista de candidatos de fusión de la unidad 205 de derivación de información de inter predicción del dispositivo de descodificación de imágenes en movimiento inicializan la información de inter predicción en el intervalo en el que el índice de fusión en la lista de candidatos de fusión se indica por el valor de 0 a (maxNumMergeCand -1 ) al valor predeterminado. Sin embargo, puede inicializarse la información de inter predicción al menos en el intervalo de 0 a (maxNumMergeCand - 1), y puede inicializarse la información de inter predicción hasta un intervalo predeterminado de (maxNumMergeCand -1 ) o más.
En la realización descrita anteriormente, se derivan el candidato de fusión espacial, el candidato de fusión temporal y el candidato de fusión adicional. Sin embargo, en la presente invención también se incluye una realización en la que se omiten los respectivos procedimientos de derivación de candidato de fusión. Además, en la presente invención también se incluye una realización en la que se modifican los respectivos procedimientos de derivación de candidato de fusión o se añade un nuevo procedimiento de derivación de candidato de fusión.
Cuando no se realiza el procedimiento adicional de derivación de candidatos de fusión de la FIG. 26 descrito en la presente realización, si el tipo de corte es corte B, el procedimiento del tercer y séptimo ejemplos prácticos en los que se agrega un candidato de fusión válido de predicción L0 que tiene un valor diferente de información de inter predicción del candidato de fusión adicional es más adecuado que el procedimiento del segundo y sexto ejemplos prácticos en los que se agrega un candidato de fusión válido que tiene el mismo valor de información de inter predicción que el candidato de fusión adicional. Cuando no se realiza el procedimiento de derivación de candidato de fusión adicional de la FIG. 26 descrito en la presente realización, si el tipo de corte es corte B, el procedimiento del segundo y sexto ejemplos prácticos en los que se añade un candidato de fusión válido de bi predicción que tiene una eficiencia de predicción alta es más adecuado que el procedimiento del tercer y séptimo ejemplos prácticos en los que se añade un candidato de fusión válido de predicción L0.
Cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0, no se define la información de inter predicción que tiene el valor por defecto, y el modo de salto y el modo de fusión se inhiben, aunque se transmiten las banderas del modo de salto y modo de fusión, la eficiencia de codificación disminuye porque no puede seleccionarse el modo de salto o el modo de fusión. Además, cuando se selecciona el modo de salto o el modo de salto que se inhibe en el lado de codificador y se decodifica un flujo de bits codificado, se produce un error en el lado de decodificador, y el procedimiento de decodificación puede finalizar de forma anormal.
Sin embargo, en la presente realización, independientemente del valor del mayor número de candidatos de fusión maxNumMergeCand, el modo de fusión que incluye el modo de salto siempre puede seleccionarse cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0. En este caso, en el modo de salto o el intervalo movible, se emite la información de inter predicción que tiene el valor por defecto. Como un ejemplo del valor por defecto de la información de inter predicción, cuando el tipo de corte es corte B, el valor por defecto se define de tal forma que el modo de predicción es bipredicción (Pred_BI), el valor del índice de imagen de referencia es 0 y el valor del vector de movimiento es (0, 0). Por lo tanto, incluso cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0, se garantiza que no se realiza la codificación en el lado de codificador con el modo de salto o el modo de fusión como un valor inválido y que en el lado de decodificador se realiza inter predicción usando la información de inter predicción que tiene el valor por defecto predeterminado. Por lo tanto, dado que el dispositivo de decodificación de instantáneas en movimiento puede obtener la misma información de inter predicción y la misma señal de predicción, es posible obtener la misma instantánea decodificada. Además, incluso cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0, dado que puede seleccionarse el modo de salto o el modo de fusión, se mejora la eficiencia de codificación en comparación con cuando se inhibe el modo de salto o el modo de fusión.
Cuando el valor del mayor número de candidatos de fusión maxNumMergeCand es 0, la información de inter predicción del modo de fusión que incluye el modo de salto usa el valor por defecto, no es necesario realizar el procedimiento de construcción de lista de candidatos de fusión a diferencia del caso en el que el valor del mayor número de candidatos de fusión maxNumMergeCand es mayor que o igual a 1. Por lo tanto, es posible realizar un dispositivo de codificación que no realiza el procedimiento de creación de lista de candidatos de fusión y tiene una cantidad de procesamiento pequeña. Además, dado que el procedimiento en el lado de decodificador implica establecer el valor por defecto a la información de inter predicción del modo de fusión que incluye el modo de salto únicamente, es posible minimizar la cantidad de procesamiento en el lado de decodificador y asumir un dispositivo de decodificación con capacidad de suprimir un descenso en la eficiencia de codificación.
El flujo de bits de la imagen en movimiento emitido por el dispositivo de codificación de imágenes en movimiento de acuerdo con la realización tiene un formato de datos específico que puede descodificarse de acuerdo con un procedimiento de codificación usado en la realización, y el dispositivo de descodificación de imágenes en movimiento que corresponde al dispositivo de codificación de imágenes en movimiento puede descodificar el flujo de bits que tiene el formato de datos específico.
Cuando se usa una red por cable o inalámbrica para intercambiar el flujo de bits entre el dispositivo de codificación de imágenes en movimiento y el dispositivo de descodificación de imágenes en movimiento, el flujo de bits puede convertirse para tener un formato de datos apropiado para una forma de transmisión de una trayectoria de comunicación y transmitirse a continuación. En este caso, se proporcionan un transmisor de instantáneas en movimiento que convierte el flujo de bits emitido por el dispositivo de codificación de instantáneas en movimiento a datos de codificación que tienen el formato de datos apropiado para una forma de transmisión de una trayectoria de transmisión y, a continuación, transmite los datos de comunicación a la red y un receptor de instantáneas en movimiento que recibe los datos de comunicación desde la red, reconstruye el flujo de bits, y suministra el flujo de bits reconstruido al dispositivo de decodificación de instantáneas en movimiento.
El transmisor de imagen en movimiento incluye una memoria que almacena en memoria intermedia el flujo de bits emitido por el dispositivo de codificación de imágenes en movimiento, una unidad de procesamiento de paquetes que empaqueta el flujo de bits, y una unidad de transmisión que transmite los datos de codificación empaquetados a través de la red.
El receptor de imagen en movimiento incluye una unidad de recepción que recibe el datos de codificación empaquetados a través de la red, una memoria que almacena en memoria intermedia los datos de codificación recibidos y una unidad de procesamiento de paquetes que realiza procesamiento de paquetes en los datos de comunicación para crear el flujo de bits, y proporciona el flujo de bits creado al dispositivo de decodificación de instantáneas en movimiento. El procedimiento relacionado con la codificación y descodificación descrito anteriormente puede implementarse como transmisión, acumulación y receptores que usan hardware, y puede implementarse mediante firmware almacenado en una memoria de sólo lectura (ROM), una memoria flash o similar o software de un ordenador o similar. Un programa de firmware y un programa de software puede grabarse en un medio de grabación legible por ordenador y proporcionarse, puede proporcionarse desde un servidor a través de una red por cable o inalámbrica, o puede proporcionarse como difusión de datos de difusión de difusión terrestre o por satélite digital. La realización de la presente invención se ha descrito anteriormente. La realización es un ejemplo, y un experto en la técnica puede entender que se pueden realizar diversas modificaciones o cambios en una combinación de los respectivos componentes constituyentes y procedimientos de procesamiento.
[DESCRIPCIÓN DE NÚMEROS DE REFERENCIA]
101: Memoria de instantáneas
117: Unidad de establecimiento de información de encabezamiento
118: Detector de vectores de movimiento
119: Unidad de derivación de diferencia de vector de movimiento
120: Unidad de derivación de información de inter predicción
121: Unidad de predicción con compensación de movimiento
122: Unidad de intra predicción
123: Unidad de determinación de procedimiento de predicción
124: Unidad de creación de señal residual
125: Unidad de transformación ortogonal y cuantificación
118: Primera unidad de creación de flujo de bits
126: Segunda unidad de creación de flujo de bits
127: Tercera unidad de creación de flujo de bits
128: Multiplexor
129: Unidad de decuantificación y transformación ortogonal inversa
130: Unidad de superposición de señal de instantánea codificada
131: Memoria de almacenamiento de información de codificación
132: Memoria de instantáneas decodificadas
133: Unidad de creación de lista de candidatos de fusión
134: Unidad de creación de candidato de fusión espacial
135: Unidad de derivación de índice de referencia de candidato de fusión temporal
136: Unidad de derivación de candidato de fusión temporal
137: Unidad de derivación de candidato de fusión adicional
138: Unidad de agregación de candidato de fusión válido
139: Unidad de limitación de candidatos de fusión
140: Unidad de selección de información de inter predicción
201: Demultiplexor
212: Primer decodificador de flujo de bits
202: Segundo decodificador de flujo de bits
203: Tercer decodificador de flujo de bits
204: Unidad de derivación de vector de movimiento
205: Unidad de derivación de información de inter predicción
206: Unidad de predicción con compensación de movimiento
207: Unidad de intra predicción
208: Unidad de decuantificación y transformación ortogonal inversa
209: Unidad de superposición de señal de instantánea codificada
210: Memoria de almacenamiento de información de codificación
211: Memoria de instantáneas decodificadas
230: Unidad de creación de lista de candidatos de fusión
231: Unidad de creación de candidato de fusión espacial
232: Unidad de derivación de índice de referencia de candidato de fusión temporal
233: Unidad de derivación de candidato de fusión temporal
234: Unidad de derivación de candidato de fusión adicional
235: Unidad de agregación de candidato de fusión válido
236: Unidad de limitación de candidatos de fusión
237: Unidad de selección de información de inter predicción
[APLICABILIDAD INDUSTRIAL]
La presente invención puede usarse para técnicas de codificación y descodificación de imágenes en movimiento.

Claims (6)

REIVINDICACIONES
1. Un dispositivo de codificación de imágenes en movimiento que codifica imágenes en movimiento usando inter predicción a base de información de inter predicción de un candidato de fusión en unidades de bloques obtenidos por la partición de cada imagen de las imágenes en movimiento, que comprende:
una unidad (104, 205) de derivación de información de predicción que deriva candidatos de fusión a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o próximo al bloque de predicción objetivo de codificación en una instantánea codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación;
una unidad (130, 230) de creación de lista de candidatos que crea una lista de candidatos de fusión a partir de los candidatos de fusión derivados;
una unidad (134, 234) de generación de candidatos que realiza repetidamente un primer procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene un primer valor, el modo de inter predicción tiene un segundo valor y el índice de referencia tiene un tercer valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión o el tercer valor no es menor que una variable que indica el número de índices de referencia cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión;
una unidad (135, 235) de agregación de candidato que, después de que la unidad de generación de candidato realizó el primer procedimiento, realiza repetidamente un segundo procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión del cual el vector de movimiento tiene el primer valor, el modo de inter predicción tiene el segundo valor y el índice de referencia tiene un cuarto valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión; y
una unidad (105, 206) de predicción con compensación de movimiento que selecciona un candidato de fusión de entre los candidatos de fusión incluidos en la lista de candidatos de fusión de la que el número de candidatos de fusión alcanza el número designado de candidatos de fusión y realiza inter predicción en el bloque de predicción objetivo de codificación usando la información de inter predicción del candidato de fusión seleccionado, en el que:
el primer valor es (0,0);
el segundo valor es un valor predefinido que indica que el modo de inter predicción es predicción L0 cuando un tipo de corte de una imagen diana de codificación es un corte P, y el modo de inter predicción es bipredicción cuando el tipo de corte de la imagen diana de codificación es un corte B;
el tercer valor es una variable que se incrementa en uno cada vez que se produce el primer procedimiento; y
el cuarto valor es 0.
2. Un procedimiento de codificación de codificación de imágenes en movimiento de imágenes en movimiento usando inter predicción a base de información de inter predicción de un candidato de fusión en unidades de bloques obtenidos por la partición de cada imagen de las imágenes en movimiento, que comprende:
una etapa de derivación de información de predicción de derivación de candidatos de fusión a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o próximo al bloque de predicción objetivo de codificación en una instantánea codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación;
una etapa de creación de lista de candidatos de creación de una lista de candidatos de fusión a partir de los candidatos de fusión derivados;
una etapa de generación de candidatos para realizar repetidamente un primer procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene un primer valor, el modo de inter predicción tiene un segundo valor y el índice de referencia tiene un tercer valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión o el tercer valor no es menor que una variable que indica el número de índices de referencia cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión;
una etapa de agregación de candidatos de, después de que la etapa de generación de candidatos realizó el primer procedimiento, realización repetidamente de un segundo procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión del cual el vector de movimiento tiene el primer valor, el modo de inter predicción tiene el segundo valor y el índice de referencia tiene un cuarto valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión; y
una etapa de predicción con compensación de movimiento de selección de un candidato de fusión a partir de los candidatos de fusión incluidos en la lista de candidatos de fusión de la que el número de candidatos de fusión alcanza el número designado de candidatos de fusión y realización de inter predicción en el bloque de predicción objetivo de codificación usando la información de inter predicción del candidato de fusión seleccionado, en el que:
el primer valor es (0,0);
el segundo valor es un valor predefinido que indica que el modo de inter predicción es predicción L0 cuando un tipo de corte de una imagen diana de codificación es un corte P, y el modo de inter predicción es bipredicción cuando el tipo de corte de la imagen diana de codificación es un corte B;
el tercer valor es una variable que se incrementa en uno cada vez que se produce el primer procedimiento; y
el cuarto valor es 0.
3. Un programa de codificación de imágenes en movimiento de codificación de imágenes en movimiento usando inter predicción a base de información de inter predicción de un candidato de fusión en unidades de bloques obtenidos por la partición de cada imagen de las imágenes en movimiento, haciendo que un ordenador ejecute:
una etapa de derivación de información de predicción de derivación de candidatos de fusión a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de codificación o un bloque de predicción presente en la misma posición que o próximo al bloque de predicción objetivo de codificación en una instantánea codificada en una posición temporalmente diferente del bloque de predicción objetivo de codificación;
una etapa de creación de lista de candidatos de creación de una lista de candidatos de fusión a partir de los candidatos de fusión derivados;
una etapa de generación de candidatos para realizar repetidamente un primer procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene un primer valor, el modo de inter predicción tiene un segundo valor y el índice de referencia tiene un tercer valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión o el tercer valor no es menor que una variable que indica el número de índices de referencia cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión;
una etapa de agregación de candidatos de, después de que la etapa de generación de candidatos realizó el primer procedimiento, realización repetidamente de un segundo procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión del cual el vector de movimiento tiene el primer valor, el modo de inter predicción tiene el segundo valor y el índice de referencia tiene un cuarto valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión; y
una etapa de predicción con compensación de movimiento de selección de un candidato de fusión a partir de los candidatos de fusión incluidos en la lista de candidatos de fusión de la que el número de candidatos de fusión alcanza el número designado de candidatos de fusión y realización de inter predicción en el bloque de predicción objetivo de codificación usando la información de inter predicción del candidato de fusión seleccionado, en el que:
el primer valor es (0,0);
el segundo valor es un valor predefinido que indica que el modo de inter predicción es predicción L0 cuando un tipo de corte de una imagen diana de codificación es un corte P, y el modo de inter predicción es bipredicción cuando el tipo de corte de la imagen diana de codificación es un corte B;
el tercer valor es una variable que se incrementa en uno cada vez que se produce el primer procedimiento; y
el cuarto valor es 0.
4. Un dispositivo de decodificación de instantáneas en movimiento que decodifica un flujo de bits obtenido codificando instantáneas en movimiento usando inter predicción a base de información de inter predicción de un candidato de fusión en unidades de bloques obtenidos particionando cada instantánea de las instantáneas en movimiento, que comprende:
una unidad (104, 205) de derivación de información de predicción que deriva candidatos de fusión a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o próximo al bloque de predicción objetivo de decodificación en una instantánea decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación;
una unidad (130, 230) de creación de lista de candidatos que crea una lista de candidatos de fusión a partir de los candidatos de fusión derivados;
una unidad (134, 234) de generación de candidatos que realiza repetidamente un primer procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene un primer valor, el modo de inter predicción tiene un segundo valor y el índice de referencia tiene un tercer valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión o el tercer valor no es menor que una variable que indica el número de índices de referencia cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión;
una unidad (135, 235) de agregación de candidato que, después de que la unidad de generación de candidato realizó el primer procedimiento, realiza repetidamente un segundo procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión del cual el vector de movimiento tiene el primer valor, el modo de inter predicción tiene el segundo valor y el índice de referencia tiene un cuarto valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión; y
una unidad (105, 206) de predicción con compensación de movimiento que selecciona un candidato de fusión de entre los candidatos de fusión incluidos en la lista de candidatos de fusión de la que el número de candidatos de fusión alcanza el número designado de candidatos de fusión y realiza inter predicción en el bloque de predicción objetivo de decodificación usando la información de inter predicción del candidato de fusión seleccionado, en el que:
el primer valor es (0,0);
el segundo valor es un valor predefinido que indica que el modo de inter predicción es predicción L0 cuando un tipo de corte de una imagen diana de codificación es un corte P, y el modo de inter predicción es bipredicción cuando el tipo de corte de la imagen diana de codificación es un corte B;
el tercer valor es una variable que se incrementa en uno cada vez que se produce el primer procedimiento; y
el cuarto valor es 0.
5. Un procedimiento de decodificación de instantáneas en movimiento de decodificación de un flujo de bits obtenido codificando instantáneas en movimiento usando inter predicción a base de información de inter predicción de un candidato de fusión en unidades de bloques obtenidos particionando cada instantánea de las instantáneas en movimiento, que comprende:
una etapa de derivación de información de predicción de derivación de candidatos de fusión a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o próximo al bloque de predicción objetivo de decodificación en una instantánea decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación;
una etapa de creación de lista de candidatos de creación de una lista de candidatos de fusión a partir de los candidatos de fusión derivados;
una etapa de generación de candidatos para realizar repetidamente un primer procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene un primer valor, el modo de inter predicción tiene un segundo valor y el índice de referencia tiene un tercer valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión o el tercer valor no es menor que una variable que indica el número de índices de referencia cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión;
una etapa de agregación de candidatos de, después de que la etapa de generación de candidatos realizó el primer procedimiento, realización repetidamente de un segundo procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión del cual el vector de movimiento tiene el primer valor, el modo de inter predicción tiene el segundo valor y el índice de referencia tiene un cuarto valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión; y
una etapa de predicción con compensación de movimiento de selección de un candidato de fusión a partir de los candidatos de fusión incluidos en la lista de candidatos de fusión de la que el número de candidatos de fusión alcanza el número designado de candidatos de fusión y realización de inter predicción en el bloque de predicción objetivo de decodificación usando la información de inter predicción del candidato de fusión seleccionado, en el que:
el primer valor es (0,0);
el segundo valor es un valor predefinido que indica que el modo de inter predicción es predicción L0 cuando un tipo de corte de una imagen diana de codificación es un corte P, y el modo de inter predicción es bipredicción cuando el tipo de corte de la imagen diana de codificación es un corte B;
el tercer valor es una variable que se incrementa en uno cada vez que se produce el primer procedimiento; y
el cuarto valor es 0.
6. Un programa de decodificación de instantáneas en movimiento de decodificación de un flujo de bits obtenido codificando instantáneas en movimiento usando inter predicción a base de información de inter predicción de un candidato de fusión en unidades de bloques obtenidos particionando cada instantánea de las instantáneas en movimiento, que provoca que un ordenador ejecute:
una etapa de derivación de información de predicción de derivación de candidatos de fusión a partir de información de inter predicción de un bloque de predicción vecino a un bloque de predicción objetivo de decodificación o un bloque de predicción presente en la misma posición que o próximo al bloque de predicción objetivo de decodificación en una instantánea decodificada en una posición temporalmente diferente del bloque de predicción objetivo de decodificación;
una etapa de creación de lista de candidatos de creación de una lista de candidatos de fusión a partir de los candidatos de fusión derivados;
una etapa de generación de candidatos para realizar repetidamente un primer procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene un primer valor, el modo de inter predicción tiene un segundo valor y el índice de referencia tiene un tercer valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión o el tercer valor no es menor que una variable que indica el número de índices de referencia cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión;
una etapa de agregación de candidatos en la que, tras la realización del primer procedimiento por la etapa de generación de candidatos, realiza repetidamente un segundo procedimiento de adición a la lista de candidatos de fusión de un candidato de fusión cuyo vector de movimiento tiene el primer valor, el modo de inter predicción tiene el segundo valor y el índice de referencia tiene un cuarto valor hasta que el número de candidatos de fusión incluidos en la lista de candidatos de fusión alcanza el número designado de candidatos de fusión cuando el número de candidatos de fusión incluidos en la lista de candidatos de fusión es menor que el número designado de candidatos de fusión; y
una etapa de predicción con compensación de movimiento de selección de un candidato de fusión a partir de los candidatos de fusión incluidos en la lista de candidatos de fusión de la que el número de candidatos de fusión alcanza el número designado de candidatos de fusión y realización de inter predicción en el bloque de predicción objetivo de decodificación usando la información de inter predicción del candidato de fusión seleccionado, en el que:
el primer valor es (0,0);
el segundo valor es un valor predefinido que indica que el modo de inter predicción es predicción L0 cuando un tipo de corte de una imagen diana de codificación es un corte P, y el modo de inter predicción es bipredicción cuando el tipo de corte de la imagen diana de codificación es un corte B;
el tercer valor es una variable que se incrementa en uno cada vez que se produce el primer procedimiento; y
el cuarto valor es 0.
ES21153579T 2012-04-12 2013-04-12 Construcción de listas de candidatos a fusión Active ES2951398T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012091385 2012-04-12
JP2012091386 2012-04-12

Publications (1)

Publication Number Publication Date
ES2951398T3 true ES2951398T3 (es) 2023-10-20

Family

ID=50157654

Family Applications (4)

Application Number Title Priority Date Filing Date
ES21153576T Active ES2912134T3 (es) 2012-04-12 2013-04-12 Construcción de lista de candidatos de fusión
ES20174155T Active ES2902536T3 (es) 2012-04-12 2013-04-12 Dispositivo de codificación de instantáneas en movimiento, procedimiento de codificación de instantáneas en movimiento, programa de codificación de instantáneas en movimiento, y dispositivo de decodificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, programa de decodificación de instantáneas en movimiento
ES21153568T Active ES2912132T3 (es) 2012-04-12 2013-04-12 Construcción de lista de candidatos de fusión
ES21153579T Active ES2951398T3 (es) 2012-04-12 2013-04-12 Construcción de listas de candidatos a fusión

Family Applications Before (3)

Application Number Title Priority Date Filing Date
ES21153576T Active ES2912134T3 (es) 2012-04-12 2013-04-12 Construcción de lista de candidatos de fusión
ES20174155T Active ES2902536T3 (es) 2012-04-12 2013-04-12 Dispositivo de codificación de instantáneas en movimiento, procedimiento de codificación de instantáneas en movimiento, programa de codificación de instantáneas en movimiento, y dispositivo de decodificación de instantáneas en movimiento, procedimiento de decodificación de instantáneas en movimiento, programa de decodificación de instantáneas en movimiento
ES21153568T Active ES2912132T3 (es) 2012-04-12 2013-04-12 Construcción de lista de candidatos de fusión

Country Status (12)

Country Link
US (11) US9681134B2 (es)
EP (5) EP3716621B1 (es)
BR (1) BR112014024294B1 (es)
DK (4) DK3833022T3 (es)
ES (4) ES2912134T3 (es)
HR (4) HRP20211884T1 (es)
HU (3) HUE056708T2 (es)
PL (5) PL3833022T3 (es)
RU (5) RU2617920C9 (es)
SI (4) SI3833023T1 (es)
TW (5) TWI586145B (es)
WO (1) WO2013153823A1 (es)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9706204B2 (en) * 2010-05-19 2017-07-11 Sk Telecom Co., Ltd. Image encoding/decoding device and method
EP2654301A4 (en) * 2010-12-14 2016-02-17 M&K Holdings Inc METHOD FOR INTER-PREDICTIVE DECODING OF ENCODED FILMS
SI3833023T1 (sl) 2012-04-12 2022-06-30 Jvckenwood Corporation Konstruiranje seznama kandidatov za spajanje
US10205950B2 (en) 2014-02-21 2019-02-12 Panasonic Corporation Image decoding method, image encoding method, image decoding apparatus, and image encoding apparatus
CN112188207B (zh) * 2014-10-31 2023-10-20 三星电子株式会社 使用高精度跳过编码的视频编码设备和视频解码设备及其方法
US10321150B2 (en) 2015-03-31 2019-06-11 Realnetworks, Inc. Motion vector selection and prediction in video coding systems and methods
US10638129B2 (en) * 2015-04-27 2020-04-28 Lg Electronics Inc. Method for processing video signal and device for same
US10462479B2 (en) 2015-07-10 2019-10-29 Nec Corporation Motion picture encoding device, motion picture encoding method, and storage medium storing motion picture encoding program
WO2017107072A1 (en) 2015-12-22 2017-06-29 Realnetworks, Inc. Motion vector selection and prediction in video coding systems and methods
KR102275420B1 (ko) * 2016-07-12 2021-07-09 한국전자통신연구원 영상 부호화/복호화 방법 및 이를 위한 기록 매체
WO2018152749A1 (en) * 2017-02-23 2018-08-30 Realnetworks, Inc. Coding block bitstream structure and syntax in video coding systems and methods
WO2019191890A1 (zh) 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
WO2019216325A1 (en) 2018-05-09 2019-11-14 Sharp Kabushiki Kaisha Systems and methods for performing motion vector prediction using a derived set of motion vectors
MX2020012547A (es) 2018-05-24 2021-02-18 Kt Corp Método y aparato para procesar señal de video.
US11412246B2 (en) 2018-06-08 2022-08-09 Kt Corporation Method and apparatus for processing video signal
TWI744662B (zh) 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 更新查閱資料表(lut)的條件
CA3101730A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
CN110662059B (zh) 2018-06-29 2021-04-20 北京字节跳动网络技术有限公司 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置
CA3105330C (en) 2018-06-29 2023-12-05 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
KR20240005240A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
EP3791589A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Which lut to be updated or no updating
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
TWI723445B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 查找表的更新:fifo、約束的fifo
CN110677666B (zh) 2018-07-02 2022-06-14 北京字节跳动网络技术有限公司 Lamvr中取整和修剪的顺序
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
US10924731B2 (en) * 2018-08-28 2021-02-16 Tencent America LLC Complexity constraints on merge candidates list construction
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
CN112740705A (zh) * 2018-09-21 2021-04-30 夏普株式会社 用于在视频编码中发送信号通知参考图片的系统和方法
WO2020076097A1 (ko) * 2018-10-10 2020-04-16 삼성전자주식회사 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
CA3235103A1 (en) 2018-11-08 2020-05-14 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Partitioning of a coding block to obtain a plurality of prediction blocks in encoding/decoding a video signal
IL282761B2 (en) 2018-11-08 2024-04-01 Guangdong Oppo Mobile Telecommunications Corp Ltd A method for encoding/decoding an image signal and a device for it
WO2020096425A1 (ko) 2018-11-08 2020-05-14 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
CN112236996A (zh) * 2018-12-21 2021-01-15 株式会社 Xris 视频信号编码/解码方法及其装置
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
CN113853783B (zh) * 2019-05-25 2023-12-15 北京字节跳动网络技术有限公司 对帧内块复制编解码的块的块矢量的编解码
EP3993421A4 (en) * 2019-06-25 2022-08-31 Jvckenwood Corporation DYNAMIC PICTURE CODING DEVICE, DYNAMIC PICTURE CODING METHOD, DYNAMIC PICTURE CODING PROGRAM, DYNAMIC PICTURE DECODING DEVICE, DYNAMIC PICTURE DECODING METHOD, AND DYNAMIC PICTURE DECODING PROGRAM
BR122022009445A2 (pt) * 2019-10-10 2022-08-09 Huawei Technologies Co., Ltd. Codificador, decodificador e métodos correspondentes para simplificar sinalização de cabeçalho de imagem

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100399932B1 (ko) * 2001-05-07 2003-09-29 주식회사 하이닉스반도체 메모리의 양을 감소시키기 위한 비디오 프레임의압축/역압축 하드웨어 시스템
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7400681B2 (en) * 2003-11-28 2008-07-15 Scientific-Atlanta, Inc. Low-complexity motion vector prediction for video codec with two lists of reference pictures
US7453938B2 (en) * 2004-02-06 2008-11-18 Apple Inc. Target bitrate estimator, picture activity and buffer management in rate control for video coder
US8879635B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
BRPI0717639A2 (pt) * 2006-10-30 2013-11-12 Nippon Telegraph & Telephone Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas
JP4821723B2 (ja) 2007-07-13 2011-11-24 富士通株式会社 動画像符号化装置及びプログラム
JP2009164880A (ja) * 2008-01-07 2009-07-23 Mitsubishi Electric Corp トランスコーダ及び受信機
JP4600574B2 (ja) 2009-01-07 2010-12-15 日本電気株式会社 動画像復号装置、動画像復号方法、及びプログラム
TWI387314B (zh) * 2009-03-10 2013-02-21 Univ Nat Central Image processing apparatus and method thereof
KR101455579B1 (ko) * 2009-05-29 2014-10-29 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 및 화상 복호 방법
KR20110099663A (ko) * 2010-03-02 2011-09-08 삼성전자주식회사 스케일러블 동영상 부호화를 이용한 적응적 스트리밍 방법 및 장치
WO2012008506A1 (ja) 2010-07-15 2012-01-19 シャープ株式会社 画像フィルタ装置、復号装置、動画像復号装置、符号化装置、動画像符号化装置、および、データ構造
CN103081470B (zh) * 2010-09-02 2016-08-03 Lg电子株式会社 编码和解码视频的方法和使用该方法的装置
US8861617B2 (en) * 2010-10-05 2014-10-14 Mediatek Inc Method and apparatus of region-based adaptive loop filtering
JP2013545342A (ja) * 2010-10-08 2013-12-19 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ブロック分割及びブロック統合をサポートする画像符号化
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
PL4007276T3 (pl) 2011-05-27 2023-12-11 Sun Patent Trust Sposób kodowania obrazów, urządzenie do kodowania obrazów, sposób dekodowania obrazów, urządzenie do dekodowania obrazów, i urządzenie do kodowania i dekodowania obrazów
US8989271B2 (en) 2011-05-31 2015-03-24 Panasonic Intellectual Property Corporation Of America Decoding method and apparatus with candidate motion vectors
US9866859B2 (en) * 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
JP5488666B2 (ja) 2011-09-28 2014-05-14 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
WO2013057877A1 (ja) 2011-10-19 2013-04-25 パナソニック株式会社 画像符号化方法、画像符号化装置、画像復号方法、および、画像復号装置
WO2013108613A1 (ja) 2012-01-17 2013-07-25 パナソニック株式会社 動画像符号化方法、動画像復号化方法、動画像符号化装置、動画像復号化装置および動画像符号化復号化装置
JP6005762B2 (ja) * 2012-01-19 2016-10-12 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 映像符号化/復号化方法及び装置
SI3833023T1 (sl) 2012-04-12 2022-06-30 Jvckenwood Corporation Konstruiranje seznama kandidatov za spajanje

Also Published As

Publication number Publication date
EP3716621B1 (en) 2021-12-01
RU2708359C1 (ru) 2019-12-05
RU2708360C9 (ru) 2019-12-17
EP2838261B1 (en) 2020-06-17
PL2838261T3 (pl) 2020-11-30
US11206421B2 (en) 2021-12-21
TW201349873A (zh) 2013-12-01
TWI575935B (zh) 2017-03-21
HRP20211884T1 (hr) 2022-03-04
TWI578759B (zh) 2017-04-11
DK3833022T3 (da) 2022-04-19
US20190191176A1 (en) 2019-06-20
DK3716621T3 (da) 2021-12-06
RU2658146C9 (ru) 2018-12-12
US20200137410A1 (en) 2020-04-30
EP2838261A1 (en) 2015-02-18
PL3833022T3 (pl) 2022-05-30
EP3833022B1 (en) 2022-03-30
US20210021854A1 (en) 2021-01-21
RU2014145257A (ru) 2016-06-10
US9872037B2 (en) 2018-01-16
EP3833024C0 (en) 2023-07-05
RU2617920C9 (ru) 2017-08-29
US9872038B2 (en) 2018-01-16
US20180131957A1 (en) 2018-05-10
PL3716621T3 (pl) 2022-01-24
TW201717619A (zh) 2017-05-16
RU2708359C9 (ru) 2019-12-17
US20240048754A1 (en) 2024-02-08
RU2617920C2 (ru) 2017-04-28
RU2708360C1 (ru) 2019-12-05
US20140376638A1 (en) 2014-12-25
EP3716621A1 (en) 2020-09-30
PL3833024T3 (pl) 2024-01-22
HRP20230687T1 (hr) 2023-10-13
EP3833022A1 (en) 2021-06-09
HRP20220541T1 (hr) 2022-06-10
US20160323575A1 (en) 2016-11-03
TWI578760B (zh) 2017-04-11
EP3833024A1 (en) 2021-06-09
EP3833023B1 (en) 2022-03-30
HRP20220542T1 (hr) 2022-06-10
ES2912132T3 (es) 2022-05-24
RU2682368C9 (ru) 2019-10-01
US20220078471A1 (en) 2022-03-10
TW201717620A (zh) 2017-05-16
WO2013153823A1 (ja) 2013-10-17
HUE056708T2 (hu) 2022-03-28
PL3833023T3 (pl) 2022-05-30
EP3833024B1 (en) 2023-07-05
SI3833022T1 (sl) 2022-06-30
DK3833023T3 (da) 2022-04-19
BR112014024294B1 (pt) 2020-02-11
US10523962B2 (en) 2019-12-31
RU2658146C1 (ru) 2018-06-19
HUE062452T2 (hu) 2023-11-28
SI2838261T1 (sl) 2020-08-31
US20170223375A1 (en) 2017-08-03
US20170223376A1 (en) 2017-08-03
US9667966B2 (en) 2017-05-30
HUE050755T2 (hu) 2021-01-28
US11831898B2 (en) 2023-11-28
US20170223374A1 (en) 2017-08-03
ES2902536T3 (es) 2022-03-28
SI3833023T1 (sl) 2022-06-30
TWI580248B (zh) 2017-04-21
US9681134B2 (en) 2017-06-13
RU2682368C1 (ru) 2019-03-19
US9918103B2 (en) 2018-03-13
US10230975B2 (en) 2019-03-12
ES2912134T3 (es) 2022-05-24
TW201717621A (zh) 2017-05-16
EP2838261A4 (en) 2015-11-25
US10791336B2 (en) 2020-09-29
DK2838261T3 (da) 2020-07-06
TWI586145B (zh) 2017-06-01
TW201717622A (zh) 2017-05-16
SI3716621T1 (sl) 2022-01-31
EP3833023A1 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
ES2951398T3 (es) Construcción de listas de candidatos a fusión
ES2877369T3 (es) Dispositivo de codificación de imagen dinámica, procedimiento de codificación de imagen dinámica, programa de codificación de imagen dinámica, dispositivo de decodificación de imagen dinámica, procedimiento de decodificación de imagen dinámica y programa de decodificación de imagen dinámica
JP6206558B2 (ja) 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
TWI597973B (zh) Video encoding device, video encoding method and recording medium
JP6020760B1 (ja) 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム
JP6079919B2 (ja) 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、送信装置、送信方法及び送信プログラム