ES2561212T3 - Procedimiento de decodificación de imágenes - Google Patents

Procedimiento de decodificación de imágenes Download PDF

Info

Publication number
ES2561212T3
ES2561212T3 ES10012307.4T ES10012307T ES2561212T3 ES 2561212 T3 ES2561212 T3 ES 2561212T3 ES 10012307 T ES10012307 T ES 10012307T ES 2561212 T3 ES2561212 T3 ES 2561212T3
Authority
ES
Spain
Prior art keywords
rounding
image
pixel
frame
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES10012307.4T
Other languages
English (en)
Inventor
Yuichiro Nakaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of ES2561212T3 publication Critical patent/ES2561212T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/94Vector quantisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Studio Devices (AREA)

Abstract

Procedimiento de decodificación de imágenes de una secuencia de imágenes, que comprende las etapas siguientes: almacenar una imagen previamente codificada como una imagen de referencia (210); extraer la información del vector de movimiento (202) de la información de entrada que debe ser decodificada; y realizar una compensación de movimiento mediante la utilización de dicha información del vector de movimiento y dicha imagen de referencia para sintetizar una imagen de predicción (212), caracterizado porque, cuando una imagen actualmente decodificada es una trama P, comprende extraer la información de procedimiento de redondeo que consiste en un bit de una sección de encabezamiento de la imagen actualmente decodificada, especificando la información de procedimiento de redondeo, ya sea un redondeo positivo o un redondeo negativo; y realizar una interpolación de valores de píxel para obtener dicha imagen de predicción mediante la utilización de un procedimiento de redondeo especificado por la información de procedimiento de redondeo; en el que la interpolación de valores de píxel que utiliza dicho redondeo positivo se calcula según las ecuaciones: Ib >= [(La+Lb+1)/2], Ic >= [(La+Lc+1)/2], y Id >= [(La+Lb+Lc+Ld+2)/4,] y la interpolación de valores de píxel que utiliza dicho redondeo negativo se calcula según las ecuaciones: Ib >= [(La+Lb)/2], Ic >= [(La+Lc)/2] y Id >= [(La+Lb+Lc+Ld+1)/4], en las que La, Lb, Lc y Ld son, respectivamente, los valores de intensidad de un primer píxel, un segundo píxel que es horizontalmente adyacente a dicho primer píxel, un tercer píxel que es verticalmente adyacente a dicho primer píxel, y un cuarto píxel que es verticalmente adyacente a dicho segundo píxel y horizontalmente adyacente a dicho tercer píxel, e Ib, Ic e Id son, respectivamente, los valores de intensidad interpolados del punto medio entre dicho primer y segundo píxel, el punto medio entre dicho primer y tercer píxel y el punto medio entre dicho primer, segundo, tercer y cuarto píxel.

Description

5
10
15
20
25
30
35
40
45
50
55
60
DESCRIPCION
Procedimiento de decodificacion de imageries. Antecedentes de la invencion
Campo de la invencion
La presente invencion se refiere a un procedimiento de decodificacion de secuencias de imagenes que lleva a cabo una prediccion de intertrama utilizando valores cuantificados para intensidad de luminancia o crominancia.
Descripcion de la tecnica relacionada
En la codificacion de secuencias de imagenes de alta eficacia, la tecnica de prediccion de intertrama (compensacion de movimiento), mediante la similitud de las tramas adyacentes a lo largo del tiempo, resulta de gran eficacia para la compresion de datos. El procedimiento de compensacion de movimiento utilizado con mas frecuencia actualmente es el de la correspondencia de bloques con una precision de medio pixel, que se utiliza en los estandares internacionales H.263, MPEG1 y MPEG2. En este procedimiento, la imagen que se va a codificar se segmenta en bloques y los componentes horizontal y vertical de los vectores de movimiento de estos bloques se estiman como integrales multiples de la mitad de la distancia entre pixeles adyacentes. Este procedimiento se describe mediante la siguiente ecuacion:
[Ecuacion 1]
imagen1
en la que P(x, y) y R(x, y) denotan los valores de muestra (intensidad de luminancia o crominancia) de los pixeles situados en las coordenadas (x, y) de la imagen prevista P de la trama actual y la imagen de referencia (imagen decodificada de una trama que se ha codificado antes que la trama actual) R, respectivamente. X e y son enteros y se presupone que todos los pixeles estan situados en puntos donde los valores de coordenadas son enteros. Ademas, se presupone que los valores de muestra de los pixeles se cuantifican como enteros no negativos. N, Bi y (ui, vi) denotan el numero de bloques de la imagen, el grupo de pixeles incluidos en el i-esimo bloque de la imagen y los vectores de movimiento del i-esimo bloque, respectivamente.
Cuando los valores de ui y vi no son enteros, es necesario hallar el valor de intensidad en el punto concreto en el que no existen pixeles en la imagen de referencia. Actualmente, la interpolacion bilineal mediante los cuatro pixeles adyacentes es el procedimiento utilizado con mas frecuencia para este proceso. Este procedimiento de interpolacion se describe mediante la siguiente ecuacion:
[Ecuacion 2]
P a
R(x + —, y 4- -)= (id - q)((d - p)R(x\y)) + ph (a+1 l )) d d
+ q((d - p)R(\\y + 1) + pR(x 4- !,>’ +\)))//d2
-(2)
en la que d es un entero positivo y p y q son inferiores a d pero no inferiores a 0. «//» denota una division entera que redondea el resultado de la division normal (division con numeros reales) al entero mas cercano.
En la Fig. 1, se muestra un ejemplo de la estructura de un codificador de video H.263. Como algoritmo de codificacion, el H.263 adopta un procedimiento de codificacion hfbrido (procedimiento de codificacion adaptativo de intertrama/intratrama) que es una combinacion de la correspondencia de bloques y la DCT (transformada discreta de coseno). Un restador 102 calcula la diferencia entre la imagen de entrada (imagen base de trama actual) 101 y la imagen de salida 113 (descrita mas adelante) del selector de codificacion de intertrama/intratrama 119 y, a continuacion, proporciona una imagen de error 103. Esta imagen de error se cuantifica en un cuantificador 105 tras haber sido convertida en coeficientes DCT en un convertidor DCT 104, generandose coeficientes DCT cuantificados 106. Estos coeficientes DCT cuantificados se transmiten a traves del canal de comunicacion y, al mismo tiempo, se utilizan para sintetizar la imagen prevista de intertrama en el codificador. El procedimiento para sintetizar la imagen prevista se explicara a continuacion. Los coeficientes DCT cuantificados 106 mencionados forman la imagen de error reconstruida 110 (igual que la imagen de error reconstruida de la seccion de recepcion) tras pasar por un decuantificador 108 y un convertidor DCT inverso 109. Esta imagen de error reconstruida y la imagen de salida 113 del selector de codificacion de intertrama/intratrama 119 se suman en el sumador 111 y se obtiene la imagen decodificada 112 de la trama actual (la misma imagen que la imagen decodificada de la trama actual reconstruida en la seccion del receptor). Esta imagen se almacena en una memoria de trama 114 y se retarda un tiempo igual al intervalo de la trama. En consecuencia, en el momento actual, la memoria de trama 114 genera la imagen decodificada 115 de la trama anterior. Esta imagen decodificada de la trama anterior y la imagen original 101 de la
5
10
15
20
25
30
35
40
45
50
55
60
trama actual se introducen en la seccion de correspondencia de bloques 116, donde se lleva a cabo la correspondencia de bloques entre estas imagenes. En el procedimiento de correspondencia de bloques, la imagen original de la trama actual se segmenta en diversos bloques, y la imagen prevista 117 de la trama actual se sintetiza extrayendo la seccion que mas se parece a estos bloques de la imagen decodificada de la trama anterior. En este procedimiento, es necesario estimar el movimiento entre la trama anterior y la trama actual para cada bloque. El vector de movimiento de cada bloque estimado en el procedimiento de estimacion del movimiento se transmite a la seccion del receptor como datos de vector de movimiento 120. En la seccion del receptor, se sintetiza la misma imagen de prediccion que en la seccion del transmisor mediante la informacion del vector de movimiento y la imagen de decodificacion de la trama anterior. La imagen de prediccion 117 se introduce junto con una senal «0» 118 en el selector de codificacion de intertrama/intratrama 119. Este conmutador 119 selecciona codificacion de intertrama o codificacion de intratrama seleccionando una de las dos entradas. Se efectua codificacion de intertrama cuando se selecciona la imagen de prediccion 117 (es el caso mostrado en la Fig. 2). En cambio, se efectua codificacion de intratrama cuando se selecciona la senal «0», puesto que la propia imagen de entrada se convierte en coeficientes DCT que se proporcionan al canal de comunicacion. Para la correcta reconstruccion de la imagen codificada en la seccion del receptor, es necesario indicar al receptor si se ha efectuado codificacion de intratrama o codificacion de intertrama en la seccion del transmisor. En consecuencia, se proporciona un indicador de identificacion 121 al circuito de comunicacion. Por ultimo, se obtiene un tren de bits con codificacion H.263 multiplexando los coeficientes DCT cuantificados, los vectores de movimiento y la informacion del indicador de identificacion de intertrama/intratrama en un multiplexor 122.
En la Fig. 2, se muestra la estructura de un decodificador 200 para recibir el tren de bits codificado desde el codificador de la Fig. 1. El tren de bits con codificacion H.263 217 recibido se demultiplexa en coeficientes DCT cuantificados 201, datos de vector de movimiento 202 y un indicador de identificacion de intertrama/intratrama 203 en el demultiplexor 216. Los coeficientes DCT cuantificados 201 se convierten en una imagen de error decodificada 206 tras ser procesados mediante un cuantificador inverso 204 y un convertidor DCT inverso 205. Esta imagen de error decodificada se suma a la imagen de salida 215 del selector de codificacion de intertrama/intratrama 214 en el sumador 207 y la suma de estas imagenes se proporciona como imagen decodificada 208. La salida del selector de codificacion de intertrama/intratrama se conmuta segun el indicador de identificacion de intertrama/intratrama 203. La imagen de prediccion 212 utilizada en la codificacion de intertrama se sintetiza en el sintetizador de imagenes de prediccion 211. En este sintetizador, la posicion de los bloques en la imagen decodificada 210 de la trama anterior almacenada en la memoria de trama 209 se desplaza segun los datos del vector de movimiento 202. Por otra parte, en la codificacion de intratrama, el selector de codificacion de intertrama/intratrama proporciona la senal «0» 213 tal cual.
El documento US 5 379 351 A divulga un procedimiento de decodificacion con las caracterfsticas del preambulo de la reivindicacion 1.
Sumario de la invencion
La imagen con codificacion H.263 consiste en un plano de luminancia (plano Y) que contiene informacion de luminancia, y dos planos de crominancia (plano U y plano V) que contienen informacion de crominancia. Como es caracterfstico, en el momento en que la imagen tiene 2m pfxeles en la direccion horizontal y 2n pfxeles en la direccion vertical (siendo m y n enteros positivos), el plano Y tiene 2m pfxeles en la direccion horizontal y 2n pfxeles en la direccion vertical y los planos U y V tienen m pfxeles en la direccion horizontal y n pfxeles en la direccion vertical. La baja resolucion del plano de crominancia se debe al hecho de que el sistema visual humano tiene una agudeza visual comparativa reducida respecto de las variaciones espaciales de la crominancia. El H.263, que recibe como entrada dicha imagen, lleva a cabo la codificacion y la decodificacion en unidades de bloques que se denominan macrobloques. La estructura de un macrobloque se muestra en la Fig. 3. El macrobloque consiste en tres bloques: un bloque Y, un bloque U y un bloque V. El tamano del bloque Y 301 que contiene la informacion de luminancia es de 16 x 16 pfxeles, y el tamano del bloque U 302 y el bloque V 303 que contienen la informacion de crominancia es de 8 x 8 pfxeles.
En el H. 263, se aplica a cada bloque una correspondencia de bloques con una precision de medio pixel. En consecuencia, cuando el vector de movimiento estimado se define como (u, v), u y v son integrales multiples de la mitad de la distancia entre los pfxeles. Dicho de otro modo, 1/2 se utiliza como unidad minima. La configuracion del procedimiento de interpolacion utilizado para los valores de intensidad (de ahora en adelante, los valores de intensidad para «luminancia» y «crominancia» se denominan con el termino general de «valor de intensidad») se muestra en la Fig. 4. Cuando se efectua la interpolacion descrita en la Ecuacion 2, los cocientes de la division se redondean al entero mas cercano y, ademas, cuando el cociente tiene un valor que es un semientero (es decir, 0,5 sumado a un entero), el redondeo es al siguiente entero en la direccion que se aleja de cero. Es decir, en la Fig. 4, cuando los valores de intensidad para 401, 402, 403 y 404 son respectivamente La, Lb, Lc y Ld (La, Lb, Lc y Ld son enteros no negativos), los valores de intensidad interpolados la, Ib, Ic e Id (la, Ib, Ic e Id son enteros no negativos) de las posiciones 405, 406, 407 y 408 se expresan mediante la siguiente ecuacion:
5
10
15
20
25
30
35
40
45
50
55
60
[Ecuacion 3]
la = La
Ib=[(La + Lb +1)/2]
Ic=[(La+Lc +1)/2] —(3)
Id = [(La + Lb + Lc + Ld + 2) / 4]
en la que «[ ]» denota el truncamiento al entero que por defecto es mas cercano a cero (es decir la parte fraccionaria se descarta). Las previsiones de los errores ocasionados por este redondeo a enteros se estiman de la forma descrita a continuacion. Se presupone que la probabilidad de que se utilice el valor de intensidad de las posiciones 405, 406, 407y 408 de la Fig. 4 es en todos los casos del 25%. Cuando se halla el valor de intensidad la para la posicion 405, el error de redondeo sera evidentemente cero. Asimismo, cuando se halla el valor de intensidad lb para la posicion 406, el error es cero cuando La+Lb es un numero par, y 1/2 cuando es un numero impar. Si la probabilidad de que La+Lb sea un numero par y un numero impar es en ambos casos del 50%, la prevision de error sera 0 x 1/2 + 1/2 x 1/2 = 1/4. Ademas, cuando se halla el valor de intensidad Ic para la posicion 407, la prevision de error es 1/4, igual que para lb. Cuando se halla el valor de intensidad Id para la posicion 408, el error, cuando el residuo de La+Lb+Lc+Ld dividido por cuatro es 0, 1, 2 y 3, es 0, -1/4, 1/2 y 1/4, respectivamente. Si se presupone que la probabilidad de que el residuo sea 0, 1, 2 y 3 es en todos casos la misma (es decir, el 25%), la prevision de error es 0 x 1/4 - 1/4 x 1/4 + 1/2 x 1/4 + 1/4 x 1/4 = 1/8. Como se ha indicado anteriormente, si se presupone que la probabilidad de que se utilice el valor de intensidad de las posiciones 405 a 408 es igual en todos los casos, la prevision final de error es 0 x 1/4 + 1/4 x 1/4 + 1/4 x 1/4 + 1/8 x 1/4 = 5/32. Esto indica que cada vez que se efectua la compensacion de movimiento mediante la correspondencia de bloques, se produce un error de 5/32 en el valor de intensidad de pixel. En general, en la codificacion de baja velocidad, no puede utilizarse un numero de bits suficiente para la codificacion de la diferencia de error de intertrama y, por consiguiente, la etapa de cuantificacion del coeficiente DCT tiende a ser prolongada. En consecuencia, los errores causados por la compensacion de movimiento solo se corrigen si son muy graves. Cuando la codificacion de intertrama se lleva a cabo de forma continuada, sin que se lleve a cabo la codificacion de intratrama en dicho entorno, los errores tienden a acumularse y a ocasionar defectos en la imagen reconstruida.
Tal como se ha descrito anteriormente, el numero de pixeles es de alrededor de la mitad tanto en la direccion vertical como en la horizontal del plano de crominancia. Por consiguiente, para los vectores de movimiento del bloque U y el bloque V, se utiliza la mitad del valor del vector de movimiento del bloque Y para los componentes vertical y horizontal. Puesto que los componentes horizontal y vertical del vector de movimiento del bloque Y son integrales multiples de 1/2, los componentes del vector de movimiento de los bloques U y V apareceran como integrales multiples de 1/4 (precision de un cuarto de pixel) si se efectua una division corriente. No obstante, debido a la gran complejidad de los calculos del procedimiento de interpolacion de la intensidad para los vectores de movimiento con una precision de un cuarto de pixel, los vectores de movimiento para los bloques U y V se redondean con una precision de medio pixel en el H.263. El procedimiento de redondeo utilizado en el H.263 es el descrito a continuacion. Segun la definicion proporcionada anteriormente, (u, v) denota el vector de movimiento del macrobloque (que es igual al vector de movimiento del bloque Y). Si se presupone que r es un entero y que s es un entero no negativo inferior a 4, u/2 puede reescribirse como u/2 = r + s/4. Cuando s es 0 o 2, no se requiere ningun redondeo, puesto que u/2 a es una integral multiple de 1/2. No obstante, cuando s es igual a 1 o 3, el valor de s se redondea a 2. Si se incrementa la probabilidad de que s tome el valor de 2 mediante este procedimiento de redondeo, puede resaltarse el efecto del filtrado de la compensacion de movimiento. Cuando la probabilidad de que el valor de s antes del redondeo sea 0, 1, 2 y 3 es en todos casos del 25 por ciento, la probabilidad de que s sea 0 o 2 despues del redondeo sera, respectivamente, del 25 por ciento y del 75% por ciento. El procedimiento descrito anteriormente relacionado con el componente horizontal u del vector de movimiento tambien se aplica al componente vertical v. En consecuencia, en el bloque U y el bloque V, la probabilidad de que se utilice el valor de intensidad de la posicion 401 es 1/4 x 1/4 = 1/16, y la probabilidad de que se utilice el valor de intensidad de las posiciones 402 y 403 es en ambos casos 1/4 x 3/4 = 3/16, mientras que la probabilidad de que se utilice el valor de intensidad de la posicion 404 es 3/4 x 3/4 = 9/16. Si se utiliza el mismo procedimiento que antes, la prevision de error del valor de intensidad es 0 x 1/16 + 1/4 x 3/16 +1/4 x 3/16 +1/4 x 3/16 + 1/8 x 9/16 = 21/128. Tal como se ha descrito anteriormente para el bloque Y, cuando la codificacion de intertrama se efectua de forma continuada, se produce el problema de la acumulacion de errores.
Como se ha indicado anteriormente, en los procedimientos de codificacion y decodificacion de secuencias de imagenes en los que se lleva a cabo la prediccion de intertrama y la cuantificacion de la intensidad de la crominancia, surge el problema de la acumulacion de errores de redondeo. Este error de redondeo se genera cuando el valor de intensidad de luminancia o crominancia se cuantifica durante la generacion de la imagen de prediccion de intertrama.
A la vista de los problemas anteriores, uno de los objetivos de la presente invencion es, por lo tanto, mejorar la calidad de la imagen reconstruida impidiendo la acumulacion de errores.
5
10
15
20
25
30
35
40
45
50
55
60
65
Para conseguir este objetivo, los errores de acumulacion se previenen limitando la aparicion de errores o llevando a cabo una operacion para anular los errores que se han producido.
La presente invencion esta definida en la reivindicacion 1.
Breve descripcion de los dibujos
La Figura 1 es un diagrama de bloques que muestra la disposicion del codificador de imagenes H.263.
La Figura 2 es un diagrama de bloques que muestra la disposicion del decodificador de imagenes H.263.
La Figura 3 es un diagrama de bloques que muestra la estructura del macrobloque.
La Figura 4 es un dibujo que muestra el procedimiento de interpolacion de los valores de intensidad para la correspondencia de bloques con una precision de medio pixel.
La Figura 5 es un dibujo que muestra una secuencia de imagenes codificadas,
La Figura 6 es un diagrama de bloques que muestra un dispositivo de codificacion de imagenes de software.
La Figura 7 es un diagrama de bloques que muestra un dispositivo de decodificacion de imagenes de software.
La Figura 8 es un diagrama de flujo que muestra un ejemplo de procesamiento en el dispositivo de codificacion de imagenes de software.
La Figura 9 es un diagrama de flujo que muestra un ejemplo de procesamiento de decision de modalidad de codificacion para el dispositivo de codificacion de imagenes de software.
La Figura 10 es un diagrama de flujo que muestra un ejemplo de procesamiento de estimacion de movimiento y de compensacion de movimiento en el dispositivo de codificacion de imagenes de software.
La Figura 11 es un diagrama de flujo que muestra el procesamiento en el dispositivo de decodificacion de imagenes de software.
La Figura 12 es un diagrama de flujo que muestra un ejemplo de procesamiento de compensacion de movimiento en el aparato de decodificacion de imagenes de software.
La Figura 13 es un dibujo que muestra un ejemplo de medios de memoria en los que se registra un tren de bits codificado generado por un procedimiento de codificacion que proporciona trenes de bits que incluyen tramas I, P+ y P-.
La Figura 14 es un grupo de dibujos que muestran ejemplos concretos de dispositivos que utilizan un procedimiento de codificacion en el que las tramas P+ y P- coexisten.
La Figura 15 es un dibujo que muestra un ejemplo de medios de memoria en los que se registra un tren de bits codificado generado por un procedimiento de codificacion que proporciona trenes de bits que incluyen tramas I, B, P+ y P-.
La Figura 16 es un diagrama de bloques que muestra un ejemplo de unidad de correspondencia de bloques incluida en un dispositivo que utiliza un procedimiento de codificacion en el que las tramas P+ y P- coexisten.
La Figura 17 es un diagrama de bloques que muestra el sintetizador de imagenes de prediccion, incluido en un dispositivo para decodificar trenes de bits codificados por un procedimiento de codificacion en el que las tramas P+ y P- coexisten.
Descripcion detallada de las formas de realizacion preferidas
En primer lugar, se considerara en que circunstancias se produce la acumulacion de errores de redondeo en relacion con la «tecnica anterior». En la Fig. 5, se muestra un ejemplo de una secuencia de imagenes codificada mediante procedimientos de codificacion que pueden llevar a cabo tanto la prediccion unidireccional como la prediccion bidireccional (por ejemplo, MPEG. 1, MPEG.2 y H.263). La imagen 501 es una trama codificada mediante codificacion de intratrama y se denomina trama I. En cambio, las imagenes 503, 505, 507 y 509 se denominan tramas P y se codifican mediante codificacion de intertrama unidireccional utilizando la trama I o P anterior como imagen de referencia. En consecuencia, por ejemplo, cuando se codifica la imagen 505, la imagen 503 se utiliza como imagen de referencia y se lleva a cabo la prediccion de intertrama. Las imagenes 502, 504, 506 y 508 se denominan tramas B y la prediccion de intertrama bidireccional se lleva a cabo utilizando la trama I o P anterior y
5
10
15
20
25
30
35
40
45
50
55
60
posterior. La trama B se caracteriza porque no se utiliza como imagen de referencia cuando se lleva a cabo la prediccion de intertrama. Puesto que en las tramas I no se lleva a cabo la compensacion de movimiento, no se produce el error de redondeo ocasionado por la compensacion de movimiento. En cambio, en las tramas P se efectua compensacion de movimiento y, ademas, las tramas P son utilizadas como imagen de referencia por otras tramas P o B, lo que puede ser origen de una acumulacion de errores de redondeo. En las tramas B, por otro lado, se efectua compensacion de movimiento y, por consiguiente, el efecto de la acumulacion de errores de redondeo aparece en la imagen reconstruida. Sin embargo, debido al hecho de que las tramas B no son utilizadas como imagenes de referencia, las tramas B no pueden ser el origen de una acumulacion de errores de redondeo. Por lo tanto, si se puede prevenir la acumulacion de errores de redondeo en la trama P, se podran mitigar los efectos perjudiciales de los errores de redondeo en la totalidad de la secuencia de imagenes. En el H.263, existe una trama para codificar una trama P y una trama B denominada trama PB. (Por ejemplo, las tramas 503 y 504 pueden codificarse ambas como una trama PB.) Si las dos tramas combinadas se tratan como tramas separadas, entonces puede aplicarse el mismo principio que antes. Dicho de otro modo, si se toman medidas contra los errores de redondeo para la parte de la trama P de una trama PB, podra prevenirse la acumulacion de errores.
Los errores de redondeo se producen durante la interpolacion de los valores de intensidad cuando un valor obtenido mediante una division normal (division cuyo resultado es un numero real) es un semientero (0,5 sumado a un entero) y este resultado se redondea luego al siguiente entero en la direccion que se aleja de cero. Por ejemplo, cuando se divide por 4 para hallar un valor de intensidad interpolado, los errores de redondeo para los casos en que el residuo es 1 y 3 tienen valores absolutos iguales pero signos diferentes. En consecuencia, los errores de redondeo ocasionados en estos dos casos se anulan cuando se calcula la prevision de errores de redondeo (en terminos mas generales, cuando se divide por un entero positivo d', los errores de redondeo ocasionados cuando el residuo es t y d' - t se anulan). No obstante, cuando el residuo es 2, es decir, cuando el resultado de la division normal es un semientero, el error de redondeo no puede anularse, lo que lleva a la acumulacion de errores. Para resolver este problema, puede utilizarse un procedimiento que permite la utilizacion de dos procedimientos de redondeo. Los dos procedimientos de redondeo utilizados aquf son: un procedimiento de redondeo que redondea los semienteros a los que por exceso estan mas alejados de cero y un procedimiento de redondeo que redondea los semienteros a los que por defecto son mas cercanos a cero. Combinando la utilizacion de estos dos procedimientos de redondeo, podran anularse los errores de redondeo. De ahora en adelante, el procedimiento de redondeo que redondea el resultado de la division normal al entero mas cercano y que redondea los valores de los semienteros a los que por exceso estan mas alejados de cero se denominara «redondeo positivo». Ademas, el procedimiento de redondeo que redondea el resultado de la division normal al entero mas cercano y redondea los valores de los semienteros a los que por defecto son mas cercanos a cero se denominara «redondeo negativo». El procedimiento de redondeo positivo utilizado en la correspondencia de bloques con una precision de medio pixel se muestra en la Ecuacion 3. En cambio, cuando se utiliza redondeo negativo, esta ecuacion puede reescribirse de la forma mostrada a continuacion.
[Ecuacion 4]
la = La
lb - [{La + Lb)!l\ lc=[{La + Lc)/2] •••(4)
Id = [{La +Lb + Lc+Ld +1)/ 4]
De ahora en adelante, los procedimientos de compensacion de movimiento que llevan a cabo el redondeo positivo y negativo para la sintesis de imagenes de prediccion de intertrama se denominaran «compensacion de movimiento mediante redondeo positivo» y «compensacion de movimiento mediante redondeo negativo», respectivamente. Ademas, para las tramas P que utilizan correspondencia de bloques con una precision de medio pixel para la compensacion de movimiento, las tramas que utilizan redondeo positivo se denominaran «tramas P+» y las tramas que utilizan redondeo negativo se denominaran «trama P-» (segun esta definicion, todas las tramas P del H.263 son tramas P+). La prevision de errores de redondeo en las tramas P+ y P- tiene los mismos valores absolutos pero signos diferentes. En consecuencia, la acumulacion de errores de redondeo puede impedirse si se colocan tramas P+ y tramas P- de forma alternada a lo largo del eje del tiempo. En el ejemplo de la Fig. 5, si las tramas 503 y 507 se establecen como tramas P+ y las tramas 505 y 509 se establecen como tramas P-, entonces podra ejecutarse este procedimiento. La distribucion alternada de tramas P+ y tramas P- lleva a la utilizacion de una trama P+ y una trama P- en la prediccion bidireccional para las tramas B. En general, el promedio de la imagen de prediccion hacia delante (es decir, la imagen de prediccion sintetizada mediante la trama 503 cuando se esta codificando la trama 504 de la Fig. 5) y la imagen de prediccion hacia atras (es decir, la imagen de prediccion sintetizada mediante la trama 505 cuando se esta codificando la trama 504 de la Fig. 5) se utiliza frecuentemente para sintetizar la imagen de prediccion para las tramas B. Esto significa que la utilizacion de una trama P+ (que tiene un valor positivo para la prevision del error de redondeo) y una trama P- (que tiene un valor negativo para la prevision del error de redondeo) en la prediccion bidireccional de una trama B anula con eficacia los efectos de los errores de redondeo. Como se ha indicado anteriormente, el procedimiento de redondeo en la trama B no ocasionara acumulacion de errores. En consecuencia, tampoco la aplicacion del mismo procedimiento de redondeo a todas las tramas B planteara ningun problema. Por ejemplo, aunque la compensacion de movimiento mediante redondeo positivo se aplique a todas las
5
10
15
20
25
30
35
40
45
50
55
60
65
tramas B 502, 504, 506 y 508 de la Fig. 5, no se provocara ninguna degradacion importante de las imagenes decodificadas. Preferentemente, solo se lleva a cabo un tipo de redondeo para una trama B, para simplificar el procedimiento de decodificacion de la trama B.
En la Fig. 16, se muestra la seccion de correspondencia de bloques 1600 de un codificador de imagenes segun el procedimiento de compensacion de movimiento descrito anteriormente que utiliza diversos procedimientos de redondeo. En esta Figura, se utilizan numeros identicos a los de otros dibujos para indicar partes iguales. Si se sustituye la seccion de correspondencia de bloques 116 de la Fig. 1 por 1600, podran utilizarse diversos procedimientos de redondeo. El procesamiento de estimacion del movimiento entre la imagen de entrada 101 y la imagen decodificada de la trama anterior se lleva a cabo en un estimador de movimiento 1601 y el resultado del mismo es la informacion de movimiento 120. Esta informacion de movimiento se utiliza en la sfntesis de la imagen de prediccion llevada a cabo en un sintetizador de imagenes de prediccion 1603. El dispositivo de determinacion de procedimiento de redondeo 1602 determina si debe emplearse un redondeo positivo o un redondeo negativo como procedimiento de redondeo para la trama que se esta codificando actualmente. La informacion 1604 relativa al procedimiento de redondeo que se determina se introduce en el sintetizador de imagenes de prediccion 1603. En este sintetizador de imagenes de prediccion 1603, se sintetiza una imagen de prediccion 117 y se proporciona basandose en el procedimiento de redondeo determinado mediante la informacion 1604. En la seccion de correspondencia de bloques 116 de la Fig. 1, no existe ningun elemento equivalente a los elementos 1602 y 1604 de la Fig. 16, y la imagen de prediccion se sintetiza solo mediante redondeo positivo. Asimismo, puede proporcionarse el procedimiento de redondeo 1605 determinado en la seccion de correspondencia de bloques y esta informacion puede luego multiplexarse en el tren de bits y transmitirse.
En la Fig. 17, se muestra el sintetizador de imagenes de prediccion 1700 de un decodificador de imagenes que puede decodificar trenes de bits generados mediante un procedimiento de codificacion en el que se utilizan diversos procedimientos de redondeo. En esta Figura, se utilizan numeros identicos a los de otros dibujos para indicar partes iguales. Si se sustituye el sintetizador de imagenes de prediccion 211 de la Fig. 2 por 1700, podran utilizarse diversos procedimientos de redondeo. En el dispositivo de determinacion de procedimiento de redondeo 1701, se determina el procedimiento de redondeo adecuado para la sfntesis de imagenes de prediccion en el procedimiento de decodificacion. Para llevar a cabo la decodificacion correctamente, el procedimiento de redondeo seleccionado aquf debe ser el mismo procedimiento de redondeo que se selecciono para la codificacion. Por ejemplo, el codificador y el decodificador pueden compartir la siguiente regla: cuando la trama actual es una trama P y el numero de tramas P (incluida la trama actual) contadas desde la trama I mas reciente es impar, entonces la trama actual es una trama P+. Cuando este numero es par, entonces la trama actual es una trama P-. Si el dispositivo de determinacion de procedimiento de redondeo de la seccion de codificacion (por ejemplo, 1602 en la Fig. 16) y el dispositivo de determinacion de procedimiento de redondeo 1701 cumplen esta regla comun, entonces las imagenes podran ser correctamente decodificadas. La imagen de prediccion se sintetiza en el sintetizador de imagenes de prediccion 1703 mediante la informacion de movimiento 202, la imagen de decodificacion 210 de la trama anterior y la informacion 1702 relativa al procedimiento de redondeo determinado de la forma que se acaba de describir. Una vez que se ha generado esta imagen de prediccion 212, esta se utiliza para la sfntesis de la imagen decodificada. Como alternativa al caso mencionado, puede considerarse tambien el caso en que la informacion relativa al procedimiento de redondeo se multiplexa en el tren de datos transmitido (dicho tren de bits puede generarse en el codificador proporcionando la informacion 1605 relativa al procedimiento de redondeo desde la seccion de correspondencia de bloques ilustrada en la Fig. 16). En dicho caso, el dispositivo de determinacion de procedimiento de redondeo 1701 no se utiliza y la informacion 1704 relacionada con el procedimiento de redondeo extrafda del tren de bits codificado se utiliza en el sintetizador de imagenes de prediccion 1703.
Aparte del codificador de imagenes y el decodificador de imagenes que utilizan los circuitos habituales y los chips habituales de la tecnica convencional mostrados en la Fig. 1 y la Fig. 2, la presente invencion tambien puede aplicarse a codificadores de imagenes de software y a decodificadores de imagenes de software que utilizan procesadores de uso general. En la Fig. 6 y la Fig. 7, se muestran un codificador de imagenes de software 600 y un decodificador de imagenes de software 700. En el codificador de imagenes de software 600, la imagen de entrada 601 se almacena en primer lugar en la memoria de trama de entrada 602 y, desde esta, el procesador de uso general 603 obtiene la informacion y lleva a cabo la codificacion. El programa para dirigir este procesador de uso general se copia desde un dispositivo de memoria 608 que puede ser un disco duro, un disquete, etc. y se almacena en una memoria de programas 604. Este procesador de uso general tambien utiliza una memoria de procesamiento 605 para llevar a cabo la codificacion. La informacion de codificacion proporcionada por el procesador de uso general se almacena temporalmente en la memoria tampon de salida 606 y luego se proporciona como un tren de bits codificado 607.
En la Fig. 8, se muestra un diagrama de flujo del software de codificacion (medios de registro legibles por ordenador). El procedimiento empieza en 801, y el valor 0 se asigna a la variable N en 802. A continuacion, en 803 y 804, se asigna el valor 0 a N cuando el valor de N es 100. N es un contador del numero de tramas. Se suma el valor 1 a cada trama cuyo procesamiento ha finalizado, estando permitidos los valores entre 0 y 99 durante la codificacion. Cuando el valor de N es 0, la trama actual es una trama I. Cuando N es un numero impar, la trama actual es una trama P+ y cuando N es un numero par distinto a 0, la trama actual es una trama P-. Cuando el lfmite superior del valor de N es 99, significa que se codifica una trama I una vez que se han codificado 99 tramas P (tramas P+ o
5
10
15
20
25
30
35
40
45
50
55
60
65
tramas P-). Introduciendo siempre una trama I en un cierto numero de tramas codificadas, pueden obtenerse los siguientes beneficios: (a) la acumulacion de errores debidos a un desajuste entre el procesamiento del codificador y el decodificador puede prevenirse (por ejemplo, un desajuste en el calculo de la DCT) y (b) la carga de procesamiento para obtener la imagen reproducida de la trama deseada a partir de los datos codificados (acceso aleatorio) se reduce. El valor N optimo varfa cuando cambia el rendimiento del codificador o el entorno en el que este se utiliza. Esto no significa, sin embargo, que el valor de N deba ser siempre 100. El procedimiento para determinar el procedimiento de redondeo y la modalidad de codificacion para cada trama se efectua en 805. El diagrama de flujo que ilustra en detalle esta operacion se muestra en la Fig. 9. En primer lugar, se comprueba en 901 si N es 0 o no. Si N es 0, entonces se proporciona «I» como informacion de distincion de la modalidad de prediccion a la memoria tampon de salida en 902. Esto significa que la imagen que se va a codificar se codificara como una trama I. Aquf, «proporcionar a la memoria tampon de salida» significa que, tras haber estado almacenada en la memoria tampon de salida, la informacion se proporciona a un dispositivo externo como parte del tren de bits codificado. Cuando N no es 0, entonces se comprueba en 904 si N es un numero impar o par. Cuando N es un numero impar, se proporciona «+» a la memoria tampon de salida como informacion de distincion para el procedimiento de redondeo en 905 y la imagen se codificara como una trama P+. Por otro lado, cuando N es un numero par, se transmite «-» a la memoria tampon de salida como informacion de distincion para el procedimiento de redondeo en 906, y la imagen que se va a codificar se codificara como una trama P-. El procedimiento vuelve otra vez a la Fig. 8, donde tras determinarse la modalidad de codificacion en 805, la imagen de entrada se almacena en la memoria de trama A en 806. En el presente documento, «memoria de trama A» indica una parte de la zona de memoria (por ejemplo, la zona de memoria mantenida en la memoria de 605 en la Fig. 6) del codificador de software. En 807, se comprueba si la trama que se esta codificando actualmente es una trama I. Cuando se comprueba que no es una trama I, se lleva a cabo la estimacion de movimiento y la compensacion de movimiento en 808. El diagrama de flujo de la Fig. 10 muestra detalles de este procedimiento llevado a cabo en 808. En primer lugar, en 1001, se lleva a cabo la estimacion del movimiento entre las imagenes almacenadas en las memorias de trama A y B (tal como se indica al final de este parrafo, la imagen decodificada de la trama anterior se almacena en la memoria de trama B). Se halla el vector de movimiento de cada bloque y este se envfa a la memoria tampon de salida. A continuacion, en 1002, se comprueba si la trama actual es o no una trama P+. Cuando la trama actual es una trama P+, la imagen de prediccion se sintetiza en 1003 utilizando redondeo positivo y esta imagen de prediccion se almacena en la memoria de trama C. Por otra parte, cuando la trama actual es una trama P-, la imagen de prediccion se sintetiza en 1004 utilizando redondeo negativo y esta imagen de prediccion se almacena en la memoria de trama C. Seguidamente, en 1005, se halla la imagen diferencial entre la memoria de trama A y la memoria de trama C y se almacena en la memoria de trama A. Entonces, el procedimiento vuelve otra vez a la Fig. 8. Antes de iniciarse el procesamiento en 809, la imagen de entrada se almacena en la memoria de trama A cuando la trama actual es una trama I, y la imagen diferencial entre la imagen de entrada y la imagen de prediccion se almacena en la memoria A cuando la trama actual es una trama P (trama P+ o trama P-). En 809, se aplica una DCT a la imagen almacenada en la memoria de trama A, y los coeficientes DCT calculados se envfan a la memoria tampon de salida una vez cuantificados. En 810, se efectua la cuantificacion inversa de los coeficientes DCT y se aplica una DCT inversa. La imagen obtenida aplicando una DCT inversa se almacena en la memoria de trama B. A continuacion, en 811, se comprueba de nuevo si la trama actual es una trama I. Cuando la trama actual no es una trama I, las imagenes almacenadas en la memoria de trama B y C se suman y el resultado se almacena en la memoria de trama B. El procedimiento de codificacion de una trama finaliza aquf, y la imagen almacenada en la memoria de trama B antes de llegar a 813 es la imagen reconstruida de esta trama (esta imagen es identica a la obtenida en la seccion de decodificacion). En 813, se comprueba si la trama cuya codificacion acaba de terminar es la ultima trama de la secuencia. En caso afirmativo, el procedimiento de codificacion finaliza. Si esta trama no es la ultima trama, se suma 1 a N en 814, el procedimiento vuelve otra vez a 803 y comienza la codificacion de la siguiente trama.
En la Fig. 7, se muestra un decodificador de software 700. Una vez que el tren de bits codificado 701 ha sido almacenado temporalmente en la memoria tampon de entrada 702, este tren de bits se carga en el procesador de uso general 703. El programa para dirigir este procesador de uso general se copia desde un dispositivo de memoria 708 que puede ser un disco duro, un disquete, etc. y se almacena en la memoria de programas 704. Este procesador de uso general utiliza tambien una memoria de procesamiento 605 para efectuar la decodificacion. La imagen decodificada obtenida mediante el procedimiento de decodificacion se almacena temporalmente en la memoria tampon de salida 706 y luego se envfa como imagen de salida 707.
En la Fig. 11, se muestra un diagrama de flujo del software de decodificacion para el decodificador de software 700 mostrado en la Fig. 7. El procedimiento empieza en 1101 y, en 1102, se comprueba si se dispone de informacion de entrada. Cuando no hay informacion de entrada, el procedimiento de decodificacion finaliza en 1103. Cuando hay informacion de entrada, la informacion de distincion de la modalidad de prediccion se introduce en 1104. La palabra «entrada» utilizada aquf significa que la informacion almacenada en la memoria tampon de entrada (por ejemplo, 702 de la Fig. 7) es proporcionada por el procesador de uso general. En 1105, se comprueba si la informacion de distincion de modalidad de codificacion es «I». Cuando no es «I», se introduce la informacion de distincion para el procedimiento de redondeo y se lleva a cabo la sfntesis de la imagen de prediccion de intertrama en 1107. En la Fig. 12, se muestra un diagrama de flujo que muestra los detalles de la operacion efectuada en 1107. En 1201, se introduce un vector de movimiento para cada bloque. A continuacion, en 1202, se comprueba si la informacion de distincion para el procedimiento de redondeo cargado en 1106 es «+». Cuando esta informacion es «+», la trama
5
10
15
20
25
30
35
40
45
50
55
60
65
que se esta decodificando actualmente es una trama P+. En este caso, la imagen de prediccion se sintetiza utilizando redondeo positivo en 1203, y la imagen de prediccion se almacena en la memoria de trama D. Aqrn, «memoria de trama D» indica una parte de la zona de memoria del decodificador de software (por ejemplo, esta zona de memoria se obtiene en la memoria de procesamiento 705 en la Fig. 7). Cuando la informacion de distincion del procedimiento de redondeo no es «+», la trama actual que se esta decodificando es una trama P-. La imagen de prediccion se sintetiza mediante redondeo negativo en 1204 y esta imagen de prediccion se almacena en la memoria de trama D. En este momento, si una trama P+ se decodifica como una trama P- debido a algun tipo de error o, a la inversa, si una trama P- se decodifica como una trama P+, no se sintetiza la imagen de prediccion correcta en el decodificador y la calidad de la imagen decodificada se deteriora. Tras la sintetizacion de la imagen de prediccion, la operacion vuelve a la Fig. 11 y los coeficientes DCT cuantificados se introducen en 1108. A continuacion, se aplica cuantificacion inversa y DCT inversa a estos coeficientes y la imagen resultante se almacena en la memoria de trama E. En 1109, se comprueba otra vez si la trama que se decodifica actualmente es una trama I. Si la trama actual no es una trama I, las imagenes almacenadas en la memoria de trama D y E se suman en 1110 y la imagen resultante de la suma se almacena en la memoria de trama E. La imagen almacenada en la memoria de trama E antes del inicio del procedimiento en 1111 es la imagen reconstruida. Esta imagen almacenada en la memoria de trama E se proporciona a la memoria de trama de salida (por ejemplo, 706 en la Fig. 7) en 1111 y, a continuacion, se obtiene desde el decodificador como la imagen reconstruida. El procedimiento de decodificacion de una trama finaliza aqrn y el procedimiento de la siguiente trama empieza otra vez desde 1102.
Cuando se ejecuta software basado en el diagrama de flujo mostrado en las Figs. 8 a 12 en los codificadores o decodificadores de imagenes de software, se obtiene el mismo efecto que cuando se utilizan circuitos habituales y chips habituales.
En la Fig. 13, se muestran unos medios de memoria (medios de registro) en los que se registra el tren de bits generado por el codificador de software 601 de la Fig. 6. Se presupone que el algoritmo mostrado en los diagramas de flujo de las Figs. 8 a 10 se utiliza en el codificador de software. La informacion digital se registra concentricamente en un disco de registro 1301 capaz de registrar informacion digital (por ejemplo, un disco magnetico, un disco optico, etc.). Una parte 1302 de la informacion registrada en este disco digital incluye: informacion de distincion de modalidad de prediccion 1303, 1305, 1308, 1311 y 1314; informacion de distincion de procedimiento de redondeo 1306, 1309, 1312 y 1315 e informacion de vector de movimiento y coeficientes DCT 1304, 1307, 1310, 1313 y 1316. La informacion que representa «I» se registra en 1303, «P» se registra en 1305, 1308, 1311 y 1314, «+» se registra en 1306 y 1312 y «-» se registra en 1309 y 1315. En este caso «I» y «+» pueden representarse mediante un solo bit de 0, y «P» y «-» pueden representarse mediante un solo bit de 1. Mediante esta representacion, el decodificador puede interpretar correctamente la informacion registrada y se sintetiza la imagen reconstruida correcta. Si se almacena un tren de bits codificado en medios de memoria utilizando el procedimiento descrito anteriormente, podra impedirse la acumulacion de errores de redondeo cuando se lee y decodifica el tren de bits.
En la Fig. 15, se muestran unos medios de memoria donde se registra el tren de bits de los datos codificados de la secuencia de imagenes mostrada en la Fig. 5. El tren de bits registrado incluye informacion relacionada con las tramas P+, P- y B. De la misma forma que en el disco de registro 1301 de la Fig. 13, la informacion digital se registra concentricamente en un disco de registro 1501 capaz de registrar informacion digital (por ejemplo, un disco magnetico, un disco optico, etc.). Una parte 1502 de la informacion digital registrada en este disco digital incluye: informacion de distincion de modalidad de prediccion 1503, 1505, 1508, 1510 y 1513; informacion de distincion de procedimiento de redondeo 1506 y 1512 e informacion de vector de movimiento y coeficientes DCT 1504, 1507, 1509, 1511 y 1514. La informacion que representa «I» se registra en 1503, «P» se registra en 1505 y 1510, «B» se registra en 1508 y 1513, «+» se registra en 1505 y «-» se registra en 1511. En este caso, «I», «P» y «B» pueden representarse, respectivamente, mediante valores de dos bits 00, 01 y 10, y «+» y «-» pueden representarse, respectivamente, mediante valores de un bit 0 y 1. Mediante esta representacion, el decodificador puede interpretar correctamente la informacion registrada y se sintetiza la imagen reconstruida correcta. En la Fig. 15, la informacion relacionada con la trama 501 (trama I) de la Fig. 5 es 1503 y 1504, la informacion relacionada con la trama 502 (trama B) es 1508 y 1509, la informacion relacionada con la trama 503 (trama P+) es 1505 y 1507, la informacion relacionada con la trama 504 (trama B) es 1513 y 1514 y la informacion relacionada con la trama 505 (trama P-) es 1510 y 1512. Cuando la codificacion de secuencias de imagenes se efectua con tramas B, el orden de transmision y el orden de presentacion de las tramas suele ser diferente. Esto es debido a que es necesario codificar la imagen de referencia anterior y posterior antes de sintetizar la imagen de prediccion para la trama B. En consecuencia, a pesar de que la trama 502 se presenta antes que la trama 503, la informacion relacionada con la trama 503 se transmite antes que la informacion relacionada con la trama 502. Como se ha descrito anteriormente, no es necesario utilizar diversos procedimientos de redondeo para las tramas B, puesto que la compensacion de movimiento en las tramas B no ocasiona acumulacion de errores de redondeo. Por lo tanto, como se muestra en este ejemplo, la informacion relativa a los procedimientos de redondeo (p.ej., «+» y «-») no se transmite para las tramas B. Entonces, por ejemplo, aunque solo se aplique redondeo positivo a las tramas B, no se produce el problema de la acumulacion de errores de redondeo. Si se almacenan trenes de bits codificados que contienen informacion relativa a las tramas B en medios de memoria de la forma descrita anteriormente, la acumulacion de errores de redondeo puede impedirse cuando se lee y decodifica este tren de bits.
5
10
15
20
25
30
35
40
45
50
55
60
65
En la Fig. 14, se muestran ejemplos concretos de codificadores y decodificadores que utilizan el procedimiento descrito en esta memoria. El procedimiento de codificacion y decodificacion de imagenes puede utilizarse instalando software de codificacion y de decodificacion de imagenes en un ordenador 1401. Este software se registra en algun tipo de medios de memoria (CD-ROM, disquete, disco duro, etc.) 1412, se copia en un ordenador y luego se utiliza. Ademas, el ordenador puede utilizarse como terminal de transmision de imagenes conectando el ordenador a las lfneas de comunicacion. Tambien es posible instalar el procedimiento de decodificacion descrito en esta memoria en un dispositivo de reproduccion 1403 que lee y decodifica el tren de bits codificado registrado en los medios de memoria 1402. En este caso, la senal imagen reconstruida puede presentarse en un monitor de television 1404. El dispositivo 1403 puede utilizarse solo para leer el tren de bits codificado y, en este caso, el dispositivo de decodificacion puede instalarse en el monitor de television 1404. Como bien se sabe, la transmision de datos digitales puede realizarse utilizando ondas de satelite y ondas terrestres. Tambien puede instalarse un dispositivo de decodificacion en un receptor de television 1405 capaz de recibir dichas transmisiones digitales. Asimismo, tambien puede instalarse un dispositivo de decodificacion dentro de una caja de adaptacion multimedios 1404 conectada a una antena de ondas de satelite/terrestres, o un cable 1408 de un sistema de television por cable, para que las imagenes reconstruidas puedan presentarse en un monitor de television 1410. En este caso, el dispositivo de decodificacion puede incluirse en el monitor de television en vez de en la caja de adaptacion multimedios, como en el caso de 1404. La disposicion del sistema de difusion por satelite digital se muestra en 1413, 1414 y 1415. La informacion de video del tren de bits codificado se transmite desde una estacion de radiodifusion 1413 hasta un satelite de comunicacion o radiodifusion 1414. El satelite recibe esta informacion, la envia a un domicilio 1415 provisto de equipo para recibir programas de radiodifusion por satelite, y la informacion de video se reconstruye y presenta en este domicilio en dispositivos como, por ejemplo, un receptor de television o una caja de adaptacion multimedios. La transmision de imagenes digitales mediante terminales moviles 1406 ha sido objeto ultimamente de una considerable atencion, debido a que permite la transmision de imagenes a muy bajas velocidades binarias. Los terminales portatiles digitales pueden dividirse en tres tipos de categorfas: transceptores que incluyen un codificador y un decodificador; transmisores que solo incluyen un codificador y receptores que solo incluyen un decodificador. Puede instalarse un dispositivo de codificacion en un grabador de video 1407. La camara tambien puede utilizarse solo para capturar la senal de video y esta senal puede proporcionarse a un codificador habitual 1411. Tanto los dispositivos como los sistemas mostrados en este dibujo pueden estar provistos del procedimiento de codificacion o decodificacion descrito en esta memoria. Utilizando este procedimiento de codificacion o decodificacion en estos dispositivos o sistemas, pueden obtenerse imagenes de calidad superior a la obtenida con tecnologfas convencionales.
Las siguientes variantes estan claramente incluidas dentro del alcance de la presente invencion.
(i) Un prerrequisito del principio descrito anteriormente es la utilizacion de correspondencia de bloques como procedimiento de compensacion de movimiento. No obstante, la presente invencion puede aplicarse ademas a todos los procedimientos de codificacion y decodificacion de secuencias de imagenes, en los que la compensacion de movimiento se lleva a cabo tomando un valor para los componentes vertical y horizontal del vector de movimiento del pixel que es distinto al entero multiple del perfodo de muestreo en las direcciones vertical y horizontal del pixel y, a continuacion, hallando mediante interpolacion el valor de intensidad de una posicion en la que no esta presente el valor de muestreo. Entonces, por ejemplo, la compensacion de movimiento global descrita en la solicitud de patente japonesa n.° Hei 08-060572 y la prediccion de distorsion descrita en la solicitud de patente japonesa n.° Hei 08-249601 son aplicables al procedimiento de la presente invencion.
(ii) En la descripcion de la presente invencion, solo se ha mencionado el caso en el que se toma un valor de integral multiple de 1/2 para los componentes vertical y horizontal del vector de movimiento. Sin embargo, la presente invencion tambien puede aplicarse de forma general a los procedimientos en los que son permitidas las integrales multiples de 1/d (d es un entero positivo y tambien un numero par) para los componentes horizontal y vertical del vector de movimiento. No obstante, cuando d es grande, el divisor para la division en la interpolacion bilineal (cuadrado de d, vease la Ecuacion 2) tambien es grande y, en cambio, la probabilidad de que los resultados de la division normal lleguen a un valor de 0,5 es baja. En consecuencia, cuando se efectua solo redondeo positivo, el valor absoluto de la prevision de errores de redondeo es pequena y los efectos perjudiciales ocasionados por la acumulacion de errores resultan menos llamativos. Asimismo, tambien puede aplicarse al procedimiento de la presente invencion un procedimiento de compensacion de movimiento en el que, por ejemplo, el valor de d es variable, y en el que se utiliza tanto el redondeo positivo como el negativo cuando d es inferior a un valor fijo y solo se utiliza redondeo positivo o solo redondeo negativo cuando el valor de d es superior a un valor fijo.
(iii) Como se menciona en la tecnica anterior, cuando se utiliza la DCT como procedimiento de codificacion de errores, los efectos adversos de la acumulacion de errores de redondeo son propensos a aparecer cuando el tamano de la etapa de cuantificacion del coeficiente DCT es grande. No obstante, tambien puede aplicarse un procedimiento a la presente invencion, en el que, cuando el tamano de la etapa de cuantificacion de los coeficientes DCT es superior a un valor umbral, entonces se utiliza redondeo positivo y redondeo negativo. Cuando el tamano de la etapa de cuantificacion de los coeficientes DCT es inferior al valor umbral, entonces solo se utiliza redondeo positivo o solo se utiliza redondeo negativo.
5
10
15
20
25
30
35
40
45
50
55
60
65
(iv) En los casos, en los que se producen acumulaciones de errores en el plano de la luminancia y en los casos en los que se producen acumulaciones de error en el plano de la crominancia, los efectos perjudiciales sobre las imagenes reconstruidas son en general mas graves en el caso de las acumulaciones de errores en el plano de la crominancia. Esto es debido al hecho de que los casos en que se producen cambios globales del color de la imagen son mas llamativos que los casos en que la imagen se oscurece o aclara ligeramente. No obstante, tambien puede aplicarse a la presente invencion un procedimiento en el que se utiliza tanto redondeo positivo como redondeo negativo para la senal de crominancia, y solo se utiliza redondeo positivo o redondeo negativo para la senal de luminancia.
Como se describe en referencia a las tecnicas relacionadas, los vectores de movimiento de 1/4 de pixel de precision obtenidos dividiendo por dos los vectores de movimiento de 1/2 pixel de precision se redondean con una precision de 1/2 pixel en el H.263. No obstante, anadiendo ciertos cambios a este procedimiento, el valor de prevision absoluto de errores de redondeo puede reducirse. En el H.263 mencionado en la tecnica anterior, un valor que es la mitad del componente horizontal o vertical del vector de movimiento para el plano de la luminancia se expresa como r + s/4 (r es un entero, s es un entero menor que 4 y no inferior a 0), y cuando s es 1 o 3, se efectua una operacion de redondeo para obtener un 2. Esta operacion puede cambiarse de la siguiente forma: cuando s es 1, se lleva a cabo una operacion de redondeo para obtener un 0, y cuando s es 3, se suma un 1 a r para que s sea 0. Llevando a cabo estas operaciones, el numero de veces que se interpolan los valores de intensidad de las posiciones 406 a 408 de la Fig.4 decididamente se reduce (la probabilidad de que los componentes horizontales y verticales del vector de movimiento sean un entero aumenta), de tal forma que el valor de prevision absoluto del error de redondeo disminuye. No obstante, aunque el tamano del error producido en este procedimiento pueda limitarse, la acumulacion de errores no puede evitarse por completo.
(v) La presente invencion descrita en esta memoria es aplicable a un procedimiento que obtiene la imagen de prediccion de intertrama definitiva calculando el promedio de las imagenes de prediccion obtenidas mediante diferentes procedimientos de compensacion de movimiento. Por ejemplo, en el procedimiento descrito en la solicitud de patente japonesa n.° Hei 8-2616, se calcula el promedio de las imagenes de prediccion de intertrama obtenidas mediante los dos procedimientos siguientes: correspondencia de bloques en la que se asigna un vector de movimiento a cada bloque de 16x16 pfxeles y correspondencia de bloques en la que se asigna un vector de movimiento a cada bloque de 8x8 pfxeles. En este procedimiento, tambien se efectua redondeo cuando se calcula el promedio de las dos imagenes de prediccion. Cuando solo se efectua redondeo positivo de forma continuada en esta operacion de promediacion, se acumula un nuevo tipo de error de redondeo. Este problema puede resolverse utilizando diversos procedimientos de redondeo para esta operacion de promediacion. En este procedimiento, se efectua redondeo negativo en la operacion de promediacion cuando se efectua redondeo positivo en la correspondencia de bloques. Por el contrario, se utiliza redondeo positivo para la promediacion cuando se utiliza redondeo negativo para la correspondencia de bloques. Utilizando diferentes procedimientos de redondeo para la promediacion y la correspondencia de bloques, pueden anularse los errores de redondeo de dos fuentes diferentes dentro de la misma trama.
(vi) Cuando se utiliza un procedimiento para localizar de forma alternada tramas P+ y tramas P- a lo largo del eje del tiempo, el codificador o decodificador necesita determinar si la trama P procesada actualmente es una trama P+ o una trama P-. A continuacion, se proporciona un ejemplo de dicho procedimiento de determinacion. Un contador cuenta el numero de tramas P tras la ultima trama I codificada o decodificada, siendo la trama P actual una trama P+ cuando el numero es impar y una trama P- cuando el numero es par (este procedimiento se denomina sistema implfcito). Asimismo, existe un procedimiento, por ejemplo, que escribe, en la seccion de encabezamiento de la informacion de imagen codificada, informacion para determinar si la trama P codificada actualmente en el codificador es una trama P+ o una trama P- (este procedimiento se denomina sistema explfcito). A diferencia del procedimiento implfcito, este procedimiento tiene gran capacidad para resistir los errores de transmision, puesto que no hay necesidad de contar el numero de tramas P.
Ademas, el procedimiento explfcito tiene las ventajas indicadas a continuacion. Como se describe en el apartado «Descripcion de tecnicas relacionadas» los estandares de codificacion anteriores (como MPEG-1 o MPEG-2) solo utilizan redondeo positivo para la compensacion de movimiento. Esto significa, por ejemplo, que los dispositivos de estimacion de movimiento/compensacion de movimiento (por ejemplo, equivalentes al 106 de la Fig. 1) para MPEG- 1/MPEG-2 disponibles en el mercado no son compatibles con los procedimientos de codificacion que utilizan tanto tramas P+ como tramas P-. Se presupone que se dispone de un decodificador que puede decodificar trenes de bits generados mediante un procedimiento de codificacion que utiliza tramas P+ y tramas P-. En este caso, si el decodificador se basa en el procedimiento implfcito mencionado anteriormente, sera diffcil crear un codificador que genere trenes de bits que puedan decodificarse correctamente mediante el decodificador mencionado, utilizando el dispositivo de estimacion/compensacion de movimiento mencionado para MPEG-1/MPEG-2. No obstante, si el decodificador se basa en el procedimiento explfcito mencionado, este problema puede resolverse. Un codificador que utiliza un dispositivo de estimacion de movimiento/compensacion de movimiento MPEG-1/MPEG-2 puede enviar de forma continuada tramas P+, escribiendo de forma continuada informacion de distincion de procedimiento de redondeo que indica redondeo positivo en el encabezamiento de la informacion de la trama. Una vez finalizada esta
5
10
15
20
25
30
35
40
45
50
55
accion, un decodificador basado en el procedimiento explfcito puede decodificar correctamente el tren de bits generado por este codificador. Como es obvio, en dicho caso, sera mas probable que se produzca una acumulacion de errores de redondeo, puesto que solo estan presentes las tramas P+. No obstante, la acumulacion de errores no es un problema grave en los casos en que el codificador utiliza solo pequenos valores como tamano de etapa de cuantificacion para los coeficientes DCT (el codificador habitual utilizado solo para la codificacion de alta velocidad es un ejemplo de dichos codificadores). Ademas de la interoperabilidad entre estandares anteriores, el procedimiento explfcito presenta tambien las siguientes ventajas: (a) el coste del equipo para los codificadores habituales de alta velocidad y los codificadores no propensos a la acumulacion de errores de redondeo debido a la introduccion frecuente de tramas I puede reducirse instalando solo redondeo positivo o redondeo negativo como procedimiento de redondeo de valores de pixel para la compensacion de movimiento y (b) los anteriores codificadores no propensos a la acumulacion de errores de redondeo tienen la ventaja de que no es necesario decidir si la trama actual debe codificarse como una trama P+ o una trama P-, con lo que el procesamiento se simplifica.
(vii) La presente invencion descrita en esta memoria es aplicable a los procedimientos de codificacion y decodificacion que aplican filtrado junto con redondeo a las imagenes de prediccion de intertrama. Por ejemplo, en el estandar internacional H.261 para la codificacion de secuencias de imagenes se aplica un filtro pasa baja (denominado filtro de bucle) a las senales de bloque cuyos vectores de movimiento no son 0 en las imagenes de prediccion de intertrama. Asimismo, en el estandar H.261, pueden utilizarse filtros para eliminar las discontinuidades en los lfmites de los bloques (artefacto de bloques). Todos estos filtros llevan a cabo la promediacion ponderada de los valores de intensidad de los pfxeles y, a continuacion, se efectua el redondeo de los valores de intensidad promediados. Aun en estos casos, la utilizacion selectiva del redondeo positivo y el redondeo negativo es eficaz para prevenir la acumulacion de errores.
(viii) Aparte de IP+P-P+ P-..., existen diversos procedimientos para mezclar tramas P+ y P- (por ejemplo, IP+P+P-P-P+P+... o IP+P-P-P+P+...) que son aplicables al procedimiento de la presente invencion. Por ejemplo, mediante un generador de numeros aleatorios que genera 0 y 1 a una probabilidad respectiva del 50%, el codificador puede codificar una trama P+ y una trama P- cuando la salida es 0 y 1, respectivamente. En cualquier caso, cuanto menor sea la diferencia en la probabilidad de que aparezcan tramas P+ y tramas P- durante cierto perfodo de tiempo, menor sera la probabilidad de que se produzca una acumulacion de errores de redondeo. Ademas, cuando se permite que el codificador mezcle tramas P+ y tramas P- mediante un procedimiento arbitrario, el codificador y el decodificador deben funcionar basandose en el procedimiento explfcito en vez del procedimiento implfcito descrito anteriormente. En consecuencia, el procedimiento explfcito es superior en la medida en que permite flexibilidad en la configuracion del codificador y el decodificador.
(ix) La presente invencion descrita en esta memoria no limita el procedimiento de interpolacion de los valores de pixel a la interpolacion bilineal. Los procedimientos de interpolacion para valores de intensidad pueden describirse de forma general mediante la siguiente ecuacion:
[Ecuacion 5]
x x
R(x + r,y + s) = T(^ ^h(r - j,s - k)R(x + j,y + k)) •••(5)
en la que r y s son numeros reales, h(r, s) es una funcion para interpolar los numeros reales y T(z) es una funcion para redondear el numero real z. Las definiciones de R (x, y), x e y son las mismas que las de la Ecuacion 4. La compensacion de movimiento mediante redondeo positivo se lleva a cabo cuando T(z) es una funcion que representa redondeo positivo, y la compensacion de movimiento mediante redondeo negativo se lleva a cabo cuando T(z) es una funcion que representa redondeo negativo. La presente invencion es aplicable a los procedimientos de interpolacion que pueden describirse mediante la Ecuacion 5. Por ejemplo, la interpolacion bilineal puede describirse definiendo h(r, s) como se muestra a continuacion.
[Ecuacion 6]
0, en los demas casos.
No obstante, por ejemplo, si h(r, s) se define como: [Ecuacion 7]
imagen2
h(r,s) = l-|r[-|j|,
i-H,
0, en los demas casos
entonces, se ejecuta un procedimiento de interpolacion diferente a la interpolacion bilineal, pero la presente 5 invencion sigue siendo aplicable.
(x) La presente invencion descrita en esta memoria no se limita al procedimiento de codificacion para imagenes de error a la DCT (transformada discreta del coseno). Por ejemplo, tambien pueden aplicarse a la presente invencion la transformada de 'wavelets' (vease el documento «Image Coding Using Wavelet Transform de 10 M. Antonioni, et.al., IEEE Trans. Image Processing, vol. 1, n.° 2, abril de 1992) y la transformada de Walsh-
Hadamard (vease el documento «Digital Pictures» de A. N. Netravalli y B. G. Haskell, Plenum Press, 1998).
0 s |r[ + |s| sl,K< 0,
H * |4 H s 1, rs * 0, •• (7)
M > |r|, |ij sl,rs> 0,

Claims (1)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    REIVINDICACIONES
    1. Procedimiento de decodificacion de imageries de una secuencia de imageries, que comprende las etapas siguientes:
    almacenar una imagen previamente codificada como una imagen de referencia (210);
    extraer la informacion del vector de movimiento (202) de la informacion de entrada que debe ser decodificada; y
    realizar una compensacion de movimiento mediante la utilizacion de dicha informacion del vector de movimiento y dicha imagen de referencia para sintetizar una imagen de prediccion (212),
    caracterizado porque, cuando una imagen actualmente decodificada es una trama P, comprende
    extraer la informacion de procedimiento de redondeo que consiste en un bit de una seccion de encabezamiento de la imagen actualmente decodificada, especificando la informacion de procedimiento de redondeo, ya sea un redondeo positivo o un redondeo negativo; y
    realizar una interpolacion de valores de pixel para obtener dicha imagen de prediccion mediante la utilizacion de un procedimiento de redondeo especificado por la informacion de procedimiento de redondeo;
    en el que la interpolacion de valores de pixel que utiliza dicho redondeo positivo se calcula segun las ecuaciones:
    Ib = [(La+Lb+1)/2],
    Ic = [(La+Lc+1)/2], y
    Id = [(La+Lb+Lc+Ld+2)/4,] y
    la interpolacion de valores de pixel que utiliza dicho redondeo negativo se calcula segun las ecuaciones:
    Ib = [(La+Lb)/2],
    Ic = [(La+Lc)/2] y
    Id = [(La+Lb+Lc+Ld+1)/4],
    en las que La, Lb, Lc y Ld son, respectivamente, los valores de intensidad de un primer pixel, un segundo pixel que es horizontalmente adyacente a dicho primer pixel, un tercer pixel que es verticalmente adyacente a dicho primer pixel, y un cuarto pixel que es verticalmente adyacente a dicho segundo pixel y horizontalmente adyacente a dicho tercer pixel, e Ib, Ic e Id son, respectivamente, los valores de intensidad interpolados del punto medio entre dicho primer y segundo pixel, el punto medio entre dicho primer y tercer pixel y el punto medio entre dicho primer, segundo, tercer y cuarto pixel.
ES10012307.4T 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes Expired - Lifetime ES2561212T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15065697 1997-06-09
JP15065697 1997-06-09

Publications (1)

Publication Number Publication Date
ES2561212T3 true ES2561212T3 (es) 2016-02-25

Family

ID=15501626

Family Applications (10)

Application Number Title Priority Date Filing Date
ES10012310T Expired - Lifetime ES2431802T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes y decodificador de imágenes
ES98110471T Expired - Lifetime ES2205323T3 (es) 1997-06-09 1998-06-08 Procedimiento de docdificacion de secuencias de imagenes.
ES10012305T Expired - Lifetime ES2434736T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes y decodificador de imágenes
ES10012308.2T Expired - Lifetime ES2545109T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes
ES10012306T Expired - Lifetime ES2433641T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes y decodificador de imágenes
ES10012307.4T Expired - Lifetime ES2561212T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes
ES10012309.0T Expired - Lifetime ES2545089T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes
ES02007745.9T Expired - Lifetime ES2545066T3 (es) 1997-06-09 1998-06-08 Medio de grabación de información de imágenes
ES02007746T Expired - Lifetime ES2405318T3 (es) 1997-06-09 1998-06-08 Decodificador de imágenes
ES01129134T Expired - Lifetime ES2204797T3 (es) 1997-06-09 1998-06-08 Procedimiento de codificacion de secuencia de imagenes.

Family Applications Before (5)

Application Number Title Priority Date Filing Date
ES10012310T Expired - Lifetime ES2431802T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes y decodificador de imágenes
ES98110471T Expired - Lifetime ES2205323T3 (es) 1997-06-09 1998-06-08 Procedimiento de docdificacion de secuencias de imagenes.
ES10012305T Expired - Lifetime ES2434736T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes y decodificador de imágenes
ES10012308.2T Expired - Lifetime ES2545109T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes
ES10012306T Expired - Lifetime ES2433641T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes y decodificador de imágenes

Family Applications After (4)

Application Number Title Priority Date Filing Date
ES10012309.0T Expired - Lifetime ES2545089T3 (es) 1997-06-09 1998-06-08 Procedimiento de decodificación de imágenes
ES02007745.9T Expired - Lifetime ES2545066T3 (es) 1997-06-09 1998-06-08 Medio de grabación de información de imágenes
ES02007746T Expired - Lifetime ES2405318T3 (es) 1997-06-09 1998-06-08 Decodificador de imágenes
ES01129134T Expired - Lifetime ES2204797T3 (es) 1997-06-09 1998-06-08 Procedimiento de codificacion de secuencia de imagenes.

Country Status (10)

Country Link
US (92) US6295376B1 (es)
EP (11) EP0884912B1 (es)
JP (17) JP3092610B2 (es)
KR (4) KR100393123B1 (es)
CN (8) CN1156167C (es)
CA (1) CA2240118C (es)
DE (2) DE69808519T2 (es)
ES (10) ES2431802T3 (es)
HK (8) HK1017795A1 (es)
TW (2) TW465227B (es)

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998042134A1 (en) * 1997-03-17 1998-09-24 Mitsubishi Denki Kabushiki Kaisha Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system
US7801380B2 (en) * 1997-06-09 2010-09-21 Hitachi, Ltd. Recording medium having recorded thereon coded information using plus and/or minus rounding of images
ES2431802T3 (es) * 1997-06-09 2013-11-28 Hitachi, Ltd. Procedimiento de decodificación de imágenes y decodificador de imágenes
US6574371B2 (en) * 1997-06-09 2003-06-03 Hitachi, Ltd. Image decoding method
KR100282147B1 (ko) * 1998-11-13 2001-02-15 구자홍 압축 영상 복원 방법
WO2000046695A1 (en) * 1999-02-01 2000-08-10 Koninklijke Philips Electronics N.V. Descriptor for a video sequence and image retrieval system using said descriptor
JP2000270330A (ja) * 1999-03-18 2000-09-29 Fujitsu Ltd 映像配信システム及び映像配信方法
US6567557B1 (en) * 1999-12-10 2003-05-20 Stmicroelectronics, Inc. Method for preventing dual-step half-pixel motion compensation accumulation errors in prediction-rich MPEG-2 sequences
EP1090502B1 (en) * 1999-04-26 2005-11-30 Koninklijke Philips Electronics N.V. Sub-pixel accurate motion vector estimation and motion-compensated interpolation
US7170941B2 (en) * 1999-08-13 2007-01-30 Patapsco Designs Inc. Temporal compression
JP4129664B2 (ja) * 1999-10-05 2008-08-06 ソニー株式会社 データ処理装置およびデータ処理方法
US6683986B1 (en) * 1999-10-28 2004-01-27 Sharp Laboratories Of America, Inc. Efficient transmission of quarter-VGA images using DVC codecs
WO2001058169A1 (en) * 2000-02-04 2001-08-09 Koninklijke Philips Electronics N.V. Method of reducing blocking artifacts
US6512523B1 (en) * 2000-03-27 2003-01-28 Intel Corporation Accurate averaging of elements using integer averaging
CN1214644C (zh) * 2000-05-19 2005-08-10 皇家菲利浦电子有限公司 方法、系统和装置
US7168069B1 (en) 2000-07-12 2007-01-23 Stmicroelectronics, Inc. Dynamic generation of multimedia code for image processing
DE60144176D1 (de) * 2000-11-10 2011-04-21 Ricoh Co Ltd Bilddekompression von Transformkoeffizienten
KR100386639B1 (ko) * 2000-12-04 2003-06-02 주식회사 오픈비주얼 정규화된 역양자화기를 이용한 영상 및 동영상의 복원 방법
US7054500B1 (en) * 2000-12-06 2006-05-30 Realnetworks, Inc. Video compression and decompression system with postfilter to filter coding artifacts
US7170997B2 (en) 2000-12-07 2007-01-30 Cryptico A/S Method of generating pseudo-random numbers in an electronic device, and a method of encrypting and decrypting electronic data
US6898245B2 (en) * 2001-03-26 2005-05-24 Telefonaktiebolaget Lm Ericsson (Publ) Low complexity video decoding
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US7643559B2 (en) * 2001-09-14 2010-01-05 Ntt Docomo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
EP1432249A4 (en) * 2001-09-18 2007-12-05 Matsushita Electric Ind Co Ltd Image Coding Methods and Image Decoding Methods
JP3932379B2 (ja) * 2001-10-02 2007-06-20 株式会社日立製作所 画像処理装置と撮像素子
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
EP1827026A1 (en) * 2002-01-18 2007-08-29 Kabushiki Kaisha Toshiba Video decoding method and apparatus
JP3861698B2 (ja) 2002-01-23 2006-12-20 ソニー株式会社 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US7266254B2 (en) 2002-02-13 2007-09-04 Canon Kabushiki Kaisha Data processing apparatus, image processing apparatus, and method therefor
US8284844B2 (en) 2002-04-01 2012-10-09 Broadcom Corporation Video decoding system supporting multiple standards
US7116831B2 (en) * 2002-04-10 2006-10-03 Microsoft Corporation Chrominance motion vector rounding
US7110459B2 (en) * 2002-04-10 2006-09-19 Microsoft Corporation Approximate bicubic filter
US7305034B2 (en) 2002-04-10 2007-12-04 Microsoft Corporation Rounding control for multi-stage interpolation
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US20040086117A1 (en) * 2002-06-06 2004-05-06 Petersen Mette Vesterager Methods for improving unpredictability of output of pseudo-random number generators
US7224731B2 (en) 2002-06-28 2007-05-29 Microsoft Corporation Motion estimation/compensation for screen capture video
US7280700B2 (en) 2002-07-05 2007-10-09 Microsoft Corporation Optimization techniques for data compression
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
JP4078906B2 (ja) * 2002-07-19 2008-04-23 ソニー株式会社 画像信号の処理装置および処理方法、画像表示装置、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
KR100472476B1 (ko) * 2002-08-31 2005-03-10 삼성전자주식회사 움직임 보상을 위한 보간 방법 및 그 장치
BR0306987A (pt) 2002-11-20 2004-12-14 Matsushita Electric Ind Co Ltd Método de prognóstico de imagem em movimento, método e aparelho de codificação de imagem em movimento e método e aparelho de decodificação de imagem em movimento
US7403660B2 (en) * 2003-04-30 2008-07-22 Nokia Corporation Encoding picture arrangement parameter in picture bitstream
US20040252762A1 (en) * 2003-06-16 2004-12-16 Pai R. Lakshmikanth System, method, and apparatus for reducing memory and bandwidth requirements in decoder system
US7426308B2 (en) * 2003-07-18 2008-09-16 Microsoft Corporation Intraframe and interframe interlace coding and decoding
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
US10554985B2 (en) 2003-07-18 2020-02-04 Microsoft Technology Licensing, Llc DC coefficient signaling at small quantization step sizes
US7499495B2 (en) * 2003-07-18 2009-03-03 Microsoft Corporation Extended range motion vectors
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
US7317839B2 (en) * 2003-09-07 2008-01-08 Microsoft Corporation Chroma motion vector derivation for interlaced forward-predicted fields
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US20050105621A1 (en) 2003-11-04 2005-05-19 Ju Chi-Cheng Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof
NO319629B1 (no) * 2003-11-28 2005-09-05 Tandberg Telecom As Fremgangsmate for korrigering av interpolerte pikselverdier
KR100601935B1 (ko) * 2003-12-02 2006-07-14 삼성전자주식회사 디지탈 동영상 처리 방법 및 장치
FI20035235A0 (fi) * 2003-12-12 2003-12-12 Nokia Corp Järjestely tiedostojen käsittelemiseksi päätelaitteen yhteydessä
US7643182B2 (en) * 2003-12-16 2010-01-05 Seiko Epson Corporation System and method for processing image data
JP2005184632A (ja) * 2003-12-22 2005-07-07 Nec Access Technica Ltd 通信端末における消費電力削減方法及び通信端末
CN100542289C (zh) * 2004-07-13 2009-09-16 杜比实验室特许公司 视频压缩的无偏舍入
US7548259B2 (en) * 2004-08-12 2009-06-16 Microsoft Corporation System and method for producing a higher resolution still image from video information
WO2006028088A1 (ja) 2004-09-08 2006-03-16 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法および動画像復号化方法
US7941177B2 (en) 2004-09-15 2011-05-10 Samsung Electronics Co., Ltd Wireless terminal apparatus for automatically changing WLAN standard and method thereof
JP2006190259A (ja) * 2004-12-06 2006-07-20 Canon Inc 手ぶれ判定装置及び画像処理装置及びその制御方法及びプログラム
KR100634531B1 (ko) * 2004-12-29 2006-10-16 삼성전자주식회사 액정 표시장치의 동적 캐패시턴스 보상장치 및 방법
US7634148B2 (en) * 2005-01-07 2009-12-15 Ntt Docomo, Inc. Image signal transforming and inverse-transforming method and computer program product with pre-encoding filtering features
WO2006080261A2 (en) * 2005-01-27 2006-08-03 Matsushita Electric Industrial Co., Ltd. Portable image transmission/reception terminal having power consumption influences encoding/decoding modes
JP2006217406A (ja) * 2005-02-04 2006-08-17 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法
JP2008544598A (ja) * 2005-06-10 2008-12-04 エヌエックスピー ビー ヴィ 交互の上向き及び下向き動きベクトル
WO2007029878A1 (en) * 2005-09-09 2007-03-15 Yamaha Corporation Capacitor microphone
US8208553B2 (en) * 2006-05-04 2012-06-26 Altera Corporation Methods and apparatus for quarter-pel refinement in a SIMD array processor
US8194760B2 (en) * 2006-06-01 2012-06-05 Ntt Docomo, Inc. Method and apparatus for distributed space-time coding in wireless radio networks
KR100885693B1 (ko) * 2006-06-14 2009-02-26 한국전자통신연구원 독립성분분석 기반의 신호분리 알고리즘을 이용한 비디오인코딩 장치 및 그 방법과 이를 이용한 비디오 디코딩 장치및 그 방법
US20080039166A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for multi-character online gaming
US20080039169A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for character development in online gaming
US20080039165A1 (en) * 2006-08-03 2008-02-14 Seven Lights, Llc Systems and methods for a scouting report in online gaming
US8194744B2 (en) * 2006-09-20 2012-06-05 Lsi Corporation Method and/or apparatus for implementing reduced bandwidth high performance VC1 intensity compensation
US20100134631A1 (en) * 2006-10-30 2010-06-03 Wesleyan University Apparatus and method for real time image compression for particle tracking
US8861356B2 (en) * 2007-03-13 2014-10-14 Ntt Docomo, Inc. Method and apparatus for prioritized information delivery with network coding over time-varying network topologies
US8275041B2 (en) * 2007-04-09 2012-09-25 Nokia Corporation High accuracy motion vectors for video coding with low encoder and decoder complexity
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
JP2009077382A (ja) * 2007-08-27 2009-04-09 Sony Corp 画像処理装置および方法、並びにプログラム
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US20090075686A1 (en) * 2007-09-19 2009-03-19 Gomadam Krishna S Method and apparatus for wideband transmission based on multi-user mimo and two-way training
US8325840B2 (en) * 2008-02-25 2012-12-04 Ntt Docomo, Inc. Tree position adaptive soft output M-algorithm receiver structures
US8279954B2 (en) * 2008-03-06 2012-10-02 Ntt Docomo, Inc. Adaptive forward-backward soft output M-algorithm receiver structures
US20090262249A1 (en) * 2008-04-22 2009-10-22 Himax Media Solutions, Inc. Interpolated frame generating method
CN101345872B (zh) * 2008-05-23 2010-06-09 清华大学 视频编解码中实现双线性插值的方法
US8565329B2 (en) * 2008-06-03 2013-10-22 Ntt Docomo, Inc. Soft output M-algorithm receiver structures with generalized survivor selection criteria for MIMO systems
AU2009264603A1 (en) * 2008-06-30 2010-01-07 Kabushiki Kaisha Toshiba Dynamic image prediction/encoding device and dynamic image prediction/decoding device
WO2010010942A1 (ja) * 2008-07-25 2010-01-28 ソニー株式会社 画像処理装置および方法
JP4444354B2 (ja) * 2008-08-04 2010-03-31 株式会社東芝 画像処理装置、および画像処理方法
US8229443B2 (en) * 2008-08-13 2012-07-24 Ntt Docomo, Inc. Method of combined user and coordination pattern scheduling over varying antenna and base-station coordination patterns in a multi-cell environment
US8451951B2 (en) * 2008-08-15 2013-05-28 Ntt Docomo, Inc. Channel classification and rate adaptation for SU-MIMO systems
US8705484B2 (en) * 2008-08-15 2014-04-22 Ntt Docomo, Inc. Method for varying transmit power patterns in a multi-cell environment
US8542640B2 (en) * 2008-08-28 2013-09-24 Ntt Docomo, Inc. Inter-cell approach to operating wireless beam-forming and user selection/scheduling in multi-cell environments based on limited signaling between patterns of subsets of cells
US8855221B2 (en) * 2008-09-15 2014-10-07 Ntt Docomo, Inc. Method and apparatus for iterative receiver structures for OFDM/MIMO systems with bit interleaved coded modulation
JP5143038B2 (ja) * 2009-02-02 2013-02-13 オリンパス株式会社 画像処理装置及び画像処理方法
US8189666B2 (en) 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
JP2010258739A (ja) * 2009-04-24 2010-11-11 Sony Corp 画像処理装置および方法、並びにプログラム
US9048977B2 (en) * 2009-05-05 2015-06-02 Ntt Docomo, Inc. Receiver terminal driven joint encoder and decoder mode adaptation for SU-MIMO systems
US8824825B2 (en) * 2009-11-17 2014-09-02 Sharp Kabushiki Kaisha Decoding device with nonlinear process section, control method for the decoding device, transmission system, and computer-readable recording medium having a control program recorded thereon
WO2011061957A1 (ja) 2009-11-17 2011-05-26 シャープ株式会社 符号化装置、復号化装置、符号化装置の制御方法、復号化装置の制御方法、伝送システム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US20110200108A1 (en) * 2010-02-18 2011-08-18 Qualcomm Incorporated Chrominance high precision motion filtering for motion interpolation
KR101420957B1 (ko) * 2010-03-31 2014-07-30 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법
JP5390458B2 (ja) * 2010-04-08 2014-01-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム
EP3540059A1 (en) 2010-04-16 2019-09-18 Nuevolution A/S Bi-functional complexes and methods for making and using such complexes
CN101917624B (zh) * 2010-07-26 2013-04-03 清华大学 一种高分辨率视频图像重建方法
US8968080B1 (en) * 2010-11-05 2015-03-03 Wms Gaming, Inc. Display of third party content on a wagering game machine
JP5768491B2 (ja) * 2011-05-17 2015-08-26 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
KR101572737B1 (ko) 2011-05-27 2015-11-27 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 메타데이터를 사용한 무결절성 애플리케이션 백업 및 리커버리
US8805099B2 (en) 2011-06-22 2014-08-12 Panasonic Intellectual Property Corporation Of America Image decoding method and image coding method
JP5871628B2 (ja) * 2011-11-07 2016-03-01 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2013102297A (ja) 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
US10410020B2 (en) * 2011-12-23 2019-09-10 Knauf Gips Kg Method and system for checking the presence and/or readability of an item of product information
EP3406433A1 (en) 2012-01-23 2018-11-28 Apio, Inc. Atmosphere control around respiring biological materials
WO2013186802A1 (ja) * 2012-06-11 2013-12-19 日本放送協会 符号化装置、復号装置及びプログラム
JP6182719B2 (ja) * 2012-06-29 2017-08-23 ヴェロス メディア インターナショナル リミテッドVelos Media International Limited 符号化装置および符号化方法
WO2014049667A1 (ja) * 2012-09-28 2014-04-03 株式会社島津製作所 デジタル画像処理方法および撮影装置
CN104104960B (zh) 2013-04-03 2017-06-27 华为技术有限公司 多级双向运动估计方法及设备
US10303658B2 (en) * 2013-11-25 2019-05-28 Dropbox, Inc. Generating and sharing metadata for indexing synchronized content items
JP6551850B2 (ja) * 2013-12-19 2019-07-31 ビザ インターナショナル サービス アソシエーション クラウド・ベース・トランザクションの方法及びシステム
US9304657B2 (en) * 2013-12-31 2016-04-05 Abbyy Development Llc Audio tagging
US9942560B2 (en) 2014-01-08 2018-04-10 Microsoft Technology Licensing, Llc Encoding screen capture data
US9774881B2 (en) 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
US20150200156A1 (en) * 2014-01-13 2015-07-16 Altera Corporation Module having mirror-symmetric terminals and methods of forming the same
US9147262B1 (en) 2014-08-25 2015-09-29 Xerox Corporation Methods and systems for image processing
US10387596B2 (en) * 2014-08-26 2019-08-20 International Business Machines Corporation Multi-dimension variable predictive modeling for yield analysis acceleration
CN107113431B (zh) * 2014-10-03 2020-12-01 日本电气株式会社 视频编码设备、视频解码设备、视频编码方法、视频解码方法和程序
CN105611182B (zh) * 2014-11-25 2020-05-22 中兴通讯股份有限公司 亮度补偿方法及装置
KR102349788B1 (ko) * 2015-01-13 2022-01-11 인텔렉추얼디스커버리 주식회사 영상의 부호화/복호화 방법 및 장치
WO2016147836A1 (ja) * 2015-03-13 2016-09-22 ソニー株式会社 画像処理装置および方法
JP6636615B2 (ja) * 2015-08-24 2020-01-29 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置
US10509601B2 (en) * 2016-12-28 2019-12-17 Amazon Technologies, Inc. Data storage system with multi-tier control plane
RU2759052C2 (ru) * 2016-12-28 2021-11-09 Сони Корпорейшн Устройство и способ обработки изображений
US10570759B2 (en) * 2017-07-10 2020-02-25 GM Global Technology Operations LLC Variable-geometry turbine housing intake channel for an exhaust driven turbocharger
WO2020191034A1 (en) * 2019-03-18 2020-09-24 Tencent America LLC Method and apparatus for video coding
CN112583878B (zh) * 2019-09-30 2023-03-14 阿波罗智能技术(北京)有限公司 车辆信息校验方法、装置、设备和介质
CN112203094B (zh) * 2020-11-16 2024-05-14 北京世纪好未来教育科技有限公司 编码方法、装置、电子设备及存储介质
CN116760988B (zh) * 2023-08-18 2023-11-10 瀚博半导体(上海)有限公司 基于人类视觉系统的视频编码方法和装置

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1341375A (en) 1969-11-19 1973-12-19 Smith Kline French Lab Aminoalkylimidazoles and process for their production
JPS6214754A (ja) 1985-07-13 1987-01-23 Junichi Sugawara 米飯類の保存処理法とその製品
JPS62147654A (ja) 1985-12-23 1987-07-01 Showa Denko Kk リチウム−アルミニウム合金電極の製造方法
FR2620502B1 (fr) 1987-09-10 1989-12-08 Valeo Dispositif amortisseur de torsion
US5054103A (en) * 1987-09-24 1991-10-01 Matsushita Electric Works, Ltd. Picture encoding system
US5379351A (en) * 1992-02-19 1995-01-03 Integrated Information Technology, Inc. Video compression/decompression processing and processors
JP2749700B2 (ja) 1990-04-18 1998-05-13 三菱電機株式会社 リニアイメージセンサ
JP2827461B2 (ja) 1990-06-18 1998-11-25 株式会社デンソー 電子冷凍装置
JPH06214754A (ja) 1993-01-14 1994-08-05 Toshiba Corp 四捨五入演算回路及びこれを有する画像処理装置
US5737022A (en) * 1993-02-26 1998-04-07 Kabushiki Kaisha Toshiba Motion picture error concealment using simplified motion compensation
TW224553B (en) * 1993-03-01 1994-06-01 Sony Co Ltd Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture
US5486876A (en) 1993-04-27 1996-01-23 Array Microsystems, Inc. Video interface unit for mapping physical image data to logical tiles
EP0671816B1 (en) * 1993-09-28 2000-03-29 Sony Corporation Encoding/decoding device with all odd or all even value rounding
JPH07153195A (ja) * 1993-11-30 1995-06-16 Sony Corp ディジタル記録装置
GB9402807D0 (en) 1994-02-14 1994-04-06 Xenova Ltd Pharmaceutical compounds
US5685963A (en) * 1994-10-31 1997-11-11 Saes Pure Gas, Inc. In situ getter pump system and method
US5638128A (en) 1994-11-08 1997-06-10 General Instrument Corporation Of Delaware Pixel interpolation filters for video decompression processor
JP3191583B2 (ja) * 1994-12-12 2001-07-23 ソニー株式会社 情報復号化装置
US5949484A (en) * 1995-03-08 1999-09-07 Hitachi, Ltd. Portable terminal apparatus for multimedia communication
US5650823A (en) 1995-03-27 1997-07-22 International Business Machines Corporation Half pel motion estimation method for B pictures
GB2301972B (en) * 1995-06-06 1999-10-20 Sony Uk Ltd Video compression
JP3081507B2 (ja) 1995-06-15 2000-08-28 三菱電機ビルテクノサービス株式会社 かご内養生シート収納装置
US5740283A (en) * 1995-07-06 1998-04-14 Rubin, Bednarek & Associates, Inc. Digital video compression utilizing mixed vector and scalar outputs
JP3700230B2 (ja) 1996-01-12 2005-09-28 株式会社日立製作所 動画像符号化における動き補償方法
JP3183155B2 (ja) 1996-03-18 2001-07-03 株式会社日立製作所 画像復号化装置、及び、画像復号化方法
JPH1098729A (ja) 1996-09-20 1998-04-14 Hitachi Ltd フレーム間予測画像の合成方法
US6205178B1 (en) * 1996-09-20 2001-03-20 Hitachi, Ltd. Method and synthesizing a predicted image, video coding device and video coding method
US5740263A (en) * 1996-10-23 1998-04-14 Liao; Lu-Lee Multi-media microphone seat
US6058410A (en) 1996-12-02 2000-05-02 Intel Corporation Method and apparatus for selecting a rounding mode for a numeric operation
US5905542A (en) * 1996-12-04 1999-05-18 C-Cube Microsystems, Inc. Simplified dual prime video motion estimation
US6056410A (en) * 1997-04-02 2000-05-02 Donnelly Corporation Digital electrochromic mirror system
US5837022A (en) * 1997-05-19 1998-11-17 Chapman; Rick L. High efficiency air filter system
ES2431802T3 (es) * 1997-06-09 2013-11-28 Hitachi, Ltd. Procedimiento de decodificación de imágenes y decodificador de imágenes
JP3410037B2 (ja) * 1997-06-09 2003-05-26 株式会社日立製作所 復号化方法、復号化装置、および、コンピュータ読み取り可能な記録媒体
JP3407726B2 (ja) * 1997-06-09 2003-05-19 株式会社日立製作所 符号化方法、符号化装置、および、コンピュータ読み取り可能な記録媒体
JP3407727B2 (ja) * 1997-06-09 2003-05-19 株式会社日立製作所 記録媒体
JP2998741B2 (ja) * 1997-06-09 2000-01-11 株式会社日立製作所 動画像の符号化方法、該方法が記録されたコンピュータ読みとり可能な記録媒体、及び動画像の符号化装置
US6574371B2 (en) * 1997-06-09 2003-06-03 Hitachi, Ltd. Image decoding method
JPH1169345A (ja) 1997-06-11 1999-03-09 Fujitsu Ltd フレーム間予測動画像符号化装置及び復号装置並びにフレーム間予測動画像符号化方法及び復号方法
DE19730305A1 (de) * 1997-07-15 1999-01-21 Bosch Gmbh Robert Verfahren zur Erzeugung eines verbesserten Bildsignals bei der Bewegungsschätzung von Bildsequenzen, insbesondere eines Prädiktionssignals für Bewegtbilder mit bewegungskompensierender Prädiktion
KR100831400B1 (ko) 2000-01-18 2008-05-21 니리어스 파마슈티컬즈, 인크. 세포분열 저해제 및 그의 제조방법
US7027654B1 (en) * 2001-08-16 2006-04-11 On2 Technologies Video compression system
US7190724B2 (en) * 2002-04-12 2007-03-13 Seiko Epson Corporation Method and apparatus for transform domain video processing
US8644391B2 (en) * 2011-05-12 2014-02-04 National Cheng Kung University Space exploration method of reconfigurable motion compensation architecture

Also Published As

Publication number Publication date
US20090225851A1 (en) 2009-09-10
US7471837B2 (en) 2008-12-30
US7801367B2 (en) 2010-09-21
US7421133B2 (en) 2008-09-02
JP2008160877A (ja) 2008-07-10
CA2240118A1 (en) 1998-12-09
US20150245054A1 (en) 2015-08-27
US7471836B2 (en) 2008-12-30
US20130188711A1 (en) 2013-07-25
US20040052420A1 (en) 2004-03-18
CN1207633A (zh) 1999-02-10
JP2011120311A (ja) 2011-06-16
US7801370B2 (en) 2010-09-21
US6631214B1 (en) 2003-10-07
CN1156167C (zh) 2004-06-30
KR19990006744A (ko) 1999-01-25
JP4918946B2 (ja) 2012-04-18
US20140219359A1 (en) 2014-08-07
US20110007810A1 (en) 2011-01-13
US20040126025A1 (en) 2004-07-01
US20130195195A1 (en) 2013-08-01
US8615139B2 (en) 2013-12-24
US20110286677A1 (en) 2011-11-24
US20100135407A1 (en) 2010-06-03
EP1193977A1 (en) 2002-04-03
US20070286511A1 (en) 2007-12-13
HK1068484A1 (en) 2005-04-29
EP2288166B1 (en) 2015-08-05
US20150245036A1 (en) 2015-08-27
HK1096804A1 (en) 2007-06-08
US8942498B2 (en) 2015-01-27
US20130195196A1 (en) 2013-08-01
ES2431802T3 (es) 2013-11-28
EP0884912B1 (en) 2003-08-27
DE69817460T2 (de) 2004-06-09
CN1658676A (zh) 2005-08-24
US20100135586A1 (en) 2010-06-03
EP2288166A1 (en) 2011-02-23
US7200274B2 (en) 2007-04-03
US20050002577A1 (en) 2005-01-06
US7248742B2 (en) 2007-07-24
HK1034841A1 (en) 2001-11-02
US20100135409A1 (en) 2010-06-03
US8611683B2 (en) 2013-12-17
US9161051B2 (en) 2015-10-13
US7929780B2 (en) 2011-04-19
US8625915B2 (en) 2014-01-07
US20130195369A1 (en) 2013-08-01
US7929782B2 (en) 2011-04-19
US8948527B2 (en) 2015-02-03
US9167262B2 (en) 2015-10-20
EP1237376A3 (en) 2005-04-27
US20100128793A1 (en) 2010-05-27
US8649619B2 (en) 2014-02-11
HK1076962A1 (en) 2006-01-27
US7929787B2 (en) 2011-04-19
US20010028745A1 (en) 2001-10-11
US20100135413A1 (en) 2010-06-03
EP2288165B1 (en) 2015-12-16
US7801371B2 (en) 2010-09-21
US20130195194A1 (en) 2013-08-01
US6909809B2 (en) 2005-06-21
JP2013051712A (ja) 2013-03-14
US20140219353A1 (en) 2014-08-07
US20110013698A1 (en) 2011-01-20
US7236635B2 (en) 2007-06-26
EP2288164A1 (en) 2011-02-23
US20110007811A1 (en) 2011-01-13
US20050002576A1 (en) 2005-01-06
JP5376083B2 (ja) 2013-12-25
CN1845609A (zh) 2006-10-11
US20090238281A1 (en) 2009-09-24
US7801369B2 (en) 2010-09-21
JP5418710B2 (ja) 2014-02-19
US20110007815A1 (en) 2011-01-13
US20090225848A1 (en) 2009-09-10
JP5257544B2 (ja) 2013-08-07
US20130195193A1 (en) 2013-08-01
US20100135401A1 (en) 2010-06-03
US20080013842A1 (en) 2008-01-17
US20150245037A1 (en) 2015-08-27
US9161045B2 (en) 2015-10-13
US7724967B2 (en) 2010-05-25
US20010053186A1 (en) 2001-12-20
US8942504B2 (en) 2015-01-27
US7251369B2 (en) 2007-07-31
US7801366B2 (en) 2010-09-21
ES2405318T3 (es) 2013-05-30
CN1237809C (zh) 2006-01-18
DE69817460D1 (de) 2003-10-02
HK1017795A1 (en) 1999-11-26
JP2012178865A (ja) 2012-09-13
US6915013B2 (en) 2005-07-05
US8649618B2 (en) 2014-02-11
US7801379B2 (en) 2010-09-21
US9161054B2 (en) 2015-10-13
US7724969B2 (en) 2010-05-25
US20050008237A1 (en) 2005-01-13
US6643409B1 (en) 2003-11-04
US20090238480A1 (en) 2009-09-24
US9161053B2 (en) 2015-10-13
JPH11317952A (ja) 1999-11-16
US6876769B2 (en) 2005-04-05
US8942500B2 (en) 2015-01-27
US6529632B1 (en) 2003-03-04
US7801378B2 (en) 2010-09-21
US20070286504A1 (en) 2007-12-13
US20120201302A1 (en) 2012-08-09
US20110007809A1 (en) 2011-01-13
US7929786B2 (en) 2011-04-19
US8611685B2 (en) 2013-12-17
US20140219341A1 (en) 2014-08-07
US20140219351A1 (en) 2014-08-07
US6650781B2 (en) 2003-11-18
EP1193977B1 (en) 2003-08-27
US7801373B2 (en) 2010-09-21
US20100135406A1 (en) 2010-06-03
US20090225849A1 (en) 2009-09-10
JP5257545B2 (ja) 2013-08-07
JP2015111892A (ja) 2015-06-18
US7676100B2 (en) 2010-03-09
CA2240118C (en) 2005-11-22
EP1056294B1 (en) 2002-10-02
JP2015228670A (ja) 2015-12-17
CN1674678A (zh) 2005-09-28
US7933457B2 (en) 2011-04-26
ES2204797T3 (es) 2004-05-01
US8160373B2 (en) 2012-04-17
KR100400538B1 (ko) 2003-10-08
US8942497B2 (en) 2015-01-27
CN1284375C (zh) 2006-11-08
CN1549459A (zh) 2004-11-24
TW411698B (en) 2000-11-11
JP2013158049A (ja) 2013-08-15
EP2285119B1 (en) 2015-08-05
US20090225852A1 (en) 2009-09-10
US7466864B2 (en) 2008-12-16
US7936935B2 (en) 2011-05-03
US20150245051A1 (en) 2015-08-27
ES2545089T3 (es) 2015-09-08
EP2271117A1 (en) 2011-01-05
US20100135408A1 (en) 2010-06-03
HK1068466A1 (en) 2005-04-29
JP2013158048A (ja) 2013-08-15
US7801377B2 (en) 2010-09-21
US7936934B2 (en) 2011-05-03
DE69808519D1 (de) 2002-11-07
US7929789B2 (en) 2011-04-19
JP2013051710A (ja) 2013-03-14
US7801381B2 (en) 2010-09-21
ES2545109T3 (es) 2015-09-08
EP1056294A1 (en) 2000-11-29
US6295376B1 (en) 2001-09-25
US20150245055A1 (en) 2015-08-27
US20110007808A1 (en) 2011-01-13
US20010028682A1 (en) 2001-10-11
EP2271116A1 (en) 2011-01-05
US7801375B2 (en) 2010-09-21
US7801372B2 (en) 2010-09-21
US20100135402A1 (en) 2010-06-03
US7424161B2 (en) 2008-09-09
US7724966B2 (en) 2010-05-25
US7929788B2 (en) 2011-04-19
US20110007814A1 (en) 2011-01-13
US9161055B2 (en) 2015-10-13
HK1081029A1 (en) 2006-05-04
US7668384B2 (en) 2010-02-23
EP2271116B1 (en) 2013-09-11
EP1237377B1 (en) 2013-02-27
ES2434736T3 (es) 2013-12-17
US20110007812A1 (en) 2011-01-13
US6868185B2 (en) 2005-03-15
US20040125875A1 (en) 2004-07-01
US6584227B2 (en) 2003-06-24
US7184601B2 (en) 2007-02-27
DE69808519T2 (de) 2003-06-26
US20110007817A1 (en) 2011-01-13
EP1237376B1 (en) 2015-08-05
CN1283044A (zh) 2001-02-07
US20110007816A1 (en) 2011-01-13
CN100417032C (zh) 2008-09-03
US9161052B2 (en) 2015-10-13
US20050036700A1 (en) 2005-02-17
JP5545403B2 (ja) 2014-07-09
US20130202043A1 (en) 2013-08-08
US20140219360A1 (en) 2014-08-07
US20040126023A1 (en) 2004-07-01
US7929779B2 (en) 2011-04-19
JP2013051711A (ja) 2013-03-14
EP0884912A2 (en) 1998-12-16
US9161044B2 (en) 2015-10-13
US20140219352A1 (en) 2014-08-07
US20100135404A1 (en) 2010-06-03
EP2288165A1 (en) 2011-02-23
US20150229940A1 (en) 2015-08-13
US7426307B2 (en) 2008-09-16
US20090225850A1 (en) 2009-09-10
US20100172418A1 (en) 2010-07-08
ES2545066T3 (es) 2015-09-08
US8942492B2 (en) 2015-01-27
CN100539694C (zh) 2009-09-09
US20010031090A1 (en) 2001-10-18
JP5672400B2 (ja) 2015-02-18
US20140119452A1 (en) 2014-05-01
US6606419B2 (en) 2003-08-12
JP5257543B2 (ja) 2013-08-07
US20100135403A1 (en) 2010-06-03
US7233704B2 (en) 2007-06-19
ES2205323T3 (es) 2004-05-01
JP5713137B2 (ja) 2015-05-07
US20110007807A1 (en) 2011-01-13
US8942499B2 (en) 2015-01-27
US7702166B2 (en) 2010-04-20
HK1069699A1 (en) 2005-05-27
EP1237377A2 (en) 2002-09-04
US7929785B2 (en) 2011-04-19
US20130202042A1 (en) 2013-08-08
CN1549601A (zh) 2004-11-24
EP2285119A1 (en) 2011-02-16
JP5392434B2 (ja) 2014-01-22
US20080013841A1 (en) 2008-01-17
JP2014123989A (ja) 2014-07-03
US7702167B2 (en) 2010-04-20
CN1549602A (zh) 2004-11-24
US20110007805A1 (en) 2011-01-13
US8611682B2 (en) 2013-12-17
EP1237377A3 (en) 2005-05-04
US8611684B2 (en) 2013-12-17
KR100393125B1 (ko) 2003-07-31
US20110007813A1 (en) 2011-01-13
CN100355291C (zh) 2007-12-12
CN1274157C (zh) 2006-09-06
KR100400537B1 (ko) 2003-10-08
EP0884912A3 (en) 2000-11-22
US7801376B2 (en) 2010-09-21
EP2288164B1 (en) 2013-09-11
US9167265B2 (en) 2015-10-20
US20050013499A1 (en) 2005-01-20
EP2271117B1 (en) 2013-09-11
JP2013038822A (ja) 2013-02-21
JP4849076B2 (ja) 2011-12-28
JP2013251917A (ja) 2013-12-12
US20100135405A1 (en) 2010-06-03
US8675977B2 (en) 2014-03-18
JP2014241631A (ja) 2014-12-25
US20140219340A1 (en) 2014-08-07
US7801368B2 (en) 2010-09-21
US8942501B2 (en) 2015-01-27
JP2014039300A (ja) 2014-02-27
US20080037887A1 (en) 2008-02-14
US20130195197A1 (en) 2013-08-01
US7072518B2 (en) 2006-07-04
KR100393123B1 (ko) 2003-09-19
US8406544B2 (en) 2013-03-26
US6567558B2 (en) 2003-05-20
JP2012065348A (ja) 2012-03-29
US7801374B2 (en) 2010-09-21
US7929783B2 (en) 2011-04-19
US20090232219A1 (en) 2009-09-17
US20070286503A1 (en) 2007-12-13
US7929781B2 (en) 2011-04-19
US20050002581A1 (en) 2005-01-06
US6560367B1 (en) 2003-05-06
US20100135411A1 (en) 2010-06-03
US20100128794A1 (en) 2010-05-27
ES2433641T3 (es) 2013-12-12
JP5880743B2 (ja) 2016-03-09
US20150043644A1 (en) 2015-02-12
US7724968B2 (en) 2010-05-25
US20140219358A1 (en) 2014-08-07
CN100415000C (zh) 2008-08-27
US20110007804A1 (en) 2011-01-13
US20040126024A1 (en) 2004-07-01
US20150245053A1 (en) 2015-08-27
JP3092610B2 (ja) 2000-09-25
TW465227B (en) 2001-11-21
EP1237376A2 (en) 2002-09-04
US20150245052A1 (en) 2015-08-27
US7929784B2 (en) 2011-04-19
US8891890B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
ES2561212T3 (es) Procedimiento de decodificación de imágenes
US20010050957A1 (en) Image decoding method