ES2204797T3 - Procedimiento de codificacion de secuencia de imagenes. - Google Patents
Procedimiento de codificacion de secuencia de imagenes.Info
- Publication number
- ES2204797T3 ES2204797T3 ES01129134T ES01129134T ES2204797T3 ES 2204797 T3 ES2204797 T3 ES 2204797T3 ES 01129134 T ES01129134 T ES 01129134T ES 01129134 T ES01129134 T ES 01129134T ES 2204797 T3 ES2204797 T3 ES 2204797T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- rounding
- pixel
- frame
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/114—Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/127—Prioritisation of hardware or computational resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/16—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/177—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/19—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
- H04N19/45—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/547—Motion estimation performed in a transform domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/625—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/94—Vector quantisation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Discrete Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Studio Devices (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Procedimiento para codificar imágenes, que comprende: una etapa de almacenamiento de una imagen decodificada de una trama I o una trama P anterior como una imagen de referencia (112, 115); una etapa de compensación de movimiento utilizando una imagen de entrada (101, 601) a ser codificada como una trama P y utilizando dicha imagen de referencia (115), estimando los vectores de movimiento y sintetizando una imagen de predicción (117) de dicha imagen de entrada (101, 601), caracterizado porque la interpolación de valores de píxel para obtener dicha imagen de predicción (117) se lleva a cabo utilizando un procedimiento de redondeo positivo o de redondeo negativo, en el que dicho redondeo positivo redondea el resultado de la división normal al entero más cercano y redondea los valores de los semienteros en la dirección que se aleja de cero, y dicho redondeo negativo redondea el resultado de la división normal al entero más cercano y redondea los valores de los semienteros en la dirección que seacerca a cero, y por una etapa para multiplexar, en un tren de bits (123, 607) que comprende la imagen codificada, la información que identifica si el procedimiento de redondeo utilizado para la interpolación de valores de píxel en dicha compensación de movimiento es el redondeo positivo o el redondeo negativo.
Description
Procedimiento de codificación de secuencia de
imágenes.
La presente invención se refiere a un
procedimiento de codificación de imágenes que lleva a cabo
predicción de intertrama
En la codificación de secuencias de imágenes de
alta eficacia, la técnica de predicción de intertrama (compensación
de movimiento), mediante la similitud de las tramas adyacentes a lo
largo del tiempo, resulta de gran eficacia para la compresión de
datos. El procedimiento de compensación de movimiento utilizado con
más frecuencia actualmente es el de la correspondencia de bloques
con una precisión de medio píxel, que se utiliza en los estándares
internacionales H.263, MPEG1 y MPEG2. En este procedimiento, la
imagen que se va a codificar se segmenta en bloques y los
componentes horizontal y vertical de los vectores de movimiento de
estos bloques se estiman como integrales múltiples de la mitad de
la distancia entre píxeles adyacentes. Este procedimiento se
describe mediante la siguiente ecuación:
Ecuación
1
en la que P(x, y) y R(x, y) denotan
los valores de muestra (intensidad de luminancia o crominancia) de
los píxeles situados en las coordenadas (x, y) de la imagen de
predicción P de la trama actual y la imagen de referencia (imagen
decodificada de una trama que se ha codificado antes que la trama
actual) R, respectivamente. x e y son enteros y se presupone que
todos los píxeles están situados en puntos donde los valores de
coordenadas son enteros. Además, se presupone que los valores de
muestra de los píxeles se cuantifican como enteros no negativos. N,
Bi y (ui, vi) denotan el número de bloques de la imagen, el grupo
de píxeles incluidos en el i-ésimo bloque de la imagen y los
vectores de movimiento del i-ésimo bloque,
respectivamente.
Cuando los valores de ui y vi no son enteros, es
necesario hallar el valor de intensidad en el punto concreto en el
que no existen píxeles en la imagen de referencia. Actualmente, la
interpolación bilineal mediante los cuatro píxeles adyacentes es el
procedimiento utilizado con más frecuencia para este proceso. Este
procedimiento de interpolación se describe mediante la siguiente
ecuación:
Ecuación
2
en la que d es un entero positivo y p y q son
inferiores a d pero no inferiores a 0. "//" denota una
división entera que redondea el resultado de la división normal
(división con números reales) al entero más
cercano.
En la Fig. 1, se muestra un ejemplo de la
estructura de un codificador de vídeo H.263. Como algoritmo de
codificación, el H.263 adopta un procedimiento de codificación
híbrido (procedimiento de codificación adaptativo de
intertrama/intratrama) que es una combinación de la correspondencia
de bloques y la DCT (transformada discreta de coseno). Un restador
102 calcula la diferencia entre la imagen de entrada (imagen base de
trama actual) 101 y la imagen de salida 113 (descrita más adelante)
del selector de codificación de intertrama/intratrama 119 y, a
continuación, proporciona una imagen de error 103. Esta imagen de
error se cuantifica en un cuantificador 105 tras haber sido
convertida en coeficientes DCT en un convertidor DCT 104,
generándose coeficientes DCT cuantificados 106. Estos coeficientes
DCT cuantificados se transmiten a través del canal de comunicación
y, al mismo tiempo, se utilizan para sintetizar la imagen prevista
de intertrama en el codificador. El procedimiento para sintetizar
la imagen prevista se explicará a continuación. Los coeficientes
DCT cuantificados 106 mencionados forman la imagen de error
reconstruida 110 (igual que la imagen de error reconstruida de la
sección de recepción) tras pasar por un decuantificador 108 y un
convertidor DCT inverso 109. Esta imagen de error reconstruida y la
imagen de salida 113 del selector de codificación de
intertrama/intratrama 119 se suman en el sumador 111 y se obtiene
la imagen decodificada 112 de la trama actual (la misma imagen que
la imagen decodificada de la trama actual reconstruida en la sección
del receptor). Esta imagen se almacena en una memoria de trama 114
y se retarda un tiempo igual al intervalo de la trama. En
consecuencia, en el momento actual, la memoria de trama 114 genera
la imagen decodificada 115 de la trama anterior. Esta imagen
decodificada de la trama anterior y la imagen original 101 de la
trama actual se introducen en la sección de correspondencia de
bloques 116, donde se lleva a cabo la correspondencia de bloques
entre estas imágenes. En el procedimiento de correspondencia de
bloques, la imagen original de la trama actual se segmenta en
diversos bloques, y la imagen prevista 117 de la trama actual se
sintetiza extrayendo la sección que más se parece a estos bloques de
la imagen decodificada de la trama anterior. En este procedimiento,
es necesario estimar el movimiento entre la trama anterior y la
trama actual para cada bloque. El vector de movimiento de cada
bloque estimado en el procedimiento de estimación del movimiento se
transmite a la sección del receptor como datos de vector de
movimiento 120. En la sección del receptor, se sintetiza la misma
imagen de predicción que en la sección del transmisor mediante la
información del vector de movimiento y la imagen de decodificación
de la trama anterior. La imagen de predicción 117 se introduce
junto con una señal "0" 118 en el selector de codificación de
intertrama/intratrama 119. Este conmutador 119 selecciona
codificación de intertrama o codificación de intratrama
seleccionando una de las dos entradas. Se efectúa codificación de
intertrama cuando se selecciona la imagen de predicción 117 (es el
caso mostrado en la Fig. 2). En cambio, se efectúa codificación de
intratrama cuando se selecciona la señal "0", puesto que la
propia imagen de entrada se convierte en coeficientes DCT que se
proporcionan al canal de comunicación. Para la correcta
reconstrucción de la imagen codificada en la sección del receptor,
es necesario indicar al receptor si se ha efectuado codificación de
intratrama o codificación de intertrama en la sección del
transmisor. En consecuencia, se proporciona un indicador de
identificación 121 al circuito de comunicación. Por último, se
obtiene un tren de bits con codificación H.263 multiplexando los
coeficientes DCT cuantificados, los vectores de movimiento y la
información del indicador de identificación de
intertrama/intratrama en un multiplexor 122.
En la Fig. 2, se muestra la estructura de un
decodificador 200 para recibir el tren de bits codificado desde el
codificador de la Fig. 1. El tren de bits con codificación H.263
217 recibido se demultiplexa en coeficientes DCT cuantificados 201,
datos de vector de movimiento 202 y un indicador de identificación
de intertrama/intratrama 203 en el demultiplexor 216. Los
coeficientes DCT cuantificados 201 se convierten en una imagen de
error decodificada 206 tras ser procesados mediante un cuantificador
inverso 204 y un convertidor DCT inverso 205. Esta imagen de error
decodificada se suma a la imagen de salida 215 del selector de
codificación de intertrama/intratrama 214 en un sumador 207 y la
suma de estas imágenes se proporciona como imagen decodificada 208.
La salida del selector de codificación de intertrama/intratrama se
conmuta según el indicador de identificación de
intertrama/intratrama 203. La imagen de predicción 212 utilizada en
la codificación de intertrama se sintetiza en el sintetizador de
imágenes de predicción 211. En este sintetizador, la posición de
los bloques en la imagen decodificada 210 de la trama anterior
almacenada en la memoria de trama 209 se desplaza según los datos
del vector de movimiento 202. Por otra parte, en la codificación de
intratrama, el selector de codificación de intertrama/intratrama
proporciona la señal "0" 213 tal cual.
La imagen con codificación H.263 consiste en un
plano de luminancia (plano Y) que contiene información de
luminancia, y dos planos de crominancia (plano U y plano V) que
contienen información de crominancia. Como es característico, en el
momento en que la imagen tiene 2m píxeles en la dirección
horizontal y 2n píxeles en la dirección vertical (siendo m y n
enteros positivos), el plano Y tiene 2m píxeles en la dirección
horizontal y 2n píxeles en la dirección vertical y los planos U y V
tienen m píxeles en la dirección horizontal y n píxeles en la
dirección vertical. La baja resolución del plano de crominancia se
debe al hecho de que el sistema visual humano tiene una agudeza
visual comparativa reducida respecto de las variaciones espaciales
de la crominancia. El H.263, que recibe como entrada dicha imagen,
lleva a cabo la codificación y la decodificación en unidades de
bloques que se denominan macrobloques. La estructura de un
macrobloque se muestra en la Fig. 3. El macrobloque consiste en
tres bloques: un bloque Y, un bloque U y un bloque V. El tamaño del
bloque Y 301 que contiene la información de luminancia es de 16 x 16
píxeles, y el tamaño del bloque U 302 y el bloque V 303 que
contienen la información de crominancia es de 8 x 8 píxeles.
En el H. 263, se aplica a cada bloque una
correspondencia de bloques con una precisión de medio píxel. En
consecuencia, cuando el vector de movimiento estimado se define
como (u, v), u y v son integrales múltiples de la mitad de la
distancia entre los píxeles. Dicho de otro modo, 1/2 se utiliza
como unidad mínima. La configuración del procedimiento de
interpolación utilizado para los valores de intensidad (de ahora en
adelante, los valores de intensidad para "luminancia" y
"crominancia" se denominan con el término general de "valor
de intensidad") se muestra en la Fig. 4. Cuando se efectúa la
interpolación descrita en la Ecuación 2, los cocientes de la
división se redondean al entero más cercano y, además, cuando el
cociente tiene un valor que es un semientero (es decir, 0,5 sumado a
un entero), el redondeo es al siguiente entero en la dirección que
se aleja de cero. Es decir, en la Fig. 4, cuando los valores de
intensidad para 401, 402, 403 y 404 son respectivamente La, Lb, Lc
y Ld (La, Lb, Lc y Ld son enteros no negativos), los valores de
intensidad interpolados Ia, Ib, Ic e Id (Ia, Ib, Ic e Id son
enteros no negativos) de las posiciones 405, 406, 407 y 408 se
expresan mediante la siguiente ecuación:
\newpage
Ecuación
3
en la que "[ ]" denota el truncamiento al
entero que por defecto es más cercano a cero (es decir la parte
fraccionaria se descarta). Las previsiones de los errores
ocasionados por este redondeo a enteros se estiman de la forma
descrita a continuación. Se presupone que la probabilidad de que se
utilice el valor de intensidad de las posiciones 405, 406, 407 y
408 de la Fig. 4 es en todos los casos del 25%. Cuando se halla el
valor de intensidad Ia para la posición 405, el error de redondeo
será evidentemente cero. Asimismo, cuando se halla el valor de
intensidad Ib para la posición 406, el error es cero cuando La+Lb es
un número par, y 1/2 cuando es un número impar. Si la probabilidad
de que La+Lb sea un número par y un número impar es en ambos casos
del 50%, la previsión de error será 0 x 1/2 + 1/2 x 1/2 = 1/4.
Además, cuando se halla el valor de intensidad Ic para la posición
407, la previsión de error es 1/4, igual que para Ib. Cuando se
halla el valor de intensidad Id para la posición 408, el error,
cuando el residuo de La+Lb+Lc+Ld dividido por cuatro es 0, 1, 2 y 3,
es 0, -1/4, 1/2 y 1/4, respectivamente. Si se presupone que la
probabilidad de que el residuo sea 0, 1, 2 y 3 es en todos casos la
misma (es decir, el 25%), la previsión de error es 0 x 1/4 - 1/4 x
1/4 + 1/2 x 1/4 + 1/4 x 1/4 = 1/8. Como se ha indicado
anteriormente, si se presupone que la probabilidad de que se
utilice el valor de intensidad de las posiciones 405 a 408 es igual
en todos los casos, la previsión final de error es 0 x 1/4 + 1/4 x
1/4 + 1/4 x 1/4 + 1/8 x 1/4 = 5/32. Esto indica que cada vez que se
efectúa la compensación de movimiento mediante la correspondencia
de bloques, se produce un error de 5/32 en el valor de intensidad
de píxel. En general, en la codificación de baja velocidad, no puede
utilizarse un número de bits suficiente para la codificación de la
diferencia de error de intertrama y, por consiguiente, el tamaño de
la etapa de cuantificación del coeficiente DCT tiende a ser mayor.
En consecuencia, los errores causados por la compensación de
movimiento sólo se corrigen si son muy graves. Cuando la
codificación de intertrama se lleva a cabo de forma continuada, sin
que se lleve a cabo la codificación de intratrama en dicho entorno,
los errores tienden a acumularse y a ocasionar defectos en la
imagen
reconstruida.
Tal como se ha descrito anteriormente, el número
de píxeles es de alrededor de la mitad tanto en la dirección
vertical como en la horizontal del plano de crominancia. Por
consiguiente, para los vectores de movimiento del bloque U y el
bloque V, se utiliza la mitad del valor del vector de movimiento
del bloque Y para los componentes vertical y horizontal. Puesto que
los componentes horizontal y vertical del vector de movimiento del
bloque Y son integrales múltiples de 1/2, los componentes del vector
de movimiento de los bloques U y V aparecerán como integrales
múltiples de 1/4 (precisión de un cuarto de píxel) si se efectúa
una división corriente. No obstante, debido a la gran complejidad de
los cálculos del procedimiento de interpolación de la intensidad
para los vectores de movimiento con una precisión de un cuarto de
píxel, los vectores de movimiento para los bloques U y V se
redondean con una precisión de medio píxel en el H.263. El
procedimiento de redondeo utilizado en el H.263 es el descrito a
continuación. Según la definición proporcionada anteriormente, (u,
v) denota el vector de movimiento del macrobloque (que es igual al
vector de movimiento del bloque Y). Si se presupone que r es un
entero y que s es un entero no negativo inferior a 4, u/2 puede
reescribirse como u/2 = r + s/4. Cuando s es 0 ó 2, no se requiere
ningún redondeo, puesto que u/2 a es una integral múltiple de 1/2.
No obstante, cuando s es igual a 1 ó 3, el valor de s se redondea a
2. Si se incrementa la probabilidad de que s tome el valor de 2
mediante este procedimiento de redondeo, puede resaltarse el efecto
del filtrado de la compensación de movimiento. Cuando la
probabilidad de que el valor de s antes del redondeo sea 0, 1, 2 y
3 es en todos casos del 25 por ciento, la probabilidad de que s sea
0 ó 2 después del redondeo será, respectivamente, del 25 por ciento
y del 75% por ciento. El procedimiento descrito anteriormente
relacionado con el componente horizontal u del vector de movimiento
también se aplica al componente vertical v. En consecuencia, en el
bloque U y el bloque V, la probabilidad de que se utilice el valor
de intensidad de la posición 401 es 1/4 x 1/4 = 1/16, y la
probabilidad de que se utilice el valor de intensidad de las
posiciones 402 y 403 es en ambos casos 1/4 x 3/4 = 3/16, mientras
que la probabilidad de que se utilice el valor de intensidad de la
posición 404 es 3/4 x 3/4 = 9/16. Si se utiliza el mismo
procedimiento que antes, la previsión de error del valor de
intensidad es 0 x 1/16 + 1/4 x 3/16 +1/4 x 3/16 +1/4 x 3/16 + 1/8 x
9/16 = 21/128. Tal como se ha descrito anteriormente para el bloque
Y, cuando la codificación de intertrama se efectúa de forma
continuada, se produce el problema de la acumulación de errores.
Como se ha indicado anteriormente, en los
procedimientos de codificación y decodificación de secuencias de
imágenes en los que se lleva a cabo la predicción de intertrama y
la cuantificación de la intensidad o de la crominancia, surge el
problema de la acumulación de errores de redondeo. Este error de
redondeo se genera cuando el valor de intensidad de luminancia o
crominancia se cuantifica durante la generación de la imagen de
predicción de intertrama.
El documento EP 0 712 249 A da a conocer un
procedimiento y un aparato para la interpolación de valores de
píxel, según la primera parte de la reivindicación 1. Dicho
sistema conocido utiliza el redondeo fijo convencional.
En el documento EP 0 735 769 A se da a conocer un
ejemplo de un procedimiento de estimación de movimiento
bidireccional que también utiliza el redondeo fijo. En el artículo
"A motion compensation technique for
down-scaled pictures in layered coding" de
Iwahashi et al., IEICE transactions on communications, Vol.
77-B, nº 8, páginas 1007-1012,
agosto 1994, se propone un procedimiento para disminuir la
dispersión de la imagen reconstruida que se base en la
interpolación Lagrange.
A la vista de los problemas anteriores, un
objetivo de la presente invención es, por lo tanto, mejorar la
calidad de la imagen reconstruida impidiendo la acumulación de
errores.
Este objetivo se alcanza por medio del
procedimiento según la reivindicación 1. Las reivindicaciones
subordinadas se refieren a formas de realización preferidas del
mismo.
La Figura 1 es un diagrama de bloques que muestra
la disposición del codificador de imágenes H.263.
La Figura 2 es un diagrama de bloques que muestra
la disposición del decodificador de imágenes H.263.
La Figura 3 es un diagrama de bloques que muestra
la estructura del macrobloque.
La Figura 4 es un dibujo que muestra el
procedimiento de interpolación de los valores de intensidad para la
correspondencia de bloques con una precisión de medio píxel.
La Figura 5 es un dibujo que muestra una
secuencia de imágenes codificadas,
La Figura 6 es un diagrama de bloques que muestra
un dispositivo de codificación de imágenes de software.
La Figura 7 es un diagrama de bloques que muestra
un dispositivo de decodificación de imágenes de software.
La Figura 8 es un diagrama de flujo que muestra
un ejemplo de procesamiento en el dispositivo de codificación de
imágenes de software.
La Figura 9 es un diagrama de flujo que muestra
un ejemplo de procesamiento de decisión de modalidad de codificación
para el dispositivo de codificación de imágenes de software.
La Figura 10 es un diagrama de flujo que muestra
un ejemplo de procesamiento de estimación de movimiento y de
compensación de movimiento en el dispositivo de codificación de
imágenes de software.
La Figura 11 es un diagrama de flujo que muestra
el procesamiento en el dispositivo de decodificación de imágenes de
software.
La Figura 12 es un diagrama de flujo que muestra
un ejemplo de procesamiento de compensación de movimiento en el
dispositivo de decodificación de imágenes de software.
La Figura 13 es un dibujo que muestra un ejemplo
de medios de memoria en los que se registra un tren de bits
codificado generado por un procedimiento de codificación que
proporciona trenes de bits que incluyen tramas I, P+ y P-.
La Figura 14 es un grupo de dibujos que muestran
ejemplos concretos de dispositivos que utilizan un procedimiento de
codificación en el que las tramas P+ y P- coexisten.
La Figura 15 es un dibujo que muestra un ejemplo
de medios de memoria en los que se registra un tren de bits
codificado generado por un procedimiento de codificación que
proporciona trenes de bits que incluyen tramas I, B, P+ y P-.
La Figura 16 es un diagrama de bloques que
muestra un ejemplo de una unidad de correspondencia de bloques
incluida en un dispositivo que utiliza un procedimiento de
codificación en el que las tramas P+ y P- coexisten.
La Figura 17 es un diagrama de bloques que
muestra el sintetizador de imágenes de predicción, incluido en un
dispositivo para decodificar trenes de bits codificados por un
procedimiento de codificación en el que las tramas P+ y P-
coexisten.
En primer lugar, se considerará en qué
circunstancias se produce la acumulación de errores de redondeo en
relación con la "técnica anterior". En la Fig. 5, se muestra
un ejemplo de una secuencia de imágenes codificada mediante
procedimientos de codificación que pueden llevar a cabo tanto la
predicción unidireccional como la predicción bidireccional (por
ejemplo, MPEG. 1, MPEG.2 y H.263). La imagen 501 es una trama
codificada mediante codificación de intratrama y se denomina trama
I. En cambio, las imágenes 503, 505, 507 y 509 se denominan tramas
P y se codifican mediante codificación de intertrama unidireccional
utilizando la trama I o P anterior como imagen de referencia. En
consecuencia, por ejemplo, cuando se codifica la imagen 505, la
imagen 503 se utiliza como imagen de referencia y se lleva a cabo
la predicción de intertrama. Las imágenes 502, 504, 506 y 508 se
denominan tramas B y la predicción de intertrama bidireccional se
lleva a cabo utilizando la trama I o P anterior y posterior. La
trama B se caracteriza porque no se utiliza como imagen de
referencia cuando se lleva a cabo la predicción de intertrama.
Puesto que en las tramas I no se lleva a cabo la compensación de
movimiento, no se produce el error de redondeo ocasionado por la
compensación de movimiento. En cambio, en las tramas P se efectúa
compensación de movimiento y, además, las tramas P son utilizadas
como imagen de referencia por otras tramas P o B, lo que puede ser
origen de una acumulación de errores de redondeo. En las tramas B,
por otro lado, se efectúa compensación de movimiento y, por
consiguiente, el efecto de la acumulación de errores de redondeo
aparece en la imagen reconstruida. Sin embargo, debido al hecho de
que las tramas B no son utilizadas como imágenes de referencia, las
tramas B no pueden ser el origen de una acumulación de errores de
redondeo. Por lo tanto, si se puede prevenir la acumulación de
errores de redondeo en la trama P, se podrán mitigar los efectos
perjudiciales de los errores de redondeo en la totalidad de la
secuencia de imágenes. En el H.263, existe una trama para codificar
una trama P y una trama B denominada trama PB. (Por ejemplo, las
tramas 503 y 504 pueden codificarse ambas como una trama PB.) Si
las dos tramas combinadas se tratan como tramas separadas, entonces
puede aplicarse el mismo principio que antes. Dicho de otro modo, si
se toman medidas contra los errores de redondeo para la parte de la
trama P de una trama PB, podrá prevenirse la acumulación de
errores.
Los errores de redondeo se producen durante la
interpolación de los valores de intensidad cuando un valor obtenido
mediante una división normal (división cuyo resultado es un número
real) es un semientero (0,5 sumado a un entero) y este resultado se
redondea luego al siguiente entero en la dirección que se aleja de
cero. Por ejemplo, cuando se divide por 4 para hallar un valor de
intensidad interpolado, los errores de redondeo para los casos en
que el residuo es 1 y 3 tienen valores absolutos iguales pero signos
diferentes. En consecuencia, los errores de redondeo ocasionados en
estos dos casos se anulan cuando se calcula la previsión de errores
de redondeo (en términos más generales, cuando se divide por un
entero positivo d', los errores de redondeo ocasionados cuando el
residuo es t y d' - t se anulan). No obstante, cuando el residuo es
2, es decir, cuando el resultado de la división normal es un
semientero, el error de redondeo no puede anularse, lo que lleva a
la acumulación de errores. Para resolver este problema, puede
utilizarse un procedimiento que permite la utilización de dos
procedimientos de redondeo. Los dos procedimientos de redondeo
utilizados aquí son: un procedimiento de redondeo que redondea los
semienteros a los que por exceso están más alejados de cero y un
procedimiento de redondeo que redondea los semienteros a los que
por defecto son más cercanos a cero. Combinando la utilización de
estos dos procedimientos de redondeo, podrán anularse los errores
de redondeo. De ahora en adelante, el procedimiento de redondeo que
redondea el resultado de la división normal al entero más cercano y
que redondea los valores de los semienteros a los que por exceso
están más alejados de cero se denominará "redondeo positivo".
Además, el procedimiento de redondeo que redondea el resultado de la
división normal al entero más cercano y redondea los valores de los
semienteros a los que por defecto son más cercanos a cero se
denominará "redondeo negativo". El procedimiento de redondeo
positivo utilizado en la correspondencia de bloques con una
precisión de medio píxel se muestra en la Ecuación 3. En cambio,
cuando se utiliza redondeo negativo, esta ecuación puede
reescribirse de la forma mostrada a continuación.
Ecuación
4
De ahora en adelante, los procedimientos de
compensación de movimiento que llevan a cabo el redondeo positivo y
negativo para la síntesis de imágenes de predicción de intertrama
se denominarán "compensación de movimiento mediante redondeo
positivo" y "compensación de movimiento mediante redondeo
negativo", respectivamente. Además, para las tramas P que
utilizan correspondencia de bloques con una precisión de medio
píxel para la compensación de movimiento, las tramas que utilizan
redondeo positivo se denominarán "trama P+" y las tramas que
utilizan redondeo negativo se denominarán "trama P-" (según
esta definición, todas las tramas P del H.263 son tramas P+). La
previsión de errores de redondeo en las tramas P+ y P- tiene los
mismos valores absolutos pero signos diferentes. En consecuencia,
la acumulación de errores de redondeo puede impedirse si se colocan
tramas P+ y tramas P- de forma alternada a lo largo del eje del
tiempo. En el ejemplo de la Fig. 5, si las tramas 503 y 507 se
establecen como tramas P+ y las tramas 505 y 509 se establecen como
tramas P-, entonces podrá ejecutarse este procedimiento. La
distribución alternada de tramas P+ y tramas P- lleva a la
utilización de una trama P+ y una trama P- en la predicción
bidireccional para las tramas B. En general, el promedio de la
imagen de predicción hacia delante (es decir, la imagen de
predicción sintetizada mediante la trama 503 cuando se está
codificando la trama 504 de la Fig. 5) y la imagen de predicción
hacia atrás (es decir, la imagen de predicción sintetizada mediante
la trama 505 cuando se está codificando la trama 504 de la Fig. 5)
se utiliza frecuentemente para sintetizar la imagen de predicción
para las tramas B. Esto significa que la utilización de una trama P+
(que tiene un valor positivo para la previsión del error de
redondeo) y una trama P- (que tiene un valor negativo para la
previsión del error de redondeo) en la predicción bidireccional de
una trama B anula con eficacia los efectos de los errores de
redondeo. Como se ha indicado anteriormente, el procedimiento de
redondeo en la trama B no ocasionará acumulación de errores. En
consecuencia, tampoco la aplicación del mismo procedimiento de
redondeo a todas las tramas B planteará ningún problema. Por
ejemplo, aunque la compensación de movimiento mediante redondeo
positivo se aplique a todas las tramas B 502, 504, 506 y 508 de la
Fig. 5, no se provocará ninguna degradación importante de las
imágenes decodificadas. Preferentemente, sólo se lleva a cabo un
tipo de redondeo para una trama B, para simplificar el
procedimiento de decodificación de la trama B.
En la Fig. 16, se muestra la sección de
correspondencia de bloques 1600 de un codificador de imágenes según
el procedimiento de compensación de movimiento descrito
anteriormente que utiliza diversos procedimientos de redondeo. En
esta Figura, se utilizan números idénticos a los de otros dibujos
para indicar partes iguales. Si se sustituye la sección de
correspondencia de bloques 116 de la Fig. 1 por 1600, podrán
utilizarse diversos procedimientos de redondeo. El procesamiento de
estimación del movimiento entre la imagen de entrada 101 y la
imagen decodificada de la trama anterior se lleva a cabo en un
estimador de movimiento 1601 y el resultado del mismo es la
información de movimiento 120. Esta información de movimiento se
utiliza en la síntesis de la imagen de predicción llevada a cabo en
un sintetizador de imágenes de predicción 1603. El dispositivo de
determinación de procedimiento de redondeo 1602 determina si debe
emplearse un redondeo positivo o un redondeo negativo como
procedimiento de redondeo para la trama que se está codificando
actualmente. La información 1604 relativa al procedimiento de
redondeo que se determina se introduce en el sintetizador de
imágenes de predicción 1603. En este sintetizador de imágenes de
predicción 1603, se sintetiza una imagen de predicción 117 y se
proporciona basándose en el procedimiento de redondeo determinado
mediante la información 1604. En la sección de correspondencia de
bloques 116 de la Fig. 1, no existe ningún elemento equivalente a
los elementos 1602 y 1604 de la Fig. 16, y la imagen de predicción
se sintetiza sólo mediante redondeo positivo. Asimismo, puede
proporcionarse el procedimiento de redondeo 1605 determinado en la
sección de correspondencia de bloques y esta información puede
luego multiplexarse en el tren de bits y transmitirse.
En la Fig. 17, se muestra el sintetizador de
imágenes de predicción 1700 de un decodificador de imágenes que
puede decodificar trenes de bits generados mediante un
procedimiento de codificación en el que se utilizan diversos
procedimientos de redondeo. En esta Figura, se utilizan números
idénticos a los de otros dibujos para indicar partes iguales. Si se
sustituye el sintetizador de imágenes de predicción 211 de la Fig. 2
por 1700, podrán utilizarse diversos procedimientos de redondeo. En
el dispositivo de determinación de procedimiento de redondeo 1701,
se determina el procedimiento de redondeo adecuado para la síntesis
de imágenes de predicción en el procedimiento de decodificación.
Para llevar a cabo la decodificación correctamente, el procedimiento
de redondeo seleccionado aquí debe ser el mismo procedimiento de
redondeo que se seleccionó para la codificación. Por ejemplo, el
codificador y el decodificador pueden compartir la siguiente regla:
cuando la trama actual es una trama P y el número de tramas P
(incluida la trama actual) contadas desde la trama I más reciente
es impar, entonces la trama actual es una trama P+. Cuando este
número es par, entonces la trama actual es una trama P-. Si el
dispositivo de determinación de procedimiento de redondeo de la
sección de codificación (por ejemplo, 1602 en la Fig. 16) y el
dispositivo de determinación de procedimiento de redondeo 1701
cumplen esta regla común, entonces las imágenes podrán ser
correctamente decodificadas. La imagen de predicción se sintetiza
en el sintetizador de imágenes de predicción 1703 mediante la
información de movimiento 202, la imagen de decodificación 210 de la
trama anterior y la información 1702 relativa al procedimiento de
redondeo determinado de la forma que se acaba de describir. Una vez
que se ha generado esta imagen de predicción 212, ésta se utiliza
para la síntesis de la imagen decodificada. Como alternativa al caso
mencionado, puede considerarse también el caso en que la
información relativa al procedimiento de redondeo se multiplexa en
el tren de datos transmitido (dicho tren de bits puede generarse en
el codificador proporcionando la información 1605 relativa al
procedimiento de redondeo desde la sección de correspondencia de
bloques ilustrada en la Fig. 16). En dicho caso, el dispositivo de
determinación de procedimiento de redondeo 1701 no se utiliza y la
información 1704 relacionada con el procedimiento de redondeo
extraída del tren de bits codificado se utiliza en el sintetizador
de imágenes de predicción 1703.
Aparte del codificador de imágenes que utiliza
los circuitos habituales y los chips habituales de la técnica
convencional mostrados en la Fig. 1 de la invención, también puede
aplicarse a codificadores de imágenes de software que utilizan
procesadores de uso general. En la Fig. 6 y la Fig. 7, se muestran
un codificador de imágenes de software 600 y un decodificador de
imágenes de software 700. En el codificador de imágenes de software
600, la imagen de entrada 601 se almacena en primer lugar en la
memoria de trama de entrada 602 y, desde ésta, el procesador de uso
general 603 obtiene la información y lleva a cabo la codificación.
El programa para dirigir este procesador de uso general se copia
desde un dispositivo de memoria 608 que puede ser un disco duro, un
disquete, etc. y se almacena en una memoria de programas 604. Este
procesador de uso general también utiliza una memoria de
procesamiento 605 para llevar a cabo la codificación. La información
de codificación proporcionada por el procesador de uso general se
almacena temporalmente en la memoria tampón de salida 606 y luego
se proporciona como un tren de bits codificado 607.
En la Fig. 8, se muestra un diagrama de flujo del
software de codificación (medios de registro legibles por
ordenador). El procedimiento empieza en 801, y el valor 0 se asigna
a la variable N en 802. A continuación, en 803 y 804, se asigna el
valor 0 a N cuando el valor de N es 100. N es un contador del
número de tramas. Se suma el valor 1 a cada trama cuyo
procesamiento ha finalizado, estando permitidos los valores entre 0
y 99 durante la codificación. Cuando el valor de N es 0, la trama
actual es una trama I. Cuando N es un número impar, la trama actual
es una trama P+ y cuando N es un número par distinto a 0, la trama
actual es una trama P-. Cuando el límite superior del valor de N es
99, significa que se codifica una trama I una vez que se han
codificado 99 tramas P (tramas P+ o tramas P-). Introduciendo
siempre una trama I en un cierto número de tramas codificadas,
pueden obtenerse los siguientes beneficios: (a) la acumulación de
errores debida a un desajuste entre el procesamiento del
codificador y el decodificador puede prevenirse (por ejemplo, un
desajuste en el cálculo de la DCT) y (b) la carga de procesamiento
para obtener la imagen reproducida de la trama deseada a partir de
los datos codificados (acceso aleatorio) se reduce. El valor N
óptimo varía cuando cambia el rendimiento del codificador o el
entorno en el que éste se utiliza. Esto no significa, por
consiguiente, que el valor de N debe ser siempre 100. El
procedimiento para determinar el procedimiento de redondeo y la
modalidad de codificación para cada trama se efectúa en 805. El
diagrama de flujo que ilustra en detalle esta operación se muestra
en la Fig. 9. En primer lugar, se comprueba en 901 si N es 0 o no.
Si N es 0, entonces se proporciona "I" como información de
distinción de la modalidad de predicción a la memoria tampón de
salida en 902. Esto significa que la imagen que se va a codificar
se codificará como una trama I. Aquí, "proporcionar a la memoria
tampón de salida" significa que, tras haber estado almacenada en
la memoria tampón de salida, la información se proporciona a un
dispositivo externo como parte del tren de bits codificado. Cuando
N no es 0, entonces se comprueba en 904 si N es un número impar o
par. Cuando N es un número impar, se proporciona "+" a la
memoria tampón de salida como información de distinción para el
procedimiento de redondeo en 905 y la imagen se codificará como una
trama P+. Por otro lado, cuando N es un número par, se transmite
"-" a la memoria tampón de salida como información de
distinción para el procedimiento de redondeo en 906, y la imagen
que se va a codificar se codificará como una trama P-. El
procedimiento vuelve otra vez a la Fig. 8, donde tras determinarse
la modalidad de codificación en 805, la imagen de entrada se
almacena en la memoria de trama A en 806. En el presente documento,
"memoria de trama A" indica una parte de la zona de memoria
(por ejemplo, la zona de memoria mantenida en la memoria de 605 en
la Fig. 6) del codificador de software. En 807, se comprueba si la
trama que se está codificando actualmente es una trama I. Cuando se
comprueba que no es una trama I, se lleva a cabo la estimación de
movimiento y la compensación de movimiento en 808. El diagrama de
flujo de la Fig. 10 muestra detalles de este procedimiento llevado
a cabo en 808. En primer lugar, en 1001, se lleva a cabo la
estimación del movimiento entre las imágenes almacenadas en las
memorias de trama A y B (tal como se indica al final de este
párrafo, la imagen decodificada de la trama anterior se almacena en
la memoria de trama B). Se halla el vector de movimiento de cada
bloque y éste se envía a la memoria tampón de salida. A
continuación, en 1002, se comprueba si la trama actual es o no una
trama P+. Cuando la trama actual es una trama P+, la imagen de
predicción se sintetiza en 1003 utilizando redondeo positivo y esta
imagen de predicción se almacena en la memoria de trama C. Por otra
parte, cuando la trama actual es una trama P-, la imagen de
predicción se sintetiza en 1004 utilizando redondeo negativo y esta
imagen de predicción se almacena en la memoria de trama C.
Seguidamente, en 1005, se halla la imagen diferencial entre la
memoria de trama A y la memoria de trama C y se almacena en la
memoria de trama A. Entonces, el procedimiento vuelve otra vez a la
Fig. 8. Antes de iniciarse el procesamiento en 809, la imagen de
entrada se almacena en la memoria de trama A cuando la trama actual
es una trama I, y la imagen diferencial entre la imagen de entrada y
la imagen de predicción se almacena en la memoria de trama A cuando
la trama actual es una trama P (trama P+ o trama P-). En 809, se
aplica una DCT a la imagen almacenada en la memoria de trama A, y
los coeficientes DCT calculados se envían a la memoria tampón de
salida una vez cuantificados. En 810, se efectúa la cuantificación
inversa de los coeficientes DCT cuantificados y se aplica una DCT
inversa. La imagen obtenida aplicando una DCT inversa se almacena
en la memoria de trama B. A continuación, en 811, se comprueba de
nuevo si la trama actual es una trama I. Cuando la trama actual no
es una trama I, las imágenes almacenadas en la memoria de trama B y
C se suman y el resultado se almacena en la memoria de trama B. El
procedimiento de codificación de una trama finaliza aquí, y la
imagen almacenada en la memoria de trama B antes de llegar a 813 es
la imagen reconstruida de esta trama (esta imagen es idéntica a la
obtenida en la sección de decodificación). En 813, se comprueba si
la trama cuya codificación acaba de terminar es la última trama de
la secuencia. En caso afirmativo, el procedimiento de codificación
finaliza. Si esta trama no es la última trama, se suma 1 a N en
814, el procedimiento vuelve otra vez a 803 y comienza la
codificación de la siguiente trama.
En la Fig. 7, se muestra un decodificador de
software 700. Una vez que el tren de bits codificado 701 ha sido
almacenado temporalmente en la memoria tampón de entrada 702, este
tren de bits se carga en el procesador de uso general 703. El
programa para dirigir este procesador de uso general se copia desde
un dispositivo de memoria 708 que puede ser un disco duro, un
disquete, etc. y se almacena en la memoria de programa 704. Este
procesador de uso general utiliza también una memoria de
procesamiento 605 para efectuar la decodificación. La imagen
decodificada obtenida mediante el procedimiento de decodificación
se almacena temporalmente en la memoria de trama de salida 706 y
luego se envía como imagen de salida 707.
En la Fig. 11, se muestra un diagrama de flujo
del software de decodificación para el decodificador de software
700 mostrado en la Fig. 7. El procedimiento empieza en 1101 y, en
1102, se comprueba si se dispone de información de entrada. Cuando
no hay información de entrada, el procedimiento de decodificación
finaliza en 1103. Cuando hay información de entrada, la información
de distinción de la modalidad de predicción se introduce en 1104.
La palabra "entrada" utilizada aquí significa que la
información almacenada en la memoria tampón de entrada (por
ejemplo, 702 de la Fig. 7) es proporcionada por el procesador de
uso general. En 1105, se comprueba si la información de distinción
de modalidad de codificación es "I". Cuando no es "I", se
introduce la información de distinción para el procedimiento de
redondeo y se lleva a cabo la síntesis de la imagen de predicción de
intertrama en 1107. En la Fig. 12, se muestra un diagrama de flujo
que muestra los detalles de la operación efectuada en 1107. En
1201, se introduce un vector de movimiento para cada bloque. A
continuación, en 1202, se comprueba si la información de distinción
para el procedimiento de redondeo cargado en 1106 es "+".
Cuando esta información es "+", la trama que se está
decodificando actualmente es una trama P+. En este caso, la imagen
de predicción se sintetiza utilizando redondeo positivo en 1203, y
la imagen de predicción se almacena en la memoria de trama D. Aquí,
"memoria de trama D" indica una parte de la zona de memoria
del decodificador de software (por ejemplo, esta zona de memoria se
obtiene en la memoria de procesamiento 705 en la Fig. 7). Cuando la
información de distinción del procedimiento de redondeo no es
"+", la trama actual que se está decodificando es una trama P-.
La imagen de predicción se sintetiza mediante redondeo negativo en
1204 y esta imagen de predicción se almacena en la memoria de trama
D. En este momento, si una trama P+ se decodifica como una trama P-
debido a algún tipo de error o, a la inversa, si una trama P- se
decodifica como una trama P+, no se sintetiza la imagen de
predicción correcta en el decodificador y la calidad de la imagen
decodificada se deteriora. Tras la sintetización de la imagen de
predicción, la operación vuelve a la Fig. 11 y los coeficientes DCT
cuantificados se introducen en 1108. A continuación, se aplica
cuantificación inversa y DCT inversa a estos coeficientes y la
imagen resultante se almacena en la memoria de trama E. En 1109, se
comprueba otra vez si la trama que se decodifica actualmente es una
trama I. Si la trama actual no es una trama I, las imágenes
almacenadas en la memoria de trama D y E se suman en 1110 y la
imagen resultante de la suma se almacena en la memoria de trama E.
La imagen almacenada en la memoria de trama E antes del inicio del
procedimiento en 1111 es la imagen reconstruida. Esta imagen
almacenada en la memoria de trama E se proporciona a la memoria de
trama de salida (por ejemplo, 706 en la Fig. 7) en 1111 y, a
continuación, se obtiene desde el decodificador como la imagen
reconstruida. El procedimiento de decodificación de una trama
finaliza aquí y el procedimiento de la siguiente trama empieza otra
vez desde 1102.
Cuando se ejecuta software basado en el diagrama
de flujo mostrado en las Figs. 8 a 12 en los codificadores o
decodificadores de imágenes de software, se obtiene el mismo efecto
que cuando se utilizan circuitos habituales y chips habituales.
En la Fig. 13, se muestran unos medios de memoria
(medios de registro) en los que se registra el tren de bits
generado por el codificador de software 601 de la Fig. 6. Se
presupone que los algoritmos mostrados en los diagramas de flujo de
las Figs. 8 a 10 se utilizan en el codificador de software. La
información digital se registra concéntricamente en un disco de
registro 1301 capaz de registrar información digital (por ejemplo,
un disco magnético, un disco óptico, etc.). Una parte 1302 de la
información registrada en este disco digital incluye: información
de distinción de modalidad de predicción 1303, 1305, 1308, 1311 y
1314; información de distinción de procedimiento de redondeo 1306,
1309, 1312 y 1315 e información de vector de movimiento y de
coeficientes DCT 1304, 1307, 1310, 1313 y 1316. La información que
representa "I" se registra en 1303, "P" se registra en
1305, 1308, 1311 y 1314, "+" se registra en 1306 y 1312 y
"-" se registra en 1309 y 1315. En este caso "I" y
"+" pueden representarse mediante un solo bit de 0, y "P"
y "-" pueden representarse mediante un solo bit de 1. Mediante
esta representación, el decodificador puede interpretar
correctamente la información registrada y se sintetiza la imagen
reconstruida correcta. Si se almacena un tren de bits codificado en
medios de memoria utilizando el procedimiento descrito
anteriormente, podrá impedirse la acumulación de errores de redondeo
cuando se lee y decodifica el tren de bits.
En la Fig. 15, se muestran unos medios de memoria
donde se registra el tren de bits de los datos codificados de la
secuencia de imágenes mostrada en la Fig. 5. El tren de bits
registrado incluye información relacionada con las tramas P+, P- y
B. De la misma forma que en 1301 de la Fig. 13, la información
digital se registra concéntricamente en un disco de registro 1501
capaz de registrar información digital (por ejemplo, un disco
magnético, un disco óptico, etc.). Una parte 1502 de la información
digital registrada en este disco digital incluye: información de
distinción de modalidad de predicción 1503, 1505, 1508, 1510 y
1513; información de distinción de procedimiento de redondeo 1506 y
1512 e información de vector de movimiento y de coeficientes DCT
1504, 1507, 1509, 1511 y 1514. La información que representa
"I" se registra en 1503, "P" se registra en 1505 y 1510,
"B" se registra en 1508 y 1513, "+" se registra en 1505 y
"-" se registra en 1511. En este caso, "I", "P" y
"B" pueden representarse, respectivamente, mediante valores de
dos bits 00, 01 y 10, y "+" y "-" pueden representarse,
respectivamente, mediante valores de un bit 0 y 1. Mediante esta
representación, el decodificador puede interpretar correctamente la
información registrada y se sintetiza la imagen reconstruida
correcta. En la Fig. 15, la información relacionada con la trama
501 (trama I) de la Fig. 5 es 1503 y 1504, la información
relacionada con la trama 502 (trama B) es 1508 y 1509, la
información relacionada con la trama 503 (trama P+) es 1505 y 1507,
la información relacionada con la trama 504 (trama B) es 1513 y 1514
y la información relacionada con la trama 505 (trama P-) es 1510 y
1512. Cuando la codificación de secuencias de imágenes se efectúa
con tramas B, el orden de transmisión y el orden de presentación de
las tramas suele ser diferente. Esto es debido a que es necesario
codificar la imagen de referencia anterior y posterior antes de
sintetizar la imagen de predicción para la trama B. En
consecuencia, a pesar de que la trama 502 se presenta antes que la
trama 503, la información relacionada con la trama 503 se transmite
antes que la información relacionada con la trama 502. Como se ha
descrito anteriormente, no es necesario utilizar diversos
procedimientos de redondeo para las tramas B, puesto que la
compensación de movimiento en las tramas B no ocasiona acumulación
de errores de redondeo. Por lo tanto, como se muestra en este
ejemplo, la información relativa a los procedimientos de redondeo
(p.ej., "+" y "-") no se transmite para las tramas B.
Entonces, por ejemplo, aunque sólo se aplique redondeo positivo a
las tramas B, no se produce el problema de la acumulación de
errores de redondeo. Si se almacenan trenes de bits codificados que
contienen información relativa a las tramas B en medios de memoria
de la forma descrita anteriormente, la acumulación de errores de
redondeo puede impedirse cuando se lee y decodifica este tren de
bits.
En la Fig. 14, se muestran ejemplos concretos de
codificadores y decodificadores que utilizan el procedimiento
descrito en esta memoria. El procedimiento de codificación y
decodificación de imágenes puede utilizarse instalando software de
codificación y de decodificación de imágenes en un ordenador 1401.
Este software se registra en algún tipo de medios de memoria
(CD-ROM, disquete, disco duro, etc.) 1412, se copia
en un ordenador y luego se utiliza. Además, el ordenador puede
utilizarse como terminal de transmisión de imágenes conectando el
ordenador a las líneas de comunicación. También es posible instalar
el procedimiento de decodificación descrito en esta memoria en un
dispositivo de reproducción 1403 que lee y decodifica el tren de
bits codificado registrado en los medios de memoria 1402. En este
caso, la señal imagen reconstruida puede presentarse en un monitor
de televisión 1404. El dispositivo 1403 puede utilizarse sólo para
leer el tren de bits codificado y, en este caso, el dispositivo de
decodificación puede instalarse en el monitor de televisión 1404.
Como bien se sabe, la transmisión de datos digitales puede
realizarse utilizando ondas de satélite y ondas terrestres. También
puede instalarse un dispositivo de decodificación en un receptor de
televisión 1405 capaz de recibir dichas transmisiones digitales.
Asimismo, también puede instalarse un dispositivo de decodificación
dentro de un aparato de adaptación multimedia 1409 conectada a una
antena de ondas de satélite/terrestres, o a un cable 1408 de un
sistema de televisión por cable, para que las imágenes reconstruidas
puedan presentarse en un monitor de televisión 1410. En este caso,
el dispositivo de decodificación puede incluirse en el monitor de
televisión en vez de en el aparato de adaptación multimedia, como
en el caso de 1404. La disposición del sistema de difusión por
satélite digital se muestra en 1413, 1414 y 1415. La información de
vídeo del tren de bits codificado se transmite desde una estación
de radiodifusión 1413 hasta un satélite de comunicación o
radiodifusión 1414. El satélite recibe esta información, la envía a
un domicilio 1415 provisto de equipo para recibir programas de
radiodifusión por satélite, y la información de vídeo se
reconstruye y presenta en este domicilio en dispositivos como, por
ejemplo, un receptor de televisión o un aparato de adaptación
multimedia. La transmisión de imágenes digitales mediante
terminales móviles 1406 ha sido objeto últimamente de una
considerable atención, debido a que ahora es posible transmitir
imágenes a muy bajas velocidades binarias. Los terminales portátiles
digitales pueden dividirse en tres tipos de categorías:
transceptores que incluyen un codificador y un decodificador;
transmisores que sólo incluyen un codificador y receptores que sólo
incluyen un decodificador. Puede instalarse un dispositivo de
codificación en una cámara grabadora de vídeo 1407. La cámara
también puede utilizarse sólo para capturar la señal de vídeo y
esta señal puede proporcionarse a un codificador habitual 1411.
Tanto los dispositivos como los sistemas mostrados en este dibujo
pueden estar provistos del procedimiento de codificación o
decodificación descrito en esta memoria. Utilizando este
procedimiento de codificación o decodificación en estos
dispositivos o sistemas, pueden obtenerse imágenes de calidad
superior a las obtenidas con tecnologías convencionales.
Las siguientes variantes están claramente
incluidas dentro del alcance de la presente invención.
(i) Un prerrequisito del principio descrito
anteriormente es la utilización de correspondencia de bloques como
procedimiento de compensación de movimiento. No obstante, la
presente invención puede aplicarse además a todos los
procedimientos de codificación de secuencias de imágenes en los que
la compensación de movimiento se lleva a cabo tomando un valor para
los componentes vertical y horizontal del vector de movimiento del
píxel que es distinto al entero múltiple del período de muestreo en
las direcciones vertical y horizontal del píxel y, a continuación,
hallando mediante interpolación el valor de intensidad de una
posición en la que no está presente el valor de muestreo. Entonces,
por ejemplo, la compensación de movimiento global descrita en la
solicitud de patente japonesa n.º Hei 08-060572 y
la predicción de distorsión descrita en la solicitud de patente
japonesa n.º Hei 08-249601 son aplicables al
procedimiento de la presente invención.
(ii) En la descripción de la presente invención,
sólo se ha mencionado el caso en el que se toma un valor de
integral múltiple de 1/2 para los componentes vertical y horizontal
del vector de movimiento. Sin embargo, la presente invención también
puede aplicarse de forma general a los procedimientos en los que
son permitidas las integrales múltiples de 1/d (d es un entero
positivo y también un número par) para los componentes horizontal y
vertical del vector de movimiento. No obstante, cuando d es grande,
el divisor para la división en la interpolación bilineal (cuadrado
de d, véase la Ecuación 2) también es grande y, en cambio, la
probabilidad de que los resultados de la división normal lleguen a
un valor de 0,5 es baja. En consecuencia, cuando se efectúa sólo
redondeo positivo, el valor absoluto de la previsión de errores de
redondeo es pequeño y los efectos perjudiciales ocasionados por la
acumulación de errores resultan menos llamativos. Asimismo, también
puede aplicarse al procedimiento de la presente invención un
procedimiento de compensación de movimiento en el que, por ejemplo,
el valor de d es variable, y en el que se utiliza tanto el redondeo
positivo como el negativo cuando d es inferior a un valor fijo y
sólo se utiliza redondeo positivo o sólo redondeo negativo cuando
el valor de d es superior a un valor fijo.
(iii) Como se menciona en la técnica anterior,
cuando se utiliza la DCT como procedimiento de codificación de
errores, los efectos adversos de la acumulación de errores de
redondeo son propensos a aparecer cuando el tamaño de la etapa de
cuantificación del coeficiente DCT es grande. No obstante, también
puede aplicarse un procedimiento a la presente invención, en el
que, cuando el tamaño de la etapa de cuantificación de los
coeficientes DCT es superior a un valor umbral, entonces se utiliza
redondeo positivo y redondeo negativo. Cuando el tamaño de la etapa
de cuantificación de los coeficientes DCT es inferior al valor
umbral, entonces sólo se utiliza redondeo positivo o sólo se
utiliza redondeo negativo.
(iv) En los casos en los que se producen
acumulaciones de errores en el plano de la luminancia y en los
casos en los que se producen acumulaciones de error en el plano de
la crominancia, los efectos perjudiciales sobre las imágenes
reconstruidas son en general más graves en el caso de las
acumulaciones de errores en el plano de la crominancia. Esto es
debido al hecho de que los casos en que se producen cambios globales
del color de la imagen son más llamativos que los casos en que la
imagen se oscurece o aclara ligeramente. No obstante, también puede
aplicarse a la presente invención un procedimiento en el que se
utiliza tanto redondeo positivo como redondeo negativo para la señal
de crominancia, y sólo se utiliza redondeo positivo o redondeo
negativo para la señal de luminancia.
Como se describe en referencia a las técnicas
relacionadas, los vectores de movimiento de 1/4 de píxel de
precisión obtenidos dividiendo por dos los vectores de movimiento
de 1/2 píxel de precisión se redondean con una precisión de 1/2
píxel en el H.263. No obstante, añadiendo ciertos cambios a este
procedimiento, el valor de previsión absoluto de errores de
redondeo puede reducirse. En el H.263 mencionado en la técnica
anterior, un valor que es la mitad del componente horizontal o
vertical del vector de movimiento para el plano de la luminancia se
expresa como r + s/4 (r es un entero, s es un entero menor que 4 y
no inferior a 0), y cuando s es 1 ó 3, se efectúa una operación de
redondeo para obtener un 2. Esta operación puede cambiarse de la
siguiente forma: cuando s es 1, se lleva a cabo una operación de
redondeo para obtener un 0, y cuando s es 3, se suma un 1 a r y S
está dado por 0. Llevando a cabo estas operaciones, el número de
veces que se calculan los valores de intensidad en las posiciones
406 a 408 de la Fig.4 decididamente se reduce (la probabilidad de
que los componentes horizontales y verticales del vector de
movimiento sean un entero aumenta), de tal forma que el valor de
previsión absoluto del error de redondeo disminuye. No obstante,
aunque el tamaño del error producido en este procedimiento pueda
limitarse, la acumulación de errores no puede evitarse por
completo.
(v) La invención descrita en esta memoria es
aplicable a un procedimiento que obtiene la imagen de predicción de
intertrama definitiva por la promediación de las imágenes de
predicción obtenidas mediante diferentes procedimientos de
compensación de movimiento. Por ejemplo, en el procedimiento
descrito en la solicitud de patente japonesa n.º Hei
8-2616, se calcula el promedio de las imágenes de
predicción de intertrama obtenidas mediante los dos procedimientos
siguientes: correspondencia de bloques en la que se asigna un
vector de movimiento a cada bloque de 16x16 píxeles; y
correspondencia de bloques en la que se asigna un vector de
movimiento a cada bloque de 8x8 píxeles. En este procedimiento,
también se efectúa redondeo cuando se calcula el promedio de las dos
imágenes de predicción. Cuando sólo se efectúa redondeo positivo de
forma continuada en esta operación de promediación, se acumula un
nuevo tipo de error de redondeo. Este problema puede resolverse
utilizando diversos procedimientos de redondeo para esta operación
de promediación. En este procedimiento, se efectúa redondeo negativo
en la operación de promediación cuando se efectúa redondeo positivo
en la correspondencia de bloques. Por el contrario, se utiliza
redondeo positivo para la promediación cuando se utiliza redondeo
negativo para la correspondencia de bloques. Utilizando diferentes
procedimientos de redondeo para la promediación y la correspondencia
de bloques, pueden anularse los errores de redondeo de dos fuentes
diferentes dentro de la misma trama.
(vi) Cuando se utiliza un procedimiento para
localizar de forma alternada tramas P+ y tramas P- a lo largo del
eje del tiempo, el codificador necesita determinar si la trama P
procesada actualmente es una trama P+ o una trama P-. A
continuación, se proporciona un ejemplo de dicho procedimiento de
determinación. Un contador cuenta el número de tramas P tras la
última trama I codificada o decodificada, siendo la trama P actual
una trama P+ cuando el número es impar y una trama P- cuando el
número es par (este procedimiento se denomina sistema implícito).
Asimismo, existe un procedimiento, por ejemplo, que escribe, en la
sección de encabezamiento de la información de imagen codificada,
información para determinar si la trama P codificada actualmente en
el codificador es una trama P+ o una trama P- (este procedimiento
se denomina sistema explícito). A diferencia del procedimiento
implícito, este procedimiento tiene gran capacidad para resistir los
errores de transmisión, puesto que no hay necesidad de contar el
número de tramas P.
Además, el procedimiento explícito tiene las
ventajas indicadas a continuación. Como se describe en el apartado
"Descripción de técnicas relacionadas" los estándares de
codificación anteriores (como MPEG-1 o
MPEG-2) sólo utilizan redondeo positivo para la
compensación de movimiento. Esto significa, por ejemplo, que los
dispositivos de estimación de movimiento/compensación de movimiento
(por ejemplo, equivalentes al 106 de la Fig. 1) para
MPEG-1/MPEG-2 disponibles en el
mercado no son compatibles con los procedimientos de codificación
que utilizan tanto tramas P+ como tramas P-. Se presupone que se
dispone de un decodificador que puede decodificar trenes de bits
generados mediante un procedimiento de codificación que utiliza
tramas P+ y tramas P-. En este caso, si el decodificador se basa en
el procedimiento implícito mencionado anteriormente, será difícil
crear un codificador que genere trenes de bits que puedan
decodificarse correctamente mediante el decodificador mencionado,
utilizando el dispositivo de estimación/compensación de movimiento
mencionado para MPEG-1/MPEG-2. No
obstante, si el decodificador se basa en el procedimiento explícito
mencionado, este problema puede resolverse. Un codificador que
utiliza un dispositivo de estimación de movimiento/compensación de
movimiento MPEG-1/MPEG-2 puede
enviar de forma continuada tramas P+, escribiendo de forma
continuada información de distinción de procedimiento de redondeo
que indica redondeo positivo en el encabezamiento de la información
de la trama. Una vez finalizada esta acción, un decodificador basado
en el procedimiento explícito puede decodificar correctamente el
tren de bits generado por este codificador. Como es obvio, en dicho
caso, será más probable que se produzca una acumulación de errores
de redondeo, puesto que sólo están presentes las tramas P+. No
obstante, la acumulación de errores no es un problema grave en los
casos en que el codificador utiliza sólo pequeños valores como
tamaño de etapa de cuantificación para los coeficientes DCT (el
codificador habitual utilizado sólo para la codificación de alta
velocidad es un ejemplo de dichos codificadores). Además de la
interoperabilidad entre estándares anteriores, el procedimiento
explícito presenta también las siguientes ventajas: (a) el coste
del equipo para los codificadores habituales de alta velocidad y
los codificadores no propensos a la acumulación de errores de
redondeo debido a la introducción frecuente de tramas I puede
reducirse instalando sólo redondeo positivo o redondeo negativo
como procedimiento de redondeo de valores de píxel para la
compensación de movimiento y (b) los anteriores codificadores no
propensos a la acumulación de errores de redondeo tienen la ventaja
de que no es necesario decidir si la trama actual debe codificarse
como una trama P+ o una trama P-, con lo que el procesamiento se
simplifica.
(vii) La invención descrita en esta memoria es
aplicable a los procedimientos de codificación que aplican filtrado
junto con redondeo a las imágenes de predicción de intertrama. Por
ejemplo, en el estándar internacional H.261 para la codificación de
secuencias de imágenes, se aplica un filtro pasa baja (denominado
filtro de bucle) a las señales de bloque cuyos vectores de
movimiento no son 0 en las imágenes de predicción de intertrama.
Asimismo, en el estándar H.261, pueden utilizarse filtros para
eliminar las discontinuidades en los límites de los bloques
(artefacto de bloques). Todos estos filtros llevan a cabo la
promediación ponderada de los valores de intensidad de los píxeles
y, a continuación, se efectúa el redondeo de los valores de
intensidad promediados. Aún en estos casos, la utilización
selectiva del redondeo positivo y el redondeo negativo es eficaz
para prevenir la acumulación de errores.
(viii) Aparte de IP+P-P+ P-...,
existen diversos procedimientos para mezclar tramas P+ y P- (por
ejemplo, IP+P+P-P-P+P+... o
IP+P-P-P+P+...) que son aplicables
al procedimiento de la presente invención. Por ejemplo, mediante un
generador de números aleatorios que genera 0 y 1 a una probabilidad
respectiva del 50%, el codificador puede codificar una trama P+ y
una trama P- cuando la salida es 0 y 1, respectivamente. En
cualquier caso, cuanto menor sea la diferencia en la probabilidad de
que aparezcan tramas P+ y tramas P- durante cierto período de
tiempo, menor será la probabilidad de que se produzca una
acumulación de errores de redondeo. Además, cuando se permite que
el codificador mezcle tramas P+ y tramas P- mediante un
procedimiento arbitrario, el codificador y el decodificador deben
funcionar basándose en el procedimiento explícito en vez del
procedimiento implícito descrito anteriormente. En consecuencia, el
procedimiento explícito es superior en la medida en que permite
flexibilidad en la configuración del codificador y del
decodificador.
(ix) La presente invención descrita en esta
memoria no limita el procedimiento de interpolación de los valores
de píxel a la interpolación bilineal. Los procedimientos de
interpolación para valores de intensidad pueden describirse de forma
general mediante la siguiente ecuación:
Ecuación
5
en la que r y s son números reales, h(r,
s) es una función para interpolar los números reales y T(z)
es una función para redondear el número real z. Las definiciones de
R (x, y), x e y son las mismas que las de la Ecuación 4. La
compensación de movimiento mediante redondeo positivo se lleva a
cabo cuando T(z) es una función que representa redondeo
positivo, y la compensación de movimiento mediante redondeo negativo
se lleva a cabo cuando la función que representa redondeo negativo.
La presente invención es aplicable a los procedimientos de
interpolación que pueden describirse mediante la Ecuación 5. Por
ejemplo, la interpolación bilineal puede describirse definiendo
h(r, s) como se muestra a
continuación.
Ecuación
6
0, en los demás casos.
No obstante, por ejemplo, si h(r, s) se
define como:
Ecuación
7
0, en los demás casos
entonces, se ejecuta un procedimiento de
interpolación diferente a la interpolación bilineal, pero la
presente invención sigue siendo aplicable.
(x) La presente invención descrita en esta
memoria no limita el procedimiento de codificación para imágenes de
error a la DCT (transformada discreta del coseno). Por ejemplo,
también pueden aplicarse a la presente invención la transformada de
wavelets (véase el documento "Image Coding Using Wavelet
Transform" de M. Antonioni, et.al., IEEE Trans. Image
Processing, vol. 1, n.º 2, abril de 1992) y la transformada de
Walsh-Hadamard (véase el documento "Digital
Pictures" de A. N. Netravalli y B. G. Haskell, Plenum Press,
1998).
Claims (12)
1. Procedimiento para codificar imágenes, que
comprende:
una etapa de almacenamiento de una imagen
decodificada de una trama I o una trama P anterior como una imagen
de referencia (112, 115);
una etapa de compensación de movimiento
utilizando una imagen de entrada (101, 601) a ser codificada como
una trama P y utilizando dicha imagen de referencia (115),
estimando los vectores de movimiento y sintetizando una imagen de
predicción (117) de dicha imagen de entrada (101, 601),
caracterizado porque
la interpolación de valores de píxel para obtener
dicha imagen de predicción (117) se lleva a cabo utilizando un
procedimiento de redondeo positivo o de redondeo negativo, en el
que dicho redondeo positivo redondea el resultado de la división
normal al entero más cercano y redondea los valores de los
semienteros en la dirección que se aleja de cero, y dicho redondeo
negativo redondea el resultado de la división normal al entero más
cercano y redondea los valores de los semienteros en la dirección
que se acerca a cero, y por
una etapa para multiplexar, en un tren de bits
(123, 607) que comprende la imagen codificada, la información que
identifica si el procedimiento de redondeo utilizado para la
interpolación de valores de píxel en dicha compensación de
movimiento es el redondeo positivo o el redondeo negativo.
2. Procedimiento para codificar imágenes según
la reivindicación 1, en el que:
dicha interpolación de valores de píxel por medio
de dicho redondeo positivo se calcula según las ecuaciones
Ib = [(La+Lb+1)/2],
Ic = [(La+Lc+1)/2], y
Id = [(La+Lb+Lc+Ld+2)/4], y
dicha interpolación de valores de píxel por medio
de dicho redondeo negativo se calcula según las ecuaciones
Ib = [(La+Lb)/2],
Ic = [(La+Lc)/2], y
Id = [(La+Lb+Lc+Ld+1)/4],
en las que La, Lb, Lc y Ld son respectivamente
los valores de intensidad de un primer píxel (401), un segundo
píxel (402) que está horizontalmente adyacente a dicho primer
píxel, un tercer píxel (403) que está verticalmente adyacente a
dicho primer píxel, y un cuarto píxel (404) que está verticalmente
adyacente a dicho segundo píxel y horizontalmente adyacente a dicho
tercer píxel, e Ib, Ic e Id son, respectivamente, los valores de
intensidad interpolados del punto medio entre dicho primer y segundo
píxel, el punto medio entre dicho primer y tercer píxel, y el punto
medio entre dicho primer, segundo, tercer y cuarto píxel.
3. Procedimiento para codificar imágenes según
la reivindicación 1, en el que
una imagen decodificada de dicha imagen de
entrada (101, 601) se utiliza como una imagen de referencia para la
siguiente imagen de entrada que se codifica como una trama P, y
el procedimiento de redondeo utilizado en dicha
compensación de movimiento sintetizando dicha imagen de predicción
(117) es diferente del procedimiento de redondeo utilizado en la
compensación de movimiento sintetizando una imagen de predicción de
dicha siguiente imagen de entrada.
4. Procedimiento para codificar imágenes según
la reivindicación 1, en el que dicha información se multiplexa en
el tren de bits (607) en la sección de encabezamiento (1306, 1309,
1312, 1315) de la información de imagen codificada.
5. Medio legible por ordenador para dirigir la
ejecución por un ordenador de un procedimiento de codificación de
imágenes, comprendiendo dicho procedimiento de codificación de
imágenes las etapas siguientes:
almacenamiento de una imagen decodificada de una
trama I o una trama P anterior como una imagen de referencia
(112,115);
compensación de movimiento utilizando una imagen
de entrada (101, 601) a ser codificada como una trama P y utilizando
dicha imagen de referencia (115), estimando los vectores de
movimiento y sintetizando una imagen de predicción (117) de dicha
imagen de entrada (101, 601),
caracterizado porque
la interpolación de valores de píxel para obtener
dicha imagen de predicción (117) se lleva a cabo utilizando un
procedimiento de redondeo positivo o de redondeo negativo, en el
que dicho redondeo positivo redondea el resultado de la división
normal al entero más cercano y redondea los valores de los
semienteros en la dirección que se aleja de cero, y dicho redondeo
negativo redondea el resultado de la división normal al entero más
cercano y redondea los valores de los semienteros en la dirección
que se acerca a cero, y por
una etapa para multiplexar, en un tren de bits
(123, 607) que comprende la imagen codificada, la información que
identifica si el procedimiento de redondeo utilizado para la
interpolación de valores de píxel en dicha compensación de
movimiento es el redondeo positivo o el redondeo negativo.
6. Medio legible por ordenador según la
reivindicación 5, en el que:
dicha interpolación de valores de píxel por medio
de dicho redondeo positivo se calcula según las ecuaciones
Ib = [(La+Lb+1)/2],
Ic = [(La+Lc+1)/2], y
Id = [(La+Lb+Lc+Ld+2)/4], y
dicha interpolación de valores de píxel por medio
de dicho redondeo negativo se calcula según las ecuaciones
Ib = [(La+Lb)/2],
Ic = [(La+Lc)/2] y
Id = [(La+Lb+Lc+Ld+1)/4],
en las que La, Lb, Lc y Ld son respectivamente
los valores de intensidad de un primer píxel (401), un segundo
píxel (402) que está horizontalmente adyacente a dicho primer
píxel, un tercer píxel (403) que está verticalmente adyacente a
dicho primer píxel y un cuarto píxel (404) que está verticalmente
adyacente a dicho segundo píxel y horizontalmente adyacente a dicho
tercer píxel, e Ib, Ic e Id son, respectivamente, los valores de
intensidad interpolados del punto medio entre dicho primer y segundo
píxel, el punto medio entre dicho primer y tercer píxel y el punto
medio entre dicho primer, segundo, tercer y cuarto píxel.
7. Medio legible por ordenador según la
reivindicación 5, en el que:
una imagen decodificada de dicha imagen de
entrada (101, 601) se utiliza como una imagen de referencia para la
siguiente imagen de entrada que se codifica como una trama P, y
el procedimiento de redondeo utilizado en dicha
compensación de movimiento sintetizando dicha imagen de predicción
(117) es diferente del procedimiento de redondeo utilizado en la
compensación de movimiento sintetizando una imagen de predicción de
dicha siguiente imagen de entrada.
8. Medio legible por ordenador según la
reivindicación 5, en el que dicha información se multiplexa en el
tren de bits (607) en la sección de encabezamiento (1306, 1309,
1312, 1315) de la información de imagen codificada.
9. Codificador de imágenes, que comprende:
una memoria para almacenar una imagen
decodificada de una trama I o trama P anterior como una imagen de
referencia (115);
una sección de correspondencia de bloques (116)
para llevar a cabo la compensación de movimiento utilizando una
imagen de entrada (101, 601) a ser codificada como una trama P y
utilizando dicha imagen de referencia (115), estimando los vectores
de movimiento y sintetizando una imagen de predicción (117) de
dicha imagen de entrada (101, 601),
caracterizado por
un dispositivo de interpolación de valores de
píxel para obtener dicha imagen de predicción (117) utilizando el
redondeo positivo o negativo, en el que dicho redondeo positivo
redondea el resultado de la división normal al entero más cercano y
redondea los valores de los semienteros en la dirección que se
aleja de cero, y dicho redondeo negativo redondea el resultado de
la división normal al entero más cercano y redondea los valores de
los semienteros en la dirección que se acerca a cero; y por
medios para multiplexar, en un tren de bits (123,
607) que comprende la imagen codificada, la información que
identifica si el procedimiento de redondeo utilizado para la
interpolación de valores de píxel en dicha compensación de
movimiento es redondeo positivo o redondeo negativo.
10. Codificador según la reivindicación 9, en el
que:
dicho dispositivo de interpolación de valores de
píxel es apto para utilizar dicho redondeo positivo que se calcula
según las ecuaciones
Ib = [(La+Lb+1)/2],
Ic = [(La+Lc+1)/2] y
Id = [(La+Lb+Lc+Ld+2)/4] y
dicho dispositivo de interpolación de valores de
píxel es apto para utilizar dicho redondeo negativo que se calcula
según las ecuaciones
Ib = [(La+Lb)/2],
Ic = [(La+Lc)/2] y
Id = [(La+Lb+Lc+Ld+1)/4],
en las que La, Lb, Lc y Ld son respectivamente
los valores de intensidad de un primer píxel (401), un segundo
píxel (402) que está horizontalmente adyacente a dicho primer
píxel, un tercer píxel (403) que está verticalmente adyacente a
dicho primer píxel y un cuarto píxel (404) que está verticalmente
adyacente a dicho segundo píxel y horizontalmente adyacente a dicho
tercer píxel, e Ib, Ic e Id son, respectivamente, los valores de
intensidad interpolados del punto medio entre dicho primer y segundo
píxel, el punto medio entre dicho primer y tercer píxel y el punto
medio entre dicho primer, segundo, tercer y cuarto píxel.
11. Codificador según la reivindicación 9, en el
que:
un dispositivo de imagen es apto para utilizar
una imagen decodificada de dicha imagen de entrada (101, 601) como
una imagen de referencia para la siguiente imagen de entrada que se
codifica como una trama P, y
dicha sección de correspondencia de bloques es
apta para utilizar el procedimiento de redondeo en dicha
compensación de movimiento sintetizando dicha imagen de predicción
(117) que es diferente del procedimiento de redondeo que se utiliza
en la compensación de movimiento sintetizando una imagen de
predicción de dicha siguiente imagen de entrada.
12. Codificador según la reivindicación 9, en el
que:
dicho dispositivo multiplexor multiplexa dicha
información en el tren de bits (607) en la sección de
encabezamiento (1306, 1309, 1312, 1315) de la información de imagen
codificada.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15065697 | 1997-06-09 | ||
JP15065697 | 1997-06-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2204797T3 true ES2204797T3 (es) | 2004-05-01 |
Family
ID=15501626
Family Applications (10)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES10012310T Expired - Lifetime ES2431802T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes y decodificador de imágenes |
ES98110471T Expired - Lifetime ES2205323T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de docdificacion de secuencias de imagenes. |
ES10012305T Expired - Lifetime ES2434736T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes y decodificador de imágenes |
ES10012308.2T Expired - Lifetime ES2545109T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes |
ES10012306T Expired - Lifetime ES2433641T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes y decodificador de imágenes |
ES10012307.4T Expired - Lifetime ES2561212T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes |
ES10012309.0T Expired - Lifetime ES2545089T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes |
ES02007745.9T Expired - Lifetime ES2545066T3 (es) | 1997-06-09 | 1998-06-08 | Medio de grabación de información de imágenes |
ES02007746T Expired - Lifetime ES2405318T3 (es) | 1997-06-09 | 1998-06-08 | Decodificador de imágenes |
ES01129134T Expired - Lifetime ES2204797T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de codificacion de secuencia de imagenes. |
Family Applications Before (9)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES10012310T Expired - Lifetime ES2431802T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes y decodificador de imágenes |
ES98110471T Expired - Lifetime ES2205323T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de docdificacion de secuencias de imagenes. |
ES10012305T Expired - Lifetime ES2434736T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes y decodificador de imágenes |
ES10012308.2T Expired - Lifetime ES2545109T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes |
ES10012306T Expired - Lifetime ES2433641T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes y decodificador de imágenes |
ES10012307.4T Expired - Lifetime ES2561212T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes |
ES10012309.0T Expired - Lifetime ES2545089T3 (es) | 1997-06-09 | 1998-06-08 | Procedimiento de decodificación de imágenes |
ES02007745.9T Expired - Lifetime ES2545066T3 (es) | 1997-06-09 | 1998-06-08 | Medio de grabación de información de imágenes |
ES02007746T Expired - Lifetime ES2405318T3 (es) | 1997-06-09 | 1998-06-08 | Decodificador de imágenes |
Country Status (10)
Country | Link |
---|---|
US (92) | US6295376B1 (es) |
EP (11) | EP0884912B1 (es) |
JP (17) | JP3092610B2 (es) |
KR (4) | KR100393123B1 (es) |
CN (8) | CN1156167C (es) |
CA (1) | CA2240118C (es) |
DE (2) | DE69808519T2 (es) |
ES (10) | ES2431802T3 (es) |
HK (8) | HK1017795A1 (es) |
TW (2) | TW465227B (es) |
Families Citing this family (145)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998042134A1 (en) * | 1997-03-17 | 1998-09-24 | Mitsubishi Denki Kabushiki Kaisha | Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system |
US7801380B2 (en) * | 1997-06-09 | 2010-09-21 | Hitachi, Ltd. | Recording medium having recorded thereon coded information using plus and/or minus rounding of images |
ES2431802T3 (es) * | 1997-06-09 | 2013-11-28 | Hitachi, Ltd. | Procedimiento de decodificación de imágenes y decodificador de imágenes |
US6574371B2 (en) * | 1997-06-09 | 2003-06-03 | Hitachi, Ltd. | Image decoding method |
KR100282147B1 (ko) * | 1998-11-13 | 2001-02-15 | 구자홍 | 압축 영상 복원 방법 |
WO2000046695A1 (en) * | 1999-02-01 | 2000-08-10 | Koninklijke Philips Electronics N.V. | Descriptor for a video sequence and image retrieval system using said descriptor |
JP2000270330A (ja) * | 1999-03-18 | 2000-09-29 | Fujitsu Ltd | 映像配信システム及び映像配信方法 |
US6567557B1 (en) * | 1999-12-10 | 2003-05-20 | Stmicroelectronics, Inc. | Method for preventing dual-step half-pixel motion compensation accumulation errors in prediction-rich MPEG-2 sequences |
EP1090502B1 (en) * | 1999-04-26 | 2005-11-30 | Koninklijke Philips Electronics N.V. | Sub-pixel accurate motion vector estimation and motion-compensated interpolation |
US7170941B2 (en) * | 1999-08-13 | 2007-01-30 | Patapsco Designs Inc. | Temporal compression |
JP4129664B2 (ja) * | 1999-10-05 | 2008-08-06 | ソニー株式会社 | データ処理装置およびデータ処理方法 |
US6683986B1 (en) * | 1999-10-28 | 2004-01-27 | Sharp Laboratories Of America, Inc. | Efficient transmission of quarter-VGA images using DVC codecs |
WO2001058169A1 (en) * | 2000-02-04 | 2001-08-09 | Koninklijke Philips Electronics N.V. | Method of reducing blocking artifacts |
US6512523B1 (en) * | 2000-03-27 | 2003-01-28 | Intel Corporation | Accurate averaging of elements using integer averaging |
CN1214644C (zh) * | 2000-05-19 | 2005-08-10 | 皇家菲利浦电子有限公司 | 方法、系统和装置 |
US7168069B1 (en) | 2000-07-12 | 2007-01-23 | Stmicroelectronics, Inc. | Dynamic generation of multimedia code for image processing |
DE60144176D1 (de) * | 2000-11-10 | 2011-04-21 | Ricoh Co Ltd | Bilddekompression von Transformkoeffizienten |
KR100386639B1 (ko) * | 2000-12-04 | 2003-06-02 | 주식회사 오픈비주얼 | 정규화된 역양자화기를 이용한 영상 및 동영상의 복원 방법 |
US7054500B1 (en) * | 2000-12-06 | 2006-05-30 | Realnetworks, Inc. | Video compression and decompression system with postfilter to filter coding artifacts |
US7170997B2 (en) | 2000-12-07 | 2007-01-30 | Cryptico A/S | Method of generating pseudo-random numbers in an electronic device, and a method of encrypting and decrypting electronic data |
US6898245B2 (en) * | 2001-03-26 | 2005-05-24 | Telefonaktiebolaget Lm Ericsson (Publ) | Low complexity video decoding |
US7266150B2 (en) * | 2001-07-11 | 2007-09-04 | Dolby Laboratories, Inc. | Interpolation of video compression frames |
US7643559B2 (en) * | 2001-09-14 | 2010-01-05 | Ntt Docomo, Inc. | Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program |
EP1432249A4 (en) * | 2001-09-18 | 2007-12-05 | Matsushita Electric Ind Co Ltd | Image Coding Methods and Image Decoding Methods |
JP3932379B2 (ja) * | 2001-10-02 | 2007-06-20 | 株式会社日立製作所 | 画像処理装置と撮像素子 |
CN101448162B (zh) * | 2001-12-17 | 2013-01-02 | 微软公司 | 处理视频图像的方法 |
EP1827026A1 (en) * | 2002-01-18 | 2007-08-29 | Kabushiki Kaisha Toshiba | Video decoding method and apparatus |
JP3861698B2 (ja) | 2002-01-23 | 2006-12-20 | ソニー株式会社 | 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
US7266254B2 (en) | 2002-02-13 | 2007-09-04 | Canon Kabushiki Kaisha | Data processing apparatus, image processing apparatus, and method therefor |
US8284844B2 (en) | 2002-04-01 | 2012-10-09 | Broadcom Corporation | Video decoding system supporting multiple standards |
US7116831B2 (en) * | 2002-04-10 | 2006-10-03 | Microsoft Corporation | Chrominance motion vector rounding |
US7110459B2 (en) * | 2002-04-10 | 2006-09-19 | Microsoft Corporation | Approximate bicubic filter |
US7305034B2 (en) | 2002-04-10 | 2007-12-04 | Microsoft Corporation | Rounding control for multi-stage interpolation |
US7620109B2 (en) * | 2002-04-10 | 2009-11-17 | Microsoft Corporation | Sub-pixel interpolation in motion estimation and compensation |
US20040001546A1 (en) | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US20040086117A1 (en) * | 2002-06-06 | 2004-05-06 | Petersen Mette Vesterager | Methods for improving unpredictability of output of pseudo-random number generators |
US7224731B2 (en) | 2002-06-28 | 2007-05-29 | Microsoft Corporation | Motion estimation/compensation for screen capture video |
US7280700B2 (en) | 2002-07-05 | 2007-10-09 | Microsoft Corporation | Optimization techniques for data compression |
JP4724351B2 (ja) * | 2002-07-15 | 2011-07-13 | 三菱電機株式会社 | 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置 |
JP4078906B2 (ja) * | 2002-07-19 | 2008-04-23 | ソニー株式会社 | 画像信号の処理装置および処理方法、画像表示装置、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体 |
US7154952B2 (en) | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
KR100472476B1 (ko) * | 2002-08-31 | 2005-03-10 | 삼성전자주식회사 | 움직임 보상을 위한 보간 방법 및 그 장치 |
BR0306987A (pt) | 2002-11-20 | 2004-12-14 | Matsushita Electric Ind Co Ltd | Método de prognóstico de imagem em movimento, método e aparelho de codificação de imagem em movimento e método e aparelho de decodificação de imagem em movimento |
US7403660B2 (en) * | 2003-04-30 | 2008-07-22 | Nokia Corporation | Encoding picture arrangement parameter in picture bitstream |
US20040252762A1 (en) * | 2003-06-16 | 2004-12-16 | Pai R. Lakshmikanth | System, method, and apparatus for reducing memory and bandwidth requirements in decoder system |
US7426308B2 (en) * | 2003-07-18 | 2008-09-16 | Microsoft Corporation | Intraframe and interframe interlace coding and decoding |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
US10554985B2 (en) | 2003-07-18 | 2020-02-04 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US7499495B2 (en) * | 2003-07-18 | 2009-03-03 | Microsoft Corporation | Extended range motion vectors |
US7738554B2 (en) | 2003-07-18 | 2010-06-15 | Microsoft Corporation | DC coefficient signaling at small quantization step sizes |
US20050013498A1 (en) | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US8064520B2 (en) * | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
US7567617B2 (en) * | 2003-09-07 | 2009-07-28 | Microsoft Corporation | Predicting motion vectors for fields of forward-predicted interlaced video frames |
US7599438B2 (en) * | 2003-09-07 | 2009-10-06 | Microsoft Corporation | Motion vector block pattern coding and decoding |
US7317839B2 (en) * | 2003-09-07 | 2008-01-08 | Microsoft Corporation | Chroma motion vector derivation for interlaced forward-predicted fields |
US7724827B2 (en) | 2003-09-07 | 2010-05-25 | Microsoft Corporation | Multi-layer run level encoding and decoding |
US20050105621A1 (en) | 2003-11-04 | 2005-05-19 | Ju Chi-Cheng | Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof |
NO319629B1 (no) * | 2003-11-28 | 2005-09-05 | Tandberg Telecom As | Fremgangsmate for korrigering av interpolerte pikselverdier |
KR100601935B1 (ko) * | 2003-12-02 | 2006-07-14 | 삼성전자주식회사 | 디지탈 동영상 처리 방법 및 장치 |
FI20035235A0 (fi) * | 2003-12-12 | 2003-12-12 | Nokia Corp | Järjestely tiedostojen käsittelemiseksi päätelaitteen yhteydessä |
US7643182B2 (en) * | 2003-12-16 | 2010-01-05 | Seiko Epson Corporation | System and method for processing image data |
JP2005184632A (ja) * | 2003-12-22 | 2005-07-07 | Nec Access Technica Ltd | 通信端末における消費電力削減方法及び通信端末 |
CN100542289C (zh) * | 2004-07-13 | 2009-09-16 | 杜比实验室特许公司 | 视频压缩的无偏舍入 |
US7548259B2 (en) * | 2004-08-12 | 2009-06-16 | Microsoft Corporation | System and method for producing a higher resolution still image from video information |
WO2006028088A1 (ja) | 2004-09-08 | 2006-03-16 | Matsushita Electric Industrial Co., Ltd. | 動画像符号化方法および動画像復号化方法 |
US7941177B2 (en) | 2004-09-15 | 2011-05-10 | Samsung Electronics Co., Ltd | Wireless terminal apparatus for automatically changing WLAN standard and method thereof |
JP2006190259A (ja) * | 2004-12-06 | 2006-07-20 | Canon Inc | 手ぶれ判定装置及び画像処理装置及びその制御方法及びプログラム |
KR100634531B1 (ko) * | 2004-12-29 | 2006-10-16 | 삼성전자주식회사 | 액정 표시장치의 동적 캐패시턴스 보상장치 및 방법 |
US7634148B2 (en) * | 2005-01-07 | 2009-12-15 | Ntt Docomo, Inc. | Image signal transforming and inverse-transforming method and computer program product with pre-encoding filtering features |
WO2006080261A2 (en) * | 2005-01-27 | 2006-08-03 | Matsushita Electric Industrial Co., Ltd. | Portable image transmission/reception terminal having power consumption influences encoding/decoding modes |
JP2006217406A (ja) * | 2005-02-04 | 2006-08-17 | Sony Corp | 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム、画像処理システムおよび方法 |
JP2008544598A (ja) * | 2005-06-10 | 2008-12-04 | エヌエックスピー ビー ヴィ | 交互の上向き及び下向き動きベクトル |
WO2007029878A1 (en) * | 2005-09-09 | 2007-03-15 | Yamaha Corporation | Capacitor microphone |
US8208553B2 (en) * | 2006-05-04 | 2012-06-26 | Altera Corporation | Methods and apparatus for quarter-pel refinement in a SIMD array processor |
US8194760B2 (en) * | 2006-06-01 | 2012-06-05 | Ntt Docomo, Inc. | Method and apparatus for distributed space-time coding in wireless radio networks |
KR100885693B1 (ko) * | 2006-06-14 | 2009-02-26 | 한국전자통신연구원 | 독립성분분석 기반의 신호분리 알고리즘을 이용한 비디오인코딩 장치 및 그 방법과 이를 이용한 비디오 디코딩 장치및 그 방법 |
US20080039166A1 (en) * | 2006-08-03 | 2008-02-14 | Seven Lights, Llc | Systems and methods for multi-character online gaming |
US20080039169A1 (en) * | 2006-08-03 | 2008-02-14 | Seven Lights, Llc | Systems and methods for character development in online gaming |
US20080039165A1 (en) * | 2006-08-03 | 2008-02-14 | Seven Lights, Llc | Systems and methods for a scouting report in online gaming |
US8194744B2 (en) * | 2006-09-20 | 2012-06-05 | Lsi Corporation | Method and/or apparatus for implementing reduced bandwidth high performance VC1 intensity compensation |
US20100134631A1 (en) * | 2006-10-30 | 2010-06-03 | Wesleyan University | Apparatus and method for real time image compression for particle tracking |
US8861356B2 (en) * | 2007-03-13 | 2014-10-14 | Ntt Docomo, Inc. | Method and apparatus for prioritized information delivery with network coding over time-varying network topologies |
US8275041B2 (en) * | 2007-04-09 | 2012-09-25 | Nokia Corporation | High accuracy motion vectors for video coding with low encoder and decoder complexity |
US8254455B2 (en) | 2007-06-30 | 2012-08-28 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
JP2009077382A (ja) * | 2007-08-27 | 2009-04-09 | Sony Corp | 画像処理装置および方法、並びにプログラム |
WO2009032255A2 (en) * | 2007-09-04 | 2009-03-12 | The Regents Of The University Of California | Hierarchical motion vector processing method, software and devices |
US20090075686A1 (en) * | 2007-09-19 | 2009-03-19 | Gomadam Krishna S | Method and apparatus for wideband transmission based on multi-user mimo and two-way training |
US8325840B2 (en) * | 2008-02-25 | 2012-12-04 | Ntt Docomo, Inc. | Tree position adaptive soft output M-algorithm receiver structures |
US8279954B2 (en) * | 2008-03-06 | 2012-10-02 | Ntt Docomo, Inc. | Adaptive forward-backward soft output M-algorithm receiver structures |
US20090262249A1 (en) * | 2008-04-22 | 2009-10-22 | Himax Media Solutions, Inc. | Interpolated frame generating method |
CN101345872B (zh) * | 2008-05-23 | 2010-06-09 | 清华大学 | 视频编解码中实现双线性插值的方法 |
US8565329B2 (en) * | 2008-06-03 | 2013-10-22 | Ntt Docomo, Inc. | Soft output M-algorithm receiver structures with generalized survivor selection criteria for MIMO systems |
AU2009264603A1 (en) * | 2008-06-30 | 2010-01-07 | Kabushiki Kaisha Toshiba | Dynamic image prediction/encoding device and dynamic image prediction/decoding device |
WO2010010942A1 (ja) * | 2008-07-25 | 2010-01-28 | ソニー株式会社 | 画像処理装置および方法 |
JP4444354B2 (ja) * | 2008-08-04 | 2010-03-31 | 株式会社東芝 | 画像処理装置、および画像処理方法 |
US8229443B2 (en) * | 2008-08-13 | 2012-07-24 | Ntt Docomo, Inc. | Method of combined user and coordination pattern scheduling over varying antenna and base-station coordination patterns in a multi-cell environment |
US8451951B2 (en) * | 2008-08-15 | 2013-05-28 | Ntt Docomo, Inc. | Channel classification and rate adaptation for SU-MIMO systems |
US8705484B2 (en) * | 2008-08-15 | 2014-04-22 | Ntt Docomo, Inc. | Method for varying transmit power patterns in a multi-cell environment |
US8542640B2 (en) * | 2008-08-28 | 2013-09-24 | Ntt Docomo, Inc. | Inter-cell approach to operating wireless beam-forming and user selection/scheduling in multi-cell environments based on limited signaling between patterns of subsets of cells |
US8855221B2 (en) * | 2008-09-15 | 2014-10-07 | Ntt Docomo, Inc. | Method and apparatus for iterative receiver structures for OFDM/MIMO systems with bit interleaved coded modulation |
JP5143038B2 (ja) * | 2009-02-02 | 2013-02-13 | オリンパス株式会社 | 画像処理装置及び画像処理方法 |
US8189666B2 (en) | 2009-02-02 | 2012-05-29 | Microsoft Corporation | Local picture identifier and computation of co-located information |
JP2010258739A (ja) * | 2009-04-24 | 2010-11-11 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US9048977B2 (en) * | 2009-05-05 | 2015-06-02 | Ntt Docomo, Inc. | Receiver terminal driven joint encoder and decoder mode adaptation for SU-MIMO systems |
US8824825B2 (en) * | 2009-11-17 | 2014-09-02 | Sharp Kabushiki Kaisha | Decoding device with nonlinear process section, control method for the decoding device, transmission system, and computer-readable recording medium having a control program recorded thereon |
WO2011061957A1 (ja) | 2009-11-17 | 2011-05-26 | シャープ株式会社 | 符号化装置、復号化装置、符号化装置の制御方法、復号化装置の制御方法、伝送システム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US20110200108A1 (en) * | 2010-02-18 | 2011-08-18 | Qualcomm Incorporated | Chrominance high precision motion filtering for motion interpolation |
KR101420957B1 (ko) * | 2010-03-31 | 2014-07-30 | 미쓰비시덴키 가부시키가이샤 | 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법 |
JP5390458B2 (ja) * | 2010-04-08 | 2014-01-15 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法、及び動画像予測復号プログラム |
EP3540059A1 (en) | 2010-04-16 | 2019-09-18 | Nuevolution A/S | Bi-functional complexes and methods for making and using such complexes |
CN101917624B (zh) * | 2010-07-26 | 2013-04-03 | 清华大学 | 一种高分辨率视频图像重建方法 |
US8968080B1 (en) * | 2010-11-05 | 2015-03-03 | Wms Gaming, Inc. | Display of third party content on a wagering game machine |
JP5768491B2 (ja) * | 2011-05-17 | 2015-08-26 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
KR101572737B1 (ko) | 2011-05-27 | 2015-11-27 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 메타데이터를 사용한 무결절성 애플리케이션 백업 및 리커버리 |
US8805099B2 (en) | 2011-06-22 | 2014-08-12 | Panasonic Intellectual Property Corporation Of America | Image decoding method and image coding method |
JP5871628B2 (ja) * | 2011-11-07 | 2016-03-01 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
JP2013102297A (ja) | 2011-11-07 | 2013-05-23 | Canon Inc | 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム |
US10410020B2 (en) * | 2011-12-23 | 2019-09-10 | Knauf Gips Kg | Method and system for checking the presence and/or readability of an item of product information |
EP3406433A1 (en) | 2012-01-23 | 2018-11-28 | Apio, Inc. | Atmosphere control around respiring biological materials |
WO2013186802A1 (ja) * | 2012-06-11 | 2013-12-19 | 日本放送協会 | 符号化装置、復号装置及びプログラム |
JP6182719B2 (ja) * | 2012-06-29 | 2017-08-23 | ヴェロス メディア インターナショナル リミテッドVelos Media International Limited | 符号化装置および符号化方法 |
WO2014049667A1 (ja) * | 2012-09-28 | 2014-04-03 | 株式会社島津製作所 | デジタル画像処理方法および撮影装置 |
CN104104960B (zh) | 2013-04-03 | 2017-06-27 | 华为技术有限公司 | 多级双向运动估计方法及设备 |
US10303658B2 (en) * | 2013-11-25 | 2019-05-28 | Dropbox, Inc. | Generating and sharing metadata for indexing synchronized content items |
JP6551850B2 (ja) * | 2013-12-19 | 2019-07-31 | ビザ インターナショナル サービス アソシエーション | クラウド・ベース・トランザクションの方法及びシステム |
US9304657B2 (en) * | 2013-12-31 | 2016-04-05 | Abbyy Development Llc | Audio tagging |
US9942560B2 (en) | 2014-01-08 | 2018-04-10 | Microsoft Technology Licensing, Llc | Encoding screen capture data |
US9774881B2 (en) | 2014-01-08 | 2017-09-26 | Microsoft Technology Licensing, Llc | Representing motion vectors in an encoded bitstream |
US9749642B2 (en) | 2014-01-08 | 2017-08-29 | Microsoft Technology Licensing, Llc | Selection of motion vector precision |
US20150200156A1 (en) * | 2014-01-13 | 2015-07-16 | Altera Corporation | Module having mirror-symmetric terminals and methods of forming the same |
US9147262B1 (en) | 2014-08-25 | 2015-09-29 | Xerox Corporation | Methods and systems for image processing |
US10387596B2 (en) * | 2014-08-26 | 2019-08-20 | International Business Machines Corporation | Multi-dimension variable predictive modeling for yield analysis acceleration |
CN107113431B (zh) * | 2014-10-03 | 2020-12-01 | 日本电气株式会社 | 视频编码设备、视频解码设备、视频编码方法、视频解码方法和程序 |
CN105611182B (zh) * | 2014-11-25 | 2020-05-22 | 中兴通讯股份有限公司 | 亮度补偿方法及装置 |
KR102349788B1 (ko) * | 2015-01-13 | 2022-01-11 | 인텔렉추얼디스커버리 주식회사 | 영상의 부호화/복호화 방법 및 장치 |
WO2016147836A1 (ja) * | 2015-03-13 | 2016-09-22 | ソニー株式会社 | 画像処理装置および方法 |
JP6636615B2 (ja) * | 2015-08-24 | 2020-01-29 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置 |
US10509601B2 (en) * | 2016-12-28 | 2019-12-17 | Amazon Technologies, Inc. | Data storage system with multi-tier control plane |
RU2759052C2 (ru) * | 2016-12-28 | 2021-11-09 | Сони Корпорейшн | Устройство и способ обработки изображений |
US10570759B2 (en) * | 2017-07-10 | 2020-02-25 | GM Global Technology Operations LLC | Variable-geometry turbine housing intake channel for an exhaust driven turbocharger |
WO2020191034A1 (en) * | 2019-03-18 | 2020-09-24 | Tencent America LLC | Method and apparatus for video coding |
CN112583878B (zh) * | 2019-09-30 | 2023-03-14 | 阿波罗智能技术(北京)有限公司 | 车辆信息校验方法、装置、设备和介质 |
CN112203094B (zh) * | 2020-11-16 | 2024-05-14 | 北京世纪好未来教育科技有限公司 | 编码方法、装置、电子设备及存储介质 |
CN116760988B (zh) * | 2023-08-18 | 2023-11-10 | 瀚博半导体(上海)有限公司 | 基于人类视觉系统的视频编码方法和装置 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1341375A (en) | 1969-11-19 | 1973-12-19 | Smith Kline French Lab | Aminoalkylimidazoles and process for their production |
JPS6214754A (ja) | 1985-07-13 | 1987-01-23 | Junichi Sugawara | 米飯類の保存処理法とその製品 |
JPS62147654A (ja) | 1985-12-23 | 1987-07-01 | Showa Denko Kk | リチウム−アルミニウム合金電極の製造方法 |
FR2620502B1 (fr) | 1987-09-10 | 1989-12-08 | Valeo | Dispositif amortisseur de torsion |
US5054103A (en) * | 1987-09-24 | 1991-10-01 | Matsushita Electric Works, Ltd. | Picture encoding system |
US5379351A (en) * | 1992-02-19 | 1995-01-03 | Integrated Information Technology, Inc. | Video compression/decompression processing and processors |
JP2749700B2 (ja) | 1990-04-18 | 1998-05-13 | 三菱電機株式会社 | リニアイメージセンサ |
JP2827461B2 (ja) | 1990-06-18 | 1998-11-25 | 株式会社デンソー | 電子冷凍装置 |
JPH06214754A (ja) | 1993-01-14 | 1994-08-05 | Toshiba Corp | 四捨五入演算回路及びこれを有する画像処理装置 |
US5737022A (en) * | 1993-02-26 | 1998-04-07 | Kabushiki Kaisha Toshiba | Motion picture error concealment using simplified motion compensation |
TW224553B (en) * | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
US5486876A (en) | 1993-04-27 | 1996-01-23 | Array Microsystems, Inc. | Video interface unit for mapping physical image data to logical tiles |
EP0671816B1 (en) * | 1993-09-28 | 2000-03-29 | Sony Corporation | Encoding/decoding device with all odd or all even value rounding |
JPH07153195A (ja) * | 1993-11-30 | 1995-06-16 | Sony Corp | ディジタル記録装置 |
GB9402807D0 (en) | 1994-02-14 | 1994-04-06 | Xenova Ltd | Pharmaceutical compounds |
US5685963A (en) * | 1994-10-31 | 1997-11-11 | Saes Pure Gas, Inc. | In situ getter pump system and method |
US5638128A (en) | 1994-11-08 | 1997-06-10 | General Instrument Corporation Of Delaware | Pixel interpolation filters for video decompression processor |
JP3191583B2 (ja) * | 1994-12-12 | 2001-07-23 | ソニー株式会社 | 情報復号化装置 |
US5949484A (en) * | 1995-03-08 | 1999-09-07 | Hitachi, Ltd. | Portable terminal apparatus for multimedia communication |
US5650823A (en) | 1995-03-27 | 1997-07-22 | International Business Machines Corporation | Half pel motion estimation method for B pictures |
GB2301972B (en) * | 1995-06-06 | 1999-10-20 | Sony Uk Ltd | Video compression |
JP3081507B2 (ja) | 1995-06-15 | 2000-08-28 | 三菱電機ビルテクノサービス株式会社 | かご内養生シート収納装置 |
US5740283A (en) * | 1995-07-06 | 1998-04-14 | Rubin, Bednarek & Associates, Inc. | Digital video compression utilizing mixed vector and scalar outputs |
JP3700230B2 (ja) | 1996-01-12 | 2005-09-28 | 株式会社日立製作所 | 動画像符号化における動き補償方法 |
JP3183155B2 (ja) | 1996-03-18 | 2001-07-03 | 株式会社日立製作所 | 画像復号化装置、及び、画像復号化方法 |
JPH1098729A (ja) | 1996-09-20 | 1998-04-14 | Hitachi Ltd | フレーム間予測画像の合成方法 |
US6205178B1 (en) * | 1996-09-20 | 2001-03-20 | Hitachi, Ltd. | Method and synthesizing a predicted image, video coding device and video coding method |
US5740263A (en) * | 1996-10-23 | 1998-04-14 | Liao; Lu-Lee | Multi-media microphone seat |
US6058410A (en) | 1996-12-02 | 2000-05-02 | Intel Corporation | Method and apparatus for selecting a rounding mode for a numeric operation |
US5905542A (en) * | 1996-12-04 | 1999-05-18 | C-Cube Microsystems, Inc. | Simplified dual prime video motion estimation |
US6056410A (en) * | 1997-04-02 | 2000-05-02 | Donnelly Corporation | Digital electrochromic mirror system |
US5837022A (en) * | 1997-05-19 | 1998-11-17 | Chapman; Rick L. | High efficiency air filter system |
ES2431802T3 (es) * | 1997-06-09 | 2013-11-28 | Hitachi, Ltd. | Procedimiento de decodificación de imágenes y decodificador de imágenes |
JP3410037B2 (ja) * | 1997-06-09 | 2003-05-26 | 株式会社日立製作所 | 復号化方法、復号化装置、および、コンピュータ読み取り可能な記録媒体 |
JP3407726B2 (ja) * | 1997-06-09 | 2003-05-19 | 株式会社日立製作所 | 符号化方法、符号化装置、および、コンピュータ読み取り可能な記録媒体 |
JP3407727B2 (ja) * | 1997-06-09 | 2003-05-19 | 株式会社日立製作所 | 記録媒体 |
JP2998741B2 (ja) * | 1997-06-09 | 2000-01-11 | 株式会社日立製作所 | 動画像の符号化方法、該方法が記録されたコンピュータ読みとり可能な記録媒体、及び動画像の符号化装置 |
US6574371B2 (en) * | 1997-06-09 | 2003-06-03 | Hitachi, Ltd. | Image decoding method |
JPH1169345A (ja) | 1997-06-11 | 1999-03-09 | Fujitsu Ltd | フレーム間予測動画像符号化装置及び復号装置並びにフレーム間予測動画像符号化方法及び復号方法 |
DE19730305A1 (de) * | 1997-07-15 | 1999-01-21 | Bosch Gmbh Robert | Verfahren zur Erzeugung eines verbesserten Bildsignals bei der Bewegungsschätzung von Bildsequenzen, insbesondere eines Prädiktionssignals für Bewegtbilder mit bewegungskompensierender Prädiktion |
KR100831400B1 (ko) | 2000-01-18 | 2008-05-21 | 니리어스 파마슈티컬즈, 인크. | 세포분열 저해제 및 그의 제조방법 |
US7027654B1 (en) * | 2001-08-16 | 2006-04-11 | On2 Technologies | Video compression system |
US7190724B2 (en) * | 2002-04-12 | 2007-03-13 | Seiko Epson Corporation | Method and apparatus for transform domain video processing |
US8644391B2 (en) * | 2011-05-12 | 2014-02-04 | National Cheng Kung University | Space exploration method of reconfigurable motion compensation architecture |
-
1998
- 1998-06-08 ES ES10012310T patent/ES2431802T3/es not_active Expired - Lifetime
- 1998-06-08 EP EP98110471A patent/EP0884912B1/en not_active Expired - Lifetime
- 1998-06-08 ES ES98110471T patent/ES2205323T3/es not_active Expired - Lifetime
- 1998-06-08 EP EP10012307.4A patent/EP2288165B1/en not_active Expired - Lifetime
- 1998-06-08 ES ES10012305T patent/ES2434736T3/es not_active Expired - Lifetime
- 1998-06-08 ES ES10012308.2T patent/ES2545109T3/es not_active Expired - Lifetime
- 1998-06-08 ES ES10012306T patent/ES2433641T3/es not_active Expired - Lifetime
- 1998-06-08 ES ES10012307.4T patent/ES2561212T3/es not_active Expired - Lifetime
- 1998-06-08 EP EP20100012305 patent/EP2271116B1/en not_active Expired - Lifetime
- 1998-06-08 DE DE69808519T patent/DE69808519T2/de not_active Expired - Lifetime
- 1998-06-08 ES ES10012309.0T patent/ES2545089T3/es not_active Expired - Lifetime
- 1998-06-08 EP EP20100012306 patent/EP2288164B1/en not_active Expired - Lifetime
- 1998-06-08 EP EP10012308.2A patent/EP2285119B1/en not_active Expired - Lifetime
- 1998-06-08 EP EP10012309.0A patent/EP2288166B1/en not_active Expired - Lifetime
- 1998-06-08 EP EP02007745.9A patent/EP1237376B1/en not_active Expired - Lifetime
- 1998-06-08 ES ES02007745.9T patent/ES2545066T3/es not_active Expired - Lifetime
- 1998-06-08 US US09/093,194 patent/US6295376B1/en not_active Expired - Lifetime
- 1998-06-08 CA CA 2240118 patent/CA2240118C/en not_active Expired - Fee Related
- 1998-06-08 ES ES02007746T patent/ES2405318T3/es not_active Expired - Lifetime
- 1998-06-08 EP EP20020007746 patent/EP1237377B1/en not_active Expired - Lifetime
- 1998-06-08 ES ES01129134T patent/ES2204797T3/es not_active Expired - Lifetime
- 1998-06-08 EP EP01129134A patent/EP1193977B1/en not_active Expired - Lifetime
- 1998-06-08 EP EP00117806A patent/EP1056294B1/en not_active Expired - Lifetime
- 1998-06-08 DE DE1998617460 patent/DE69817460T2/de not_active Expired - Lifetime
- 1998-06-08 KR KR10-1998-0021034A patent/KR100393123B1/ko not_active IP Right Cessation
- 1998-06-08 EP EP20100012310 patent/EP2271117B1/en not_active Expired - Lifetime
- 1998-06-09 CN CNB981029817A patent/CN1156167C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB2003101138237A patent/CN100417032C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB2005100558818A patent/CN100355291C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB001202081A patent/CN1237809C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB2005100594617A patent/CN100415000C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB2003101138256A patent/CN1274157C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB2003101138241A patent/CN1284375C/zh not_active Expired - Lifetime
- 1998-06-09 CN CNB2005100558803A patent/CN100539694C/zh not_active Expired - Lifetime
- 1998-07-04 TW TW89112481A patent/TW465227B/zh not_active IP Right Cessation
- 1998-07-04 TW TW87107737A patent/TW411698B/zh not_active IP Right Cessation
-
1999
- 1999-02-09 JP JP3096599A patent/JP3092610B2/ja not_active Expired - Lifetime
- 1999-06-23 HK HK99102704A patent/HK1017795A1/xx not_active IP Right Cessation
-
2000
- 2000-02-25 US US09/513,688 patent/US6631214B1/en not_active Expired - Lifetime
- 2000-02-28 US US09/514,287 patent/US6560367B1/en not_active Expired - Lifetime
- 2000-02-29 US US09/516,207 patent/US6529632B1/en not_active Expired - Lifetime
- 2000-03-01 US US09/516,245 patent/US6643409B1/en not_active Expired - Lifetime
-
2001
- 2001-01-08 KR KR1020010000904A patent/KR100393125B1/ko not_active IP Right Cessation
- 2001-06-08 US US09/875,929 patent/US6584227B2/en not_active Expired - Lifetime
- 2001-06-08 US US09/875,928 patent/US6606419B2/en not_active Expired - Lifetime
- 2001-06-08 US US09/875,872 patent/US6567558B2/en not_active Expired - Lifetime
- 2001-06-08 US US09/875,930 patent/US6650781B2/en not_active Expired - Lifetime
- 2001-08-06 HK HK01105431A patent/HK1034841A1/xx not_active IP Right Cessation
-
2002
- 2002-11-26 KR KR1020020073739A patent/KR100400537B1/ko not_active IP Right Cessation
- 2002-11-26 KR KR1020020073744A patent/KR100400538B1/ko not_active IP Right Cessation
-
2003
- 2003-07-22 US US10/623,589 patent/US7251369B2/en not_active Expired - Fee Related
- 2003-07-22 US US10/623,669 patent/US6909809B2/en not_active Expired - Lifetime
- 2003-07-22 US US10/623,668 patent/US6868185B2/en not_active Expired - Lifetime
- 2003-07-22 US US10/623,506 patent/US6876769B2/en not_active Expired - Lifetime
- 2003-07-22 US US10/623,531 patent/US6915013B2/en not_active Expired - Lifetime
-
2004
- 2004-07-30 US US10/902,040 patent/US7233704B2/en not_active Expired - Fee Related
- 2004-07-30 US US10/901,964 patent/US7072518B2/en not_active Expired - Fee Related
- 2004-07-30 US US10/902,042 patent/US7184601B2/en not_active Expired - Fee Related
- 2004-07-30 US US10/902,041 patent/US7236635B2/en not_active Expired - Fee Related
- 2004-07-30 US US10/901,960 patent/US7248742B2/en not_active Expired - Fee Related
- 2004-07-30 US US10/901,959 patent/US7200274B2/en not_active Expired - Fee Related
-
2005
- 2005-01-20 HK HK05100512A patent/HK1068484A1/xx not_active IP Right Cessation
- 2005-01-20 HK HK05100511A patent/HK1068466A1/xx not_active IP Right Cessation
- 2005-03-11 HK HK05102113A patent/HK1069699A1/xx not_active IP Right Cessation
- 2005-10-06 HK HK05108840A patent/HK1076962A1/xx not_active IP Right Cessation
-
2006
- 2006-01-13 HK HK06100585A patent/HK1081029A1/xx not_active IP Right Cessation
-
2007
- 2007-02-02 HK HK07101281A patent/HK1096804A1/xx not_active IP Right Cessation
- 2007-06-29 US US11/770,953 patent/US7426307B2/en not_active Expired - Fee Related
- 2007-06-29 US US11/770,932 patent/US7421133B2/en not_active Expired - Fee Related
- 2007-06-29 US US11/770,923 patent/US7466864B2/en not_active Expired - Fee Related
- 2007-06-29 US US11/770,912 patent/US7471837B2/en not_active Expired - Fee Related
- 2007-06-29 US US11/770,937 patent/US7424161B2/en not_active Expired - Fee Related
- 2007-06-29 US US11/770,900 patent/US7471836B2/en not_active Expired - Fee Related
-
2008
- 2008-02-01 JP JP2008022271A patent/JP4849076B2/ja not_active Expired - Fee Related
- 2008-12-23 US US12/342,808 patent/US7676100B2/en not_active Expired - Fee Related
- 2008-12-23 US US12/342,787 patent/US7702166B2/en not_active Expired - Fee Related
- 2008-12-23 US US12/342,884 patent/US7724966B2/en not_active Expired - Fee Related
- 2008-12-29 US US12/344,617 patent/US7668384B2/en not_active Expired - Fee Related
- 2008-12-29 US US12/344,619 patent/US7724967B2/en not_active Expired - Fee Related
- 2008-12-29 US US12/344,626 patent/US7702167B2/en not_active Expired - Fee Related
- 2008-12-29 US US12/344,621 patent/US7724968B2/en not_active Expired - Fee Related
- 2008-12-29 US US12/344,625 patent/US7724969B2/en not_active Expired - Fee Related
-
2010
- 2010-01-29 US US12/696,181 patent/US7801373B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,164 patent/US7801369B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,217 patent/US7801378B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,221 patent/US7801379B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,207 patent/US7801377B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,188 patent/US7801374B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,195 patent/US7801375B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,167 patent/US7801370B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,204 patent/US7801376B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,143 patent/US7801366B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,230 patent/US7801381B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,172 patent/US7801371B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,150 patent/US7801367B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,157 patent/US7801368B2/en not_active Expired - Fee Related
- 2010-01-29 US US12/696,177 patent/US7801372B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,980 patent/US7929779B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,930 patent/US7929782B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,920 patent/US7929781B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/886,032 patent/US7929787B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/886,011 patent/US7936935B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/886,059 patent/US7929789B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/886,015 patent/US7929786B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/886,002 patent/US7936934B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/886,046 patent/US7929788B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,873 patent/US7933457B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,987 patent/US7929785B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,947 patent/US7929784B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,937 patent/US7929783B2/en not_active Expired - Fee Related
- 2010-09-20 US US12/885,878 patent/US7929780B2/en not_active Expired - Fee Related
-
2011
- 2011-03-25 JP JP2011066956A patent/JP4918946B2/ja not_active Expired - Lifetime
- 2011-04-20 US US13/090,566 patent/US8160373B2/en not_active Expired - Fee Related
- 2011-11-18 JP JP2011252210A patent/JP2012065348A/ja active Pending
-
2012
- 2012-04-16 US US13/447,581 patent/US8406544B2/en not_active Expired - Fee Related
- 2012-05-14 JP JP2012110176A patent/JP2012178865A/ja active Pending
- 2012-10-19 JP JP2012231309A patent/JP5257543B2/ja not_active Expired - Lifetime
- 2012-10-19 JP JP2012231310A patent/JP5257544B2/ja not_active Expired - Lifetime
- 2012-10-19 JP JP2012231312A patent/JP2013051712A/ja active Pending
- 2012-10-19 JP JP2012231311A patent/JP5257545B2/ja not_active Expired - Lifetime
-
2013
- 2013-03-13 US US13/799,710 patent/US8611682B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/802,958 patent/US8615139B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/802,937 patent/US8611683B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/803,013 patent/US8611685B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/802,977 patent/US8625915B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/802,944 patent/US8675977B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/802,998 patent/US8649618B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/803,024 patent/US8649619B2/en not_active Expired - Fee Related
- 2013-03-14 US US13/802,966 patent/US8611684B2/en not_active Expired - Fee Related
- 2013-04-12 JP JP2013083481A patent/JP5376083B2/ja not_active Expired - Lifetime
- 2013-04-12 JP JP2013083479A patent/JP5418710B2/ja not_active Expired - Lifetime
- 2013-08-06 JP JP2013162866A patent/JP5392434B2/ja not_active Expired - Lifetime
- 2013-09-30 JP JP2013203000A patent/JP5545403B2/ja not_active Expired - Lifetime
- 2013-12-02 US US14/094,218 patent/US8891890B2/en not_active Expired - Fee Related
-
2014
- 2014-03-19 JP JP2014055771A patent/JP5672400B2/ja not_active Expired - Lifetime
- 2014-04-04 US US14/245,002 patent/US8942501B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/244,974 patent/US8942497B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/245,006 patent/US8948527B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/244,982 patent/US8942504B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/244,987 patent/US8942499B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/244,977 patent/US8942498B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/244,996 patent/US8942500B2/en not_active Expired - Fee Related
- 2014-04-04 US US14/244,993 patent/US8942492B2/en not_active Expired - Fee Related
- 2014-08-25 JP JP2014170048A patent/JP5713137B2/ja not_active Expired - Lifetime
- 2014-10-27 US US14/523,968 patent/US9167265B2/en not_active Expired - Fee Related
-
2015
- 2015-01-21 JP JP2015009063A patent/JP5880743B2/ja not_active Expired - Lifetime
- 2015-04-28 US US14/698,068 patent/US9161055B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/698,228 patent/US9161045B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/697,881 patent/US9161051B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/697,890 patent/US9161053B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/697,886 patent/US9161052B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/698,251 patent/US9167262B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/697,883 patent/US9161044B2/en not_active Expired - Fee Related
- 2015-04-28 US US14/698,057 patent/US9161054B2/en not_active Expired - Fee Related
- 2015-07-13 JP JP2015139316A patent/JP2015228670A/ja active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2204797T3 (es) | Procedimiento de codificacion de secuencia de imagenes. |