ES2375448T3 - Procedimiento y aparato de decodificación de video. - Google Patents
Procedimiento y aparato de decodificación de video. Download PDFInfo
- Publication number
- ES2375448T3 ES2375448T3 ES07006032T ES07006032T ES2375448T3 ES 2375448 T3 ES2375448 T3 ES 2375448T3 ES 07006032 T ES07006032 T ES 07006032T ES 07006032 T ES07006032 T ES 07006032T ES 2375448 T3 ES2375448 T3 ES 2375448T3
- Authority
- ES
- Spain
- Prior art keywords
- prediction
- image
- video
- decoded
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
- H04N19/126—Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Color Television Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Un procedimiento de decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el procedimiento de decodificación de vídeo: una etapa de recepción de datos codificados obtenidos por codificación de una pluralidad de combinaciones indexadas, para un segmento, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color para una única imagen de referencia, y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificación de un coeficiente de transformación ortogonal cuantificado de una señal de error de predicción relativa a una luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) que indica una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; una etapa de obtención, para el bloque que se va a decodificar, de una combinación que comprende el factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y el desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color y el número de imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; una etapa de generación de una señal de error de predicción para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantificado a cuantificación inversa y transformación ortogonal inversa; una etapa de generación de una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y añadiendo el desplazamiento, basándose en el vector de movimiento para el bloque que se va a decodificar; y una etapa de generación de una señal de imagen decodificada (310) para el bloque que se va a decodificar, calculando una suma de la señal de error de predicción y la imagen de predicción.
Description
Procedimiento y aparato de decodificación de vídeo
Campo técnico
La presente invención se refiere a un procedimiento y un aparato de codificación/decodificación de vídeo que codifican/decodifican un vídeo de fundido y un vídeo de disolución, en particular, con alta eficacia.
Técnica anterior
La codificación intertrama de predicción de compensación de movimiento se usa como uno de los modos de codificación en un esquema estándar de codificación de vídeo como, por ejemplo, ITU-TH.261, H.263, ISO/IEC MPEG-2 o MPEG-4. Como modelo predictivo en codificación intertrama de predicción de compensación de movimiento, se usa un modelo que muestra la máxima eficacia de predicción cuando no se producen cambios de brillo en la dirección del tiempo. En el caso de un vídeo de fundido que cambia en el brillo de las imágenes, no existe ningún procedimiento conocido hasta ahora que realice una predicción apropiada frente a un cambio en el brillo de las imágenes cuando, por ejemplo, una imagen normal aparece con un fundido de entrada a partir de una imagen en negro. Con el fin de mantener también la calidad de las imágenes en un vídeo de fundido se requiere, por tanto, un gran número de bits.
Con el fin de resolver este problema, por ejemplo, en la patente japonesa nº 3.166.716, “Codificador de vídeo de contramedida de fundido y procedimiento de codificación”, se detecta una parte de un vídeo de fundido para cambiar la asignación del número de bits. Más específicamente, en el caso de un vídeo de fundido de cierre, se asigna un gran número de bits a la parte de inicio del fundido de cierre que cambia en luminancia. En general, la última parte del fundido de cierre se convierte en una imagen monocroma, y por ello puede codificarse con facilidad. Por este motivo, el número de bits asignados a esta parte se reduce. Esto hace posible mejorar la calidad global de la imagen sin aumentar excesivamente el número total de bits.
En la patente japonesa nº 2.938.412, “Procedimiento de compensación de cambio de luminancia de vídeo, aparato de codificación de vídeo, aparato de decodificación de vídeo, medio de grabación en el que se graba el programa de codificación o decodificación de vídeo y medio de grabación en el que se graban los datos codificados de vídeo”, se propone un esquema de codificación que consiste en copiar apropiadamente un vídeo de fundido compensando una imagen de referencia de acuerdo con dos parámetros, que son la cantidad de cambio de la luminancia y la cantidad de cambio del contraste.
En Thomas Wiegand y Berand Girod, “Multi-frame motion-compensated prediction for video transmission”, Kluwer Academic Publishers 2001, se propone un esquema de codificación basado en una pluralidad de memorias intermedias de tramas. En este esquema, se ha intentado mejorar la eficacia de predicción generando selectivamente una imagen de predicción a partir de una pluralidad de tramas de referencia guardadas en las memorias intermedias de tramas.
Según las técnicas convencionales, con el fin de codificar un vídeo de fundido o vídeo de disolución a la vez que se mantiene una alta calidad de imagen, se requiere un gran número de bits. Por tanto, no puede esperarse una mejora en la eficacia de la codificación.
Yoshihiro Kikuchi, y col., “Multi-frame interpolative prediction with modified syntax”, Joint Vídeo Team (JVT) de ISO/IEC MPEG & ITU-T VCEG (ISO/IEC JTC1/SC29/WG11 e ITU-T SG16 Q6), 3rd Meeting Fairfax, Virginia, EE.UU. 6-10 de marzo de 2002. (XP002461012) describen la predicción de interpolación multitrama que tiene una sintaxis modificada basada en codificación de imagen B.
Divulgación de la invención
Un objeto de la presente invención es proporcionar un procedimiento y un aparato de codificación/decodificación de vídeo que puedan codificar un vídeo que cambia en luminancia con el tiempo, por ejemplo, un vídeo de fundido o vídeo de disolución, en particular, con alta eficacia.
Según un primer aspecto de la presente invención, se proporciona un procedimiento de decodificación de vídeo según la reivindicación 1.
Según un segundo aspecto de la presente invención, se proporciona un aparato de decodificación de vídeo según la reivindicación 2.
Como se describe anteriormente, según la presente invención, se prepara una pluralidad de diferentes esquemas predictivos usando combinaciones de números de imágenes de referencia y parámetros predictivos o combinaciones de una pluralidad de parámetros predictivos que corresponden a números de imágenes de referencia designados. Esto hace posible generar una señal de imagen de predicción apropiada, sobre la base de un esquema predictivo con mayor eficacia de predicción, con respecto a una señal de vídeo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo de fundido o vídeo de disolución.
Además, la señal de vídeo es una señal que incluye una señal de imagen obtenida para cada trama de una señal progresiva, una señal de imagen obtenida para cada trama obtenida mediante fusión de dos campos de una señal entrelazada, y una señal de imagen obtenida para cada campo de una señal entrelazada. Cuando la señal de vídeo es una señal de imagen sobre una base de trama, la señal de número de imagen de referencia indica una señal de imagen de referencia sobre una base de trama. Cuando la señal de vídeo es una señal de imagen sobre una base de campo, la señal de número de imagen de referencia indica una señal de imagen de referencia sobre una base de campo.
Esto hace posible generar una señal de imagen de predicción apropiada, sobre la base de un esquema predictivo con mayor eficacia de predicción, con respecto a una señal de vídeo que incluye una estructura de trama y una estructura de campo tal que no puede generarse una señal de imagen de predicción apropiada mediante un esquema predictivo general para codificación de vídeo, por ejemplo, un vídeo de fundido o vídeo de disolución.
Además, la información de un número de imagen de referencia o parámetro predictivo en sí no es enviada desde el lado de la codificación al lado de la decodificación, sino que se envía información de índice que indica una combinación de un número de imagen de referencia y un parámetro predictivo, o se envía por separado un número de imagen de referencia. En este caso, la eficacia de la codificación puede mejorarse enviando información de índice que indica una combinación de parámetros predictivos
Breve descripción de los dibujos
La fig. 1 es un diagrama de bloques que muestra la configuración de un aparato de codificación de vídeo según el primer ejemplo útil para comprender la presente invención;
la fig. 2 es un diagrama de bloques que muestra la configuración detallada de un generador de imágenes de predicción/memoria de tramas de la fig. 1;
la fig. 3 es una vista que muestra un ejemplo de una tabla de combinaciones de números de tramas de referencia y parámetros predictivos, que se usa en el primer ejemplo útil para comprender la presente invención;
la fig. 4 es un diagrama de flujo que muestra un ejemplo de una secuencia para seleccionar un esquema predictivo (una combinación de un número de trama de referencia y un parámetro predictivo) para cada macrobloque y para determinar un modo de codificación en el primer ejemplo útil para comprender la presente invención;
la fig. 5 es un diagrama de bloques que muestra la configuración de un aparato de decodificación de vídeo según el primer ejemplo útil para comprender la presente invención;
la fig. 6 es un diagrama de bloques que muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas de la fig. 5;
la fig. 7 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es uno y se envía un número de trama de referencia como información de modo, según el segundo ejemplo útil para comprender la presente invención;
la fig. 8 es una vista que muestra un ejemplo de una tabla de combinaciones de parámetros predictivos en un caso en el que el número de tramas de referencia es dos y se envía un número de trama de referencia como información de modo según el segundo ejemplo útil para comprender la presente invención;
la fig. 9 es una vista que muestra un ejemplo de una tabla de combinaciones de números de imágenes de referencia y parámetros predictivos en un caso en el que el número de trama de referencia es uno según la primera forma de realización de la presente invención;
la fig. 10 es una vista que muestra un ejemplo de una tabla sólo para señales de luminancia según la primera forma de realización;
la fig. 11 es una vista que muestra un ejemplo de una sintaxis para cada bloque cuando se va a codificar información de índice;
la fig. 12 es una vista que muestra un ejemplo específico de un flujo de bits codificados cuando se va a generar una imagen de predicción usando una imagen de referencia;
la fig. 13 es una vista que muestra un ejemplo específico de un flujo de bits codificados cuando se va a generar una imagen de predicción usando dos imágenes de referencia;
la fig. 14 es una vista que muestra un ejemplo de una tabla de números de tramas de referencia, números de campos de referencia y parámetros predictivos cuando la información que se va a codificar es un campo superior según la segunda forma de realización de la presente invención; y
la fig. 15 es una vista que muestra un ejemplo de una tabla de números de tramas de referencia, números de campos de referencia y parámetros predictivos cuando la información que se va a codificar es un campo inferior según la segunda forma de realización de la presente invención.
Mejor modo de realizar la invención
A continuación se describirán las formas de realización de la presente invención y los ejemplos útiles para comprender la presente invención con referencia a las diversas vistas de los dibujos adjuntos.
[Primer ejemplo útil para comprender la presente invención]
(Acerca del lado de codificación)
La fig. 1 muestra la configuración de un aparato de codificación de vídeo según el primer ejemplo útil para comprender la presente invención. Se introduce una señal de vídeo 100 en el aparato de codificación de vídeo, por ejemplo, sobre una base de trama. La señal de vídeo 100 se introduce en un sustractor 101. El sustractor 101 calcula la diferencia entre la señal de vídeo 100 y una señal de imagen de predicción 212 para generar una señal de error de predicción. Un conmutador de selección de modo 102 selecciona la señal de error de predicción o la señal de vídeo 100. Un transformador ortogonal 103 somete la señal seleccionada a una transformación ortogonal, por ejemplo, una transformada de coseno discreta (TCD). El transformador ortogonal 103 genera información de coeficiente de transformación ortogonal, por ejemplo, información de coeficiente de TCD. La información de coeficiente de transformación ortogonal se cuantifica mediante un cuantificador 104 y se divide en dos trayectorias. Una información de cuantificación de coeficiente de transformación ortogonal 210 dividida en dos trayectorias se guía hacia un codificador de longitud variable 111.
La otra información de cuantificación de coeficiente de transformación ortogonal 210 dividida en las dos trayectorias se somete en secuencia a procesamiento inverso al del cuantificador 104 y el transformador ortogonal 103 mediante un descuantificador o cuantificador inverso 105 y un transformador ortogonal inverso 106 para reconstruirse en una señal de error de predicción. Posteriormente, un sumador 107 añade la señal de error de predicción reconstruida a la señal de imagen de predicción 212 introducida a través de un conmutador 109 para generar una señal de vídeo decodificada local 211. La señal de vídeo decodificada local 211 se introduce en un generador de imágenes de predicción/memoria de tramas 108.
El generador de imágenes de predicción/memoria de tramas 108 selecciona una entre una pluralidad de combinaciones de números de tramas de referencia y parámetros predictivos preparados. La suma lineal de la señal de vídeo (señal de vídeo decodificada local 211) de la trama de referencia indicada por el número de trama de referencia de la combinación seleccionada se calcula de acuerdo con el parámetro predictivo de la combinación seleccionada, y la señal resultante se añade a un desplazamiento basándose en el parámetro predictivo. Con esta operación, en este caso, se genera una señal de imagen de referencia sobre una base de trama. Posteriormente, el generador de imágenes de predicción/memoria de tramas 108 compensa en movimiento la señal de imagen de referencia usando un vector de movimiento para generar la señal de imagen de predicción 212.
En este procedimiento el generador de imágenes de predicción/memoria de tramas 108 genera información de vector de movimiento 214 e información de índice 215 que indica una combinación seleccionada de un número de trama de referencia y un parámetro predictivo, y envía información necesaria para selección de un modo de codificación a un selector de modo 110. La información de vector de movimiento 214 y la información de índice 215 se introducen en un codificador de longitud variable 111. El generador de imágenes de predicción/memoria de tramas 108 se describirá en detalle más adelante.
El selector de modo 110 selecciona un modo de codificación en una base de macrobloque sobre la base de información de predicción P del generador de imágenes de predicción/memoria de tramas 108, es decir, selecciona el modo de codificación intratrama o el modo de codificación intertrama predictivo con compensación de movimiento, y produce las señales de control de conmutador M y S.
En el modo de codificación intratrama, los conmutadores 102 y 109 se conmutan al lado A mediante las señales de control de conmutador M y S, y la señal de vídeo de entrada 100 se introduce en el transformador ortogonal 103. En el modo de codificación intertrama, los conmutadores 102 y 109 se conmutan al lado B mediante las señales de control de conmutador M y S. En consecuencia, la señal de error de predicción del sustractor 101 se introduce en el transformador ortogonal 103, y la señal de imagen de predicción 212 del generador de imágenes de predicción/memoria de tramas 108 se introduce en el sumador 107. La información de modo 213 se produce desde el selector de modo 110 y se introduce en el codificador de longitud variable 111.
El codificador de longitud variable 111 somete la información de cuantificación de coeficiente de transformación ortogonal 210, la información de modo 213, la información de vector de movimiento 214 y la información de índice 215 a codificación de longitud variable. Los códigos de longitud variable generados por esta operación son multiplexados por un multiplicador 114. A continuación, los datos resultantes son alisados mediante una memoria intermedia de salida 115. Los datos codificados 116 producidos a partir de la memoria intermedia de salida 115 se envían a un sistema de transmisión o un sistema de almacenamiento (no mostrado).
Un controlador de codificación 113 controla una unidad de codificación 112. Más específicamente, el controlador de codificación 113 monitoriza la cantidad de memoria intermedia de la memoria intermedia de salida 115, y controla parámetros de codificación como el tamaño de la etapa de cuantificación del cuantificador 104 para hacer constante la cantidad de memoria intermedia.
(Acerca del generador de imágenes de predicción/memoria de tramas 108)
La fig. 2 muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas 108 en la fig. 1. En referencia a la fig. 2, la señal de vídeo decodificada local 211 introducida desde el sumador 107 en la fig. 1 se almacena en un conjunto de memorias de trama 202 bajo el control de un controlador de memoria 201. El conjunto de memorias de trama 202 tiene una pluralidad de (N) memorias de trama FM1 a FMN para guardar temporalmente la señal de vídeo decodificada local 211 como una trama de referencia.
En un controlador de parámetros predictivos 203 se prepara una pluralidad de combinaciones de números de tramas de referencia y parámetros predictivos por adelantado como una tabla. El controlador de parámetros predictivos 203 selecciona, sobre la base de la señal de vídeo 100, una combinación del número de trama de referencia de una trama de referencia y un parámetro predictivo que se usa para generar la señal de imagen de predicción 212, y produce la información de índice 215 que indica la combinación seleccionada.
Un evaluador de movimiento multitrama 204 genera una señal de imagen de referencia de acuerdo con la combinación del número de trama de referencia y la información de índice seleccionada por el controlador de parámetros predictivos 203. El evaluador de movimiento multitrama 204 evalúa la cantidad de movimiento y el error predictivo a partir de esta señal de imagen de referencia y de esta señal de vídeo de entrada 100, y produce la información de vector de movimiento 214 que reduce al mínimo el error de predicción. Un compensador de movimiento multitrama 205 realiza compensación de movimiento para cada bloque usando una señal de imagen de referencia seleccionada por el evaluador de movimiento multitrama 204 de acuerdo con el vector de movimiento para generar la señal de imagen de predicción 212.
El controlador de memoria 201 establece un número de trama de referencia para una señal de vídeo decodificada local para cada trama, y almacena cada trama en una entre las memorias de trama FM1 a FMN del conjunto de memorias de trama 202. Por ejemplo, las tramas respectivas se numeran en secuencia a partir de la trama más cercana a la imagen de entrada. Puede establecerse el mismo número de trama de referencia para tramas diferentes. En este caso, por ejemplo, se usan parámetros predictivos diferentes. Una trama cercana a la imagen introducida se selecciona a partir de las memorias de trama FM1 a FMN y se envía al controlador de parámetros predictivos 203.
(Acerca de la tabla de combinaciones de números de tramas de referencia y parámetros de predicción)
La fig. 3 muestra un ejemplo de la tabla de combinaciones de números de tramas de referencia y parámetrospredictivos, que se prepara en el controlador de parámetros predictivos 203. "Índice" corresponde a imágenes de
predicción que pueden seleccionarse para cada bloque. En este caso, existen ocho tipos de imágenes de predicción. Un número de trama de referencia n es el número de un vídeo local decodificado usado como trama de referencia, y en este caso, indica el número de un vídeo local decodificado que corresponde a n tramas pasadas.
Cuando la señal de imagen de predicción 212 se genera usando las señales de imagen de una pluralidad de tramas de referencia almacenadas en el conjunto de memorias de trama 202, se designa una pluralidad de números de tramas de referencia, y se designan (número de tramas de referencia + 1) coeficientes como parámetros predictivos para cada una entre una señal de luminancia (Y) y las señales de diferencia de color (Cb y Cr). En este caso, según se indica mediante las ecuaciones (1) a (3), n supone el número de tramas de referencia, se preparan n + 1 parámetros predictivos Di (i =,..., n + 1) para la señal de luminancia Y; n + 1 parámetros predictivos Ei (i =,..., n + 1), para la señal de diferencia de color Cb; y n + 1 parámetros predictivos Fi (i =,..., n + 1), para la señal de diferencia de color Cr:
Ln
Y = DY + D (1)
t it -in+1
i =1
n
Cb =LE Cb + E (2)
t it -in+1
i =1
Esta operación se describirá con más detalle con referencia a la fig. 3. En referencia a la fig. 3, el último número de cada parámetro predictivo representa un desplazamiento, y el primer número de cada parámetro predictivo representa un factor de ponderación (coeficiente de predicción). Para el índice 0, el número de tramas de referencia viene dado por n = 2, el número de trama de referencia es 1, y los parámetros predictivos son 1 y 0 para cada una de la señal de luminancia Y y las señales de diferencia de color Cr y Cb. El hecho de que los parámetros predictivos sean 1 y 0 como en este caso indica que una señal de vídeo decodificada local que corresponde al número de trama de referencia "1" está multiplicada por 1 y se le añade el desplazamiento 0. En otras palabras, la señal de vídeo decodificada local correspondiente al número de trama de referencia 1 se convierte en una señal de imagen de referencia sin ningún cambio.
Para el índice 1, se usan dos tramas de referencia como señales de vídeo local decodificado correspondientes a los números de tramas de referencia 1 y 2. De acuerdo con los parámetros predictivos 2, -1 y 0 para la señal de luminancia Y, la señal de vídeo decodificada local correspondiente al número de trama de referencia 1 se duplica, y la señal de vídeo decodificada local correspondiente al número de trama de referencia 2 se resta de la señal resultante. A continuación se añade el desplazamiento 0 a la señal resultante. Es decir, la predicción de extrapolación se realiza a partir de las señales de vídeo local decodificado de dos tramas para generar una señal de imagen de referencia. Para las señales de diferencia de color Cr y Cb, como los parámetros predictivos son 1, 0 y 0, la señal de vídeo decodificada local correspondiente al número de trama de referencia 1 se usa como una señal de imagen de referencia sin ningún cambio. Este esquema predictivo correspondiente al índice 1 es especialmente eficaz para un vídeo de disolución.
Para el índice 2, de acuerdo con los parámetros predictivos 5/4 y 16, la señal de vídeo decodificada local correspondiente al número de trama de referencia 1 se multiplica por 5/4 y se le añade el desplazamiento 16. Para las señales de diferencia de color Cr y Cb, como el parámetro predictivo es 1, las señales de diferencia de color Cr y Cb se convierten en señales de imagen de referencia sin ningún cambio. Este esquema predictivo es especialmente eficaz para un vídeo de fundido desde una trama en negro.
De esta manera, las señales de imagen de referencia pueden seleccionarse sobre la base de una pluralidad de esquemas predictivos con diferentes combinaciones de los números de tramas de referencia que se usarán y de los parámetros predictivos. Esto hace posible que esta forma de realización resuelva apropiadamente un vídeo de fundido y un vídeo de disolución que hayan sufrido deterioro en la calidad de imagen debido a la ausencia de un esquema predictivo apropiado.
(Acerca de la secuencia para seleccionar el esquema de predicción y para determinar el modo de codificación)
A continuación, se describirá con referencia a la fig. 4 un ejemplo de una secuencia específica para seleccionar un esquema predictivo (una combinación de un número de trama de referencia y un parámetro predictivo) para cada macrobloque y para determinar un modo de codificación en este ejemplo.
En primer lugar, se establece un valor máximo asumible para la variable min_D (etapa S101). LOOP1 (etapa S102) indica una repetición para la selección de un esquema predictivo en codificación intertrama, y la variable i representa el valor de "índice" de la fig. 3. En este caso, con el fin de obtener un vector de movimiento óptimo para cada esquema predictivo, se calcula un valor de evaluación D de cada índice (cada combinación de un número de trama de referencia y un parámetro predictivo) a partir del número de bits asociado con información de vector de movimiento 214 (el número de bits de un código de longitud variable producido a partir del codificador de longitud variable 111 en correspondencia con la información de vector de movimiento 214) y una suma de valores predictivos de error absoluto, y se selecciona un vector de movimiento que reduce al mínimo el valor de evaluación D (etapa S103). El valor de evaluación D se compara con min_D (etapa S104). Si el valor de evaluación D es menor que min_D, el valor de evaluación D se ajusta a min_D, y el índice i se asigna a min_i (etapa S105).
A continuación, se calcula un valor de evaluación D para codificación intratrama (etapa S106). El valor de evaluación D se compara con min_D (etapa S107). Si esta comparación indica que min_D es menor que el valor de evaluaciónD, se determina el modo MODO como codificación intertrama, y se asigna min_i a la información de índice ÍNDICE (etapa S108). Si el valor de evaluación D es menor, se determina el modo MODO como codificación intratrama (etapa S109). En este caso, el valor de evaluación D se ajusta como el valor estimado del número de bits con el mismo tamaño de la etapa de cuantificación.
(Acerca del lado de decodificación)
A continuación, se describirá un aparato de decodificación de vídeo correspondiente al aparato de codificación de vídeo mostrado en la fig. 1. La fig. 5 muestra la configuración del aparato de decodificación de vídeo según este ejemplo. Los datos codificados 300 enviados desde el aparato de codificación de vídeo mostrados en la fig. 1 y enviados a través de un sistema de transmisión o sistema de almacenamiento se almacenan temporalmente en una memoria intermedia de entrada 301 y son demultiplexados por un demultiplexor 302 para cada trama sobre la base de una sintaxis. Los datos resultantes se introducen en un decodificador de longitud variable 303. El decodificador de longitud variable 303 decodifica el código de longitud variable de cada sintaxis de los datos codificados 300 para reproducir un coeficiente de cuantificación de transformación ortogonal, información de modo 413, información de vector de movimiento 414 e información de índice 415.
De la información reproducida, el coeficiente de cuantificación de transformación ortogonal es descuantificado por un descuantificador 304 y sometido a transformación ortogonal inversa por un transformador ortogonal inverso 305. Si la información de modo 413 indica el modo de codificación intratrama, se emite una señal de vídeo de reproducción desde el transformador ortogonal inverso 305. A continuación, esta señal es emitida como una señal de vídeo de reproducción 310 a través de un sumador 306.
Si la información de modo 413 indica el modo de codificación intertrama, se emite una señal de error de predicción desde el transformador ortogonal inverso 305, y se activa un conmutador de selección de modo 309. La señal de imagen de predicción 412 emitida desde un generador de imágenes de predicción/memoria de tramas 308 se añade a la señal de error de predicción mediante el sumador 306. En consecuencia, se emite la señal de vídeo de reproducción 310. La señal de vídeo de reproducción 310 se almacena como una señal de imagen de referencia en el generador de imágenes de predicción/memoria de tramas 308.
La información de modo 413, la información de vector de movimiento 414 y la información de índice 415 se introducen en el generador de imágenes de predicción/memoria de tramas 308. La información de modo 413 se introduce también en el conmutador de selección de modo 309. En el modo de codificación intratrama, el conmutador de selección de modo 309 se desactiva. En el modo de codificación intertrama, el conmutador se activa.
Como el generador de imágenes de predicción/memoria de tramas 108 en el lado de codificación de la fig. 1, el generador de imágenes de predicción/memoria de tramas 308 incluye una pluralidad de combinaciones de números de tramas de referencia y parámetros predictivos preparadas en forma de tabla, y selecciona una combinación indicada por la información de índice 415 de la tabla. La suma lineal de la señal de vídeo (señal de vídeo de reproducción 210) de la trama de referencia indicada por el número de trama de referencia de la combinación seleccionada se calcula de acuerdo con el parámetro predictivo de la combinación seleccionada, y se añade un desplazamiento basado en el parámetro predictivo a la señal resultante. Con esta operación, se genera una señal de imagen de referencia. Posteriormente, la señal de imagen de referencia generada se somete a compensación de movimiento usando el vector de movimiento indicado por la información de vector de movimiento 414, generando con ello una señal de imagen de predicción 412.
(Acerca del generador de imágenes de predicción/memoria de tramas 308)
La fig. 6 muestra la configuración detallada del generador de imágenes de predicción/memoria de tramas 308 de la fig. 5. En referencia a la fig. 6, la señal de vídeo de reproducción 310 producida desde el sumador 306 de la fig. 5 se almacena en el conjunto de memorias de trama 402 bajo el control de un controlador de memoria 401. El conjunto de memorias de trama 402 tiene una pluralidad de (N) memorias de trama FM1 a FMN para guardar temporalmente la señal de vídeo de reproducción 310 como una trama de referencia.
Un controlador de parámetros predictivos 403 tiene por adelantado combinaciones de números de tramas de referencia y parámetros predictivos en forma de tabla como las mostradas en la fig. 3. El controlador de parámetros predictivos 403 selecciona una combinación del número de trama de referencia de una trama de referencia y un parámetro predictivo, que se usan para generar la señal de imagen de predicción 412, sobre la base de la información de índice 415 del decodificador de longitud variable 303 de la fig. 5. Una pluralidad de compensadores de movimiento multitrama 404 genera una señal de imagen de referencia de acuerdo con una combinación de un número de trama de referencia e información de índice, que es seleccionada por el controlador de parámetros predictivos 403, y realiza compensación de movimiento para cada bloque usando esta señal de imagen de referencia de acuerdo con el vector de movimiento indicado por la información de vector de movimiento 414 a partir del decodificador de longitud variable 303 de la fig. 5, generando con ello la señal de imagen de predicción 412.
[Segundo ejemplo útil para comprender la presente invención]
A continuación, se describirá el segundo ejemplo útil para comprender la presente invención con referencia a las figs. 7 y 8. Como las configuraciones globales de un aparato de codificación de vídeo y un aparato de decodificación de vídeo en este ejemplo son casi las mismas que las de la primera forma de realización, sólo se describirán las diferencias con respecto al primer ejemplo.
En este ejemplo, se describe un ejemplo de la manera de expresar parámetros predictivos basados en un esquema capaz de designar una pluralidad de números de tramas de referencia de acuerdo con información de modo de una base de macrobloque. Para cada macrobloque se discrimina un número de trama de referencia mediante la información de modo. Este ejemplo usa, por tanto, una tabla de parámetros predictivos según se muestra en las figs. 7 y 8, en vez de usar una tabla de combinaciones de números de tramas de referencia y parámetros predictivos como en la primera forma de realización. Es decir, la información de índice no indica un número de trama de referencia, y sólo se designa una combinación de parámetros predictivos.
La tabla de la fig. 7 muestra un ejemplo de una combinación de parámetros predictivos cuando el número de tramas de referencia es uno. Como parámetros predictivos, se designan (el número de tramas de referencia + 1) parámetros, es decir, dos parámetros (un factor de ponderación y un desplazamiento), para cada señal de luminancia (Y) y para las señales de diferencia de color (Cb y Cr).
La tabla de la fig. 8 muestra un ejemplo de una combinación de parámetros predictivos cuando el número de tramas de referencia es dos. En este caso, como parámetros predictivos, se designan (el número de tramas de referencia + 1) parámetros, es decir, tres parámetros (dos factores de ponderación y un desplazamiento), a partir de cada señal de luminancia (Y) y de las señales de diferencia de color (Cb y Cr). Esta tabla se prepara para el lado de codificación y para el lado de decodificación, como en el primer ejemplo útil para comprender la presente invención.
[Primera forma de realización]
La primera forma de realización de la presente invención se describirá con referencia a las figs. 9 y 10. Como las configuraciones globales de un aparato de codificación de vídeo y un aparato de decodificación de vídeo en esta forma de realización son casi las mismas que en el primer ejemplo útil para comprender la presente invención, a continuación sólo se describirán las diferencias con respecto a los ejemplos primero y segundo útiles para comprender la presente invención.
En los ejemplos primero y segundo útiles para comprender la presente invención, se trata un vídeo sobre una base de trama. En esta forma de realización, sin embargo, se trata un vídeo sobre una base de imagen. Si existe una señal progresiva y una señal entrelazada como señales de imágenes de entrada, las imágenes no se codifican necesariamente sobre una base de trama. Considerando esto, una imagen asume (a) una imagen de una trama de una señal progresiva, (b) una imagen de una trama generada mediante la fusión de dos campos de una señal entrelazada, o (c) una imagen de un campo de una señal entrelazada.
Si una imagen que se va a codificar es una imagen con una estructura de trama del tipo (a) o (b), una imagen de referencia usada en predicción de compensación de movimiento se usa también como una trama con independencia de si la imagen codificada, que es la imagen de referencia, tiene una estructura de trama o una estructura de campo. Se asigna un número de imagen de referencia a esta imagen. Análogamente, si una imagen que se va a codificar es una imagen con una estructura de campo del tipo (c), una imagen de referencia usada en predicción de compensación de movimiento se trata también como un campo con independencia de si la imagen codificada, que es la imagen de referencia, tiene una estructura de trama o una estructura de campo. Se asigna un número de imagen de referencia a esta imagen.
Las ecuaciones (4), (5) y (6) son ejemplos de ecuaciones de predicción para números de imágenes de referencia y parámetros predictivos, que se preparan en el controlador de parámetros predictivos 203. Estos ejemplos son ecuaciones de predicción para generar una señal de imagen de predicción por predicción de compensación de movimiento usando una señal de imagen de referencia.
- -
- 1
Y = clip ((Di () x R ()i + 2LY ) >> L +D () i ) (4)
1 YY 2
- -
- 1
Cb = clip ((Ei () x(R ()i -128 )+ 2LC ) >> L + E ()i +128 ) (5)
1 Cb C 2
LC -1
Cr = clip ((Fi () x(R () i -128)+ 2 ) >> L + F () i +128 ) (6)
1 Cr C 2
en las que Y es una señal de imagen de predicción de una señal de luminancia, Cb y Cr son señales de imagen de predicción de dos señales de diferencia de color, RY(i), RCb(i) y RCr(i) son los valores de píxeles de la señal de luminancia y las dos señales de diferencia de color de una señal de imagen de referencia con índice i, D1(i) y D2(i) son el coeficiente de predicción y el desplazamiento de la señal de luminancia con índice i, E1(i) y E2(i) son el coeficiente de predicción y el desplazamiento de la señal de diferencia de color Cb con índice i, y F1(i) y F2(i) son el coeficiente de predicción y el desplazamiento de la señal de diferencia de color Cr con índice i. El índice i indica un valor de 0 (el número máximo de imágenes de referencia – 1), y codificadas para cada bloque que se decodificará (por ejemplo, para cada macrobloque). A continuación, los datos resultantes se transmiten al aparato de decodificación de vídeo.
Los parámetros predictivos D1(i), D2(i), E1(i), E2(i), F1(i) y F2(i) están representados por valores determinados por adelantado entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo o una unidad de codificación como, por ejemplo, una trama, un campo o un segmento, y se codifican junto con datos codificados para ser transmitidos desde el aparato de codificación de vídeo al aparato de decodificación de vídeo. Con esta operación, estos parámetros son compartidos por los dos aparatos.
Las ecuaciones (4), (5) y (6) son ecuaciones de predicción en las que se seleccionan potencias de 2, es decir, 2, 4, 8, 16,... como denominadores de los coeficientes de predicción por los que se multiplican las señales de imagen de referencia. Las ecuaciones de predicción pueden eliminar la necesidad de división y calcularse mediante corrimientos aritméticos. Esto hace posible evitar un gran aumento en el coste de cálculo debido a división.
En las ecuaciones (4), (5) y (6), ">>" de a >> b representa un operador para obtener un corrimiento aritmético de un número entero a a la derecha b bits. La función "clip" representa una función de recorte para ajustar el valor en "()" a 0 cuando es menor de 0, y ajustar el valor a 255 cuando es mayor de 255.
En este caso, supóngase que LY es la cantidad de corrimiento de una señal de luminancia, y LC es la cantidad de corrimiento de una señal de diferencia de color. Como estas cantidades de corrimiento LY y LC, se usan valores determinados por adelantado entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo. El aparato de codificación de vídeo codifica las cantidades de corrimiento LY y LC, junto con una tabla y datos codificados, en una unidad de codificación predeterminada, por ejemplo, una trama, campo o segmento, y transmite los datos resultantes al aparato de decodificación de vídeo. Esto permite que los dos aparatos compartan las cantidades de corrimiento Ly y LC.
En esta forma de realización, se preparan tablas de combinaciones de números de imágenes de referencia y parámetros predictivos como las mostradas en las figs. 9 y 10 en el controlador de parámetros predictivos 203 de la fig. 2. En referencia a las figs. 9 y 10, el índice i corresponde a imágenes de predicción que pueden seleccionarse para cada bloque. En este caso, están presentes cuatro tipos de imágenes de predicción en correspondencia con de 0 a 3 de índice i. El "número de imagen de referencia" es, en otras palabras, el número de una señal de vídeo decodificada local usada como imagen de referencia.
"Indicador" es un indicador que señala si una ecuación de predicción que usa un parámetro predictivo se aplica o no a un número de imagen de referencia indicado por el índice i. Si el Indicador es "0", la predicción de compensación de movimiento se realiza usando la señal de vídeo decodificada local correspondiente al número de imagen de referencia indicado por el índice i sin usar ningún parámetro predictivo. Si el Indicador es "1", una imagen de predicción se genera según las ecuaciones (4), (5) y (6) usando un vídeo local decodificado y un parámetro predictivo correspondiente al número de imagen de referencia indicado por el índice i, realizando así predicción de compensación de movimiento. Esta información de Indicador se codifica también, junto con una tabla y datos codificados, usando un valor determinado por adelantado entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo o en una unidad de codificación predeterminada, por ejemplo, una trama, campo o segmento, en el aparato de codificación de vídeo. Los datos resultantes se transmiten al aparato de decodificación de vídeo. Esto permite que los dos aparatos compartan la información de Indicador.
En estos casos, se genera una imagen de predicción usando un parámetro predictivo cuando índice i = 0 con respecto a un número de imagen de referencia 105, y se realiza predicción de compensación de movimiento sin usar ningún parámetro predictivo cuando i = 1. Como se describe anteriormente, puede existir una pluralidad de esquemas predictivos para el mismo número de imagen de referencia.
La tabla mostrada en la fig. 9 tiene parámetros predictivos D1(i), D2(i), E1(i), E2(i), F1(i) y F2(i) asignados a una señal de luminancia y dos señales de diferencia de color en correspondencia con las ecuaciones (4), (5) y (6). La fig. 10 muestra un ejemplo de una tabla en la que se asignan parámetros predictivos sólo a señales de luminancia. En general, el número de bits de una señal de diferencia de color no es muy grande en comparación con el número de bits de una señal de luminancia. Por este motivo, con el fin de reducir la cantidad de cálculo requerida para generar una imagen de predicción y el número de bits transmitidos en una tabla, se prepara una tabla, en la que los parámetros predictivos para señales de diferencia de color se omiten según se muestra en la fig. 10 y se asignan parámetros predictivos sólo a señales de luminancia. En este caso, sólo se usa la ecuación (4) como ecuación de predicción.
Las ecuaciones (7) a (12) son ecuaciones de predicción en un caso en el que se usa una pluralidad (dos en este caso) de imágenes de referencia.
LY -
Pi() =(Di ()x R ()i + 21) >> L +D () i (7)
Y 1 YY 2
LC -
Pi() = Ei ()x R ()i -128 + 21 ) >> L + E () i +128 (8)
Cb ( 1 ( Cb ) C 2
LC -
Pi() =(Fi ()x(R ()i -128 )+ 21) >> L + F ()i +128 (9)
Cr 1 Cr C 2
Y = clip ((P ()i + PY () j + 1)) >>1) (10)
Y
Cb = clip ((P ()i + P () j + 1)) >>1) (11)
Cb Cb
Cr = clip ((P ()i + P () j +1)) >>1) (12)
Cr Cr
Los fragmentos de información de los parámetros predictivos D1(i), D2(i), E1(i), E2(i), F1(i), F2(i), LY y LC e Indicador son valores determinados por adelantado entre el aparato de codificación de vídeo y el aparato de decodificación de vídeo o codificados, junto con datos codificados, en una unidad de codificación de dicha trama, campo o segmento, y son transmitidos desde el aparato de codificación de vídeo al aparato de decodificación de vídeo. Esto permite que los dos aparatos compartan estos fragmentos de información.
Si una imagen que va a decodificarse es una imagen que tiene una estructura de trama, una imagen de referencia usada para predicción de compensación de movimiento se trata también como una trama con independencia de si una imagen decodificada como imagen de referencia tiene estructura de trama o estructura de campo. A esta imagen se le asigna un número de imagen de referencia. Análogamente, si una imagen que va a programarse es una imagen que tiene una estructura de campo, una imagen de referencia usada para predicción de compensación de movimiento se trata también como un campo con independencia de si una imagen decodificada como una imagen de referencia tiene estructura de trama o estructura de campo. A esta imagen se le asigna un número de imagen de referencia.
(Acerca de la sintaxis de información de índice)
La fig. 11 muestra un ejemplo de una sintaxis en un caso en el que la información de índice se codifica en cada bloque. En primer lugar, para cada bloque está presente una información de modo MODO. De acuerdo con la información de modo MODO, se determina si se codifica la información de índice IDi que indica el valor de índice i y la información de índice IDj que indica el valor de índice j. La información codificada de información de vector de movimiento MVi para la predicción de compensación de movimiento de índice i y la información de vector de movimiento MVj para la predicción de compensación de movimiento de índice j se añade como información de vector de movimiento para cada bloque después de la información de índice codificada.
(Acerca de la estructura de datos del flujo de bits codificados)
La fig. 12 muestra un ejemplo específico de un flujo de bits codificados para cada bloque cuando una imagen de predicción se genera usando una imagen de referencia. La información de índice IDi se establece después de la información de modo MODO, y la información de vector de movimiento MVi se establece posteriormente. La información de vector de movimiento MVi es generalmente información de vector bidimensional. Dependiendo de un procedimiento de compensación de movimiento en un bloque que está indicado por la información de modo, puede enviarse adicionalmente una pluralidad de vectores bidimensionales.
La fig. 13 muestra un ejemplo específico de un flujo de bits codificados para cada bloque cuando una imagen de predicción se genera usando dos imágenes de referencia. La información de índice IDi y la información de índice IDj se establecen después de la información de modo MODO, y la información de vector de movimiento MVi y la información de vector de movimiento MVj se establecen posteriormente. La información de vector de movimiento MVi y la información de vector de movimiento j son generalmente información de vectores bidimensionales. Dependiendo de un procedimiento de compensación de movimiento en un bloque indicado por información de modo, puede enviarse adicionalmente una pluralidad de vectores bidimensionales.
Obsérvese que las estructuras anteriores de una sintaxis y un flujo de bits pueden aplicarse asimismo a todas las formas de realización.
[Segunda forma de realización]
A continuación se describirá la segunda forma de realización de la presente invención con referencia a las figs. 14 y
15. Como las configuraciones globales de un aparato de codificación de vídeo y un aparato de decodificación de vídeo en esta forma de realización son casi las mismas que las del primer ejemplo útil para comprender la presente invención, sólo se describirán las diferencias con respecto a los ejemplos primero y segundo útiles para comprender la presente invención y la primera forma de realización. En la primera forma de realización, la codificación sobre una base de trama y la codificación sobre una base de campo se conmutan para cada imagen. En la segunda forma de realización, la codificación sobre una base de trama y la codificación sobre una base de campo se conmutan para cada macrobloque.
Cuando la codificación sobre una base de trama y la codificación sobre una base de campo se conmutan para cada macrobloque, el mismo número de imagen de referencia indica diferentes imágenes, incluso dentro de la misma imagen, dependiendo de si un macrobloque se codifica sobre la base de trama o sobre la base de campo. Por este motivo, con las tablas mostradas en las figs. 9 y 10 usadas en la primera forma de realización, puede no generarse una señal de imagen de predicción apropiada.
Con el fin de resolver este problema, en esta forma de realización, las tablas de combinaciones de números de imágenes de referencia y parámetros predictivos como las mostradas en las figs. 14 y 15 se preparan en un controlador de parámetros predictivos 203 de la fig. 2. Supóngase que cuando se va a codificar un macrobloque sobre la base de campo, se usa el mismo parámetro predictivo que el que corresponde a un número de imagen de referencia (número de índice de trama de referencia) usado cuando el macrobloque se codifica sobre la base de trama.
La fig. 14 muestra una tabla usada cuando el macrobloque se codifica sobre una base de campo y una imagen que se va a codificar es un campo superior. Las filas superiores e inferiores de cada columna de índices de campos corresponden al campo superior y al campo inferior, respectivamente. Según se muestra en la fig. 14, el índice de tramas j y el índice de campos k están relacionados de forma que cuando k = 2j en el campo superior, k = 2j + 1 en el campo inferior. El número de trama de referencia m y el número de campo de referencia n están relacionados de forma que cuando n = 2m en el campo superior, n = 2m + 1 en el campo inferior.
La fig. 15 muestra una tabla usada cuando el macrobloque se codifica sobre una base de campo, y una imagen que se va a codificar es un campo inferior. Como en la tabla mostrada en la fig. 14, las filas superior e inferior de cada columna de índice de campos corresponden a un campo superior y al campo inferior, respectivamente. En la tabla de la fig. 15, el índice de tramas j y el índice de campos k están relacionados de forma que cuando k = 2 + 1 en el campo superior, k = 2j en el campo inferior. Esto hace posible asignar un valor pequeño como índice de campos k a un campo inferior en fase. La relación entre número de trama de referencia m y número de campo de referencia n es la misma que en la tabla de la fig. 14.
Cuando el macrobloque se va a codificar sobre una base de campo, se codifica un índice de tramas y un índice de campos como información de índice usando las tablas mostradas en las figs. 14 y 15. Cuando el macrobloque va a codificarse sobre una base de trama, sólo el índice de tramas común a las tablas de las figs. 14 y 15 está codificado por índice como información de índice.
En esta forma de realización, se asignan parámetros predictivos a una trama y un campo usando una tabla. Sin embargo, pueden prepararse por separado una tabla para tramas y una tabla para campos para una imagen o segmento.
Cada una de las formas de realización descritas anteriormente ha ilustrado el esquema de
5 codificación/decodificación de vídeo usando transformación ortogonal sobre una base de bloque. Sin embargo, aun cuando se use otra técnica de transformación como transformación de tren de ondas, puede usarse la técnica de la presente invención que se ha descrito en las formas de realización anteriores.
El procesamiento de codificación y decodificación de vídeo según la presente invención puede implementarse como
10 hardware (aparato) o software usando un ordenador. Parte del procesamiento puede implementarse mediante hardware, y el resto del procesamiento puede realizarse mediante software. Según la presente invención, puede proporcionarse un programa para hacer que el ordenador ejecute la codificación de vídeo o decodificación de vídeo anteriores o un medio de almacenamiento que almacene el programa.
15 Aplicabilidad industrial
Según se ha descrito anteriormente, el procedimiento y el aparato de codificación/decodificación de vídeo según la presente invención son adecuados para el campo de procesamiento de imágenes en el que se codifica y decodifica un vídeo que cambia de luminancia con el tiempo, como un vídeo de fundido o vídeo de disolución, en particular.
Claims (2)
- REIVINDICACIONES1.Un procedimiento de decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el procedimiento de decodificación de vídeo:una etapa de recepción de datos codificados obtenidos por codificación de una pluralidad de combinaciones indexadas, para un segmento, comprendiendo cada combinación un factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color para una única imagen de referencia, y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificación de un coeficiente de transformación ortogonal cuantificado de una señal de error de predicción relativa a una luminancia y dos diferencias de color, información de un vector de movimiento (414) e información de índice (415) que indica una combinación de la pluralidad de combinaciones indexadas para un bloque que se va a decodificar; una etapa de obtención, para el bloque que se va a decodificar, de una combinación que comprende el factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y el desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color y el número de imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; una etapa de generación de una señal de error de predicción para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantificado a cuantificación inversa y transformación ortogonal inversa; una etapa de generación de una imagen de predicción (412) para el bloque que se va a decodificar, multiplicando dicha imagen de referencia por el factor de ponderación y añadiendo el desplazamiento, basándose en el vector de movimiento para el bloque que se va a decodificar; y una etapa de generación de una señal de imagen decodificada (310) para el bloque que se va a decodificar, calculando una suma de la señal de error de predicción y la imagen de predicción.
- 2. Un aparato de decodificación de vídeo para decodificar datos codificados (300) obtenidos sometiendo un vídeo que tiene una luminancia (Y) y dos diferencias de color (Cb, Cr) a codificación de predicción, comprendiendo el aparato de decodificación de vídeo:medios (301, 302, 303) para recibir datos codificados obtenidos por codificación de una pluralidad de combinaciones indexadas, para un segmento, comprendiendo cada codificación un factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y un desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color para una única imagen de referencia y un único número de imagen de referencia asignado a dicha única imagen de referencia y codificación de un coeficiente de transformación ortogonal cuantificado de una señal de error de predicción relativa a una luminancia y dos diferencias de color, información de un vector de movimiento e información de índice que indica una combinación de la pluralidad de combinaciones indexadas para el bloque que se va a decodificar; medios (403) para obtener, para el bloque que se va a decodificar, una combinación que comprende el factor de ponderación (D1; E1; F1) para cada una de la luminancia y las dos diferencias de color y el desplazamiento (D2; E2; F2) para cada una de la luminancia y las dos diferencias de color y el número de imagen de referencia a partir de la información de índice y la pluralidad de combinaciones indexadas; medios (304, 305) para generar la señal de error de predicción para el bloque que se va a decodificar, sometiendo el coeficiente de transformación ortogonal cuantificado a cuantificación inversa y transformación ortogonal inversa; medios (308) para generar una imagen de predicción (412) para el bloque que se va a decodificar multiplicando dicha imagen de referencia por el factor de ponderación y añadiendo el desplazamiento basándose en el vector de movimiento para el bloque que se va a decodificar; y medios (306) para generar una señal de imagen decodificada (310) para el bloque que se va a decodificar, calculando una suma de la señal de error de predicción y la imagen de predicción.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002116718 | 2002-04-18 | ||
JP2002116718 | 2002-04-18 | ||
JP2002340042A JP4015934B2 (ja) | 2002-04-18 | 2002-11-22 | 動画像符号化方法及び装置 |
JP2002340042 | 2002-11-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2375448T3 true ES2375448T3 (es) | 2012-02-29 |
Family
ID=29253594
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07006019T Expired - Lifetime ES2375447T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de decodificación de video. |
ES07006030T Expired - Lifetime ES2375222T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de codificación de vídeo. |
ES07006018T Expired - Lifetime ES2375219T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de codifcación de vídeo. |
ES07006020T Expired - Lifetime ES2375382T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de decodificación de vídeo. |
ES07006021T Expired - Lifetime ES2375221T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de codificación de vídeo. |
ES07006032T Expired - Lifetime ES2375448T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de decodificación de video. |
Family Applications Before (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07006019T Expired - Lifetime ES2375447T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de decodificación de video. |
ES07006030T Expired - Lifetime ES2375222T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de codificación de vídeo. |
ES07006018T Expired - Lifetime ES2375219T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de codifcación de vídeo. |
ES07006020T Expired - Lifetime ES2375382T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de decodificación de vídeo. |
ES07006021T Expired - Lifetime ES2375221T3 (es) | 2002-04-18 | 2003-04-18 | Procedimiento y aparato de codificación de vídeo. |
Country Status (14)
Country | Link |
---|---|
US (383) | US7450643B2 (es) |
EP (16) | EP1798985B1 (es) |
JP (1) | JP4015934B2 (es) |
KR (3) | KR100676387B1 (es) |
CN (1) | CN1297149C (es) |
AT (8) | ATE532334T1 (es) |
AU (1) | AU2003227432B2 (es) |
BR (1) | BRPI0304533B1 (es) |
CA (2) | CA2646562C (es) |
DE (2) | DE60333892D1 (es) |
ES (6) | ES2375447T3 (es) |
MX (1) | MXPA03011607A (es) |
NO (1) | NO337383B1 (es) |
WO (1) | WO2003088679A1 (es) |
Families Citing this family (175)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004007379A (ja) * | 2002-04-10 | 2004-01-08 | Toshiba Corp | 動画像符号化方法及び動画像復号化方法 |
JP4015934B2 (ja) | 2002-04-18 | 2007-11-28 | 株式会社東芝 | 動画像符号化方法及び装置 |
US7277486B2 (en) * | 2002-05-03 | 2007-10-02 | Microsoft Corporation | Parameterization for fading compensation |
US8406301B2 (en) | 2002-07-15 | 2013-03-26 | Thomson Licensing | Adaptive weighting of reference pictures in video encoding |
US7903742B2 (en) * | 2002-07-15 | 2011-03-08 | Thomson Licensing | Adaptive weighting of reference pictures in video decoding |
CN1568622B (zh) | 2002-08-08 | 2010-05-26 | 松下电器产业株式会社 | 图像编码方法及图像编码装置 |
JP2004179687A (ja) * | 2002-11-22 | 2004-06-24 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
AU2003275672C1 (en) | 2002-11-25 | 2009-04-30 | Godo Kaisha Ip Bridge 1 | Moving Picture Coding Method and Moving Picture Decoding Method |
KR100693669B1 (ko) | 2003-03-03 | 2007-03-09 | 엘지전자 주식회사 | 피일드 매크로 블록의 레퍼런스 픽쳐 결정 방법 |
US8009739B2 (en) * | 2003-09-07 | 2011-08-30 | Microsoft Corporation | Intensity estimation/compensation for interlaced forward-predicted fields |
KR100601935B1 (ko) * | 2003-12-02 | 2006-07-14 | 삼성전자주식회사 | 디지탈 동영상 처리 방법 및 장치 |
JP2005223631A (ja) * | 2004-02-05 | 2005-08-18 | Sony Corp | データ処理装置およびその方法と符号化装置および復号装置 |
US7458976B2 (en) | 2005-03-02 | 2008-12-02 | Advanced Medical Optics, Inc. | Devices and methods for storing, loading, and delivering an intraocular lens |
US7599565B2 (en) * | 2004-03-10 | 2009-10-06 | Nokia Corporation | Method and device for transform-domain video editing |
US20050207490A1 (en) * | 2004-03-18 | 2005-09-22 | Wang Jason N | Stored picture index for AVC coding |
JP2005318297A (ja) * | 2004-04-28 | 2005-11-10 | Toshiba Corp | 動画像符号化・復号方法及び装置 |
EP1631089A1 (en) * | 2004-08-30 | 2006-03-01 | Matsushita Electric Industrial Co., Ltd. | Video coding apparatus and decoding apparatus |
CN101023673B (zh) * | 2004-09-16 | 2011-06-08 | 汤姆逊许可证公司 | 具有利用局部亮度变化的加权预测的视频编解码器 |
JP4284265B2 (ja) * | 2004-11-02 | 2009-06-24 | 株式会社東芝 | 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法 |
KR100656645B1 (ko) * | 2004-12-22 | 2006-12-11 | 엘지전자 주식회사 | 동영상 부호화 장치와 방법 |
US7970219B2 (en) | 2004-12-30 | 2011-06-28 | Samsung Electronics Co., Ltd. | Color image encoding and decoding method and apparatus using a correlation between chrominance components |
US8435289B2 (en) * | 2005-02-11 | 2013-05-07 | Abbott Medical Optics Inc. | Rapid exchange IOL insertion apparatus and methods of using |
US8562674B2 (en) * | 2005-02-11 | 2013-10-22 | Abbott Medical Optics Inc. | Front loading IOL insertion apparatus and method of using |
DE102005010978A1 (de) * | 2005-03-04 | 2006-09-07 | Technische Universität Dresden | Photoaktives Bauelement mit organischen Schichten |
US7804903B2 (en) * | 2005-06-27 | 2010-09-28 | Intel Corporation | Hardware-based CABAC decoder |
US7764377B2 (en) * | 2005-08-22 | 2010-07-27 | Applied Materials, Inc. | Spectrum based endpointing for chemical mechanical polishing |
US7843595B2 (en) * | 2005-09-19 | 2010-11-30 | Silverbrook Research Pty Ltd | Printing a calendar using a mobile device |
US7855805B2 (en) * | 2005-09-19 | 2010-12-21 | Silverbrook Research Pty Ltd | Printing a competition entry form using a mobile device |
US7756526B2 (en) | 2005-09-19 | 2010-07-13 | Silverbrook Research Pty Ltd | Retrieving a web page via a coded surface |
US7621442B2 (en) | 2005-09-19 | 2009-11-24 | Silverbrook Research Pty Ltd | Printing a subscription using a mobile device |
FR2891685B1 (fr) * | 2005-10-03 | 2008-04-18 | Envivio France Entpr Uniperson | Procede et dispositif d'estimation de mouvement a references multiples, procede et dispositif de codage, produits programme d'ordinateur et moyens de stockage correspondants. |
JP4534935B2 (ja) * | 2005-10-04 | 2010-09-01 | 株式会社日立製作所 | トランスコーダ、記録装置及びトランスコード方法 |
JP4166781B2 (ja) * | 2005-12-09 | 2008-10-15 | 松下電器産業株式会社 | 動きベクトル検出装置および動きベクトル検出方法 |
EP1971154A4 (en) * | 2006-01-05 | 2010-10-27 | Nippon Telegraph & Telephone | VIDEO CODING METHOD AND DECODING METHOD, DEVICE THEREFOR, DEVICE THEREFOR AND STORAGE MEDIUM WITH THE PROGRAM |
KR101357982B1 (ko) | 2006-01-09 | 2014-02-05 | 톰슨 라이센싱 | 멀티-뷰 비디오 코딩을 위한 축소 해상도 갱신 모드를제공하는 방법 및 장치 |
EP1809042A1 (en) * | 2006-01-13 | 2007-07-18 | THOMSON Licensing | Method and apparatus for coding interlaced video data |
AU2007208009B2 (en) * | 2006-01-26 | 2013-05-16 | Johnson & Johnson Surgical Vision, Inc. | Intraocular lens insertion apparatus and lens case |
US20070201554A1 (en) * | 2006-02-24 | 2007-08-30 | Samsung Electronics Co., Ltd. | Video transcoding method and apparatus |
BRPI0600823B1 (pt) * | 2006-03-14 | 2018-02-14 | Whirlpool S.A. | Sistema de programação de equipamentos eletrodomésticos e método de programação de equipamentos eletrodomésticos programáveis em linha de montagem |
BRPI0608004B1 (pt) * | 2006-03-22 | 2019-08-27 | Fraunhofer Ges Forschung | esquema de codificação permitindo escalabilidade de precisão |
US20080025408A1 (en) * | 2006-07-31 | 2008-01-31 | Sam Liu | Video encoding |
US8194744B2 (en) * | 2006-09-20 | 2012-06-05 | Lsi Corporation | Method and/or apparatus for implementing reduced bandwidth high performance VC1 intensity compensation |
CN101222638B (zh) * | 2007-01-08 | 2011-12-07 | 华为技术有限公司 | 多视视频编解码方法及装置 |
KR20090113281A (ko) * | 2007-01-24 | 2009-10-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US8238432B2 (en) * | 2007-03-05 | 2012-08-07 | Nec Corportion | Weighted prediction information calculation method, apparatus, and program, and video coding method, apparatus, and program |
WO2008114403A1 (ja) * | 2007-03-20 | 2008-09-25 | Fujitsu Limited | デコード方法、デコーダ及びデコード装置 |
KR101366242B1 (ko) * | 2007-03-29 | 2014-02-20 | 삼성전자주식회사 | 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치 |
TW200910975A (en) * | 2007-06-25 | 2009-03-01 | Nippon Telegraph & Telephone | Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs |
CN103338365B (zh) * | 2007-06-29 | 2017-04-12 | 夏普株式会社 | 图像编码装置、图像编码方法、图像译码装置、图像译码方法 |
JP4325708B2 (ja) * | 2007-07-05 | 2009-09-02 | ソニー株式会社 | データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム |
US7734321B2 (en) * | 2007-07-13 | 2010-06-08 | All Protect, Llc | Apparatus for non-invasive spectroscopic measurement of analytes, and method of using the same |
JPWO2009041215A1 (ja) * | 2007-09-25 | 2011-01-20 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
US8175158B2 (en) * | 2008-01-04 | 2012-05-08 | Sharp Laboratories Of America, Inc. | Methods and systems for inter-layer image prediction parameter determination |
KR20090090152A (ko) * | 2008-02-20 | 2009-08-25 | 삼성전자주식회사 | 영상의 부호화, 복호화 방법 및 장치 |
JP5481371B2 (ja) * | 2008-03-05 | 2014-04-23 | シャープ株式会社 | 通信装置および制御方法 |
KR100939917B1 (ko) | 2008-03-07 | 2010-02-03 | 에스케이 텔레콤주식회사 | 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법 |
US9967590B2 (en) | 2008-04-10 | 2018-05-08 | Qualcomm Incorporated | Rate-distortion defined interpolation for video coding based on fixed filter or adaptive filter |
US8804831B2 (en) | 2008-04-10 | 2014-08-12 | Qualcomm Incorporated | Offsets at sub-pixel resolution |
US8702794B2 (en) * | 2008-04-28 | 2014-04-22 | Abbott Medical Optics Inc. | Back loaded IOL insertion cartridge |
DE102008030878A1 (de) * | 2008-06-30 | 2009-12-31 | Giesecke & Devrient Gmbh | Vorrichtung und Verfahren für die Annahme oder Ausgabe von Banknoten |
US7842725B2 (en) | 2008-07-24 | 2010-11-30 | Ecolab USA, Inc. | Foaming alcohol compositions with selected dimethicone surfactants |
JP5156704B2 (ja) * | 2008-07-29 | 2013-03-06 | パナソニック株式会社 | 画像符号化装置、画像符号化方法、集積回路及びカメラ |
US10301912B2 (en) | 2008-08-20 | 2019-05-28 | Foro Energy, Inc. | High power laser flow assurance systems, tools and methods |
US8631454B2 (en) * | 2008-09-05 | 2014-01-14 | Motorola Mobility Llc | Method and apparatus for constrained distribution of television program material |
JP2010103969A (ja) * | 2008-09-25 | 2010-05-06 | Renesas Technology Corp | 画像復号方法、画像復号装置、画像符号化方法及び画像符号化装置 |
US8259801B2 (en) * | 2008-10-12 | 2012-09-04 | Mediatek Inc. | Methods for coding digital media data with prediction information and prediction error information being respectively carried by different bit stream sections |
US20100104654A1 (en) | 2008-10-27 | 2010-04-29 | Allergan, Inc. | Prostaglandin and prostamide drug delivery systems and intraocular therapeutic uses thereof |
US9548714B2 (en) | 2008-12-29 | 2017-01-17 | Altera Corporation | Power converter with a dynamically configurable controller and output filter |
JP5000012B2 (ja) * | 2009-04-06 | 2012-08-15 | 三菱電機株式会社 | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 |
US20100285884A1 (en) * | 2009-05-08 | 2010-11-11 | Gazillion Inc | High performance network art rendering systems |
ES2739475T3 (es) | 2009-05-11 | 2020-01-31 | Ntt Docomo Inc | Dispositivo, método y programa de codificación de imágenes en movimiento, y dispositivo, método y programa de decodificación de imágenes en movimiento |
WO2011067559A1 (en) | 2009-12-01 | 2011-06-09 | Oxford Nanopore Technologies Limited | Biochemical analysis instrument |
EP2514209A4 (en) | 2009-12-17 | 2014-03-26 | Ericsson Telefon Ab L M | METHOD AND DEVICE FOR VIDEO CODING |
AU2011220522B2 (en) * | 2010-02-25 | 2014-10-23 | Proedge Dental Products, Inc. | Dental sensor holder, method of fabricating and method of supporting same |
KR101885258B1 (ko) | 2010-05-14 | 2018-08-06 | 삼성전자주식회사 | 비디오 신호의 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치 |
KR101444691B1 (ko) * | 2010-05-17 | 2014-09-30 | 에스케이텔레콤 주식회사 | 참조영상 구성 및 인덱싱 장치 및 방법 |
WO2011145865A2 (ko) * | 2010-05-17 | 2011-11-24 | 에스케이텔레콤 주식회사 | 참조영상 구성 및 인덱싱 장치 및 방법 |
KR20120016991A (ko) | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
CN103370617B (zh) | 2010-10-01 | 2015-11-25 | 牛津纳米孔技术有限公司 | 生物化学分析设备和旋转阀 |
US8867295B2 (en) | 2010-12-17 | 2014-10-21 | Enpirion, Inc. | Power converter for a memory module |
US9532066B2 (en) * | 2011-01-21 | 2016-12-27 | Qualcomm Incorporated | Motion vector prediction |
US9008176B2 (en) | 2011-01-22 | 2015-04-14 | Qualcomm Incorporated | Combined reference picture list construction for video coding |
DE102012201710A1 (de) | 2011-02-14 | 2012-08-16 | Denso Corporation | Wärmetauscher |
KR101953384B1 (ko) | 2011-03-06 | 2019-03-04 | 엘지전자 주식회사 | 휘도 샘플을 이용한 색차 블록의 화면 내 예측 방법 및 이러한 방법을 사용하는 장치 |
US8934552B2 (en) | 2011-03-31 | 2015-01-13 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
WO2012140821A1 (ja) | 2011-04-12 | 2012-10-18 | パナソニック株式会社 | 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置 |
US9066070B2 (en) | 2011-04-25 | 2015-06-23 | Dolby Laboratories Licensing Corporation | Non-linear VDR residual quantizer |
KR101763496B1 (ko) | 2011-04-25 | 2017-07-31 | 엘지전자 주식회사 | 인트라 예측 방법과 이를 이용한 부호화기 및 복호화기 |
JP2012244353A (ja) * | 2011-05-18 | 2012-12-10 | Sony Corp | 画像処理装置および方法 |
EP3337172B1 (en) | 2011-05-24 | 2020-09-09 | Velos Media International Limited | Image encoding method, image encoding apparatus |
US9485518B2 (en) | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
EP4213483A1 (en) | 2011-05-27 | 2023-07-19 | Sun Patent Trust | Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus |
US9143799B2 (en) * | 2011-05-27 | 2015-09-22 | Cisco Technology, Inc. | Method, apparatus and computer program product for image motion prediction |
SG194746A1 (en) | 2011-05-31 | 2013-12-30 | Kaba Gmbh | Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device |
US8989271B2 (en) | 2011-05-31 | 2015-03-24 | Panasonic Intellectual Property Corporation Of America | Decoding method and apparatus with candidate motion vectors |
EP2717951B1 (en) | 2011-06-08 | 2020-10-28 | PARI Pharma GmbH | Aerosol generator |
MY161905A (en) * | 2011-06-27 | 2017-05-15 | Panasonic Ip Corp America | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding-decoding apparatus |
GB2492337B (en) * | 2011-06-27 | 2018-05-09 | British Broadcasting Corp | Video encoding and decoding using reference pictures |
JP5907367B2 (ja) * | 2011-06-28 | 2016-04-26 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US11647197B2 (en) | 2011-06-30 | 2023-05-09 | Velos Media, Llc | Context initialization based on slice header flag and slice type |
PL2728878T3 (pl) * | 2011-06-30 | 2020-06-15 | Sun Patent Trust | Sposób dekodowania obrazów, sposób kodowania obrazów, urządzenie do dekodowania obrazów, urządzenie do kodowania obrazów oraz urządzenie do kodowania/dekodowania obrazów |
MX341415B (es) | 2011-08-03 | 2016-08-19 | Panasonic Ip Corp America | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. |
KR101210894B1 (ko) | 2011-08-29 | 2012-12-11 | 주식회사 아이벡스피티홀딩스 | 머지 모드 움직임 정보 복호화 장치 |
KR101423648B1 (ko) * | 2011-09-09 | 2014-07-28 | 주식회사 케이티 | 화면 간 예측 수행시 후보 블록 결정 방법 및 이러한 방법을 사용하는 장치 |
PL3454561T3 (pl) * | 2011-09-14 | 2020-05-18 | Samsung Electronics Co., Ltd. | Sposób i urządzenie do kodowania jednostki predykcji (pu) w oparciu o jej rozmiar i odpowiadające urządzenie do dekodowania |
US20130069968A1 (en) * | 2011-09-16 | 2013-03-21 | Qualcomm Mems Technologies, Inc. | Methods and apparatus for hybrid halftoning of an image |
JPWO2013057783A1 (ja) * | 2011-10-17 | 2015-04-02 | 株式会社東芝 | 符号化方法及び復号方法 |
KR101738289B1 (ko) * | 2011-10-17 | 2017-05-19 | 가부시끼가이샤 도시바 | 복호 장치 및 복호 방법 |
MY168194A (en) | 2011-10-17 | 2018-10-15 | Toshiba Kk | Encoding device, decoding device, encoding method, and decoding method |
CN108881903B (zh) | 2011-10-19 | 2022-01-04 | 太阳专利托管公司 | 图像编码方法及装置、图像解码方法及装置、编解码装置 |
WO2013081365A1 (ko) * | 2011-11-28 | 2013-06-06 | 에스케이텔레콤 주식회사 | 개선된 머지를 이용한 영상 부호화/복호화 방법 및 장치 |
KR101934277B1 (ko) | 2011-11-28 | 2019-01-04 | 에스케이텔레콤 주식회사 | 개선된 머지를 이용한 영상 부호화/복호화 방법 및 장치 |
US9503756B2 (en) | 2011-12-09 | 2016-11-22 | Arris Enterprises, Inc. | Encoding and decoding using perceptual representations |
ITMI20112296A1 (it) * | 2011-12-16 | 2013-06-17 | St Microelectronics Srl | Dispositivo elettronico flessibile incapsulato e relativo metodo di fabbricazione |
US9531990B1 (en) | 2012-01-21 | 2016-12-27 | Google Inc. | Compound prediction using multiple sources or prediction modes |
US20140340393A1 (en) * | 2012-02-03 | 2014-11-20 | Thomson Licensing | System and method for error controllable repetitive structure discovery based compression |
US8737824B1 (en) | 2012-03-09 | 2014-05-27 | Google Inc. | Adaptively encoding a media stream with compound prediction |
US9473769B2 (en) * | 2012-06-08 | 2016-10-18 | Texas Instruments Incorporated | Method and system for reducing slice header parsing overhead in video coding |
US10482064B2 (en) * | 2012-06-26 | 2019-11-19 | Oracle International Corporations | De-duplicating immutable data at runtime |
RU2609063C2 (ru) | 2012-06-27 | 2017-01-30 | Кабусики Кайся Тосиба | Устройство кодирования, устройство декодирования, способ кодирования и способ декодирования |
US9185414B1 (en) | 2012-06-29 | 2015-11-10 | Google Inc. | Video encoding using variance |
CN108881921B (zh) * | 2012-09-26 | 2021-01-12 | 太阳专利托管公司 | 图像编码方法、图像编码装置 |
US9628790B1 (en) | 2013-01-03 | 2017-04-18 | Google Inc. | Adaptive composite intra prediction for image and video compression |
WO2015057809A1 (en) | 2013-10-16 | 2015-04-23 | Cummins Filtration Ip, Inc. | Electronic filter detection feature for liquid filtration systems |
KR101348566B1 (ko) * | 2013-10-21 | 2014-01-10 | 주식회사 케이티 | 화면 간 예측 수행시 후보 블록 결정 방법 및 이러한 방법을 사용하는 장치 |
US9609343B1 (en) | 2013-12-20 | 2017-03-28 | Google Inc. | Video coding using compound prediction |
JP5702011B2 (ja) * | 2014-04-07 | 2015-04-15 | 株式会社東芝 | 符号化方法、符号化装置及びプログラム |
JP2014197852A (ja) * | 2014-05-12 | 2014-10-16 | 株式会社東芝 | 復号方法及び復号装置 |
RU2568266C1 (ru) * | 2014-06-05 | 2015-11-20 | Федеральное государственное казенное военное образовательное учреждение высшего профессионального образования "ВОЕННАЯ АКАДЕМИЯ СВЯЗИ имени Маршала Советского Союза С.М. Буденного" Министерства обороны Российской Федерации | Способ кодирования и декодирования видеоинформации |
US11191519B2 (en) | 2014-08-05 | 2021-12-07 | HABICO, Inc. | Device, system, and method for hemispheric breast imaging |
CN107003669B (zh) | 2014-12-16 | 2023-01-31 | 伊莱克斯公司 | 用于机器人清洁设备的基于经验的路标 |
DE102015100575A1 (de) * | 2015-01-15 | 2016-07-21 | Osram Opto Semiconductors Gmbh | Verfahren zur Herstellung einer Mehrzahl von optoelektronischen Halbleiterbauelementen und optoelektronisches Halbleiterbauelement |
JP5916906B2 (ja) * | 2015-01-21 | 2016-05-11 | 株式会社東芝 | 符号化方法、復号方法、符号化装置、及び復号装置 |
JP5869160B2 (ja) * | 2015-02-16 | 2016-02-24 | 株式会社東芝 | 復号方法、復号装置及びプログラム |
US9348880B1 (en) | 2015-04-01 | 2016-05-24 | Palantir Technologies, Inc. | Federated search of multiple sources with conflict resolution |
US9509217B2 (en) * | 2015-04-20 | 2016-11-29 | Altera Corporation | Asymmetric power flow controller for a power converter and method of operating the same |
DE202015004739U1 (de) | 2015-07-02 | 2016-10-05 | Schwan-Stabilo Cosmetics Gmbh & Co. Kg | Schoner für einen Stift |
WO2017035831A1 (en) | 2015-09-06 | 2017-03-09 | Mediatek Inc. | Adaptive inter prediction |
US10257528B2 (en) * | 2015-10-08 | 2019-04-09 | Electronics And Telecommunications Research Institute | Method and apparatus for adaptive encoding and decoding based on image quality |
US9998745B2 (en) | 2015-10-29 | 2018-06-12 | Microsoft Technology Licensing, Llc | Transforming video bit streams for parallel processing |
US10421915B2 (en) | 2015-12-04 | 2019-09-24 | Exxonmobil Research And Engineering Company | Crude bio oil pretreatment and upgrading |
JP6088036B2 (ja) * | 2015-12-22 | 2017-03-01 | 株式会社東芝 | 復号方法、復号装置及びプログラム |
JP6132950B2 (ja) * | 2016-04-05 | 2017-05-24 | 株式会社東芝 | 符号化方法、復号方法、符号化装置、及び復号装置 |
US10097133B2 (en) * | 2016-04-14 | 2018-10-09 | Shahriar Shamloo Aliabadi | Racking system for installing solar panels |
US10114071B2 (en) | 2016-04-26 | 2018-10-30 | International Business Machines Corporation | Testing mechanism for a proximity fail probability of defects across integrated chips |
WO2017197146A1 (en) | 2016-05-13 | 2017-11-16 | Vid Scale, Inc. | Systems and methods for generalized multi-hypothesis prediction for video coding |
JP6921870B2 (ja) * | 2016-05-24 | 2021-08-18 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 画像復号方法、画像符号化方法及び記録媒体 |
CN106358041B (zh) | 2016-08-30 | 2019-05-10 | 北京奇艺世纪科技有限公司 | 一种帧间预测编码方法及装置 |
JP6235742B2 (ja) * | 2017-01-30 | 2017-11-22 | 株式会社東芝 | 電子機器、復号方法及びプログラム |
JP6235745B2 (ja) * | 2017-02-23 | 2017-11-22 | 株式会社東芝 | 電子機器、復号方法及びプログラム |
JP6262380B2 (ja) * | 2017-02-23 | 2018-01-17 | 株式会社東芝 | 電子機器、復号方法及びプログラム |
JP6262381B2 (ja) * | 2017-02-23 | 2018-01-17 | 株式会社東芝 | 電子機器、復号方法及びプログラム |
JP6783707B2 (ja) * | 2017-06-14 | 2020-11-11 | 日本電信電話株式会社 | データ数決定装置、データ数決定方法及びデータ数決定プログラム |
JP6959559B2 (ja) * | 2017-06-14 | 2021-11-02 | 日本電信電話株式会社 | データ数決定装置、データ数決定方法及びデータ数決定プログラム |
JP2018007278A (ja) * | 2017-10-11 | 2018-01-11 | 株式会社東芝 | 復号方法及び復号装置 |
JP2018007279A (ja) * | 2017-10-11 | 2018-01-11 | 株式会社東芝 | 復号方法及び復号装置 |
JP6396566B2 (ja) * | 2017-10-20 | 2018-09-26 | 株式会社東芝 | 電子機器、符号化方法及びプログラム |
JP6419934B2 (ja) * | 2017-12-04 | 2018-11-07 | 株式会社東芝 | 電子機器、符号化方法及びプログラム |
US10941251B2 (en) | 2018-03-22 | 2021-03-09 | Momentive Performance Materials Inc. | Silicone polymer and composition comprising the same |
CA3039702A1 (en) * | 2018-04-06 | 2019-10-06 | Comcast Cable Communications, Llc | Systems and methods for compressing video |
KR20200010113A (ko) * | 2018-07-18 | 2020-01-30 | 한국전자통신연구원 | 지역 조명 보상을 통한 효과적인 비디오 부호화/복호화 방법 및 장치 |
JP2019009792A (ja) * | 2018-08-22 | 2019-01-17 | 株式会社東芝 | 符号化方法、復号方法及び符号化データ |
JP6903778B2 (ja) * | 2018-10-01 | 2021-07-14 | 株式会社東芝 | 記憶装置、送信装置および受信装置 |
CN117880495A (zh) | 2018-12-03 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 候选的最大数量的指示方法 |
US10979097B2 (en) | 2019-09-05 | 2021-04-13 | Micron Technology, Inc. | Wireless devices and systems including examples of full duplex transmission using neural networks or recurrent neural networks |
JP2022553885A (ja) * | 2019-10-21 | 2022-12-26 | ニュー スカイ エナジー,エルエルシー | アルカリ第二鉄水溶液を生成および使用するための方法 |
US11676495B2 (en) | 2019-11-15 | 2023-06-13 | International Business Machines Corporation | Dynamic autonomous vehicle mutuality support for autonomous vehicle networks |
US11317094B2 (en) * | 2019-12-24 | 2022-04-26 | Tencent America LLC | Method and apparatus for video coding using geometric partitioning mode |
MX2022007973A (es) * | 2019-12-30 | 2022-07-05 | Fg innovation co ltd | Dispositivo y metodo para codificar datos de video. |
JP6744507B2 (ja) * | 2020-01-07 | 2020-08-19 | 株式会社東芝 | 符号化方法および復号方法 |
JP7475908B2 (ja) * | 2020-03-17 | 2024-04-30 | シャープ株式会社 | 予測画像生成装置、動画像復号装置及び動画像符号化装置 |
JP7000498B2 (ja) * | 2020-05-29 | 2022-01-19 | 株式会社東芝 | 記憶装置、送信装置および符号化方法 |
CN111836064B (zh) * | 2020-07-02 | 2022-01-07 | 北京字节跳动网络技术有限公司 | 一种直播内容识别方法及装置 |
US11917357B2 (en) * | 2021-04-12 | 2024-02-27 | Yealink (Xiamen) Network Technology Co., Ltd. | Earpiece |
CN113435594B (zh) * | 2021-06-30 | 2022-08-02 | 平安科技(深圳)有限公司 | 安防检测模型训练方法、装置、设备及存储介质 |
Family Cites Families (110)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US59733A (en) * | 1866-11-13 | Improved broom | ||
US6081A (en) * | 1849-02-06 | Cooking-stove | ||
US645658A (en) * | 1898-02-21 | 1900-03-20 | Erl V Beals | Printing-bar. |
US645668A (en) * | 1898-11-02 | 1900-03-20 | Axel R Lemoon | Child's seat for bicycles. |
US673126A (en) * | 1900-07-17 | 1901-04-30 | Edouard Martin | Manufacture of silver-coated aluminium plates. |
US2391937A (en) * | 1943-11-05 | 1946-01-01 | Miller Wrapping And Sealing Ma | Sandwich-making machine |
US2664055A (en) * | 1951-02-20 | 1953-12-29 | Et Oakes Corp | Apparatus for depositing marshmallow, dough, batters, and the like |
US2853961A (en) * | 1955-01-25 | 1958-09-30 | Et Oakes Corp | Sandwich making machine |
DE1288895B (de) * | 1964-06-23 | 1969-02-06 | Bahlsen Werner | Vorrichtung zum Herstellen von mit einer Fuellschicht versehenem Gebaeck |
US3340824A (en) * | 1965-08-23 | 1967-09-12 | Peters Mach Co | Sandwiching machines |
US4194443A (en) * | 1975-08-08 | 1980-03-25 | Mims Herman D | Cookie capper apparatus |
US4162882A (en) * | 1978-03-22 | 1979-07-31 | Peters Machinery Company | Valve mechanism for sandwich creme |
US4469021A (en) * | 1982-12-17 | 1984-09-04 | Peters Machinery Company | Dual feed stencil assembly for a sandwiching machine |
EP0189299A3 (en) * | 1985-01-22 | 1987-09-02 | Apv Corporation Limited | Improvements in or relating to creaming apparatus |
US4615264A (en) * | 1985-04-15 | 1986-10-07 | Peters Machinery Company | Filler diverting valve mechanism |
US5218435A (en) * | 1991-02-20 | 1993-06-08 | Massachusetts Institute Of Technology | Digital advanced television systems |
US5289132A (en) * | 1991-12-04 | 1994-02-22 | Oksman Henry C | Voltage characteristic comparator for discriminating solutions |
JP2894067B2 (ja) | 1992-02-26 | 1999-05-24 | 日本電気株式会社 | 動画像符号化制御方法および動画像符号化装置 |
US5644660A (en) | 1992-04-09 | 1997-07-01 | Picturetel Corporation | Method and apparatus for efficiently transmitting forced updates in a moving picture codec |
TW405470U (en) * | 1993-01-22 | 2000-09-11 | Toyota Motor Co Ltd | Apparatus for machining and measuring a gear shape |
JP3416215B2 (ja) * | 1993-08-31 | 2003-06-16 | キヤノン株式会社 | ファクシミリ装置 |
JP2853553B2 (ja) * | 1994-02-22 | 1999-02-03 | 日本電気株式会社 | 動画像符号化方式 |
GB9421037D0 (en) * | 1994-10-19 | 1994-12-07 | Apv Corp Ltd | Cream depositing |
US6104754A (en) * | 1995-03-15 | 2000-08-15 | Kabushiki Kaisha Toshiba | Moving picture coding and/or decoding systems, and variable-length coding and/or decoding system |
US5903313A (en) * | 1995-04-18 | 1999-05-11 | Advanced Micro Devices, Inc. | Method and apparatus for adaptively performing motion compensation in a video processing apparatus |
EP0836187A4 (en) * | 1995-06-29 | 1999-03-10 | Ibm | SIGNAL RECORDING / REPRODUCING APPARATUS AND METHOD FOR CHANGING A RUNNING SEQUENCE OF AN ERROR CORRECTION PROCEDURE |
US5666170A (en) * | 1995-07-12 | 1997-09-09 | Thomson Consumer Electronics, Inc. | Apparatus for decoding video signals encoded in different formats |
DE19528929C2 (de) * | 1995-08-07 | 1999-07-01 | Feron Aluminium | Verfahren zur Herstellung von Kunststoffolien, die zur Herstellung von Folienkondensatoren dienen |
JPH09121358A (ja) * | 1995-10-25 | 1997-05-06 | Matsushita Electric Ind Co Ltd | 画像符号化及び復号化装置と方法 |
US6002802A (en) * | 1995-10-27 | 1999-12-14 | Kabushiki Kaisha Toshiba | Video encoding and decoding apparatus |
JPH09163373A (ja) * | 1995-12-08 | 1997-06-20 | Toshiba Corp | 雑音低減装置 |
JP3681835B2 (ja) * | 1995-12-27 | 2005-08-10 | 三菱電機株式会社 | 画像符号化装置及び画像復号化装置及び符号化・復号化システム |
JP2980030B2 (ja) * | 1996-07-19 | 1999-11-22 | 日本電気株式会社 | Wwwブラウザにおける表示ページ制御方式及び方法 |
US6266370B1 (en) | 1996-09-03 | 2001-07-24 | Nippon Telegraph And Telephone Corporation | Brightness-variation compensation method and coding/decoding apparatus for moving pictures |
JP2938412B2 (ja) | 1996-09-03 | 1999-08-23 | 日本電信電話株式会社 | 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体 |
US6549575B1 (en) * | 1996-11-07 | 2003-04-15 | International Business Machines Corporation. | Efficient, flexible motion estimation architecture for real time MPEG2 compliant encoding |
JPH10224795A (ja) * | 1997-01-31 | 1998-08-21 | Nippon Telegr & Teleph Corp <Ntt> | 動画像符号化方法、復号方法、符号化器および復号器 |
JPH10234014A (ja) * | 1997-02-20 | 1998-09-02 | Matsushita Electric Ind Co Ltd | 画像復号化方法、画像復号化装置、画像多重化方法、画像多重化装置、及び記録媒体 |
US6226370B1 (en) * | 1997-02-21 | 2001-05-01 | Lionel C. Shih | Telephone pager and intercom system |
JPH10248072A (ja) | 1997-03-05 | 1998-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の色差信号変化補償方法、動画像符号化装置および動画像復号装置 |
US6175592B1 (en) * | 1997-03-12 | 2001-01-16 | Matsushita Electric Industrial Co., Ltd. | Frequency domain filtering for down conversion of a DCT encoded picture |
JP2897761B2 (ja) * | 1997-07-18 | 1999-05-31 | 日本電気株式会社 | ブロック・マッチング演算装置及びプログラムを記録した機械読み取り可能な記録媒体 |
FR2768006B1 (fr) * | 1997-09-04 | 1999-10-15 | Alsthom Cge Alcatel | Procede de compression d'un signal a echantillons multidimensionnels |
US6807231B1 (en) * | 1997-09-12 | 2004-10-19 | 8×8, Inc. | Multi-hypothesis motion-compensated video image predictor |
US6249318B1 (en) * | 1997-09-12 | 2001-06-19 | 8×8, Inc. | Video coding/decoding arrangement and method therefor |
US5987180A (en) * | 1997-09-26 | 1999-11-16 | Sarnoff Corporation | Multiple component compression encoder motion search method and apparatus |
JPH11122495A (ja) * | 1997-10-09 | 1999-04-30 | Olympus Optical Co Ltd | 画像符号化装置 |
WO1999041697A1 (en) | 1998-02-13 | 1999-08-19 | Quvis, Inc. | Apparatus and method for optimized compression of interlaced motion images |
JPH11239351A (ja) * | 1998-02-23 | 1999-08-31 | Nippon Telegr & Teleph Corp <Ntt> | 動画像符号化方法、復号方法、符号化器、復号器、動画像符号化プログラムおよび動画像復号プログラムを記録した記録媒体 |
US6188730B1 (en) * | 1998-03-23 | 2001-02-13 | Internatonal Business Machines Corporation | Highly programmable chrominance filter for 4:2:2 to 4:2:0 conversion during MPEG2 video encoding |
US6259734B1 (en) * | 1998-04-03 | 2001-07-10 | Matsushita Electric Industrial Co., Ltd. | Image processing method, image processing apparatus, and data storage media |
JP2891696B1 (ja) * | 1998-04-23 | 1999-05-17 | 株式会社東京機械製作所 | 印刷画像検査装置 |
US6310919B1 (en) * | 1998-05-07 | 2001-10-30 | Sarnoff Corporation | Method and apparatus for adaptively scaling motion vector information in an information stream decoder |
US6411651B1 (en) * | 1998-06-26 | 2002-06-25 | Compaq Information Technologies Group, L.P. | Method and system for distributed video compression in personal computer architecture |
JP2000023162A (ja) * | 1998-06-29 | 2000-01-21 | Sony Corp | 符号化装置及び符号化方法 |
US6496194B1 (en) * | 1998-07-30 | 2002-12-17 | Fujitsu Limited | Halftone display method and display apparatus for reducing halftone disturbances occurring in moving image portions |
JP2000050268A (ja) * | 1998-07-31 | 2000-02-18 | Minolta Co Ltd | 画像符号化装置 |
US6757334B1 (en) * | 1998-08-10 | 2004-06-29 | Kamilo Feher | Bit rate agile third-generation wireless CDMA, GSM, TDMA and OFDM system |
JP3166716B2 (ja) | 1998-08-12 | 2001-05-14 | 日本電気株式会社 | フェード画像対応動画像符号化装置及び符号化方法 |
US6266150B1 (en) * | 1998-08-24 | 2001-07-24 | International Business Machines Corporation | Virtual printer |
KR100396643B1 (ko) * | 1998-09-07 | 2003-10-17 | 엘지전자 주식회사 | 무선패킷데이터단말 |
US6229852B1 (en) * | 1998-10-26 | 2001-05-08 | Sony Corporation | Reduced-memory video decoder for compressed high-definition video data |
GB2343321B (en) * | 1998-11-02 | 2003-03-26 | Nokia Mobile Phones Ltd | Error concealment in a video signal |
US6310915B1 (en) * | 1998-11-20 | 2001-10-30 | Harmonic Inc. | Video transcoder with bitstream look ahead for rate control and statistical multiplexing |
JP4208315B2 (ja) * | 1998-12-25 | 2009-01-14 | キヤノン株式会社 | データ通信制御装置及びその制御方法、データ通信システム、記録媒体 |
KR19990068269A (ko) * | 1999-01-02 | 1999-09-06 | 김중성 | 마이크로프로세서를이용한고압방전등용전자식안정기 |
US6973126B1 (en) * | 1999-03-05 | 2005-12-06 | Kdd Corporation | Video coding apparatus according to a feature of a video picture |
US6022802A (en) * | 1999-03-18 | 2000-02-08 | Taiwan Semiconductor Manufacturing Company | Low dielectric constant intermetal dielectric (IMD) by formation of air gap between metal lines |
US6389132B1 (en) * | 1999-10-13 | 2002-05-14 | Avaya Technology Corp. | Multi-tasking, web-based call center |
US6317481B1 (en) * | 1999-10-27 | 2001-11-13 | Canon Kabushiki Kaisha | Stereo x-ray image processing |
US7524187B2 (en) * | 2004-09-10 | 2009-04-28 | S.C. Johnson & Son, Inc. | Wick holder locking mechanism |
CN1168320C (zh) * | 2000-02-01 | 2004-09-22 | 皇家菲利浦电子有限公司 | 对图像预测编码的方法及视频编码器 |
US6266658B1 (en) * | 2000-04-20 | 2001-07-24 | Microsoft Corporation | Index tuner for given workload |
US6459773B1 (en) * | 2000-05-05 | 2002-10-01 | Lucent Technologies Inc. | System to pre-qualify copper subscriber loops for high bandwidth access service using subscriber or network generated tones |
KR100694034B1 (ko) * | 2000-05-13 | 2007-03-12 | 삼성전자주식회사 | 데이터 전송률 자동 검출장치 |
US6654502B1 (en) * | 2000-06-07 | 2003-11-25 | Intel Corporation | Adaptive early exit techniques in image correlation |
US7116372B2 (en) * | 2000-10-20 | 2006-10-03 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for deinterlacing |
US6925126B2 (en) * | 2001-04-18 | 2005-08-02 | Koninklijke Philips Electronics N.V. | Dynamic complexity prediction and regulation of MPEG2 decoding in a media processor |
US7266150B2 (en) * | 2001-07-11 | 2007-09-04 | Dolby Laboratories, Inc. | Interpolation of video compression frames |
US6607231B2 (en) * | 2001-07-23 | 2003-08-19 | Ford Global Technologies, Inc. | Liftgate with low-liftover liftglass |
NL1018698C2 (nl) | 2001-08-03 | 2003-02-04 | Skf Ab | Lagereenheid met draaibare binnenring voor een trucknaaf. |
US6556658B2 (en) * | 2001-09-17 | 2003-04-29 | International Business Machines Corporation | Method for adding redundant vias on VLSI chips |
JP2004007379A (ja) * | 2002-04-10 | 2004-01-08 | Toshiba Corp | 動画像符号化方法及び動画像復号化方法 |
CN1917641A (zh) * | 2002-01-18 | 2007-02-21 | 株式会社东芝 | 视频编码方法和装置以及视频解码方法和装置 |
JP4015934B2 (ja) * | 2002-04-18 | 2007-11-28 | 株式会社東芝 | 動画像符号化方法及び装置 |
EP1344457A1 (en) * | 2002-03-14 | 2003-09-17 | Meincke A/S | A method of and an apparatus for producing sandwich cookies |
ES2351306T3 (es) | 2002-04-18 | 2011-02-02 | Kabushiki Kaisha Toshiba | Procedimiento y dispositivo para la codificación de imágen en movimiento. |
US7277486B2 (en) * | 2002-05-03 | 2007-10-02 | Microsoft Corporation | Parameterization for fading compensation |
JP4064150B2 (ja) * | 2002-05-20 | 2008-03-19 | シャープ株式会社 | 無線通信装置及び無線通信装置の制御方法 |
JP2004023458A (ja) * | 2002-06-17 | 2004-01-22 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
US7376186B2 (en) * | 2002-07-15 | 2008-05-20 | Thomson Licensing | Motion estimation with weighting prediction |
US7903742B2 (en) * | 2002-07-15 | 2011-03-08 | Thomson Licensing | Adaptive weighting of reference pictures in video decoding |
US7154952B2 (en) * | 2002-07-19 | 2006-12-26 | Microsoft Corporation | Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures |
DE10245676B4 (de) * | 2002-09-30 | 2008-01-17 | Siemens Ag | Phasenkontrast-Röntgengerät mit Strichfokus zur Erstellung eines Phasenkontrast-Bildes eines Objekts und Verfahren zum Erstellen des Phasenkontrast-Bildes |
CA2763080C (en) * | 2002-10-01 | 2014-12-02 | Panasonic Corporation | Picture coding apparatus, picture decoding apparatus and the methods |
JP3693642B2 (ja) * | 2002-10-29 | 2005-09-07 | 本田技研工業株式会社 | ナビゲーション装置 |
US7167749B2 (en) * | 2002-11-05 | 2007-01-23 | Wilson Greatbatch Technologies, Inc. | One piece header assembly for an implantable medical device |
JP2004179687A (ja) * | 2002-11-22 | 2004-06-24 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
JP4756573B2 (ja) * | 2002-12-04 | 2011-08-24 | トムソン ライセンシング | 重み付け予測を用いたビデオ・クロス・フェードの符号器および符号化方法 |
JP4419458B2 (ja) * | 2003-07-14 | 2010-02-24 | リコープリンティングシステムズ株式会社 | インクジェットヘッドの製造方法 |
US20050050310A1 (en) | 2003-07-15 | 2005-03-03 | Bailey Daniel W. | Method, system, and apparatus for improving multi-core processor performance |
US7577198B2 (en) * | 2003-09-07 | 2009-08-18 | Microsoft Corporation | Number of reference fields for an interlaced forward-predicted field |
US7400681B2 (en) * | 2003-11-28 | 2008-07-15 | Scientific-Atlanta, Inc. | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
US7650164B2 (en) * | 2004-11-02 | 2010-01-19 | Broadcom Corporation | Method and system for exchanging data between a mobile phone and a PC |
DE112005002738T5 (de) * | 2004-11-05 | 2007-09-27 | General Motors Corp. (N.D.Ges.D. Staates Delaware), Detroit | Mit einem Gerüst versehene borazan-lithiumhydrid Wasserstoffspeichermateralien |
US7557198B2 (en) * | 2005-05-04 | 2009-07-07 | Exagen Diagnostics, Inc. | Acute myelogenous leukemia biomarkers |
US7680164B1 (en) * | 2005-05-31 | 2010-03-16 | Mindspeed Technologies, Inc. | Configurable laser driver with common anode and common cathode outputs |
JP4236654B2 (ja) * | 2005-09-13 | 2009-03-11 | 株式会社東芝 | 動画像符号化装置及びその方法 |
JP2008065971A (ja) * | 2006-08-10 | 2008-03-21 | Fujitsu Ltd | 半導体メモリおよびメモリシステム |
US7400661B2 (en) * | 2006-11-08 | 2008-07-15 | Lexmark International, Inc. | Automatic setting of laser diode bias current |
-
2002
- 2002-11-22 JP JP2002340042A patent/JP4015934B2/ja not_active Expired - Lifetime
-
2003
- 2003-04-18 ES ES07006019T patent/ES2375447T3/es not_active Expired - Lifetime
- 2003-04-18 EP EP20070006020 patent/EP1798985B1/en not_active Expired - Lifetime
- 2003-04-18 ES ES07006030T patent/ES2375222T3/es not_active Expired - Lifetime
- 2003-04-18 KR KR1020067005243A patent/KR100676387B1/ko not_active IP Right Cessation
- 2003-04-18 AT AT07006018T patent/ATE532334T1/de active
- 2003-04-18 AT AT07006020T patent/ATE532336T1/de active
- 2003-04-18 CN CNB038007576A patent/CN1297149C/zh not_active Expired - Fee Related
- 2003-04-18 KR KR1020067017061A patent/KR100786404B1/ko not_active IP Right Cessation
- 2003-04-18 EP EP20070006031 patent/EP1798988B1/en not_active Expired - Lifetime
- 2003-04-18 EP EP20070006019 patent/EP1798984B1/en not_active Expired - Lifetime
- 2003-04-18 ES ES07006018T patent/ES2375219T3/es not_active Expired - Lifetime
- 2003-04-18 ES ES07006020T patent/ES2375382T3/es not_active Expired - Lifetime
- 2003-04-18 EP EP20070006018 patent/EP1798983B1/en not_active Expired - Lifetime
- 2003-04-18 CA CA 2646562 patent/CA2646562C/en not_active Expired - Lifetime
- 2003-04-18 EP EP20070006021 patent/EP1798986B1/en not_active Expired - Lifetime
- 2003-04-18 EP EP20110161191 patent/EP2355518A1/en not_active Withdrawn
- 2003-04-18 ES ES07006021T patent/ES2375221T3/es not_active Expired - Lifetime
- 2003-04-18 BR BRPI0304533A patent/BRPI0304533B1/pt active IP Right Grant
- 2003-04-18 EP EP20110161287 patent/EP2355522A1/en not_active Withdrawn
- 2003-04-18 AT AT03717655T patent/ATE479285T1/de active
- 2003-04-18 AT AT07006031T patent/ATE487330T1/de active
- 2003-04-18 EP EP20110161205 patent/EP2355519A1/en not_active Withdrawn
- 2003-04-18 EP EP20110161328 patent/EP2357828A1/en not_active Withdrawn
- 2003-04-18 EP EP20110161253 patent/EP2355521A1/en not_active Withdrawn
- 2003-04-18 AU AU2003227432A patent/AU2003227432B2/en not_active Ceased
- 2003-04-18 DE DE60333892T patent/DE60333892D1/de not_active Expired - Lifetime
- 2003-04-18 CA CA002450246A patent/CA2450246C/en not_active Expired - Fee Related
- 2003-04-18 EP EP20110161251 patent/EP2355520A1/en not_active Withdrawn
- 2003-04-18 EP EP20110161334 patent/EP2355523A1/en not_active Withdrawn
- 2003-04-18 AT AT07006030T patent/ATE532338T1/de active
- 2003-04-18 MX MXPA03011607A patent/MXPA03011607A/es active IP Right Grant
- 2003-04-18 ES ES07006032T patent/ES2375448T3/es not_active Expired - Lifetime
- 2003-04-18 EP EP20070006032 patent/EP1798989B1/en not_active Expired - Lifetime
- 2003-04-18 WO PCT/JP2003/004992 patent/WO2003088679A1/ja active Application Filing
- 2003-04-18 DE DE60334861T patent/DE60334861D1/de not_active Expired - Lifetime
- 2003-04-18 AT AT07006021T patent/ATE532337T1/de active
- 2003-04-18 EP EP20110161300 patent/EP2357827A1/en not_active Withdrawn
- 2003-04-18 AT AT07006019T patent/ATE532335T1/de active
- 2003-04-18 KR KR20047000224A patent/KR100615023B1/ko not_active IP Right Cessation
- 2003-04-18 EP EP20030717655 patent/EP1414245B1/en not_active Expired - Lifetime
- 2003-04-18 AT AT07006032T patent/ATE532339T1/de active
- 2003-04-18 EP EP20070006030 patent/EP1798987B1/en not_active Expired - Lifetime
-
2004
- 2004-01-12 US US10/754,535 patent/US7450643B2/en not_active Expired - Fee Related
- 2004-01-29 NO NO20040498A patent/NO337383B1/no not_active IP Right Cessation
-
2007
- 2007-03-19 US US11/687,923 patent/US7680183B2/en not_active Expired - Fee Related
- 2007-03-19 US US11/687,956 patent/US7864861B2/en not_active Expired - Fee Related
- 2007-03-19 US US11/687,984 patent/US20070165714A1/en not_active Abandoned
- 2007-03-19 US US11/687,916 patent/US20070160130A1/en not_active Abandoned
- 2007-03-19 US US11/687,975 patent/US7876834B2/en not_active Expired - Fee Related
- 2007-03-19 US US11/688,009 patent/US7864855B2/en not_active Expired - Fee Related
- 2007-03-19 US US11/687,941 patent/US7876817B2/en not_active Expired - Fee Related
-
2008
- 2008-11-26 US US12/323,621 patent/US7680184B2/en not_active Expired - Lifetime
- 2008-11-26 US US12/323,824 patent/US7856056B2/en not_active Expired - Fee Related
- 2008-11-26 US US12/323,662 patent/US7675973B2/en not_active Expired - Lifetime
- 2008-11-26 US US12/323,867 patent/US7873108B2/en not_active Expired - Fee Related
- 2008-11-26 US US12/323,712 patent/US7672375B2/en not_active Expired - Lifetime
- 2008-11-26 US US12/323,966 patent/US7881379B2/en not_active Expired - Fee Related
- 2008-11-26 US US12/323,762 patent/US7702018B2/en not_active Expired - Lifetime
- 2008-11-26 US US12/323,930 patent/US20090135907A1/en not_active Abandoned
-
2009
- 2009-01-30 US US12/363,694 patent/US20090141813A1/en not_active Abandoned
- 2009-01-30 US US12/363,680 patent/US20090245352A1/en not_active Abandoned
- 2009-01-30 US US12/363,686 patent/US20090262816A1/en not_active Abandoned
- 2009-01-30 US US12/363,688 patent/US20090141812A1/en not_active Abandoned
- 2009-01-30 US US12/363,692 patent/US7929607B2/en not_active Expired - Fee Related
- 2009-03-10 US US12/400,836 patent/US20090168877A1/en not_active Abandoned
- 2009-03-10 US US12/400,824 patent/US20090168876A1/en not_active Abandoned
- 2009-03-10 US US12/400,829 patent/US20090168879A1/en not_active Abandoned
- 2009-05-08 US US12/463,170 patent/US20090219995A1/en not_active Abandoned
- 2009-05-08 US US12/437,585 patent/US20090213931A1/en not_active Abandoned
- 2009-05-08 US US12/437,604 patent/US7876822B2/en not_active Expired - Fee Related
- 2009-05-14 US US12/466,039 patent/US7856057B2/en not_active Expired - Fee Related
- 2009-05-14 US US12/466,243 patent/US7675975B2/en not_active Expired - Lifetime
- 2009-05-15 US US12/467,033 patent/US7738557B2/en not_active Expired - Lifetime
- 2009-05-15 US US12/466,955 patent/US20090225840A1/en not_active Abandoned
- 2009-05-15 US US12/466,822 patent/US7649941B2/en not_active Expired - Lifetime
- 2009-05-15 US US12/466,945 patent/US20090225859A1/en not_active Abandoned
- 2009-05-15 US US12/466,778 patent/US20090232209A1/en not_active Abandoned
- 2009-05-15 US US12/466,829 patent/US7649942B2/en not_active Expired - Lifetime
- 2009-05-15 US US12/466,810 patent/US7864862B2/en not_active Expired - Fee Related
- 2009-05-15 US US12/466,889 patent/US20090225858A1/en not_active Abandoned
- 2009-05-15 US US12/466,771 patent/US20090225837A1/en not_active Abandoned
- 2009-05-15 US US12/467,073 patent/US20090225841A1/en not_active Abandoned
- 2009-05-15 US US12/466,723 patent/US20090219997A1/en not_active Abandoned
- 2009-05-15 US US12/466,858 patent/US7684485B2/en not_active Expired - Lifetime
- 2009-05-15 US US12/466,954 patent/US7876823B2/en not_active Expired - Fee Related
- 2009-05-15 US US12/466,552 patent/US7864845B2/en not_active Expired - Fee Related
- 2009-05-15 US US12/466,836 patent/US7864856B2/en not_active Expired - Fee Related
- 2009-05-15 US US12/466,883 patent/US20090225839A1/en not_active Abandoned
- 2009-05-15 US US12/466,518 patent/US20090225854A1/en not_active Abandoned
- 2009-05-15 US US12/466,429 patent/US7864844B2/en not_active Expired - Fee Related
- 2009-06-09 US US12/481,280 patent/US7852920B2/en not_active Expired - Fee Related
- 2009-06-09 US US12/481,293 patent/US20090238272A1/en not_active Abandoned
- 2009-06-09 US US12/481,328 patent/US7869509B2/en not_active Expired - Fee Related
- 2009-06-09 US US12/481,313 patent/US20090245355A1/en not_active Abandoned
- 2009-06-10 US US12/482,128 patent/US7848422B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/482,094 patent/US7889797B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,716 patent/US7881378B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/482,157 patent/US7848423B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/482,007 patent/US7864851B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,760 patent/US7848419B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,727 patent/US7869511B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,706 patent/US7876825B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,960 patent/US7852923B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,886 patent/US7889796B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/482,234 patent/US7864852B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,695 patent/US7852922B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,721 patent/US7873109B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,673 patent/US20090252222A1/en not_active Abandoned
- 2009-06-10 US US12/481,846 patent/US7848420B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,794 patent/US7869512B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,688 patent/US7876824B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,720 patent/US7869510B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,660 patent/US7848417B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,640 patent/US7852921B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,924 patent/US7869513B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,932 patent/US7860164B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,873 patent/US7864850B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,840 patent/US7843996B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,992 patent/US7860171B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/482,212 patent/US7852924B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/481,746 patent/US7848418B2/en not_active Expired - Fee Related
- 2009-06-10 US US12/482,066 patent/US7848421B2/en not_active Expired - Fee Related
- 2009-06-25 US US12/491,271 patent/US7876826B2/en not_active Expired - Fee Related
- 2009-06-25 US US12/491,347 patent/US7852926B2/en not_active Expired - Fee Related
- 2009-06-25 US US12/491,346 patent/US7852925B2/en not_active Expired - Fee Related
- 2009-06-25 US US12/491,400 patent/US20090262805A1/en not_active Abandoned
- 2009-06-25 US US12/491,829 patent/US20090257495A1/en not_active Abandoned
- 2009-06-25 US US12/491,375 patent/US7869520B2/en not_active Expired - Fee Related
- 2009-06-25 US US12/491,398 patent/US7869521B2/en not_active Expired - Fee Related
- 2009-06-26 US US12/492,557 patent/US7852929B2/en not_active Expired - Fee Related
- 2009-06-26 US US12/492,384 patent/US7852927B2/en not_active Expired - Fee Related
- 2009-06-26 US US12/492,459 patent/US7852928B2/en not_active Expired - Fee Related
- 2009-06-26 US US12/492,190 patent/US20090262822A1/en not_active Abandoned
- 2009-06-26 US US12/492,241 patent/US20090262823A1/en not_active Abandoned
- 2009-06-26 US US12/492,228 patent/US20090262806A1/en not_active Abandoned
- 2009-06-26 US US12/492,272 patent/US20090262807A1/en not_active Abandoned
- 2009-06-26 US US12/492,249 patent/US20090262824A1/en not_active Abandoned
- 2009-06-26 US US12/492,503 patent/US7864853B2/en not_active Expired - Lifetime
- 2009-06-29 US US12/493,954 patent/US7852942B2/en not_active Expired - Fee Related
- 2009-06-29 US US12/493,480 patent/US7852930B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,411 patent/US7869514B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,384 patent/US7852933B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,369 patent/US20090262827A1/en not_active Abandoned
- 2009-06-30 US US12/494,599 patent/US7852935B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,380 patent/US7852932B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,561 patent/US20090262814A1/en not_active Abandoned
- 2009-06-30 US US12/494,463 patent/US20090262831A1/en not_active Abandoned
- 2009-06-30 US US12/494,522 patent/US7876827B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,500 patent/US7864854B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,678 patent/US7856058B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,373 patent/US20090262828A1/en not_active Abandoned
- 2009-06-30 US US12/494,398 patent/US20090262811A1/en not_active Abandoned
- 2009-06-30 US US12/494,548 patent/US20090262833A1/en not_active Abandoned
- 2009-06-30 US US12/494,364 patent/US20090262810A1/en not_active Abandoned
- 2009-06-30 US US12/494,501 patent/US7869515B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,378 patent/US7852931B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,391 patent/US7852934B2/en not_active Expired - Fee Related
- 2009-06-30 US US12/494,439 patent/US20090262830A1/en not_active Abandoned
- 2009-07-23 US US12/508,265 patent/US7852943B2/en not_active Expired - Fee Related
- 2009-07-23 US US12/508,260 patent/US7848431B2/en not_active Expired - Fee Related
- 2009-07-27 US US12/509,788 patent/US7869519B2/en not_active Expired - Fee Related
- 2009-07-28 US US12/510,468 patent/US7852945B2/en not_active Expired - Fee Related
- 2009-07-28 US US12/510,765 patent/US7856061B2/en not_active Expired - Fee Related
- 2009-07-28 US US12/510,440 patent/US7852944B2/en not_active Expired - Fee Related
- 2009-07-28 US US12/510,787 patent/US7848412B2/en not_active Expired - Fee Related
- 2009-07-28 US US12/510,670 patent/US7852947B2/en not_active Expired - Fee Related
- 2009-07-28 US US12/510,606 patent/US7852946B2/en not_active Expired - Fee Related
- 2009-07-29 US US12/511,108 patent/US7848415B2/en not_active Expired - Fee Related
- 2009-07-29 US US12/511,093 patent/US7852917B2/en not_active Expired - Fee Related
- 2009-07-29 US US12/511,104 patent/US7864846B2/en not_active Expired - Fee Related
- 2009-07-29 US US12/511,097 patent/US7848413B2/en not_active Expired - Fee Related
- 2009-07-29 US US12/511,100 patent/US7848414B2/en not_active Expired - Fee Related
- 2009-07-30 US US12/512,116 patent/US7864847B2/en not_active Expired - Fee Related
- 2009-07-30 US US12/512,654 patent/US7860163B2/en not_active Expired - Fee Related
- 2009-07-30 US US12/512,089 patent/US20100061453A1/en not_active Abandoned
- 2009-07-30 US US12/512,764 patent/US7852918B2/en not_active Expired - Fee Related
- 2009-10-09 US US12/576,760 patent/US20100027627A1/en not_active Abandoned
- 2009-10-09 US US12/576,788 patent/US20100027629A1/en not_active Abandoned
- 2009-10-09 US US12/576,967 patent/US20100027630A1/en not_active Abandoned
- 2009-10-09 US US12/576,745 patent/US20100027626A1/en not_active Abandoned
- 2009-10-09 US US12/576,821 patent/US20100027669A1/en not_active Abandoned
- 2009-10-09 US US12/576,781 patent/US20100027628A1/en not_active Abandoned
- 2009-10-09 US US12/576,712 patent/US20100027668A1/en not_active Abandoned
- 2009-10-12 US US12/577,542 patent/US20100027636A1/en not_active Abandoned
- 2009-10-12 US US12/577,407 patent/US20100027632A1/en not_active Abandoned
- 2009-10-12 US US12/577,556 patent/US20100027671A1/en not_active Abandoned
- 2009-10-12 US US12/577,426 patent/US20100027633A1/en not_active Abandoned
- 2009-10-12 US US12/577,231 patent/US20100027631A1/en not_active Abandoned
- 2009-10-12 US US12/577,449 patent/US20100027634A1/en not_active Abandoned
- 2009-10-12 US US12/577,437 patent/US20100098158A1/en not_active Abandoned
- 2009-10-12 US US12/577,562 patent/US20100027639A1/en not_active Abandoned
- 2009-10-12 US US12/577,554 patent/US20100027638A1/en not_active Abandoned
- 2009-10-12 US US12/577,398 patent/US20100118962A1/en not_active Abandoned
- 2009-10-12 US US12/577,481 patent/US20100027635A1/en not_active Abandoned
- 2009-10-12 US US12/577,551 patent/US20100027637A1/en not_active Abandoned
- 2009-10-12 US US12/577,523 patent/US20100027670A1/en not_active Abandoned
- 2009-10-13 US US12/578,009 patent/US20100027646A1/en not_active Abandoned
- 2009-10-13 US US12/578,084 patent/US20100027658A1/en not_active Abandoned
- 2009-10-13 US US12/578,206 patent/US20100027648A1/en not_active Abandoned
- 2009-10-13 US US12/578,344 patent/US20100027651A1/en not_active Abandoned
- 2009-10-13 US US12/578,049 patent/US20100034261A1/en not_active Abandoned
- 2009-10-13 US US12/577,752 patent/US20100027643A1/en not_active Abandoned
- 2009-10-13 US US12/577,762 patent/US20100027645A1/en not_active Abandoned
- 2009-10-13 US US12/578,232 patent/US20100027650A1/en not_active Abandoned
- 2009-10-13 US US12/577,754 patent/US7881380B2/en not_active Expired - Fee Related
- 2009-10-13 US US12/577,748 patent/US20100027642A1/en not_active Abandoned
- 2009-10-13 US US12/577,794 patent/US20100027673A1/en not_active Abandoned
- 2009-10-13 US US12/577,757 patent/US7881381B2/en not_active Expired - Fee Related
- 2009-10-13 US US12/577,744 patent/US20100027641A1/en not_active Abandoned
- 2009-10-13 US US12/578,075 patent/US20100027674A1/en not_active Abandoned
- 2009-10-13 US US12/578,199 patent/US7881383B2/en not_active Expired - Fee Related
- 2009-10-13 US US12/578,378 patent/US20100027676A1/en not_active Abandoned
- 2009-10-13 US US12/578,293 patent/US20100118946A1/en not_active Abandoned
- 2009-10-13 US US12/578,242 patent/US20100034275A1/en not_active Abandoned
- 2009-10-13 US US12/577,743 patent/US20100027640A1/en not_active Abandoned
- 2009-10-13 US US12/578,145 patent/US7881382B2/en not_active Expired - Fee Related
- 2009-10-13 US US12/578,211 patent/US20100027649A1/en not_active Abandoned
- 2009-10-13 US US12/577,772 patent/US20100034267A1/en not_active Abandoned
- 2009-10-13 US US12/578,015 patent/US20100027647A1/en not_active Abandoned
- 2009-10-14 US US12/578,615 patent/US20100034263A1/en not_active Abandoned
- 2009-10-14 US US12/578,821 patent/US20100034276A1/en not_active Abandoned
- 2009-10-14 US US12/579,157 patent/US20100034279A1/en not_active Abandoned
- 2009-10-14 US US12/579,082 patent/US20100034278A1/en not_active Abandoned
- 2009-10-14 US US12/579,214 patent/US20100034281A1/en not_active Abandoned
- 2009-10-14 US US12/579,235 patent/US20100027677A1/en not_active Abandoned
- 2009-10-14 US US12/579,215 patent/US20100034282A1/en not_active Abandoned
- 2009-10-14 US US12/578,882 patent/US20100027652A1/en not_active Abandoned
- 2009-10-14 US US12/579,181 patent/US20100034280A1/en not_active Abandoned
- 2009-10-14 US US12/579,071 patent/US20100034277A1/en not_active Abandoned
- 2009-10-15 US US12/580,037 patent/US7869506B2/en not_active Expired - Fee Related
- 2009-10-15 US US12/580,087 patent/US20100098168A1/en not_active Abandoned
- 2009-10-15 US US12/580,074 patent/US20100040144A1/en not_active Abandoned
- 2009-10-16 US US12/580,892 patent/US20100040145A1/en not_active Abandoned
- 2009-10-16 US US12/580,282 patent/US20100034266A1/en not_active Abandoned
- 2009-10-16 US US12/580,568 patent/US20100040147A1/en not_active Abandoned
- 2009-10-16 US US12/580,874 patent/US20100034264A1/en not_active Abandoned
- 2009-10-16 US US12/580,552 patent/US20100034285A1/en not_active Abandoned
- 2009-10-16 US US12/580,857 patent/US20100034259A1/en not_active Abandoned
- 2009-10-16 US US12/580,284 patent/US20100034283A1/en not_active Abandoned
- 2009-10-16 US US12/580,286 patent/US20100034284A1/en not_active Abandoned
- 2009-12-07 US US12/632,455 patent/US20100080301A1/en not_active Abandoned
- 2009-12-07 US US12/632,430 patent/US20100080300A1/en not_active Abandoned
- 2009-12-07 US US12/631,987 patent/US20100086040A1/en not_active Abandoned
- 2009-12-07 US US12/631,976 patent/US20100086039A1/en not_active Abandoned
- 2009-12-07 US US12/631,962 patent/US20100086038A1/en not_active Abandoned
- 2009-12-07 US US12/631,955 patent/US20100086037A1/en not_active Abandoned
- 2009-12-10 US US12/635,039 patent/US20100086041A1/en not_active Abandoned
- 2009-12-10 US US12/635,100 patent/US20100086047A1/en not_active Abandoned
- 2009-12-10 US US12/634,714 patent/US20100091865A1/en not_active Abandoned
- 2009-12-10 US US12/635,133 patent/US20100086054A1/en not_active Abandoned
- 2009-12-11 US US12/636,324 patent/US20100086044A1/en not_active Abandoned
- 2009-12-11 US US12/636,475 patent/US20100091849A1/en not_active Abandoned
- 2009-12-11 US US12/635,914 patent/US20100091868A1/en not_active Abandoned
- 2009-12-11 US US12/636,404 patent/US20100091848A1/en not_active Abandoned
- 2009-12-11 US US12/635,738 patent/US20100091866A1/en not_active Abandoned
- 2009-12-11 US US12/636,385 patent/US20100086045A1/en not_active Abandoned
- 2009-12-11 US US12/635,840 patent/US20100091867A1/en not_active Abandoned
- 2009-12-11 US US12/636,059 patent/US20100086042A1/en not_active Abandoned
- 2009-12-11 US US12/635,733 patent/US20100091847A1/en not_active Abandoned
- 2009-12-11 US US12/636,161 patent/US20100086043A1/en not_active Abandoned
- 2009-12-14 US US12/637,147 patent/US20100091871A1/en not_active Abandoned
- 2009-12-14 US US12/637,332 patent/US20100091851A1/en not_active Abandoned
- 2009-12-14 US US12/637,136 patent/US20100091870A1/en not_active Abandoned
- 2009-12-14 US US12/637,116 patent/US20100091850A1/en not_active Abandoned
- 2009-12-14 US US12/637,075 patent/US20100091869A1/en not_active Abandoned
- 2009-12-15 US US12/638,495 patent/US20100086056A1/en not_active Abandoned
- 2009-12-15 US US12/638,187 patent/US20100098172A1/en not_active Abandoned
- 2009-12-15 US US12/637,993 patent/US20100091876A1/en not_active Abandoned
- 2009-12-15 US US12/637,785 patent/US20100091872A1/en not_active Abandoned
- 2009-12-15 US US12/637,880 patent/US20100098159A1/en not_active Abandoned
- 2009-12-15 US US12/638,541 patent/US20100086046A1/en not_active Abandoned
- 2009-12-15 US US12/637,994 patent/US20100091855A1/en not_active Abandoned
- 2009-12-15 US US12/637,866 patent/US20100098171A1/en not_active Abandoned
- 2009-12-15 US US12/637,842 patent/US20100091854A1/en not_active Abandoned
- 2009-12-15 US US12/637,966 patent/US20100091874A1/en not_active Abandoned
- 2009-12-15 US US12/638,258 patent/US20100091856A1/en not_active Abandoned
- 2009-12-15 US US12/637,981 patent/US20100091875A1/en not_active Abandoned
- 2009-12-15 US US12/638,119 patent/US20100091877A1/en not_active Abandoned
- 2009-12-15 US US12/637,781 patent/US20100091852A1/en not_active Abandoned
- 2009-12-15 US US12/637,782 patent/US20100091853A1/en not_active Abandoned
- 2009-12-15 US US12/638,420 patent/US20100086055A1/en not_active Abandoned
- 2009-12-15 US US12/637,801 patent/US20100091873A1/en not_active Abandoned
- 2009-12-17 US US12/640,045 patent/US20100098160A1/en not_active Abandoned
-
2010
- 2010-01-12 US US12/685,974 patent/US20100111186A1/en not_active Abandoned
- 2010-01-12 US US12/685,950 patent/US20100111177A1/en not_active Abandoned
- 2010-01-12 US US12/685,932 patent/US20100111176A1/en not_active Abandoned
- 2010-01-13 US US12/686,409 patent/US7885328B2/en not_active Expired - Fee Related
- 2010-01-13 US US12/686,407 patent/US7876831B2/en not_active Expired - Fee Related
- 2010-01-14 US US12/687,219 patent/US7869508B2/en not_active Expired - Fee Related
- 2010-01-14 US US12/687,161 patent/US7869507B2/en not_active Expired - Fee Related
- 2010-01-14 US US12/687,474 patent/US20100118964A1/en not_active Abandoned
- 2010-01-14 US US12/687,384 patent/US20100111190A1/en not_active Abandoned
- 2010-01-14 US US12/687,179 patent/US7864848B2/en not_active Expired - Fee Related
- 2010-01-14 US US12/687,445 patent/US20100118954A1/en not_active Abandoned
- 2010-01-15 US US12/688,334 patent/US20100118950A1/en not_active Abandoned
- 2010-01-15 US US12/688,480 patent/US20100118952A1/en not_active Abandoned
- 2010-01-15 US US12/688,384 patent/US20100118965A1/en not_active Abandoned
- 2010-01-15 US US12/688,444 patent/US20100118951A1/en not_active Abandoned
- 2010-01-15 US US12/687,959 patent/US20100118955A1/en not_active Abandoned
- 2010-01-15 US US12/688,521 patent/US20100118966A1/en not_active Abandoned
- 2010-01-15 US US12/688,498 patent/US20100118953A1/en not_active Abandoned
- 2010-01-19 US US12/689,497 patent/US20100118967A1/en not_active Abandoned
- 2010-01-20 US US12/690,650 patent/US20100118968A1/en not_active Abandoned
- 2010-01-26 US US12/693,472 patent/US20100124280A1/en not_active Abandoned
- 2010-01-26 US US12/693,851 patent/US20100124283A1/en not_active Abandoned
- 2010-01-26 US US12/693,478 patent/US20100124281A1/en not_active Abandoned
- 2010-01-26 US US12/693,817 patent/US20100124282A1/en not_active Abandoned
- 2010-01-27 US US12/694,304 patent/US20100128782A1/en not_active Abandoned
- 2010-01-27 US US12/694,311 patent/US20100128783A1/en not_active Abandoned
- 2010-01-27 US US12/694,320 patent/US20100128784A1/en not_active Abandoned
- 2010-01-29 US US12/696,095 patent/US20100128785A1/en not_active Abandoned
- 2010-04-15 US US12/760,644 patent/US20100195717A1/en not_active Abandoned
- 2010-04-15 US US12/760,653 patent/US20100195718A1/en not_active Abandoned
- 2010-04-15 US US12/760,611 patent/US20100195725A1/en not_active Abandoned
- 2010-04-15 US US12/760,630 patent/US20100195726A1/en not_active Abandoned
- 2010-04-16 US US12/761,442 patent/US20100195737A1/en not_active Abandoned
- 2010-04-16 US US12/761,625 patent/US20100195728A1/en not_active Abandoned
- 2010-04-16 US US12/761,831 patent/US20100195719A1/en not_active Abandoned
- 2010-04-16 US US12/761,436 patent/US20100202533A1/en not_active Abandoned
- 2010-04-16 US US12/761,465 patent/US20100195727A1/en not_active Abandoned
- 2010-04-16 US US12/761,789 patent/US20100202534A1/en not_active Abandoned
- 2010-04-19 US US12/762,477 patent/US20100202515A1/en not_active Abandoned
- 2010-04-19 US US12/762,446 patent/US20100195720A1/en not_active Abandoned
- 2010-04-19 US US12/762,833 patent/US20100195729A1/en not_active Abandoned
- 2010-04-19 US US12/762,466 patent/US20100202514A1/en not_active Abandoned
- 2010-04-20 US US12/763,309 patent/US20100202523A1/en not_active Abandoned
- 2010-04-20 US US12/763,896 patent/US20100202525A1/en not_active Abandoned
- 2010-04-20 US US12/763,265 patent/US20100202522A1/en not_active Abandoned
- 2010-04-20 US US12/763,271 patent/US20100202536A1/en not_active Abandoned
- 2010-04-20 US US12/763,321 patent/US20100202524A1/en not_active Abandoned
- 2010-04-21 US US12/764,663 patent/US20100202527A1/en not_active Abandoned
- 2010-04-21 US US12/764,473 patent/US20100202526A1/en not_active Abandoned
- 2010-04-22 US US12/765,020 patent/US20100202529A1/en not_active Abandoned
- 2010-04-22 US US12/765,006 patent/US20100202528A1/en not_active Abandoned
- 2010-04-22 US US12/765,313 patent/US20100202537A1/en not_active Abandoned
- 2010-04-22 US US12/765,002 patent/US20100202516A1/en not_active Abandoned
- 2010-04-22 US US12/765,366 patent/US20100208815A1/en not_active Abandoned
- 2010-04-23 US US12/766,188 patent/US20100208821A1/en not_active Abandoned
- 2010-04-23 US US12/766,388 patent/US20100208822A1/en not_active Abandoned
- 2010-04-23 US US12/766,294 patent/US20100202517A1/en not_active Abandoned
- 2010-04-23 US US12/766,153 patent/US20100202538A1/en not_active Abandoned
- 2010-04-27 US US12/768,225 patent/US20100202520A1/en not_active Abandoned
- 2010-04-27 US US12/768,156 patent/US20100202530A1/en not_active Abandoned
- 2010-05-28 US US12/789,529 patent/US20100232502A1/en not_active Abandoned
- 2010-05-28 US US12/789,552 patent/US20100232512A1/en not_active Abandoned
- 2010-05-28 US US12/790,410 patent/US20100239008A1/en not_active Abandoned
- 2010-05-28 US US12/789,488 patent/US20100232501A1/en not_active Abandoned
- 2010-05-28 US US12/789,510 patent/US20100239007A1/en not_active Abandoned
- 2010-05-28 US US12/790,450 patent/US20100239004A1/en not_active Abandoned
- 2010-06-01 US US12/791,436 patent/US20100239012A1/en not_active Abandoned
- 2010-06-01 US US12/791,029 patent/US20100239010A1/en not_active Abandoned
- 2010-06-01 US US12/791,383 patent/US20100239011A1/en not_active Abandoned
- 2010-06-01 US US12/791,018 patent/US20100239009A1/en not_active Abandoned
- 2010-06-02 US US12/791,959 patent/US20100239014A1/en not_active Abandoned
- 2010-06-02 US US12/791,937 patent/US20100239013A1/en not_active Abandoned
- 2010-06-02 US US12/792,503 patent/US20100239021A1/en not_active Abandoned
- 2010-06-02 US US12/791,925 patent/US20100239005A1/en not_active Abandoned
- 2010-06-02 US US12/792,516 patent/US20100239022A1/en not_active Abandoned
- 2010-06-02 US US12/791,917 patent/US20100239020A1/en not_active Abandoned
- 2010-06-29 US US12/826,339 patent/US20100266013A1/en not_active Abandoned
- 2010-06-30 US US12/827,796 patent/US20100266022A1/en not_active Abandoned
- 2010-06-30 US US12/826,921 patent/US20100266018A1/en not_active Abandoned
- 2010-06-30 US US12/827,292 patent/US20100266020A1/en not_active Abandoned
- 2010-06-30 US US12/826,750 patent/US20100266016A1/en not_active Abandoned
- 2010-06-30 US US12/827,491 patent/US20100266021A1/en not_active Abandoned
- 2010-06-30 US US12/827,960 patent/US20100272175A1/en not_active Abandoned
- 2010-06-30 US US12/827,866 patent/US20100266023A1/en not_active Abandoned
- 2010-06-30 US US12/827,136 patent/US20100266019A1/en not_active Abandoned
- 2010-06-30 US US12/826,746 patent/US20100266015A1/en not_active Abandoned
- 2010-06-30 US US12/826,739 patent/US20100266014A1/en not_active Abandoned
- 2010-06-30 US US12/826,778 patent/US20100266017A1/en not_active Abandoned
- 2010-07-01 US US12/828,333 patent/US20100266026A1/en not_active Abandoned
- 2010-07-01 US US12/828,365 patent/US20100278235A1/en not_active Abandoned
- 2010-07-01 US US12/828,738 patent/US20100266030A1/en not_active Abandoned
- 2010-07-01 US US12/828,321 patent/US20100266024A1/en not_active Abandoned
- 2010-07-01 US US12/828,339 patent/US20100266027A1/en not_active Abandoned
- 2010-07-01 US US12/828,325 patent/US20100266025A1/en not_active Abandoned
- 2010-07-01 US US12/828,389 patent/US20100266029A1/en not_active Abandoned
- 2010-07-01 US US12/828,349 patent/US20100266028A1/en not_active Abandoned
- 2010-07-02 US US12/829,492 patent/US20100266040A1/en not_active Abandoned
- 2010-07-02 US US12/829,432 patent/US20100266033A1/en not_active Abandoned
- 2010-07-02 US US12/829,459 patent/US20100266035A1/en not_active Abandoned
- 2010-07-02 US US12/829,422 patent/US20100266031A1/en not_active Abandoned
- 2010-07-02 US US12/829,441 patent/US20100266034A1/en not_active Abandoned
- 2010-07-02 US US12/829,428 patent/US20100266032A1/en not_active Abandoned
- 2010-07-02 US US12/829,486 patent/US20100266039A1/en not_active Abandoned
- 2010-07-02 US US12/829,460 patent/US20100266036A1/en not_active Abandoned
- 2010-07-02 US US12/829,461 patent/US20100266037A1/en not_active Abandoned
- 2010-07-02 US US12/829,417 patent/US20100272176A1/en not_active Abandoned
- 2010-07-02 US US12/829,465 patent/US20100266038A1/en not_active Abandoned
- 2010-07-09 US US12/833,164 patent/US20100272180A1/en not_active Abandoned
- 2010-07-09 US US12/833,161 patent/US20100272179A1/en not_active Abandoned
- 2010-07-09 US US12/833,045 patent/US20100272177A1/en not_active Abandoned
- 2010-07-09 US US12/833,151 patent/US20100272178A1/en not_active Abandoned
- 2010-07-12 US US12/834,122 patent/US20100278238A1/en not_active Abandoned
- 2010-07-12 US US12/834,134 patent/US20100278239A1/en not_active Abandoned
- 2010-07-13 US US12/835,253 patent/US20100278246A1/en not_active Abandoned
- 2010-07-13 US US12/835,332 patent/US20100278249A1/en not_active Abandoned
- 2010-07-13 US US12/835,154 patent/US20100278240A1/en not_active Abandoned
- 2010-07-13 US US12/835,243 patent/US20100278245A1/en not_active Abandoned
- 2010-07-13 US US12/835,237 patent/US20100278244A1/en not_active Abandoned
- 2010-07-13 US US12/835,190 patent/US20100278242A1/en not_active Abandoned
- 2010-07-13 US US12/835,305 patent/US20100278248A1/en not_active Abandoned
- 2010-07-13 US US12/835,285 patent/US20100278247A1/en not_active Abandoned
- 2010-07-13 US US12/835,178 patent/US20100278241A1/en not_active Abandoned
- 2010-07-13 US US12/835,232 patent/US20100278243A1/en not_active Abandoned
- 2010-07-14 US US12/835,975 patent/US20100278256A1/en not_active Abandoned
- 2010-07-14 US US12/835,955 patent/US20100278255A1/en not_active Abandoned
- 2010-07-14 US US12/835,864 patent/US20100278252A1/en not_active Abandoned
- 2010-07-14 US US12/835,787 patent/US20100278251A1/en not_active Abandoned
- 2010-07-14 US US12/835,778 patent/US20100278250A1/en not_active Abandoned
- 2010-07-14 US US12/835,884 patent/US20100278253A1/en not_active Abandoned
- 2010-07-14 US US12/835,896 patent/US20100278254A1/en not_active Abandoned
- 2010-07-15 US US12/836,658 patent/US20100278261A1/en not_active Abandoned
- 2010-07-15 US US12/836,604 patent/US20100278258A1/en not_active Abandoned
- 2010-07-15 US US12/836,624 patent/US20100278270A1/en not_active Abandoned
- 2010-07-15 US US12/836,854 patent/US20100278265A1/en not_active Abandoned
- 2010-07-15 US US12/836,599 patent/US20100278257A1/en not_active Abandoned
- 2010-07-15 US US12/836,678 patent/US20100278264A1/en not_active Abandoned
- 2010-07-15 US US12/836,655 patent/US20100278260A1/en not_active Abandoned
- 2010-07-15 US US12/836,618 patent/US20100278259A1/en not_active Abandoned
- 2010-07-15 US US12/836,673 patent/US20100278263A1/en not_active Abandoned
- 2010-07-15 US US12/836,668 patent/US20100278262A1/en not_active Abandoned
-
2011
- 2011-03-04 US US13/041,081 patent/US20110150089A1/en not_active Abandoned
-
2013
- 2013-05-02 US US13/875,912 patent/US9066081B2/en not_active Expired - Lifetime
-
2015
- 2015-05-07 US US14/706,436 patent/US9888252B2/en not_active Expired - Lifetime
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2375448T3 (es) | Procedimiento y aparato de decodificación de video. | |
ES2351306T3 (es) | Procedimiento y dispositivo para la codificación de imágen en movimiento. |