MX2007011084A - Clasificacion de contenido para procesamiento multimedia. - Google Patents
Clasificacion de contenido para procesamiento multimedia.Info
- Publication number
- MX2007011084A MX2007011084A MX2007011084A MX2007011084A MX2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A
- Authority
- MX
- Mexico
- Prior art keywords
- multimedia data
- complexity
- determining
- block
- temporal
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2365—Multiplexing of several video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/142—Detection of scene cut or scene change
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/154—Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/177—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/198—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/57—Motion estimation characterised by a search window with variable size or shape
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/87—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2662—Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4347—Demultiplexing of several video streams
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- General Physics & Mathematics (AREA)
- Algebra (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Se describe un aparato y metodo para procesamiento de datos multimedia, tal como, por ejemplo, datos de video, datos de audio, o ambos, datos de video y audio para codificacion utilizando una clasificacion de contenido determinada; el procesamiento de los datos multimedia incluye determinar la complejidad de datos multimedia, clasificar los datos multimedia con base en la complejidad determinada y, determinar una velocidad de bits para codificar los datos multimedia con base en su clasificacion; la complejidad puede incluir un componente de complejidad espacial y un componentes de complejidad temporal de los datos multimedia; los datos multimedia se clasifican utilizando clasificaciones de contenido, las cuales se basen en un valor de calidad visual para visualizar datos multimedia, utilizando la complejidad espacial, la complejidad temporal, o ambas, la complejidad espacial y la complejidad temporal.
Description
CLASIFICACIÓN DE CONTENIDO PARA PROCESAMIENTO MULTIMEDIA
CAMPO DE LA INVENCIÓN
El campo de la invención se refiere a procesamiento de datos multimedia a través de algoritmos de compresión para analizar, clasificar, cuantificar y representar datos multimedia con base en el contenido de los datos multimedia.
ANTECEDENTES DE LA INVENCIÓN
El amplio uso de la Internet y la comunicación inalámbrica ha aumentado la demanda de servicios multimedia que ponen en corriente medios sobre la Internet y canales móviles/inalámbricos. En redes de Protocolo de Internet
(IP), datos multimedia pueden ser provistos por un servidor y pueden ser puestos en corriente por uno o más clientes cableados o inalámbricos. Las conexiones cableadas incluyen marcación, red digital de servicios integrados (ISDN), cable, protocolos de linea de suscriptor digital (colectivamente denominados como xDSL) , fibra, redes de área local (LAN), redes de área amplia (WAN) y otros. Los dispositivos electrónicos que utilizan comunicaciones inalámbricas incluyen teléfonos (por ejemplo, teléfonos
celulares), asistentes de datos personales (PDA), computadoras manuales y portátiles, asi como otros. En su mayoria, si no es que en todas estas aplicaciones, los requerimientos y/o restricciones de ancho de banda necesitan que el procesamiento de datos multimedia utilice un codificador fuente que incorpore algoritmos de compresión multimedia para analizar, cuantificar y representar datos multimedia a fin de transmitir la máxima información gastando un "minimo" número de bits. Las características de dichos algoritmos varian significativamente, lo cual conduce a grandes variaciones de escala en su rendimiento (tal como eficiencia de compresión y tasa de transferencia de bits) . Las características del procesamiento multimedia que utiliza algoritmos de compresión pueden variar significativamente con base en el contenido, lo cual puede conducir a grandes variaciones de escala en su rendimiento (tal como eficiencia de compresión y tasa de transferencia de bits) . Algunos esquemas de procesamiento de datos multimedia utilizan ciertos tipos de información para clasificar los datos multimedia. Por lo regular, los algoritmos de clasificación de imágenes se basan en alguna forma de métodos de segmentación de imagen. Los algoritmos de agrupamiento de imágenes se han propuesto en MPEG para MPEG-7 (agrupamiento de fotos) . Los algoritmos de
clasificación de imágenes actualmente propuestos y descritos en la literatura se han basado en aspectos matemáticos y estadísticos de los datos multimedia. Métodos y dispositivos mejorados para procesamiento y codificación de datos multimedia podrían tener un amplio rango de aplicaciones en comunicaciones cableadas e inalámbricas, y seria benéfico en la técnica utilizar y/o modificar las características de dicho procesamiento de forma que sus funciones se puedan explotar en el mejoramiento de productos existentes y la creación de nuevos productos que todavía no se han desarrollado.
SUMARIO DE LA INVENCIÓN
Cada uno de los aparatos inventivos y métodos tiene varios aspectos, ninguno de los cuales es el único responsable de sus atributos deseables. Sin limitar el alcance de la invención, ahora se analizarán de manera breve sus funciones más prominentes. Después de considerar este análisis, y particularmente después de leer la sección titulada "Descripción Detallada" uno entenderla las funciones de las mejoras para los aparatos y métodos de procesamiento de datos multimedia. En un aspecto, un método para el procesamiento de datos multimedia incluye determinar la complejidad de datos
multimedia, clasificar los datos multimedia con base en la complejidad determinada, y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. El método también puede incluir: determinar la complejidad espacial y la complejidad temporal de los datos multimedia, y la clasificación de los datos multimedia puede incluir asociar la complejidad espacial con un valor de textura, asociar la complejidad temporal con un valor de movimiento, y asignar una clasificación de contenido con los datos multimedia con base en el valor de textura y el valor de movimiento. En otro aspecto, un aparato para procesar datos multimedia incluye medios para determinar la complejidad de datos multimedia, medios para clasificar los datos multimedia con base en la complejidad determinada, y medios para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. En otro aspecto, un dispositivo configurado para procesar datos multimedia incluye un procesador configurado para determinar la complejidad de datos multimedia, configurado para clasificar los datos multimedia con base en la complejidad determinada, y además configurado para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
En otro aspecto, un medio legible por computadora para incorporar un método para procesamiento de datos multimedia incluye determinar la complejidad de datos multimedia, clasificar datos multimedia con base en la complejidad determinada, y determinar una tasa de transferencia de -bits para codificar los datos multimedia con base en su clasificación. En otro aspecto, un aparato para procesamiento de datos multimedia incluye un primer determinador para determinar la complejidad de datos multimedia, un clasificador de contenido para clasificar los datos multimedia con base en la complejidad determinada, y un segundo determinador para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. En algunos aspectos, la complejidad incluye una complejidad espacial de los datos multimedia y/o una complejidad temporal de los datos multimedia, y la clasificación de los datos multimedia se puede basar en la complejidad espacial y/o la complejidad temporal. En otros aspectos todavía, un método y aparato para procesamiento de datos multimedia comprende un método o medios para determinar la complejidad de datos multimedia; y clasificar los datos multimedia con base en la complejidad determinada. Un método y aparato para
procesamiento de datos multimedia puede comprender un método o medios para determinar la complejidad de datos multimedia; y seleccionar, a partir por lo menos de multimedia, procesos basados en la complejidad determinada. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para determinar la complejidad de datos multimedia; y seleccionar un conjunto de procesos de codificación con base en la complejidad de los datos multimedia. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para clasificar los datos multimedia con base en la complejidad determinada; y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para determinar la complejidad de datos multimedia; y seleccionar un conjunto de procesos de decodificación con base en la complejidad de los datos multimedia. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medio para determinar la complejidad de datos multimedia; clasificar los datos multimedia con base en la complejidad determinada; y seleccionar un conjunto de procesos de decodificación con base en la clasificación de los datos multimedia. Se deberla apreciar que el método y
aparato se pueden ejecutar a través de un medio legible por computadora y/o procesador.
BREVE DESCRIPCIÓN DE LAS FIGURAS
La figura 1 es un diagrama en bloques de un sistema de comunicaciones general para codificar y decodificar datos multimedia en corriente, La figura 2 es un diagrama que ilustra una corriente de datos de Perfil Simple MPEG-4, La figura 3 es una ilustración de un ejemplo del proceso de construcción del cuadro P en MPEG-4, La figura 4 es un diagrama en bloques de un componente de clasificación de contenido, La figura 5 es un esquema de un grupo de macrobloques en un cuadro de video que ilustra valores medios para cada macrobloque, La figura 6 es una gráfica que ilustra un ejemplo de clasificación de imágenes con base en una textura y un valor de movimiento, La figura 7 es una gráfica que ilustra ejemplos para determinar una tasa de transferencia de bits utilizando curvas de clasificación de contenido y un valor de calidad visualmente percibido, La figura 8 es un diagrama de flujo que ilustra
un proceso para clasificar datos multimedia, y La figura 9 es un diagrama de flujo que ilustra un proceso para codificar datos multimedia con base en su clasificación de contenido. La figura 10 es un diagrama de sistema que ilustra la codificación de múltiples corrientes multimedia o canales . La figura 11 es un diagrama que ilustra la compensación de movimiento. La figura 12 es una gráfica que ilustra el pre-énfasis de lambda grande.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
La siguiente descripción detallada se enfoca en ciertas modalidades que se pueden utilizar. Sin embargo, las modalidades descritas se pueden incorporar en una multitud de diferentes formas. Referencia en esta descripción a "una modalidad" significa que esa función, estructura o característica particular descrita en relación con la modalidad está incluida por lo menos en una modalidad. Las apariencias de la frase "en una modalidad", "de acuerdo con una modalidad", o "en algunas modalidades" en varios lugares en la descripción detallada no necesariamente se refieren a la misma modalidad, y tampoco
a modalidades separadas o alternas mutuamente exclusivas de otras modalidades. Además, varias se describen varias funciones las cuales se pueden mostrar a través de algunas modalidades y no a través de otras. De manera similar, se describen varios requerimientos los cuales pueden ser requerimientos para algunas modalidades pero no para otras modalidades . La siguiente descripción incluye detalles para proveer un completo entendimiento de los ejemplos. Sin embargo, aquellos expertos en la técnica entenderán que los ejemplos se pueden practicar incluso si cada detalle de un proceso o dispositivo en un ejemplo o modalidad no se describe o ilustra en la presente invención. Por ejemplo, componentes eléctricos se pueden mostrar en diagramas de bloques que no ilustran cada conexión eléctrica o cada elemento eléctrico del componente para no oscurecer los ejemplos en detalles innecesarios. En algunos casos, dichos componentes, otras estructuras y técnicas se pueden mostrar a detalle para explicar adicionalmente los ejemplos. Ejemplos de aparatos y métodos para codificar datos multimedia que utilizan la clasificación de los datos multimedia en categorías basadas en su contenido (por ejemplo, una o más clasificaciones de contenido) se describen en la presente invención. Los métodos y aparatos descritos ofrecen técnicas para codificar datos multimedia
con base en la determinación de características espaciales y temporales de los datos multimedia, y clasificar los datos multimedia con base en una o más de sus características de complejidad. Estos métodos y aparatos permiten que algoritmos de compresión y procesamiento de datos multimedia sean "sintonizados" con base en la categoría de contenido de los datos multimedia para optimizar el método y aparato utilizados para codificar datos multimedia utilizando información de contenido y entregar, de manera eficiente, un nivel de calidad deseado de datos multimedia conforme a lo percibido por el ojo humano, u otra medición del nivel de calidad. "Datos multimedia", tal como aqui se utiliza, es un término amplio que incluye datos de video (los cuales pueden incluir datos de audio) , datos de audio, o ambos, datos de video y datos de audio. "Datos de video" o "video" se utilizan aqui como un término amplio, refiriéndose a secuencias de imágenes que contienen texto o información de imágenes y/o datos de audio, y se pueden utilizar para hacer referencia a datos multimedia (por ejemplo, los términos se pueden utilizar de manera intercambiable) a menos que se especifique lo contrario. Los sistemas codee multimedia generalmente no toman en cuenta los diferentes tipos de contenido. Más bien, la codificación se realiza en una forma similar para
todos los tipos de contenido. Por lo regular, los datos multimedia se codifican a una calidad constante o a una tasa de transferencia de bits constante. La codificación a una tasa de transferencia de bits constante conduce a discrepancias en la calidad del video codificado para secciones de baja actividad y secciones de alta actividad. Por ejemplo, una secuencia de noticias que contiene secuencias deportivas se puede codificar con el mismo número de bits asignados para cada sección. Cuando se observa, la sección de secuencia deportiva seria percibida como a una calidad inferior que la sección de encabezado de diálogo y los resultados generales no pueden ser aceptables. La codificación a una calidad constante conduce a un uso ineficiente de las tasas de transferencia de bits. La codificación de video de baja actividad a una alta calidad utiliza una tasa de transferencia de bits innecesariamente alta produciendo como resultado un ancho de banda desperdiciado. Al clasificar datos multimedia con base en la textura y movimiento en una secuencia de video, en lugar de simplemente el tipo general de contenido en la secuencia, la tasa de transferencia de bits se puede ajustar sobre la secuencia con base en el movimiento texturizado real para esos datos particulares. La clasificación de contenido se puede utilizar en una variedad de aplicaciones que pueden resultar en una mejor
administración de bits y un uso más inteligente del presupuesto de bits disponibles. Por ejemplo, en algunas modalidades una clasificación de contenido se puede utilizar para detección de cambio de escena de datos de video.
Comunicación de datos multimedia Los datos multimedia comunicados a un dispositivo de cliente por lo regular están comprimidos. Un par de estándares de codificación de video, conocidos como MPEG-x y H.2ßx, describen técnicas de procesamiento y manipulación de datos (denominadas aqui como codificación híbrida) que son muy convenientes para la compresión y entrega de video, audio y otra información utilizando técnicas de codificación de fuente de longitud variable o fija. En particular, los estándares antes mencionados, y otros estándares y técnicas de codificación híbrida comprimen, de forma ilustrativa, información multimedia utilizando técnicas de codificación intra-cuadro (tal como, por ejemplo, codificación de longitud corrida, codificación Huffman y similares) y técnicas de codificación intercuadro (tal como, por ejemplo, codificación predictiva de avance y retroceso, compensación de movimiento y similares) . Específicamente, en el caso de sistemas de procesamiento multimedia, los sistemas de codificación
multimedia híbridos se caracterizan por la codificación de compresión basada en predicción de cuadros multimedia con codificación de compensación de movimiento intra- y/o inter-cuadro. La codificación basada, por lo menos en parte, en clasificación de contenido, se puede incorporar en dichos algoritmos de compresión para optimizar adicionalmente el procesamiento multimedia. Aunque los ejemplos aqui descritos están escritos hacia los estándares de codificación de video MPEG y H.2ßx, el uso similar de otros estándares de codificación de video también es aplicable. La codificación intra-cuadro se refiere a la codificación de una imagen (o campo o un cuadro) sin referencia a alguna otra imagen, pero la imagen intra-codificada se puede utilizar como una referencia para otras imágenes. Los términos intra-cuadro, cuadro intra-codificado y cuadro I son ejemplos de objetos de video formados con intra-codificación que se utilizan a través de esta solicitud. La inter-codificación o codificación predictiva se refiere a la codificación de una imagen (o campo o un cuadro) con referencia a otra imagen. En comparación con la imagen intra-codificada, la imagen inter-codificada o pronosticada se puede codificar con mayor eficiencia. Ejemplos de imágenes inter-codificadas que se utilizarán a
través de esta aplicación son cuadros pronosticados (ya sea pronosticados de avance o retroceso, también denominados como cuadros P) , y cuadros pronosticados bidireccionales (también denominados como cuadros B) . Otros términos para inter-codificación incluyen codificación de paso alto, codificación residual, interpolación de movimiento compensado y otros que son muy conocidos por aquellos expertos en la técnica. Una técnica, conocida como codificación escalable, puede dividir imágenes intra-codificadas y las diferentes imágenes inter-codificadas (tal como cuadros P o cuadros B) en diferentes capas en la corriente de bits tal como, por ejemplo, una capa base y una capa de mejoramiento. La codificación escalable es útil en canales dinámicos, donde las corrientes de bits escalables se pueden adaptar para ajustarse a las fluctuaciones en ancho de banda de red. En canales propensos al error, la codificación escalable puede agregar robustez a través de la protección de error desigual de la capa base y la capa de mejoramiento. La mejor protección de error se puede aplicar a la capa más importante.
Codificación de datos multimedia La figura 1 es un diagrama en bloques de un sistema de comunicaciones general para clasificar el
contenido de datos multimedia, codificar, comunicar y decodificar dichos datos. El sistema 100 incluye el dispositivo codificador 105 y el dispositivo decodificador 110. El dispositivo codificador 105 incluye el componente codificador 185 el cual incluye el componente intra-codificador 115, y el componente codificador predictivo 120. El dispositivo codificador 105 además incluye el componente de memoria 130, el componente de comunicaciones 175, y el componente clasificador de contenido 190. El dispositivo codificador 105 puede recibir datos desde una fuente externa 135 utilizando lógica de comunicación contenida en componente de comunicaciones 175. La fuente externa 135 podria ser, por ejemplo, memoria externa, la Internet, una alimentación de video y/o video en vivo, y la recepción de los datos puede incluir comunicaciones cableadas y/o inalámbricas. Los datos contenidos en la fuente externa 135 pueden estar en un formato sin procesar (no codificado) o estado codificado. El componente intra codificador 115 se utiliza para codificar porciones intra codificadas de cuadros (trozos, macrobloques y sub-macrobloques) . El componente codificador predictivo 120 se utiliza para codificar porciones pronosticadas de cuadros, incluyendo predicción de avance, predicción de retroceso y predicción bidireccional. Después de la codificación, los cuadros codificados se almacenan en el componente de
memoria 130 o memoria externa. La memoria externa se puede contener dentro de la fuente externa 135 o un componente de memoria separada (que no se muestra) . El dispositivo codificador 105 incluye un procesador 187 el cual está en comunicación con el componente de memoria 130 y uno o más de los otros componentes en el dispositivo codificador 105. El procesador 187 puede ejecutar el procesamiento para cualquiera de los otros componentes del codificador y puede contener un proceso de codificación principal. En algunas modalidades, el procesador 187 no puede ser un componente separado (como se muestra) sino que la funcionalidad del procesador se puede incorporar en uno o más de los otros componentes del codificador 105. El componente de comunicaciones 175 contiene lógica utilizada para la transmisión de datos (Tx) en conjunto con la red 140. La red 140 puede ser parte de un sistema cableado tal como un teléfono, cable, y fibra óptica, o un sistema inalámbrico. En el caso de sistemas de comunicación inalámbrica, la red 140 puede comprender, por ejemplo, parte de un sistema de comunicación de acceso múltiple por división de código (CDMA o CDMA2000), o alternativamente, el sistema puede ser un sistema de acceso múltiple por división de frecuencia (FDMA), un sistema de multiplexión por división de frecuencia ortogonal (OFDM) ,
un sistema de acceso múltiple por división de tiempo (TDMA) , tal como GSM/GPRS (Servicio de Radio en Paquete General) /EDGE (ambiente GSM de datos mejorado) o TETRA (Radio Truncado Terrestre) tecnología telefónica móvil para la industria de servicio, un acceso múltiple por división de código de banda amplia (WCDMA) , un sistema de alta velocidad de datos (Multidifusión Gold lxEV-DO o lxEV-DO) , o en general, cualquier sistema de comunicación inalámbrica que emplee una combinación de técnicas. Los cuadros codificados son transmitidos (Tx) sobre la red 140. Los procesos de codificación ejecutados por el dispositivo codificador 105 se describen de manera más completa a continuación. El componente de clasificación de contenido 190 contiene lógica para determinar una clasificación del contenido de datos de datos multimedia recibidos desde la fuente externa 135. Para clasificar los datos multimedia, se puede utilizar un modelo visual humano para cuantificar la sensibilidad del ojo humano a perturbaciones en luminancia de una señal visual con respecto a su contexto espacial y/o temporal en la imagen y/o secuencia de imágenes en movimiento. Los efectos de enmascaramiento espacial y temporal del ojo también se toman en cuenta. Un aspecto incluye el uso de algoritmos de comparación de bloques o cálculo de movimiento para representar los
aspectos temporales del video. La información relacionada con los datos multimedia, por ejemplo, valores de complejidad espacial y temporal de los datos de video, puede ser determinada por uno o más componentes del codificador 105, y utilizada en conjunto con la percepción de efectos espaciales y de movimiento en video se utilizan para clasificar contenido de los datos de video en dos o más categorías. Dicha clasificación se puede utilizar en algoritmos de pre-/post-procesamiento y compresión (por ejemplo, detección de cambio de escena, control de tasa de transferencia, FRUC) . La clasificación de contenido provee al codificador 105 un cálculo confiable respecto al tipo de contenido a esperar en datos de video próximos (por ejemplo, un súper-cuadro) , de manera que el codificador 105 puede determinar la asignación de tasa de transferencia de bits apropiada para lograr un nivel particular de calidad visualmente percibida con base en la clasificación de contenido, y para otros propósitos de decisión de tipo de cuadro. Un súper-cuadro es un conjunto de datos de medios para una ventana o periodo de tiempo predeterminado, por lo regular igual a un segundo de datos, que se utilizan como una unidad para determinar la clase de contenido, transmitir y para cualesquiera otros propósitos. Las clasificaciones de contenido se pueden basar en características de datos multimedia tal como las percibe el
ojo humano, por ejemplo, complejidad espacial y complejidad temporal. Los algoritmos de procesamiento multimedia se pueden optimizar para varios tipos de contenido y proveer estabilidad y control con respecto a su rendimiento en la codificación y comunicación de los datos multimedia. El componente codificador 185 puede proveer información de procesamiento (por ejemplo, de macrobloques) para uso por parte del componente de clasificación de contenido 190. Por ejemplo, el componente codificador 185 puede calcular información de los datos multimedia, incluyendo métrica de sensibilidad visual humana tal como un valor Dcsat, valor de relación de contraste, vectores de movimiento (MV) , y la suma de las diferencias de pixel absolutas (SAD) . El componente codificador 185 puede almacenar esta información para el componente de memoria 130 de forma que está disponible para ser recuperada por el componente de clasificación de contenido 190 a fin de determinar la complejidad espacial y temporal de los datos multimedia, determinar la textura y movimiento de los datos, y después determinar la clasificación de contenido resultante. En otro aspecto, el componente de clasificación de contenido 190, u otro componente tal como el procesador 187 calcula por lo menos parte de esta información a partir de los datos multimedia.
Proceso de decodificación El dispositivo decodificador 110 contiene componentes similares a algunos de los componentes en el dispositivo codificador 105, incluyendo, el componente intra-decodificador 145, componente decodificador predictivo 150, componente de memoria 160, procesador 167, y componente de comunicaciones 180. El dispositivo decodificador 110 recibe datos codificados que se han transmitido sobre la red 140 o desde el almacenamiento externo 165. El componente de comunicaciones 180 contiene lógica utilizada para recibir (Rx) datos codificados en conjunto con la red 140, asi como lógica para recibir datos codificados desde el almacenamiento externo 165. El almacenamiento externo 165 podria ser, por ejemplo, RAM o ROM externa o un servidor remoto. El componente intra decodificador 145 se utiliza para decodificar datos intra-codificados. El componente decodificador predictivo 150 se utiliza para decodificar datos inter-codificados . El procesador 167 está en comunicación con el componente de memoria 160 y uno o más de los otros componentes en el dispositivo decodificador 110. El procesador 167 puede ejecutar procesamiento para cualquiera de los otros componentes del decodificador y puede contener un proceso de decodificación principal. El componente decodificador predictivo 150 decodifica tanto cuadros P (pronosticados de
avance y retroceso) como cuadros B. Los mismos sub-componentes utilizados para decodificar cuadros P se pueden utilizar en serie para decodificar cuadros B con múltiples referencias. Múltiples referencias para cuadros B pueden estar en cuadros de referencia de avance y retroceso, ambos en el mismo cuadro de referencia, ambos en cuadros de referencia de avance separados o ambos en cuadros de referencia de retroceso. Después de la decodificación, los cuadros decodificados se pueden desplegar con el componente de despliegue 170 o almacenar en memoria interna 160 o almacenamiento externo 165. El componente de despliegue 170 puede ser una parte integrada del dispositivo de decodificación que contiene dichas partes como hardware y lógica de despliegue de video, incluyendo una pantalla de despliegue, o puede ser un dispositivo periférico externo. Los procesos de decodificación ejecutados por el dispositivo decodificador 110 se describen de manera más completa a continuación.
Codificación de MPEG ejemplar En un decodificador MPEG típico, los bloques de pixeles codificados predictivos (por ejemplo, bloques que comprenden uno o más vectores de movimiento y un componente de error residual) se decodifican con respecto a un cuadro
de referencia (donde un intra-cuadro u otro cuadro predictivo puede servir como un cuadro de referencia) . La figura 2 es un diagrama que ilustra una corriente de datos de Perfil Simple MPEG-4 convencional, la cual retrata las dependencias del cuadro para un Grupo de Imágenes (GOP) . GOP 10 está formado del Cuadro I inicial 12, seguido por varios cuadros P pronosticados de avance 14. Debido a la dependencia de los cuadros P en un cuadro I ó P previo, la pérdida de cualquiera de los cuadros P 14 puede resultar en una pérdida de información que puede ser crucial en la decodificación de otros cuadros P. La pérdida o remoción del cuadro P puede resultar, por ejemplo, en fluctuación de video o la incapacidad del decodificador para seguir decodificando hasta el siguiente cuadro I 16, lo cual marca el inicio del siguiente GOP. Los cuadros P (o cualquiera de las secciones inter-codificadas) puede explotar la redundancia temporal entre una región en una imagen actual y una región de predicción de mejor comparación en una imagen de referencia. La diferencia entre la región actual y la región de predicción de mejor comparación se conoce como error residual (o error de predicción) . La ubicación de la región de predicción de mejor comparación en el cuadro de referencia se puede codificar en un vector de movimiento. El procesador 167 puede ejecutar el procesamiento para
cualquiera de los otros componentes del decodificador 110 y puede contener un proceso de decodificación principal. En algunas modalidades, el procesador 167 puede no ser un componente separado, sino más bien la funcionalidad del procesador se puede incorporar en uno o más de los otros componentes del decodificador 110. La figura 3 es una ilustración de un ejemplo de un proceso de construcción de cuadro P, por ejemplo, en MPEG-4. El proceso 300 incluye la imagen actual 305 formada por macro-bloques 5x5, donde el número de macro-bloques en este ejemplo es arbitrario. Un macro-bloque es un grupo de pixeles asociados, y en este ejemplo está formado de pixeles 16x16. Los pixeles se pueden definir por un valor de luminancia de 8 bits (Y) y dos valores de crominancia de 8 bits (Cr y Cb) . En MPEG, los componentes Y, Cr y Cb se pueden almacenar en un formato 4:2:0, donde los componentes Cr y Cb son sub-muestreados por 2 en las direcciones X y Y. Por lo tanto, cada macro-bloque constarla de 256 componentes Y, 64 componentes Cr y 64 componentes Cb. El macro-bloque 315 de la imagen actual 305 es pronosticado a partir de la imagen de referencia 310 en un punto de tiempo diferente que la imagen actual 305. Se realiza una búsqueda en la imagen de referencia 310 para localizar el macro-bloque de mejor comparación 320 que está más cerca, en términos de valores Y, Cr y Cb, del macro-
bloque actual 315 que se está codificando. Métodos de búsqueda del macro-bloque de mejor comparación 320, conocidos por aquellos expertos en la técnica, incluyen a) reducir al mínimo SAD (suma de diferencias de pixel absolutas) entre el macro-bloque actual 315 y los macrobloques de imagen de referencia 310, b) reducir al mínimo SSD (suma de diferencias de pixel al cuadrado) , y c) costo mínimo en un sentido de distorsión de tasa de transferencia, y otros. La ubicación del macro-bloque de mejor comparación 320 en la imagen de referencia 310 está codificada en el vector de movimiento 325. La imagen de referencia 310 puede ser un Cuadro I o Cuadro P que el decodificador habría reconstruido antes de la construcción de la imagen actual 305. El macro-bloque de mejor comparación 320 es sustraído del macro-bloque actual 315 (se calcula una diferencia para cada uno de los componentes Y, Cr y Cb) resultando en el error residual 330. El error residual 330 está codificado con la Transformada de Coseno Discreto2D (DCT) 335 y después es cuantificado 340. La cuantificación 340 se puede realizar para proveer compresión espacial, por ejemplo, repartiendo menos bits a los coeficientes de alta frecuencia al mismo tiempo que se reparten más bits a los coeficientes de baja frecuencia. Los coeficientes cuantificados de error residual 330, junto con el vector de movimiento 325 y la
imagen de referencia 310 que identifica información, son información codificada que representa el macro-bloque actual 315. La información codificada se puede almacenar en la memoria para futuro uso o se puede operar para propósitos, por ejemplo, de corrección de error o mejoramiento de imagen, o se puede transmitir sobre la red 345. Los coeficientes cuantificados codificados de error residual 330, junto con el vector de movimiento codificado 325, se pueden utilizar para reconstruir el macro-bloque actual 315 en el codificador para uso como parte de un cuadro de referencia para posterior cálculo y compensación de movimiento. El codificador puede emular los procedimientos de un decodificador para esta reconstrucción de cuadro P. La emulación del decodificador puede producir como resultado que el codificador y decodificador funcionen con la misma imagen de referencia. El proceso de reconstrucción, ya sea realizado en un codificador, para inter-codificación adicional, o en un decodificador, se presenta aqui. La reconstrucción de un cuadro P se puede iniciar después que se reconstruye el cuadro de referencia (o una porción de una imagen o cuadro al que se está haciendo referencia) . Los coeficientes cuantificados codificados son descuantificados 350 y después se ejecuta DCT inversa 2D, o IDCT, 355 produciendo como resultado un
error residual decodificado o reconstruido 360. El vector de movimiento codificado 325 se utiliza para localizar el macro-bloque de mejor comparación ya reconstruido 365 en la imagen de referencia ya reconstruido 310. El error residual reconstruido 360 se agrega entonces al macro-bloque de mejor comparación reconstruido 365 para formar el macro-bloque reconstruido 370. Los macro-bloques reconstruidos 370 se pueden almacenar en memoria, desplegar de forma independiente o en una imagen con otros macro-bloques reconstruidos, o procesar adicionalmente para mejora de imagen.
Clasificación de contenido de datos multimedia La figura 4 es un diagrama en bloques de un componente de clasificación de contenido 190 que se ilustra en la figura 1. El componente de clasificación de contenido 190 incluye un componente de complejidad 192 configurado para determinar la complejidad espacial y la complejidad temporal de datos multimedia, y también para asociar un valor de textura a la complejidad espacial y un valor de movimiento a la complejidad temporal. Para datos multimedia que se están codificando, el componente de clasificación de contenido 190 recupera la información previamente procesada relacionada con el contenido de los datos de la memoria 130. Esta información puede incluir, por ejemplo, uno o más
valores Dcsat, valores de relación de contraste, vectores de movimiento (MV) , y suma de diferencias absolutas (SAD) . En aspectos donde esta información no es determinada por un pre-procesador (por ejemplo, el componente codificador 185 o procesador 187 en la figura 1), el componente de clasificación 190 puede incluir la funcionalidad para calcular esta información. En general, datos multimedia incluyen una o más secuencias de imágenes o cuadros. Cada cuadro puede ser separado en bloques de pixeles para procesamiento. La complejidad espacial es un término amplio que generalmente describe una medición del nivel de detalles espaciales dentro de un cuadro. Escenas con áreas de luminancia o crominancia principalmente planas, sin cambios o con pocos cambios pueden tener complejidad espacial baja. La complejidad espacial está asociada con la textura de los datos de video. La complejidad espacial se basa, en este aspecto, en la métrica de sensibilidad visual humana denominada Dcsat, la cual se calcula para cada bloque como una función de frecuencia espacial local e iluminación ambiental. Los expertos en la técnica están conscientes de las técnicas para utilizar patrones de frecuencia espacial y características de iluminación y contraste de imágenes visuales para sacar ventaja del sistema visual humano. Se conoce un número de métricas sensibles para sacar ventaja
de las limitaciones de perspectiva del sistema visual humano y se podrían utilizar con el método aqui descrito. La complejidad temporal es un término amplio el cual se utiliza para describir de manera general una medición del nivel de movimiento en datos multimedia como se hace referencia entre cuadros en una secuencia de cuadros. Las escenas (por ejemplo, secuencias de cuadros de datos de video) con poco o ningún movimiento tienen una complejidad temporal baja. La complejidad temporal se puede calcular para cada macro-bloque, y se puede basar en el valor Dcsa / vectores de movimiento y la suma de diferencias de pixel absolutas entre un cuadro y otro cuadro (por ejemplo, un cuadro de referencia) .
Detección de cambio de escena La detección de cambio de escena es un paso necesario para cualquier sistema de codificación de video para que éste conserve de manera inteligente los bits sin desperdiciar bits al insertar un cuadro I en un intervalo fijo. La siguiente descripción muestra la forma en que un cambio de escena puede ser detectado y su uso consecuente en la clasificación de contenido. La longitud de un GOP puede ser lo suficientemente larga para reducir la pérdida eficiente de cuadros I grandes, y lo suficientemente corta para combatir
la desigualdad entre el codificador y el decodificador, o afectación de canal. Además, los macro-bloques (MB) en los cuadros P pueden ser INTRA codificados por el mismo motivo. En un sistema práctico de video en corriente, el canal de comunicación por lo general se ve afectado por errores de bits o pérdidas de paquete. Los lugares donde se colocan los cuadros I o MB I pueden impactar de manera importante la calidad de video decodificado y la experiencia de visualización. Una regla de oro es utilizar INTRA codificación para imágenes o porciones de imágenes que tienen un cambio significativo de las imágenes previas colocadas o porciones de imágenes. Estas regiones no pueden ser pronosticadas de forma efectiva y eficiente con cálculo de movimiento. Por lo tanto, pueden estar exentas de las técnicas de ÍNTER codificación. En el contexto de afectación de canal, esas regiones probablemente sufrirán de propagación de error. La INTRA codificación se puede utilizar para reducir la propagación de error. Las regiones que necesitan ser INTRA actualizadas se pueden clasificar como tres categorías. 1) Cambios de escena abruptos: esta categoría incluye cuadros que son significativamente diferentes del cuadro previo, generalmente ocasionado por una operación de cámara. Debido a que el contenido de estos cuadros es diferente de aquel del cuadro previo, los cuadros con
cambio de escena abrupto se pueden codificar como cuadros I. 2) Desvanecimiento cruzado y otros cambios de escena lentos: esta categoría incluye baja conmutación de escenas, generalmente ocasionado por el procesamiento de cómputo de las tomas de cámara. La mezcla gradual de dos escenas diferentes puede parecer más placentera a lo ojos humanos, pero posee un reto para la codificación de video. La compensación de movimiento no puede reducir la tasa de transferencia de bits de esos cuadros en forma efectiva. Más INTRA MB necesitan ser actualizados para estos cuadros. 3) Luz de destellos de cámara: las luces de destellos de cámara cambian la luminancia de una imagen de forma repentina y rápida. Por lo regular, la duración de una luz de destellos de cámara es más corta que la duración de enmascaramiento temporal del sistema de visión humano (HVS) , lo cual por lo regular se define como 44ms. Los ojos humanos no son sensibles a la calidad de estas ráfagas cortas de brillantez y, por lo tanto, se pueden codificar de forma ordinaria. Debido a que los cuadros de luz de destellos no pueden ser manejados de manera efectiva con compensación de movimiento y son un mal candidato de predicción para futuros cuadros, la codificación ordinaria de estos cuadros no reduce la eficiencia de la codificación de futuros cuadros.
Cuando se detecta cualquiera de los cuadros anteriores, se declara un evento de disparo. La detección de disparo no solo es útil para mejorar la calidad de la codificación; también puede ayudar en la búsqueda/indexación de contenido de video. A continuación se describe un algoritmo de detección. La secuencia es previamente procesada con un compensador de movimiento bidireccional. Este se ajusta a cada bloque 8x8 del cuadro actual con bloques en dos de estos cuadros más adyacentes de cuadros vecinos, uno en el pasado, y uno en el futuro, como se ilustra en la figura 11. El compensador de movimiento produce vectores de movimiento y métricas de diferencia para cada bloque. La métrica de diferencia puede ser la suma de la diferencia cuadrada (SSD) o la suma de la diferencia absoluta (SAD) . Sin que haya una pérdida de generalidad, se utiliza SAD como un ejemplo en este documento. Para cada cuadro, una relación SAD se calcula de la siguiente forma:
e + SAD„ ,p . , . y = p- (Ecuación 1) e + SADN
donde SADP y SAD^ son la SAD de la métrica de diferencia de avance y retroceso, respectivamente. Se deberla observar
que el denominador contiene un pequeño número positivo e para evitar el error "dividir-entre-cero". El nominador también contiene un e para equilibrar el efecto de la unidad en el denominador. Por ejemplo, si el cuadro previo, el cuadro actual, y el siguiente cuadro son idénticos, la búsqueda de movimiento produce SADP = SAD^ = 0. En este caso, los generadores de cálculo anteriores y=l en lugar de 0 o infinito. También se tiene el histograma de luminancia de cada cuadro. Normalmente, se trata con imágenes cuya profundidad de luminancia es ocho bits. Para esta profundidad de luminancia se puede establecer el número de depósitos para que sea 16 a fin de obtener el histograma. La siguiente métrica evalúa la diferencia de histograma:
(Ecuación 2)
donde NP es el número de bloques en el iavo depósito para el cuadro previo, y Na es el número de bloques en el iav0 depósito para el cuadro actual, y N es el número total de bloques en un cuadro. De manera obvia, si el histograma del cuadro previo y actual están separados, entonces y^2. Se declara un cuadro con cambio de escena abrupto si se satisface el siguiente criterio, como se ilustra en
la ecuación 3
M^ + A?(2? + \) = T (Ecuación 3]
donde A es una constante elegida por la aplicación, y Ti es un umbral. La simulación muestra que A = 1, y Ti = 5 logran un buen rendimiento de detección. Si el cuadro actual es un cuadro de cambio de escena abrupto, entonces ?c puede ser grande y ?P puede ser pequeño. Se nomina M a la métrica de ? . intensidad de cambio de escena. La relación — se puede
utilizar en lugar de ?c solo, de forma que la métrica es normalizada al nivel de actividad del contexto. Se deberla apreciar que el criterio anterior utiliza la diferencia del histograma de luminancia ? en una forma no lineal. Refiriéndose a la figura 12, se puede apreciar que esto es una función convexa. Cuando ? es pequeño (cercano a cero), éste es apenas pre-énfasis. Mientras más grande es ?, más énfasis es conducido por la función. Con este pre-énfasis, para cualquier ? mayor que 1.4, un cambio de escena abrupto es detectado si el umbral Ti es establecido para que sea 5. El desvanecimiento cruzado y otros cambios de escena lentos son detectados si T2<M< T? para un determinado número de cuadros continuos, donde T2 es un
umbral . Para detectar eventos de luz de destellos de cámara, se pueden utilizar estadísticas de histrograma de luminancia. Por ejemplo, un evento de luz de destellos generalmente ocasiona que el histograma de luminancia cambie al lado más brillante. El siguiente criterio se puede imponer para detectar eventos de luz de destellos de cámara.
Yc -Yp = T3,7C -YN = T3, y SADP = T?, SADN = T, (Ecuación 4)
T4=30 logra un buen rendimiento de detección. El motivo para incluir valores SAD es que los destellos de cámara por lo regular toman un cuadro, y debido a la diferencia de luminancia, este cuadro no puede ser pronosticado bien utilizando la compensación de movimiento desde la dirección de avance y retroceso. Refiriéndose nuevamente a la figura 1, aunque el componente de clasificación de contenido 190 puede incluir funcionalidad para calcular vectores de movimiento y la suma de diferencias de pixel absolutas, por lo regular otros componentes de codificador pueden calcular esta información y proveen estos datos al componente de clasificación de contenido 190. Los valores Dcsat también
pueden ser calculados por el componente de complejidad 192 u otro componente del codificador 105 o el procesador 187. Alternativamente, se pueden utilizar relaciones de contraste para determinar la complejidad espacial de un cuadro. Primero, se calculan las relaciones de contraste para cada macro-bloque en un cuadro. La relación de contraste para un macro-bloque determinado se calcula con base en su luminancia promedio con respecto a sus macrobloques vecinos. La figura 5 ilustra un grupo de nueve macro-bloques en un cuadro de video donde cada macro-bloque tiene pixeles 16x16. µx representa la media para un macro-bloque determinado 1-9. El cálculo de la relación de contraste para el macro-bloque cinco (CR5) , el bloque de macro-bloque central, se calcula utilizando la siguiente fórmula:
CR5 = [?(µ, - µi)I Sµl]* MBLUMA5 donde i = 1.2...9
(Ecuación 5 )
donde MBLUMA5 representa el contraste de luminancia media para el macro-bloque cinco. La relación de contraste para los macro-bloques 1-4 y 6-9 se calculan de una manera similar. La relación de contraste de un cuadro se obtiene tomando la media de los valores de relación de contraste de cada uno de los nueve macro-bloques en el cuadro. También
se calcula la desviación estándar de las relaciones de contraste de los nueve macro-bloques y provee una indicación de la cantidad de variación de textura dentro de cada cuadro.
Determinar una métrica de clasificación de contenido Una métrica de clasificación de contenido se puede determinar utilizando valores de relación de contraste, su desviación estándar, y una métrica de diferencia de cuadro.
Métrica de diferencia de cuadro La otra entrada para el módulo de clasificación de contenido es la métrica de Diferencia de Cuadro calculada en el pre-procesador. La métrica de diferencia de cuadro proporciona una medición de la diferencia entre dos cuadros consecutivos tomando en cuenta la cantidad de movimiento (ejemplo, vector de movimiento o MV) junto con la energía residual representada como la suma de la diferencia absoluta (SAD) entre el predictor y el macro-bloque actual (figura 3, componente 325) . La diferencia de cuadro también provee una medición de las eficiencias de predicción bidireccional y unidireccional. Un ejemplo de una métrica de diferencia de cuadro basada en la información de movimiento recibida desde un
pre-procesador que potencialmente ejecuta des-intercalación compensada de movimiento es de la siguiente forma. El desintercalador ejecuta un cálculo de movimiento bidireccional y, por lo tanto, el vector de movimiento bidireccional y la información SAD están disponibles. La diferencia de cuadro representada por SAD_MV para cada macro-bloque se puede derivar de la siguiente forma :
SAD_MV=log?0[SAD*exp(-min(l,MV) ) ] (Ecuación 6)
donde MV = rai z — cuadrada ( MV•^* + MV y] ) , SAD=min ( SADN, SADP) , donde SADN: es iá SAD calculada del cuadro de referencia hacia atrás, y SADP: es la SAD calculada a partir del cuadro de referencia de avance. Otro enfoque para el cálculo de diferencia de cuadro es calculando una métrica gamma de la siguiente forma :
e + SADp ? = (Ecuación 7) e + SAD ¡
donde SADP y SAD son la SAD de la métrica de diferencia de avance y retroceso, respectivamente. Se deberla observar que el denominador contiene un pequeño número positivo e
para evitar el error "dividir-entre-cero". El nominador también contiene un e para equilibrar el efecto de la unidad en el denominador. También se tiene el histograma de luminancia de cada cuadro. Normalmente, se trata con imágenes cuya profundidad de luminancia es ocho bits. Para esta profundidad de luminancia se puede establecer el número de depósitos para que sea 16 a fin de obtener el histograma. La siguiente métrica evalúa la diferencia de histograma:
(Ecuación 8)
donde NPl es el número de bloques en el iav0 depósito para el cuadro previo, y NCi es el número de bloques en el iavo depósito para el cuadro actual, y N es el número total de bloques en un cuadro. De manera obvia, si el histograma del cuadro previo y actual están separados, entonces y^2. Se calcula una métrica de diferencia de cuadro como se muestra en la ecuación 9:
(Ecuación 9)
Clasificación de procedimiento Los valores de relación de contraste y los valores de diferencia de cuadro se utilizan en la siguiente forma para obtener una métrica de clasificación de contenido de video, la cual podria pronosticar de manera confiable las funciones en una secuencia de video determinada. El algoritmo propuesto puede clasificar el contenido en ocho clases posibles, similar a la clasificación obtenida del análisis basado en la curva R-D. El algoritmo emite un valor en el rango entre 0 y
1 para cada súper-cuadro dependiendo de la complejidad de la escena y el número de ocurrencias de cambio de escena en ese súper-cuadro. El módulo de clasificación de contenido en el pre-procesador ejecutarla los siguientes pasos para cada súper-cuadro a fin de obtener la métrica de clasificación de contenido a partir de los valores de contraste de cuadro y diferencia de cuadro. (1) Calcular el contraste de cuadro medio y la desviación de contraste de cuadro a partir de los valores de contraste de macro-bloque. (2) Los valores de contraste de cuadro y diferencia de cuadro se normalizan utilizando los valores obtenidos a partir de simulaciones las cuales son 40 y 5 respectivamente.
(3) La ecuación generalizada utilizada para el cálculo de la Métrica de Clasificación de Contenido es:
CCMétrica=CCWl*I_Cuadro_Contraste_Media+CCW2*Cuadro_ Diferencia_Media-CCW3*I_Contraste_Desviación?2*exp (CCW4* Cuadro_Diferencia_DesviaciónA2 )
(Ecuación 10)
donde CCWl, CCW2, CCW3 y CCW4 son factores de ponderación. Los valores se eligen para que sean 0.2 para CCWl, 0.9 para CCW2, 0.1 para CCW3 y -0.00009 para CCW4. (4) Determinar el número de cambios de escena en el súper-cuadro. Dependiendo del número de cambios de escena, se ejecuta uno de los siguientes casos. (a) Sin cambios de escena: cuando no hay cambios de escena en un súper-cuadro, la métrica depende completamente de los valores de diferencia de cuadro como se muestra en la siguiente ecuación:
CCMétrica= (CCW2+ (CCW1/2) ) *Cuadro_Diferencia_Media- (CCW3- (CCW1/2) ) *l*exp(-CCW4*Cuadro_Diferencia_Desviación?2)
(Ecuación 11)
(b) Cambio de escena sencillo: cuando existe un cuadro con cambio de escena sencillo observado en el súper-cuadro, la ecuación por omisión se utilizarla para calcular la métrica, como se muestra a continuación:
CCMétrica=CCWl*I_Cuadro_Contraste_Media+CCW2*Cuadro_ Diferencia_Media-CCW3*I_Contraste_Desviación?2*exp (CCW4* Cuadro_Diferencia_Desviación 2 )
(Ecuación 12)
(c) Dos cambios de escena: cuando se observa que hay máximo 2 cambios de escena en el súper-cuadro determinado, al último súper-cuadro se le otorga más peso que al primero ya que, de cualquier forma, el primero seria renovado por el último rápidamente, como se muestra en la siguiente ecuación:
CCMétrica=0. l*I_Cuadro_Contraste_Medial+CCWl*I_Cuadro_ Contraste_Media2+ (CCW2-0.1) *Cuadro_Diferencia_Media- CCW3*I_Contraste_Desviación?2*I_Contraste_Desviación2?2*exp (CCW4*Cuadro_Diferencia_Desviación 2)
(Ecuación 13)
(d) Tres o más cambios de escena: Si se observa que el súper-cuadro determinado tiene más de 3 cuadros I
(por decir, N) , al último cuadro I se le otorga mayor peso y a todos los otros cuadros I se les otorga un peso de 0.05, como se muestra en la siguiente ecuación:
CCMétrica=0.05*I_Cuadro_Contraste_Media(1 N_i)+CCWl*I_Cuadro_ Contraste_Media(N)+(CCW2- (0.05* (N-l) ) ) *Cuadro_Diferencia_ Media-CCW3*I_Contraste_Desviación(N) A2*I_Contraste_ Desviación(? _u A2*exp (CCW4*Cuadro_Diferencia_DesviaciónA2)
(Ecuación 14)
(5) Se requiere una corrección para la métrica en el caso de escenas de bajo movimiento cuando la media de Diferencia de Cuadro es menor que 0.05. Una compensación de (CCCOMPENSACIÓN) 0.33 se agregarla a la CCMétrica. El componente de complejidad 192 utiliza el valor Desata vectores de movimiento y la suma de diferencias absolutas para determinar un valor que indique una complejidad espacial para el macro-bloque (o cantidad designada de datos de video). La complejidad temporal es determinada por una medición de la Métrica de Diferencia de Cuadro. La Métrica de Diferencia de Cuadro mide la diferencia entre dos cuadros consecutivos tomando en cuenta
la cantidad de movimiento (con vectores de movimiento) y la suma de diferencias absolutas entre los cuadros.
Generación de mapa de ancho de banda La calidad visual humana V puede ser una función de la complejidad de codificación C y los bits asignados B (también denominados como ancho de banda) . Se deberla apreciar que la métrica de complejidad de codificación C considera las frecuencias espacial y temporal desde el punto de vista de la visión humana. Para distorsiones más sensibles a los ojos humanos, el valor de complejidad es correspondientemente superior. Por lo regular, se puede asumir que V es reducido de manera monotónica en C, e incrementado de manera monotónica en B. Para lograr la calidad visual constante, un ancho de banda ( Bx ) es asignado al iavo objeto (cuadro o MB) que va a ser codificado y que satisface los criterios expresados en las ecuaciones 15 y 16.
B' 5( "F) (Ecuación 15) B = ?B, ¡Ecuación 16!
En las ecuaciones 15 y/o 16, C? es la complejidad de codificación del iavo objeto, B es el ancho de banda disponible total, y V es la calidad visual lograda para un
objeto. La calidad visual humana es difícil de formular como una ecuación. Por lo tanto, el conjunto de ecuaciones anteriores no se define de forma precisa. Sin embargo, si se asume que el modelo 3-D es continuo en todas las
variables, la relación de ancho de banda ( /'?£>> ) se puede
tratar como sin cambios dentro de las inmediaciones de un par ( C, V) . La relación de ancho de banda ß se define en la ecuación 17.
B. ß, = B (Ecuación 17)
El problema de la repartición de bits se puede entonces definir como se expresa en la ecuación 18:
ß, = ß(C,) i = ß para ( /' ) G d(c° ' ° )
(Ecuación 18 )
En la ecuación 18 anterior, d indica las "inmediaciones". La complejidad de codificación es afectada por la sensibilidad visual humana, tanto espacial como temporal. El modelo de visión humana de Girod es un ejemplo de un modelo que se puede utilizar para definir la complejidad espacial. Este modelo considera la frecuencia espacial local y la iluminación ambiental. La métrica resultante se
denomina Dcsat. En un punto de procesamiento previo en el proceso, no se sabe si una imagen va a ser intra-codificada o inter-codificada y se generan relaciones de ancho de banda para ambos. Para imágenes intra-codificadas, la relación de ancho de banda se expresa en la ecuación 19:
ß.NTRA - ß m-RA log.o (1 + aINTRAY Dc al ) ( E cua c i ón 1 9 }
En la ecuación anterior, Y es el componente de luminancia promedio de un MB, aINTRA es un factor de ponderación para el cuadrado de luminancia y el término Dcsat que le sigue, ßoiNTRA es un factor de normalización para garantizar l - ß, . Por ejemplo, un valor de aINTRA = 4 logra una buena
calidad visual. El valor del factor de escalación ßoiNTRA no es importante siempre y cuando los bits sean asignados de acuerdo con la relación existente entre ß?NTRA de diferentes objetos de video. Para entender esta relación, se deberla observar que el ancho de banda es asignado logarítmicamente con complejidad de codificación. El término cuadrado de luminancia refleja el hecho de que los coeficientes con magnitud más grande utilizan más bits para codificar. Para evitar que el logaritmo obtenga valores negativos, se agrega unidad al término en el paréntesis. También se pueden utilizar logaritmos con otras bases.
La complejidad temporal se determina por medio de una medición de la Métrica de Diferencia de Cuadro. La
Métrica de Diferencia de Cuadro mide la diferencia entre dos cuadros consecutivos tomando en cuenta la cantidad de movimiento (con vectores de movimiento) junto con la SAD. La asignación de bits para imágenes inter-codificadas necesita considerar tanto la complejidad espacial como la temporal. Esto se expresa a continuación en la ecuación 20:
iNiiR = ßomiLR loB?o (1 + am R • SSD • Dcwl expH?l F,, + MVN )) (Ecuación 20 )
En la ecuación 20, MVP y MVN son los vectores de movimiento de avance y retroceso para el MB actual. Se puede observar que Y2 en la fórmula INTRA es reemplazado por SSD, el cual representa la suma de diferencia cuadrada. Para entender la función de
en la ecuación 6, se pueden observar las siguientes características del sistema visual humano: áreas que experimentan movimiento predecible suave ( t ¡iMV +
pequeño) atraen la atención y pueden ser rastreadas por el ojo y, por lo regular, no pueden tolerar ninguna distorsión más que las regiones estacionarias. Sin embargo, las áreas
que experimentan movimiento rápido o impredecible
grande) no pueden ser rastreadas y pueden tolerar una cuantificación importante. Los experimentos muestran que aINTER=í r y^O.OOl logra buena calidad visual.
Determinar valores de textura y movimiento Para cada macro-bloque en los datos multimedia, el componente de clasificación 194 asocia un valor de textura con la complejidad espacial y un valor de movimiento con la complejidad temporal. El valor de textura se refiere a los valores de luminiscencia de los datos multimedia, donde un valor de baja textura indica pequeños cambios en los valores de luminiscencia de pixeles vecinos de los datos, y un valor de textura elevado indica cambios grandes en los valores de luminiscencia de pixeles vecinos de los datos. De acuerdo con un aspecto, una vez que se calculan los valores de textura y movimiento, un componente de clasificación 194 determina una métrica de clasificación de contenido (por ejemplo, una clasificación de contenido) considerando tanto la información de movimiento como de textura. El componente de clasificación 194 asocia la textura para los datos de video que se están clasificando con un valor de textura relativo, por ejemplo, textura "Baja", textura "Media" o textura "Alta", lo cual generalmente indica la complejidad de los valores de
luminancia de los macro-bloques. También, el componente de clasificación 194 asocia el valor de movimiento calculado para los datos de video que se están clasificando con un valor de movimiento relativo, por ejemplo, movimiento "Bajo", movimiento "Medio", o movimiento "Alto" lo cual generalmente indica la cantidad de movimiento de los macrobloques. En modalidades alternas, se puede utilizar una cantidad menor o mayor de categorías para movimiento y textura. Después se determina una métrica de clasificación de contenido considerando los valores de textura y movimiento asociados. La figura 6 ilustra un ejemplo de una gráfica de clasificación que muestra la forma en que los valores de textura y movimiento están asociados con una clasificación de contenido. Un experto en la técnica está familiarizado con muchas formas para ejecutar dicha gráfica de clasificación, por ejemplo, en un cuadro de búsqueda o una base de datos. La gráfica de clasificación es generada con base en evaluaciones predeterminadas de contenido de datos de video. Para determinar la clasificación de datos de video, un valor pe textura de "Bajo", "Medio" o "Alto" (en el "eje x") está en referencia cruzada con un valor de movimiento de "Bajo", "Medio" o "Alto" (en el "eje y") . Una clasificación de contenido indicada en el bloque de cruce es asignada a los datos de video. Por ejemplo, un valor de
textura de "Alto" y un valor de movimiento de "Medio" resulta en una clasificación de siete (7). La figura 6 ilustra varias combinaciones de valores relativos de textura y movimiento que están asociados con ocho clasificaciones de contenido diferentes, en este ejemplo. En algunas otras modalidades se puede utilizar una cantidad mayor o menos de clasificaciones.
Determinación de tasa de transferencia de bits Como se describió anteriormente, la clasificación de contenido de datos multimedia resultante se puede utilizar en algoritmos de pre-/post-procesamiento y compresión para mejorar de forma efectiva la administración de bits al mismo tiempo que se mantiene una constante de la calidad de video perceptiva. Por ejemplo, la métrica de clasificación se puede utilizar en algoritmos para detección de cambio de escena, control de asignación de tasa de transferencia de bits de codificación, y conversión ascendente de tasa de transferencia de cuadro (FRUC) . Los sistemas de compresor/descompresor (codee) y los algoritmos de procesamiento de señal digital comúnmente se utilizan en comunicaciones de datos de video, y se pueden configurar para conservar el ancho de banda, pero existe una compensación entre la calidad y la conservación del ancho de banda. Los mejores codees proveen la mayoría de la
conservación del ancho de banda al mismo tiempo que producen la menor degradación de la calidad de video. En un aspecto, un componente de tasa de transferencia de bits 196 utiliza la clasificación de contenido para determinar una tasa de transferencia de bits (por ejemplo, el número de bits asignados para codificar los datos multimedia) y almacena la tasa de transferencia de bits en memoria para uso por parte de otro proceso y componentes, por ejemplo, el componente codificador 185 en la figura 1. Una tasa de transferencia de bits determinada a partir de la clasificación de los datos de video puede ayudar a conservar el ancho de banda al mismo tiempo que provee datos multimedia a un nivel de calidad consistente. En un aspecto, una tasa de transferencia de bits diferente se puede asociar con cada una de las ocho clasificaciones de contenido diferentes y, después que la tasa de transferencia de bits es utilizada, para codificar los datos multimedia. El efecto resultante es que, aunque a las diferentes clasificaciones de contenido de datos multimedia se les asigna un número diferente de bits para codificación, la calidad percibida es similar o consistente cuando es vista en una pantalla. Por lo general, los datos multimedia con una clasificación de contenido superior son indicativos de un nivel superior de movimiento y/o textura y se les asignan
más bits cuando son codificados. A los datos multimedia con una clasificación inferior (indicativa de menos textura y movimiento) se les asignan menos bits. Para datos multimedia de una clasificación de contenido particular, la tasa de transferencia de bits se puede determinar con base en un nivel de calidad percibido objetivo seleccionado para visualizar los datos multimedia. La determinación de la calidad de datos multimedia se puede determinar cuando las personas observan y clasifican los datos multimedia. En algunas modalidades alternas, se pueden realizar cálculos de la calidad de datos multimedia a través de sistemas de prueba automáticos utilizando, por ejemplo, algoritmos de relación señal a ruido. En un aspecto, un conjunto de niveles de calidad estándar (por ejemplo, cinco) y una tasa de transferencia de bits correspondiente necesaria para lograr cada nivel de calidad particular se predeterminan para datos multimedia de cada clasificación de contenido. Para determinar , un conjunto de niveles de calidad, se pueden evaluar datos multimedia de una clasificación de contenido particular mediante la generación de un Puntaje de Opinión Medio (MOS) que provee una indicación numérica de una calidad visualmente percibida de los datos multimedia cuando son codificados utilizando una cierta tasa de transferencia de bits. El MOS se puede expresar como un número sencillo en el rango 1 a 5, donde 1 es la
calidad más baja percibida, y 5 es la calidad más alta percibida. En otras modalidades, el MOS puede tener más de cinco o menos de cinco niveles de calidad, y se pueden utilizar diferentes descripciones de cada nivel de calidad. La determinación de la calidad de datos multimedia se puede lograr cuando las personas observan y clasifican los datos multimedia. En algunas modalidades alternas, los cálculos de la calidad de datos multimedia se pueden realizar a través de sistemas de prueba automáticos utilizando, por ejemplo, algoritmos de relación señal a ruido. En un aspecto, un conjunto de niveles de calidad estándar (por ejemplo, cinco) y una tasa de transferencia de bits correspondiente necesaria para lograr cada nivel de calidad particular son predeterminados para datos multimedia de cada clasificación de contenido. Al conocer la relación entre el nivel de calidad visualmente percibido y una tasa de transferencia de bits para datos multimedia de un cierto contenido, la clasificación se puede determinar seleccionando un nivel de calidad objetivo (por ejemplo, deseado) . El nivel de calidad objetivo utilizado para determinar la tasa de transferencia de bits puede ser preseleccionado, seleccionado por un usuario, seleccionado a través de un proceso automático o un proceso semi-automático que requiera una entrada de un usuario o de otro proceso, o
puede ser seleccionado dinámicamente por el dispositivo de codificación o sistema con base en un criterio predeterminado. Un nivel de calidad objetivo se puede seleccionar con base en, por ejemplo, el tipo de aplicación de codificación, o el tipo de dispositivo de cliente que estarla recibiendo los datos multimedia.
Determinación de clasificaciones de contenido Las curvas de clasificación de contenido y las curvas de distorsión de tasa de transferencia a partir de las cuales se derivan, son generadas antes de clasificar los datos de video. Para las clasificaciones de datos multimedia identificadas, la tasa de transferencia de bits aceptable es determinada mediante el hallazgo del punto de intersección del nivel de calidad objetivo con la curva de calidad de distorsión de tasa de transferencia particular para la clasificación particular de datos de video. La tasa de transferencia de bits es el punto que corresponde al punto de intersección, y la tasa de transferencia de bits puede reducir conforme se selecciona un nivel de calidad objetivo inferior. Por ejemplo, si el nivel de calidad objetivo se seleccionó para que fuera "Aceptable" en lugar de "Bueno", los datos de video de codificación clasificados como, por ejemplo, clase 6 con una tasa de transferencia de bits de nivel 5, pueden ahora requerir una tasa de
transferencia de bits de aproximadamente nivel 4. Para determinar las ocho clasificaciones de contenido de datos multimedia a las que se hace referencia en las figuras 6 y 7, secuencias de datos multimedia que contienen varios tipos de contenido se pueden utilizar para obtener tasas de transferencia de bits promedio y una relación señal-a-ruido pico de luminancia promedio (PSNR) . Las tasas de transferencia de bits promedio para las secuencias son trazadas contra la PSNR promedio que forma las curvas de tasa de transferencia-distorsión (R-D) . Por ejemplo, las curvas R-D para numerosas secuencias de datos multimedia se pueden mostrar en formato gráfico donde el eje-x es la tasa de transferencia de bits promedio (kbps), y el eje-y es la PSNR de luminancia promedio (db) . Las curvas R-D para las secuencias caen en varias agrupaciones diferentes, y las secuencias de datos multimedia son entonces clasificadas en diferentes grupos (también curvas) con base en las agrupaciones de las curvas R-D. En un ejemplo, inicialmente se forman cinco grupos, donde cada grupo es obtenido tomando la media de todas las secuencias que caen en esa agrupación. Las agrupaciones pueden incluir una o más secuencias. La desviación estándar para cada grupo también se puede calcular a partir de las secuencias particulares que forman el grupo. En otros ejemplos, las secuencias de datos de video se pueden agrupar para formar
menos de cinco grupos o más de cinco grupos dependiendo de las secuencias utilizadas. En este ejemplo, el número de grupos (cinco) se incrementa posteriormente con base en un análisis adicional de los datos de video. De manera similar, si inicialmente se forma una cantidad mayor o menor de grupos en algunos otros aspectos, dichos aspectos también pueden incluir aumentar o reducir adicionalmente el número de grupos con base en las secuencias adicionales de evaluación. Los cinco grupos iniciales corresponden a cinco clases que representan varios niveles de movimiento y textura en un s.úper-cuadro determinado. Por ejemplo, la clase 1 representa un súper-cuadro que tiene bajo movimiento y baja textura (LM, LT) , la clase 2 representa un súper-cuadro que tiene movimiento mediano y baja textura (MM, LT) , la clase 3 representa un súper-cuadro que tiene movimiento mediano y textura mediana (MM, LT) , la clase 4 representa un súper-cuadro que tiene alto movimiento y textura mediana (HM, MT) , y la clase 5 representa un súper-cuadro que tiene alto movimiento y alta textura (HM, HT) . A continuación, cada súper-cuadro de todas las secuencias fuente disponibles es clasificado para probar si cada súper-cuadro cae en su clase respectiva. La clasificación inicial se puede refinar probando varias secuencias de datos multimedia y utilizando un proceso iterativo para acomodar las otras secuencias que no se
ajustan en los cinco grupos previamente definidos, y se puede obtener un nuevo conjunto de curvas R-D modificadas. En este ejemplo, el número de agrupaciones se incrementó de cinco a ocho y se formaron clases adicionales, donde el número de clase más grande representa el movimiento creciente y un nivel superior de textura en los datos multimedia . En este ejemplo, estas curvas R-D se configuraron entonces para facilitar su uso en la clasificación de datos multimedia. Debido a que la relación existente entre la tasa de transferencia de bits y la PSNR de luminancia de una señal es una función logarítmica, las curvas R-D se pueden configurar utilizando una función logarítmica de la siguiente forma, ypsnr = a * In(tasa de transferencia) + b, a>0. En este ejemplo, los valores de parámetros a y b se reproducen a continuación: Clase a b 1 5.0874 -13.038 2 5.1765 -20.790 3 5.9369 -32.149 4 5.2884 -27.498 5 5.3435 -30.421 6 5.1642 -29.173 7 5.0773 -32.890 8 5.0813 -37.631
Un sistema de procesamiento multimedia diseñado para operar en tal forma que todos los servicios en tiempo real tengan una calidad percibida similar sin importar su asignación de tasa de transferencia de bits provee datos multimedia consistentes para despliegue. Por lo tanto, una métrica de calidad (por ejemplo, PSNR) para un servicio de tiempo real se espera que aumente de manera monotónica con la tasa de transferencia de bits asignada. Debido a que un valor igual de PSNR no necesariamente produce una calidad consistente percibida de datos multimedia, las clases existentes se modificaron con base en otra métrica de calidad, diferente a la PSNR. Para lograr la misma calidad percibida de los datos multimedia, las curvas de clasificación de contenido se modificaron agregando compensaciones correspondientes de forma que todas las clases tuvieran una métrica de calidad similar. Las ecuaciones con compensación corregida también son de forma logarítmica, ypsnr = a * In(tasa de transferencia) + b + compensación. En el ejemplo descrito, los valores de compensación para cada una de las ocho clases de contenido son -9.833, -5.831, -4.335, -2.064, -0.127, 0.361, 4.476 y 6.847. Un uso de clasificación de contenido es para detección de cambio de escena de datos de video. Si la métrica de diferencia de cuadro o el valor de relación de
contraste o la métrica de clasificación de contenido son relativamente altas con respecto al cuadro previo y futuro en una secuencia de cuadros, se determina que el cuadro particular es un cambio de escena o una nueva toma. La figura 8 es un diagrama de flujo que ilustra un ejemplo de un proceso 200 para determinar una tasa de transferencia de bits con base en la clasificación de datos multimedia. También se observa que los ejemplos se pueden describir como un proceso el cual se puede mostrar como un diagrama, un diagrama de flujo, un diagrama de estructura o un diagrama de bloques. Aunque un diagrama puede describir las operaciones como un proceso en secuencia, muchas de las operaciones se pueden ejecutar en paralelo o simultáneamente y el proceso se puede repetir. Además, el orden de las operaciones se puede reacomodar, las operaciones no mostradas se pueden ejecutar o las operaciones mostradas se pueden omitir dependiendo de las circunstancias de una aplicación del proceso. Un proceso aqui descrito puede corresponder a un método, una función, un procedimiento, un programa de software o parte de un programa de software. Cuando un proceso corresponde a una función, su terminación corresponde a un retorno de la función a la función de llamada o la función principal. La descripción de un proceso como un programa de software, módulo, componente,
sub-rutina, o un sub-programa es una descripción amplia y no pretende requerir que todas las modalidades sean ejecutadas de manera idéntica, a menos que expresamente asi se estipule. Más bien, aquellos expertos en la técnica reconocerán que dichas operaciones por lo regular se pueden ejecutar en hardware, software, software personalizado, microprogramación cableada, o microcódigo. La funcionalidad o una operación que se describe como un componente sencillo, programa o módulo se puede también ejecutar en dos o más componentes, módulos, programas, por ejemplo, sub-módulos, sub-programas o sub-rutinas. El proceso 200 puede ser realizado, por ejemplo, por el dispositivo codificador 105, y los componentes de los mismos, que se muestran en la figura 1. Los datos de video codificados o no codificados son recibidos por el dispositivo codificador 105 desde la fuente externa 135. En el proceso 200, el paso 205 determina la complejidad de los datos de video., En algunas modalidades, el componente codificador 185 calcula información utilizada para determinar la complejidad espacial y la complejidad temporal de los datos de video, por ejemplo, vectores de movimiento, por lo menos un valor Dcsat, y la suma de las diferencias absolutas de macro-bloques. En algunas modalidades, el componente de clasificación de contenido 190 calcula por lo menos parte de la información necesaria
para determinar la complejidad temporal y espacial de datos multimedia. Los medios de clasificación, tales como el componente de clasificación de contenido 190, pueden clasificar datos multimedia con base en la complejidad determinada, paso 210. Como resultado del paso 210, los datos multimedia se clasifican en una de varias clasificaciones de contenido (por ejemplo, una de ocho clasificaciones de contenido) . En el paso 215, el proceso 200 determina un valor de calidad para visualizar datos multimedia en una pluralidad de clasificaciones de contenido, lo cual, por lo regular, se realiza antes del inicio del proceso 200. La determinación de un nivel de calidad de datos puede ser realizada por personas que observan y clasifican los datos multimedia o, en algunas modalidades alternas, cálculos de la calidad de datos multimedia se pueden realizar a través de sistemas de evaluación de datos automáticos utilizando, por ejemplo, algoritmos de relación señal a ruido. El nivel de calidad puede ser preseleccionado, seleccionado por un usuario, seleccionado a través de un proceso automático o un proceso semi-automático que requiera una entrada de un usuario o de otro proceso. Alternativamente, el nivel de calidad se puede seleccionar dinámicamente a través del dispositivo o sistema de codificación durante la operación del sistema, con base, por ejemplo, en criterios predeterminados
relacionados con un nivel de calidad deseado o requerido para visualizar los datos multimedia. El proceso 200 determina una tasa de transferencia de bits para codificar los datos de video con base en su clasificación y el nivel de calidad objetivo deseado. La tasa de transferencia de bits para codificar los datos de video se puede determinar agregando cálculos de tamaño de cuadro individuales a ese súper-cuadro. Los cálculos de tamaño de cuadro individuales se pueden calcular de dos formas. En un enfoque, el cálculo de los tamaños de cada cuadro en el súper-cuadro se realiza con base en las relaciones de ancho de banda y después el tamaño del súper-cuadro se puede calcular como una combinación lineal de los tamaños de cuadro.
Cálculo de tamaño de súper-cuadro con base en tamaños de cuadro Los tamaños de cuadro se calculan dependiendo de los cuadros previamente codificados y las relaciones de ancho de banda del cuadro. Se utiliza un filtro de Respuesta de Impulso Infinito (IIR) para calcular los tamaños de cuadro y se observa una fuerte correlación entre el tamaño real y los tamaños calculados de las simulaciones. Las relaciones de ancho de banda (BWR) se calculan en el pre-procesador con base en los vectores de
movimiento y la SAD en el decodificador MPEG-2. Se asume una relación lineal directa entre el tamaño de cuadro y la BWR de la siguiente forma:
Tamaño de Cuadro (n) /BWR (n) =Tamaño de Cuadro (n+1 ) /BWR (n+1) (Ecuación 20)
A continuación se describe un procedimiento para calcular los tamaños de cuadro. (1) Una cantidad denominada Gamma se calcula como la relación entre el Tamaño de Cuadro y la BWR para cada cuadro codificado.
Gamma (i) = Tamaño de Cuadro (i) /Temporal_BWR (i) (Ecuación 21)
(2) Para cada cuadro que se va a codificar, se calcula un peso utilizando el siguiente filtro IIR.
Gammap(i) = (1-alfa) *Gamma (i-1) +alfa*Gammap (i-1 ) (Ecuación 22)
Por lo tanto, el tamaño de cuadro se calcula de la siguiente forma:
Cálculo de cuadro (i) = Gammap (i) *Temporal_BWR (i) (Ecuación 23)
Este procedimiento se puede utilizar para cuadros P y B con cuadros P sucesivos calculados a partir de cuadros P codificados previos y cuadros B calculados a partir de cuadros B codificados previos. En un enfoque, Temporal_BWR puede ser la suma de Beta_inter (anteriormente descrito) para todos los macro-bloques en el cuadro. En el caso de cuadros I, se observa que un filtro FIR provee un resultado más preciso que con un filtro IIR. Por lo tanto, para cuadros I, el cálculo se obtiene de la siguiente forma :
Cálculo de - CuadrosI (i) =Espacial_BWR (i) * (Tamaño de Cuadro_I (i-1) /Espacial_BWR (i-1) ) (Ecuación 24)
El tamaño del súper-cuadro es la suma de todos los cálculos de cuadro en ese súper-cuadro.
Cálculo del tamaño de súper-cuadro como un todo En otro enfoque, el tamaño de súper-cuadro se puede calcular como un todo. El tamaño de súper-cuadro se puede calcular dependiendo de los súper-cuadros previamente
codificados y las relaciones de ancho de banda del súper-cuadro como un todo. Un filtro de Respuesta de Impulso Infinito (IIR) , como se describió para el primer enfoque anteriormente, se puede utilizar para calcular los tamaños de súper-cuadro. Una vez más, se puede asumir una relación lineal entre el tamaño de súper-cuadro y la complejidad de súper-cuadro representada por medio de la relación de ancho de banda para el súper-cuadro como un todo:
SF_Tamaño(n)SF_BWR(n)=SF_Tamaño (n+1) /SF_BWR(n+l) (Ecuación 25)
El procedimiento para calcular tamaños de súper-cuadro se pueden explicar de la siguiente forma: (1) Una cantidad denominada Teta se calcula como la relación entre el tamaño de súper-cuadro y la BWR para el súper-cuadro completo, como se muestra en la siguiente ecuación:
Teta(i)=SF_Tamaño(i) /SF_BWR(i) (Ecuación 26)
(2) Para cada súper-cuadro que se va a codificar, se calcula un peso utilizando el siguiente filtro IIR.
TetaP(i)=(l-alfa) *Teta (i-1) +alfa*TetaP (i-1) (Ecuación 27)
El tamaño de súper-cuadro se puede calcular de la siguiente forma:
SúperCuadro_Cálculo ( i) =TetaP (i ) *SF_BWR ( i ) (Ecuación 28)
La relación de ancho de banda para un súper-cuadro determinado se calcula utilizando una combinación lineal de las relaciones de ancho de banda para los cuadros individuales en ese súper-cuadro. Los tipos de cuadro en un súper-cuadro se pueden basar en una estructura GOP fija tal como IBP o IBBP, etc. Los tipos de cuadro en un súper-cuadro se determinan con base en la métrica de diferencia de cuadro antes descrita. Un umbral intra y un umbral inter se determinan con base en la clasificación del tipo de contenido en este súper-cuadro determinado. Con base en estos umbrales, un cuadro es declarado como un I-cuadro si su diferencia de cuadro excede el intra_umbral o un P-cuadro si su diferencia de cuadro se ubica entre los umbrales intra e inter y un B-cuadro si la diferencia de cuadro se ubica por debajo del inter_umbral .
La relación de ancho de banda espacial, descrita como Beta_Intra derivada utilizando Dcsat y el modelo de Girod antes descrito, se utiliza para calcular el tamaño de cuadros Intra. Otro enfoque es donde la relación de ancho de banda espacial se basa en la relación de contraste antes descrita o cualquier otra métrica que represente la cantidad. La relación de ancho de banda temporal, descrita como Beta_Inter derivada utilizando Dcsat y el modelo de Girod y MV y SAD antes descritos, se utiliza para calcular el tamaño de inter. Otro enfoque es donde la relación de ancho de banda temporal se basa en la métrica SAD_MV antes descrita o cualquier otra métrica que represente la cantidad o nivel de movimiento en el cuadro. Refiriéndose nuevamente a la figura 8, en el paso
221, el proceso 200 utiliza la tasa de transferencia de bits determinada en el paso 215 para procesamiento adicional de los datos multimedia, por ejemplo, para codificar los datos multimedia para comunicación a lo largo de una red inalámbrica. La figura 9 es un diagrama de flujo que ilustra un proceso 201 para operaciones adicionales de procesamiento de datos multimedia entre los puntos "A" y "B" que se muestran en la figura 8. El proceso 201 determina la complejidad espacial de los datos multimedia
en el paso 206. La determinación de la complejidad espacial requiere que el proceso 201 calcule por lo menos un valor Dcsat para bloques de los datos multimedia, el cual se realiza en el paso 207. El paso 207 se puede realizar a través del componente codificador 185 o el componente de clasificación de contenido 190, ambos se muestran en la figura 1. El proceso para calcular un valor Dcsat se describió anteriormente. Procediendo con el paso 240, el proceso 201 ahora determina la complejidad temporal de los datos multimedia. El paso 209 determina por lo menos un vector de movimiento por lo menos para un bloque de datos, lo cual, por lo regular, se realiza a través del componente codificador 185. En el paso 211, el proceso 201 también determina la suma de diferencias absolutas (SAD) asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia. Los cálculos en el paso 211 por lo regular se realizan a través del componente codificador 185. Procediendo con el paso 210, el proceso 201 clasifica los datos multimedia con base en la complejidad determinada. Para clasificar los datos multimedia, la complejidad espacial se asocia con un valor de textura, en el paso 255. También, la complejidad temporal se asocia con un valor de movimiento, como se muestra en el paso 260. Por último, en el paso 265, el proceso 201 asigna una clasificación de contenido a los datos multimedia con base
en el valor de textura y el valor de movimiento, determinado en el paso 255 y 260, respectivamente. Los pasos del proceso 201 finalizan en "B" que es donde el proceso 200 continuarla para determinar una tasa de transferencia de bits, como se muestra en el paso 215 de la figura 9. La clasificación de contenido y el proceso para calcular la complejidad de contenido multimedia y la relación de compresión o tasa de transferencia de codificación correspondiente para una calidad perceptiva determinada se puede extender para mejorar las ganancias en la multiplexión estadística de corrientes de tasa de transferencia variables. Dicho multiplexor que explota los métodos y aparatos antes descritos, también permite que la multiplexión de calidad uniforme sea emitida para variar dinámicamente contenido en aplicaciones multimedia. Dicho multiplexor se describe a continuación.
Multiplexor En algunas modalidades, se puede utilizar un multiplexor para la administración de bits antes analizada.
Por ejemplo, se puede ejecutar un multiplexor para proveer el control de asignación de tasa de transferencia de bits.
La complejidad calculada se puede proveer al multiplexor, el cual entonces asigna el ancho de banda disponible para
una recopilación de canales de video multiplexados de acuerdo con la complejidad de codificación anticipada para esos canales de video, lo cual entonces permite que la calidad de un canal particular permanezca relativamente constante incluso si el ancho de banda para la recopilación de corrientes de video multiplexadas es relativamente constante. Esto permite que un canal, dentro de una recopilación de canales, tenga una tasa de transferencia de bits variable y una calidad visual relativamente constante, en lugar de una tasa de transferencia de bits relativamente constante y una calidad visual variable. La figura 10 es un diagrama de sistema que ilustra la codificación de múltiples corrientes multimedia o canales 1002.- Las corrientes multimedia 1002 son codificadas por codificadores respectivos 1004, los cuales están en comunicación con un multiplexor (MUX) 1006, el cual a su vez está en comunicación con un medio de transmisión 1008. Por ejemplo, las corrientes multimedia 1002 pueden corresponder a varios canales de contenido, tales como canales de noticias, canales deportivos, canales de películas, y similares. Los codificadores 1004 codifican las corrientes multimedia 1002 al formato de codificación especificado para el sistema. Aunque se describen en el contexto de codificación de corrientes de video, los principios y ventajas de las técnicas descritas
generalmente se pueden aplicar a corrientes multimedia incluyendo, por ejemplo, corrientes de audio. Las corrientes multimedia codificadas son provistas a un multiplexor 1006, el cual combina las diversas corrientes multimedia codificadas y envía la corriente combinada al medio de transmisión 1008 para transmisión. El medio de transmisión 1008 puede corresponder a una variedad de medios, tal como, pero no limitado a, comunicación satelital digital, tal como DirecTV®, cable digital, comunicaciones por Internet cableadas e inalámbricas, redes ópticas, redes de teléfono celular, y similares. El medio de transmisión 1008 puede incluir, por ejemplo, modulación a radiofrecuencia (RF) . Por lo regular, debido a las restricciones espectrales y similares, el medio de transmisión tiene un ancho de banda limitado y los datos del multiplexor 1006 al medio de transmisión se mantienen a una tasa de transferencia de bits relativamente constante (CBR) . En sistemas convencionales, el uso de la tasa de transferencia de bits constante (CBR) en la salida del multiplexor 1006 requiere que las corrientes de video o multimedia codificadas que son ingresadas al multiplexor 1006 sean también CBR. Como se describió en los antecedentes, el uso de CBR, cuando se codifica contenido de video, puede resultar en una calidad visual variable, lo
cual por lo general es indeseable. En el sistema ilustrado, dos o más de los codificadores 1004 comunican una complejidad de codificación anticipada de datos de entrada. Uno o más del codificador 1004 puede recibir control de tasa de transferencia de bits adaptado del multiplexor 1006 en respuesta. Esto permite a un codificador 1004, que espera codificar video relativamente complejo, recibir una tasa de transferencia de bits superior o ancho de banda superior (más bits por cuadro) para esos cuadros de video en una forma de tasa de transferencia de bits cuasi-variable. Esto permite a la corriente multimedia 1002 ser codificada con más calidad visual consistente. El ancho de banda extra que es utilizado por un codificador particular 1004 que codifica video relativamente complejo, proviene de los bits que, de otra forma, se habrían utilizado para codificar otras corrientes de video 1004, en caso que los codificadores se ejecutaran para operar a tasas de transferencia de bits constantes. Esto mantiene la salida del multiplexor 1006 a la tasa de transferencia de bits constante (CBR) . Aunque una corriente multimedia individual 1002 puede estar relativamente en "ráfaga", es decir, puede variar en ancho de banda utilizado, la suma acumulativa de múltiples corrientes de video puede estar en una situación
de menos ráfaga. La tasa de transferencia de bits de los canales que están codificando video menos complejo de lo que puede ser reasignado, por ejemplo, por el multiplexor 1006, a canales que están codificando video relativamente complejo, y esto puede mejorar la calidad visual de las corrientes de video combinadas como un todo. Los codificadores 1004 proveen al multiplexor 1006 una indicación de la complejidad de un conjunto de cuadros de video que van a ser codificados y multiplexados juntos. La salida del multiplexor 1006 deberla proveer una salida que no sea superior que la tasa de transferencia de bits especificada para el medio de transmisión 1008. Las indicaciones de la complejidad se pueden basar en la clasificación de contenido, tal como se analizó anteriormente, para proveer un nivel de calidad seleccionado. El -multiplexor 1006 analiza las indicaciones de complejidad, y provee a los diversos codificadores 1004 un número asignado de bits o ancho de banda, y los codificadores 1004 utilizan esta información para codificar los cuadros de video en el conjunto. Esto permite que un conjunto de cuadros de video sea individualmente una tasa de transferencia de bits variable, e incluso lograr una tasa de transferencia de bits constante como un grupo. La clasificación de contenido también se puede utilizar para permitir la compresión de multimedia basada
en calidad en general para cualquier compresor genérico. La clasificación de contenido y los métodos y aparatos aqui descritos se pueden utilizar en procesamiento multimedia basado en calidad y/o basado en contenido de cualesquiera datos multimedia. Un ejemplo es su uso en la compresión de multimedia en general para cualquier compresor genérico. Otro ejemplo es la descompresión o decodificación en cualquier descompresor o decodificador o post-procesador tal como operaciones de interpolación, re-muestreo, mejora, restauración y presentación. Aspectos de las diversas modalidades se pueden ejecutar en cualquier dispositivo que esté configurado para codificar datos multimedia para posterior despliegue, incluyendo datos multimedia en donde los cuadros mostrados despliegan una imagen en movimiento (por ejemplo, una secuencia de cuadros asociados que retratan una imagen en movimiento o cambiante) o una imagen estacionaria (por ejemplo, imagen sin cambios o que cambia lentamente) , y ya sea textual o pictórica. De manera muy particular, se tiene contemplado que algunas modalidades se pueden ejecutar en, o asociar con una variedad de dispositivos electrónicos que se pueden utilizar para comunicación tal como, pero no limitados a, teléfonos móviles, dispositivos inalámbricos, asistentes de datos personales (PDA) , computadoras manuales o portátiles, y otros dispositivos de comunicación
inalámbrica o cableada configurados para recibir datos multimedia para despliegue. La comunicación de datos multimedia a dispositivos del cliente, tal como teléfonos inalámbricos, PDA, computadoras portátiles, etc., involucra transmitir y procesar grandes cantidades de datos. La mayoría de las aplicaciones multimedia podrían tener beneficios incrementados en calidad si la secuencia de cuadros multimedia provista al codificador se clasifica con base en su contenido. Existe un número de aplicaciones en un sistema de comunicación multimedia donde la clasificación de contenido, si está disponible, puede ser útil. Por ejemplo, la clasi icación de contenido puede ser útil para determinar una tasa de transferencia de bits necesaria para codificar datos multimedia para obtener una calidad de visualización predeterminada, y también se puede utilizar para determinar el mejor tipo de cuadro para un cuadro determinado. Aquellos expertos en la técnica entenderán que la información y señales se pueden representar utilizando cualquiera de una variedad de diferentes tecnologías y técnicas. Por ejemplo, datos, instrucciones, comandos, información, señales, bits, símbolos y chips a los que se pudo hacer referencia en la descripción anterior se pueden representar a través de voltajes, corrientes, ondas
electromagnéticas, campos o partículas magnéticas, campos o partículas ópticas, o cualquier combinación de los mismos. Aquellos expertos en la técnica además apreciarán que los diversos bloques lógicos ilustrativos, módulos, circuitos, y pasos de algoritmo descritos en relación con los ejemplos aqui analizados se pueden ejecutar como hardware electrónico, microprogramación cableada, software de cómputo, software personalizado, microcódigo o combinaciones de los mismos. Para ilustrar con claridad esta capacidad de intercambio de hardware y software, varios componentes ilustrativos, bloques, módulos, circuitos, y pasos se han descrito anteriormente de manera general en términos de su funcionalidad. Si dicha funcionalidad es ejecutada como hardware o software, depende de la aplicación particular y de las restricciones de diseño impuestas en el sistema en general. Los expertos en la técnica pueden ejecutar la funcionalidad descrita en varias formas para cada aplicación particular, pero esas decisiones de ejecución no se deberían interpretar como un motivo para apartarse del alcance de la presente invención. Los diversos bloques lógicos ilustrativos, módulos, y circuitos descritos en relación con los ejemplos aqui descritos se pueden ejecutar o realizar con un procesador de propósito general, un procesador de señal digital (DSP), un circuito integrado de aplicación
especifica (ASIC) , un arreglo de compuerta programable en campo (FPGA) u otro dispositivo lógico programable, compuerta discreta o lógica de transistor, componentes de hardware discretos, o cualquier combinación de los mismos diseñada para realizar las funciones aqui descritas. Un procesador de propósito general puede ser un microprocesador, pero en la alternativa, el procesador puede ser cualquier procesador convencional, controlador, microcontrolador, o máquina de estado. Un procesador también se puede ejecutar como una combinación de dispositivos de cómputo, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores en conjunto con un DSP núcleo, o cualquier otra configuración. Los pasos de un método o algoritmo descritos en relación con los ejemplos aqui mostrados se pueden incorporar directamente en hardware, en un módulo de software ejecutado por un procesador o en una combinación de los dos. Un módulo de software puede residir en memoria RAM, memoria rápida, memoria ROM, memoria EPROM, memoria EEPROM, registros, disco duro, un disco removible, un CD-ROM, o cualquier otra forma de medio de almacenamiento conocida en la técnica. Un medio de almacenamiento ejemplar está acoplado al procesador de manera que el procesador puede leer información de, y escribir información en el
medio de almacenamiento. En la alternativa, el medio de almacenamiento puede ser parte integral del procesador. El procesador y el medio de almacenamiento pueden residir en un Circuito Integrado de Aplicación Especifica (ASIC) . El ASIC puede residir en un módem inalámbrico. En la alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en el módem inalámbrico. La descripción previa de los ejemplos descritos se provee para permitir a cualquier experto en la técnica hacer o utilizar los métodos y aparatos descritos. Varias modificaciones a estos ejemplos serán fácilmente aparentes para aquellos expertos en la técnica, y los principios genéricos aqui definidos se pueden aplicar a otros ejemplos y elementos adicionales sin apartarse del espíritu o alcance del método y aparato descritos.
Claims (164)
1.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; y clasificar los datos multimedia con base en la complejidad determinada.
2. - El método de conformidad con la reivindicación 1, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
3.- El método de conformidad con la reivindicación 2, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
4.- El método de conformidad con la reivindicación 2, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
5.- El método de conformidad con la reivindicación 1, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
6.- El método de conformidad con la reivindicación 5, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
7.- El método de conformidad con la reivindicación 6, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
8.- El método de conformidad con la reivindicación 5, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD MV determinado por lo menos para un bloque de los datos multimedia.
9.- El método de conformidad con la reivindicación 5, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
10.- El método de conformidad con la reivindicación 1, caracterizado porque la clasificación de los datos multimedia comprende utilizar una pluralidad de clasificaciones de contenido.
11.- El método de conformidad con la reivindicación 1, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial y la complejidad temporal de los datos multimedia y en donde la clasificación de los datos multimedia comprende: asociar la complejidad espacial con un valor de textura; asociar la complejidad temporal con un valor de movimiento; y asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
12.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; y medios para clasificar los datos multimedia con base en la complejidad determinada.
13.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde medios de clasificación se basan en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
14.- El aparato de conformidad con la reivindicación 2, caracterizado porque medios de determinación de la complejidad espacial se basan en medios para determinar por lo menos un valor Dcsat por lo menos para un bloque de los datos multimedia.
15.- El aparato de conformidad con la reivindicación 2, caracterizado porque los medios de determinación de la complejidad espacial se basan en medios para determinar por lo menos en un valor de relación de contraste por lo menos para un bloque de los datos multimedia.
16.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde los medios de clasificación se basan en la complejidad temporal.
17.- El aparato de conformidad con la reivindicación 5, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
18.- El aparato de conformidad con la reivindicación 6, caracterizado porque los medios de determinación de la complejidad temporal además se basan en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
19.- El aparato de conformidad con la reivindicación 5, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia.
20.- El aparato de conformidad con la reivindicación 5, caracterizado porque los medios de determinación de la complejidad temporal se basan por lo menos en medios para determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
21.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de clasificación de los datos multimedia comprenden utilizar una pluralidad de medios de clasificaciones de contenido.
22.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de determinación de la complejidad comprenden: medios para determinar la complejidad espacial y la complejidad temporal de los datos multimedia y en donde los medios de clasificación de los datos multimedia comprenden: medios para asociar la complejidad espacial con un valor de textura; medios para asociar la complejidad temporal con un valor de movimiento; y medios para asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
23.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; y seleccionar a partir por lo menos de un proceso multimedia con base en la complejidad determinada.
24.- El método de conformidad con la reivindicación 23, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
25.- El método de conformidad con la reivindicación 24, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
26.- El método de conformidad con la reivindicación 24, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
27.- El método de conformidad con la reivindicación 23, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
28.- El método de conformidad con la reivindicación 27, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
29.- El método de conformidad con la reivindicación 28, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
30.- El método de conformidad con la reivindicación 28, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia .
31.- El método de conformidad con la reivindicación 28, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro determinado por lo menos para un bloque de los datos multimedia.
32.- El método de conformidad con la reivindicación 23, caracterizado porque la selección por lo menos de un proceso multimedia basado en la complejidad determinada comprende ya sea uno o una combinación de compresión multimedia, encapsulación, transmisión, recepción o presentación.
33.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; y medios para seleccionar a partir por lo menos de un proceso multimedia con base en la complejidad determinada .
34.- El aparato de conformidad con la reivindicación 33, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde los medios de clasificación se basan en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
35.- El aparato de conformidad con la reivindicación 34, caracterizado porque los medios de determinación de la complejidad espacial se basan en los medios para determinar por lo menos un valor Dcsat por lo menos para un bloque de los datos multimedia.
36.- El aparato de conformidad con la reivindicación 34, caracterizado porque los medios de determinación de la complejidad espacial se basan en medios para determinar -por lo menos un valor de relación de contraste por lo menos para un bloque de los datos multimedia .
37.- El aparato de conformidad con la reivindicación 33, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde los medios para clasificación se basan en la complejidad temporal.
38.- El aparato de conformidad con la reivindicación 37, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
39.- El aparato de conformidad con la reivindicación 38, caracterizado porque los medios de determinación de la complejidad temporal además se basan en medios para determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
40.- El aparato de conformidad con la reivindicación 38, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia.
41.- El aparato de conformidad con la reivindicación 38, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
42.- El aparato de conformidad con la reivindicación 33, caracterizado porque los medios de selección por lo .menos de un proceso multimedia basado en medios para determinar la complejidad comprenden ya sea uno o una combinación de compresión multimedia, encapsulación, transmisión, recepción o presentación.
43.- Un método para procesar datos multimedia que comprende : determinar la complejidad de datos multimedia; seleccionar un conjunto de procesos de codificación con base en la complejidad de datos multimedia.
44.- El método de conformidad con la reivindicación 43, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
45.- El método de conformidad con la reivindicación 44, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia .
46.- El método de conformidad con la reivindicación 44, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
47.- El método de conformidad con la reivindicación 43, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
48.- El método de conformidad con la reivindicación 47, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
49.- El método de conformidad con la reivindicación 48, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
50.- El método de conformidad con la reivindicación 47, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia.
51.- El método de conformidad con la reivindicación 47, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro determinado por lo menos para un bloque de los datos multimedia.
52.- El método de conformidad con la reivindicación 43, caracterizado porque la selección por lo menos de un proceso de codificación basado en la complejidad determinada comprende ya sea uno o una combinación de cálculo de movimiento, control de velocidad, escalabilidad, resiliencia de error, determinación de cambio de escena, o determinación de estructura GOP.
53.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de cálculo de movimiento comprenden ya sea uno o una combinación de: determinar el rango de búsqueda; y determinar el número de imágenes de referencia se basa en la complejidad temporal por lo menos para un bloque de datos multimedia.
54.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de control de tasa de transferencia comprenden ya sea uno o una combinación de: determinar la asignación de bits; y determinar el parámetro de cuantificación; y determinar la distorsión con base en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
55.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de resiliencia de error comprenden ya sea uno o una combinación de: determinar el tipo de codificación para un bloque de datos multimedia; y determinar la frecuencia de actualización para un bloque de datos multimedia; y determinar criterios de distorsión se basa en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
56.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de detección de cambio de escena comprenden ya sea uno o una combinación de: determinar el inicio de una escena; y determinar el fin de una escena; y determinar un limite de disparo gradual se basa en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
57.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de determinación de estructura GOP comprenden ya sea uno o una combinación de: determinar el tipo de cuadro para que sea intra, con base en un umbral intra; y determinar el tipo de cuadro para que sea inter, con base en un umbral inter, se basa en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
58.- El método de conformidad con la reivindicación 53, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
59.- El método de conformidad con la reivindicación 53, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia .
60.- El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
61.- El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
62. - El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
63.- El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
64.- El método de conformidad con la reivindicación 54, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
65.- El método de conformidad con la reivindicación 54, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por ,1o menos para un bloque de los datos multimedia .
66.- El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
67. - El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
68.- El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
69.- El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
70.- El método de conformidad con la reivindicación 55, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
71.- El método de conformidad con la reivindicación 55, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia.
72.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
73.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
74.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
75.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
76.- El método de conformidad con la reivindicación 56, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
77.- El método de conformidad con la reivindicación 56, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia.
78.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
79.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
80.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV -por lo menos para un bloque de los datos multimedia .
81.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
82.- El método de conformidad con la reivindicación 57, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
83.- El método de conformidad con la reivindicación .57, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia .
84.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
85.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
86.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
87.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia y se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia.
88.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
89.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; medios para seleccionar un conjunto de procesos de codificación con base en la complejidad de datos multimedia .
90.- El aparato de conformidad con la reivindicación 43, caracterizado porque los medios para determinar la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
91.- El aparato de conformidad con la reivindicación 44, caracterizado porque los medios para determinar la complejidad espacial se basan por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
92.- El aparato de conformidad con la reivindicación 44, caracterizado porque los medios para determinar la complejidad espacial se basan por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
93.- El aparato de conformidad con la reivindicación 43, caracterizado porque los medios para determinar la complejidad comprenden determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
94.- El aparato de conformidad con la reivindicación 47, caracterizado porque los medios para determinar la complejidad temporal se basan por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
95.- El aparato de conformidad con la reivindicación 48, caracterizado porque los medios para determinar la complejidad temporal además se basan en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
96.- El aparato de conformidad con la reivindicación 47, caracterizado porque los medios para determinar la complejidad temporal se basan por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia.
97.- El aparato de conformidad con la reivindicación 47, caracterizado porque los medios para determinar la complejidad temporal se basan por lo menos en un valor de diferencia de cuadro determinado por lo menos para un bloque de los datos multimedia.
98.- El aparato de conformidad con la reivindicación 43, caracterizado porque los medios de selección por lo menos de un proceso de codificación basado en la complejidad determinada comprenden ya sea uno o una combinación de cálculo de movimiento, control de velocidad, escalabilidad, resiliencia de error, determinación de cambio de escena, o determinación de estructura GOP.
99.- El aparato de conformidad con la reivindicación 52, caracterizado porque los procesos de cálculo de movimiento comprenden ya sea uno o una combinación de: medios para determinar el rango de búsqueda; y medios para determinar el número de imágenes de referencia se basan en la complejidad temporal por lo menos para un bloque de datos multimedia.
100.- El aparato de conformidad con la reivindicación 52, caracterizado porque los procesos de control de tasa de transferencia comprenden ya sea uno o una combinación de: medios para determinar la asignación de bits; y medios para determinar el parámetro de cuantificación; y medios para determinar la distorsión con base en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
101.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; clasificar los datos multimedia con base en la complejidad determinada; y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
102.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y en donde la clasificación se basa en la complejidad espacial. 103.- El método de conformidad con la reivindicación 102, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor
Dcsat determinado por lo menos para un bloque de los datos multimedia.
104.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
105.- El método de conformidad con la reivindicación 104, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
106.- El método de conformidad con la reivindicación 105, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
107.- El método de conformidad con la reivindicación 101, caracterizado porque la clasificación de los datos multimedia comprende utilizar una pluralidad de clasificaciones de contenido.
108.- El método de conformidad con la reivindicación 107, que además comprende determinar un valor de calidad visual para visualizar datos multimedia en la pluralidad de clasificaciones de contenido.
109.- El método de conformidad con la reivindicación 107, que además comprende determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en su clasificación.
110.- El método de conformidad con la reivindicación 109, caracterizado porque la determinación de la tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con una clasificación de contenido con base en un valor de calidad visual para visualizar datos multimedia.
111.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial y la complejidad temporal de los datos multimedia y en donde la clasificación de los datos multimedia comprende: asociar la complejidad espacial con un valor de textura; asociar la complejidad temporal con un valor de movimiento; y asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
112.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la tasa de transferencia de bits comprende determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
113.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; medios para clasificar los datos multimedia con base en la complejidad determinada; medios para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
114.- El aparato de conformidad con la reivindicación 113, caracterizado porque dichos medios para determinar la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia, en donde medios para clasificar los datos multimedia se basan en la complejidad espacial.
115.- El aparato de conformidad con la reivindicación 114, caracterizado porque dichos medios para determinar la complejidad espacial comprenden medios para determinar por lo menos un valor Dcsat por lo menos para un bloque de los datos multimedia.
116.- El aparato de conformidad con la reivindicación 113, caracterizado porque los medios de determinación de la tasa de transferencia de bits comprenden medios para determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
117.- El aparato de conformidad con la reivindicación 113, caracterizado porque dichos medios para determinar la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde dichos medios para clasificar los datos multimedia se basan en la complejidad temporal.
118.- El aparato de conformidad con la reivindicación 117, caracterizado porque dichos medios para determinar la complejidad temporal comprenden medios para determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
119.- El aparato de conformidad con la reivindicación 117, caracterizado porque dichos medios para determinar la complejidad temporal además comprenden medios para determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
120.- El aparato de conformidad con la reivindicación 113, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos multimedia, y en donde dichos medios de clasificación comprenden: medios para asociar la complejidad espacial con un valor de textura; medios para asociar la complejidad temporal con un valor de movimiento; y medios para asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
121.- El aparato de conformidad con la reivindicación 113, caracterizado porque dichos medios de clasificación comprenden utilizar una pluralidad de clasificaciones de contenido.
122.- El aparato de conformidad con la reivindicación 113, que además comprende medios para determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en su clasificación.
123.- El aparato de conformidad con la reivindicación 122, caracterizado porque la determinación de una tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con la clasificación, en donde la tasa de transferencia de bits se basa en el nivel de calidad visual para visualizar datos multimedia.
124.- El aparato de conformidad con la reivindicación 123, que además comprende medios para determinar un valor de calidad visual en la clasificación.
125.- -Un dispositivo para procesar datos multimedia que comprende un procesador configurado para determinar la complejidad de datos multimedia, configurado para clasificar los datos multimedia con base en la complejidad determinada; y además configurado para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
126.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el procesador además está configurado para determinar la complejidad espacial de los datos multimedia y está configurado para clasificar los datos multimedia con base en la complejidad espacial .
127.- El dispositivo de conformidad con la reivindicación 126, caracterizado porque la complejidad espacial se basa en un valor Dcsat asociado por lo menos con un bloque de los datos multimedia.
128.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque la complejidad es determinada mediante la determinación de la complejidad temporal de los datos multimedia, y en donde los datos multimedia son clasificados con base en la complejidad temporal .
129.- El dispositivo de conformidad con la reivindicación 128, caracterizado porque la complejidad temporal se basa por lo menos en un vector de movimiento (MV) asociado por lo menos con un bloque de los datos multimedia .
130.- El dispositivo de conformidad con la reivindicación 129, caracterizado porque la complejidad temporal además se basa en una suma de diferencias absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
131.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque los datos multimedia están clasificados como uno de una pluralidad de clasificaciones de contenido.
132.- El dispositivo de conformidad con la reivindicación 131, caracterizado porque el procesador además está configurado para determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en su clasificación de contenido.
133.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el procesador además está configurado para determinar la complejidad espacial de los datos multimedia, determinar la complejidad temporal de los datos multimedia, y clasificar los datos multimedia asociando la complejidad espacial con un valor de textura, y asociando la complejidad temporal con un valor de movimiento, y asignando una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
134.- El dispositivo de conformidad con la reivindicación 133, caracterizado porque el procesador además está configurado para determinar un valor de calidad visual para visualizar datos multimedia en una pluralidad de clasificaciones.
135.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el procesador está configurado para determinar una tasa de transferencia de bits asociando una tasa de transferencia de bits con una clasificación de contenido, en donde la asociación se basa en un valor de calidad visual para visualizar datos multimedia.
136.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el hecho de estar configurado para determinar una tasa de transferencia de bits comprende estar configurado para determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación multimedia.
137.- Un medio legible por computadora para incorporar un método para procesar datos multimedia, el método comprende: determinar la complejidad de datos multimedia; clasificar datos multimedia con base en la complejidad determinada; y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
138.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar la complejidad comprende determinar la complejidad espacial de los datos multimedia, en donde la clasificación se basa en la complejidad espacial .
139.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal .
140.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para clasificar los datos multimedia comprende asociar una de una pluralidad de clasificaciones de contenido con los datos multimedia con base en la complej idad.
141.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método además comprende determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en la clasificación de datos multimedia.
142.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar la complejidad comprende determinar la complejidad espacial y la complejidad temporal de los datos multimedia, y en donde la clasificación de los datos multimedia comprende: asociar la complejidad espacial con un valor de textura; asociar la complejidad temporal con un valor de movimiento; y asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
143.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar una tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con una clasificación de contenido con base en un valor de calidad visual, en donde el nivel de calidad visual comprende un nivel de calidad percibido por una persona para visualizar datos multimedia.
144.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar una tasa de transferencia de bits comprende determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
145.- Un aparato para procesar datos multimedia, que comprende: un primer determinador para determinar la complejidad de datos multimedia; un clasificador de contenido para clasificar los datos multimedia con base en la complejidad determinada; y un segundo determinador para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
146.- El aparato de conformidad con la reivindicación 145, caracterizado porque la complejidad es determinada mediante la determinación de la complejidad espacial de los datos multimedia y en donde los datos multimedia están clasificados con base en la complejidad espacial .
147.- El aparato de conformidad con la reivindicación 146, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat asociado por lo menos con un bloque de los datos multimedia.
148.- El aparato de conformidad con la reivindicación 145, caracterizado porque la complejidad es determinada mediante la determinación de la complejidad temporal de los datos multimedia, y en donde los datos multimedia son clasificados con base en la complejidad temporal .
149.- El aparato de conformidad con la reivindicación 148, caracterizado porque la complejidad temporal se basa por lo menos en un vector de movimiento (MV) asociado por lo menos con un bloque de los datos multimedia .
150.- El aparato de conformidad con la reivindicación 149, caracterizado porque la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
151.- El aparato de conformidad con la reivindicación 145, que además comprende determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en la clasificación.
152.- El aparato de conformidad con la reivindicación 145, caracterizado porque la determinación de una tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con la clasificación de datos multimedia con base en un valor de calidad visual para visualizar datos multimedia.
153.- El aparato de conformidad con la reivindicación 145, caracterizado porque la determinación de la tasa de transferencia de bits comprende determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
154.- El aparato de conformidad con la reivindicación 145, que además comprende un tercer determinador para determinar un valor de calidad visual para visualizar datos multimedia en una pluralidad de clasificaciones de contenido.
155.- El aparato de conformidad con la reivindicación 145, caracterizado porque los datos multimedia se clasifican utilizando una de una pluralidad de clasificaciones de contenido.
156.- El aparato de conformidad con la reivindicación 145, caracterizado porque el primer determinador determina la complejidad espacial de los datos multimedia y la complejidad temporal de los datos multimedia, el clasificador clasifica los datos multimedia mediante : asociando la complejidad espacial con un valor de textura; asociando la complejidad temporal con un valor de movimiento; y asignando una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
157.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; y seleccionar un conjunto de procesos de decodificación con base en la complejidad de los datos multimedia.
158.- El método de conformidad con la reivindicación 157, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
159.- El método de conformidad con la reivindicación 158, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
160.- El método de conformidad con la reivindicación 158, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
161.- El método de conformidad con la reivindicación 157, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
162.- El método de conformidad con la reivindicación 161, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
163.- El método de conformidad con la reivindicación 162, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
164.- El método de conformidad con la reivindicación 161, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia. 165- El método de conformidad con la reivindicación 161, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia. 166.- El método de conformidad con la reivindicación 157, caracterizado porque la selección de un conjunto de procesos de decodificación basado en la complejidad de los datos multimedia comprende ya sea uno o una combinación de: decodificar una selección de cuadros de los datos multimedia; ocultar una porción de los datos multimedia; interpolar por lo menos una porción de los datos multimedia; post-procesar los datos multimedia; y clasificar los datos multimedia con base en la complejidad determinada. 167.- El método de conformidad con la reivindicación 166, caracterizado porque la decodificación de una selección de cuadros de los datos multimedia comprende decodificar ya sea uno o una combinación de: Intra cuadros basados en complejidad espacial; e ínter cuadros basados en complejidad temporal. 168.- El método de conformidad con la reivindicación 166, caracterizado porque la ocultación de una porción de los datos multimedia comprende decodificar ya sea uno o una combinación de: ocultar intra cuadros con base en la complejidad espacial; y ocultar inter cuadros con base en la complejidad temporal. 169.- El método de conformidad con la reivindicación 166, caracterizado porque la interpolación por lo menos de una porción de los datos multimedia comprende decodificar ya sea uno o una combinación de: interpolar espacialmente intra cuadros con base en la complejidad espacial; e interpolar temporalmente inter cuadros con base en la complejidad temporal. 170.- El método de conformidad con la reivindicación 166, caracterizado porque el post- procesamiento de los datos multimedia comprende decodificar cualquiera o una combinación de: procesos de mejoramiento de medios que comprenden uno o una combinación de mejora de contraste, mejora de color, mejora de resolución, o mejora de tasa de transferencia de cuadro con base en uno o una combinación de complejidades espaciales y temporales; y procesos de restauración de medios que comprenden uno o una combinación de reducción o remoción de ruido, remoción o reducción de artefacto con base en una o una combinación de complejidades espaciales y temporales. 171.- El método de conformidad con la reivindicación 166, caracterizado porque la clasificación de datos multimedia se basa en una de una pluralidad de clasificaciones de contenido. 172.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; y medios para seleccionar un conjunto de procesos de decodificación con base en la complejidad de los datos multimedia. 173.- El aparato de conformidad con la reivindicación 172, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video. 174.- El aparato de conformidad con la reivindicación 173, caracterizado porque medios de determinación de la complejidad espacial se basan en medios por lo menos para un valor Dcsat determinado por lo menos para un bloque de los datos multimedia. 175.- El aparato de conformidad con la reivindicación 173, caracterizado porque los medios de determinación de la complejidad espacial se basan en medios por lo menos para un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia . 176.- El aparato de conformidad con la reivindicación 172, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal . 177.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios por lo menos para un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia. 178.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal además se basan en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia. 179.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios por lo menos para un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia. 180.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios por lo menos para un valor de diferencia de cuadro determinado por -lo menos para un bloque de los datos multimedia . 181.- El aparato de conformidad con la reivindicación 172, caracterizado porque los medios para seleccionar un conjunto de procesos de decodificación basado en la complejidad de los datos multimedia comprenden ya sea uno o una combinación de: medios para decodificar una selección de cuadros de los datos multimedia; medios para ocultar una porción de los datos multimedia; medios para interpolar por lo menos una porción de los datos multimedia; medios para post-procesar los datos multimedia; y medios para clasificar los datos multimedia con base en la complejidad determinada. 182.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para decodificar una selección de cuadros de los datos multimedia comprenden decodificar ya sea uno o una combinación de: Intra cuadros basados en complejidad espacial; e ínter cuadros basados en complejidad temporal. 183.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para ocultar una porción de los datos multimedia comprenden decodificar ya sea uno o una combinación de: medios para ocultar intra cuadros con base en la complejidad espacial; y medios -para ocultar inter cuadros con base en la complejidad temporal. 184.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para interpolar por lo menos una porción de los datos multimedia comprenden decodificar ya sea uno o una combinación de: medios para interpolar espacialmente intra cuadros con base en la complejidad espacial; y medios para interpolar temporalmente inter cuadros con base en la complejidad temporal. 185.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para post-procesar los datos multimedia comprenden decodificar cualquiera o una combinación de: procesos de mejoramiento de medios que comprenden uno o una combinación de mejora de contraste, mejora de color, mejora de resolución, o mejora de tasa de transferencia de cuadro con base en uno o una combinación de complejidades espaciales y temporales; y procesos de restauración de medios que comprenden uno o una combinación de reducción o remoción de ruido, remoción o reducción de artefacto con base en una o una combinación de complejidades espaciales y temporales. 186.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para clasificar los datos multimedia se basan en una de una pluralidad de clasificaciones de contenido.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US66067705P | 2005-03-10 | 2005-03-10 | |
PCT/US2006/008484 WO2006099082A2 (en) | 2005-03-10 | 2006-03-10 | Content adaptive multimedia processing |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2007011084A true MX2007011084A (es) | 2007-11-15 |
Family
ID=36589187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2007011084A MX2007011084A (es) | 2005-03-10 | 2006-03-10 | Clasificacion de contenido para procesamiento multimedia. |
Country Status (16)
Country | Link |
---|---|
US (1) | US9197912B2 (es) |
EP (1) | EP1867173A2 (es) |
JP (3) | JP5318561B2 (es) |
KR (1) | KR20070117660A (es) |
CN (2) | CN101171843B (es) |
AR (1) | AR052601A1 (es) |
AU (1) | AU2006223416A1 (es) |
BR (1) | BRPI0608282A2 (es) |
CA (1) | CA2600750A1 (es) |
CL (2) | CL2006000541A1 (es) |
IL (1) | IL185828A0 (es) |
MX (1) | MX2007011084A (es) |
NO (1) | NO20075130L (es) |
RU (1) | RU2402885C2 (es) |
TW (1) | TW200704200A (es) |
WO (1) | WO2006099082A2 (es) |
Families Citing this family (127)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7383421B2 (en) * | 2002-12-05 | 2008-06-03 | Brightscale, Inc. | Cellular engine for a data processing system |
US7936818B2 (en) * | 2002-07-01 | 2011-05-03 | Arris Group, Inc. | Efficient compression and transport of video over a network |
US8780957B2 (en) | 2005-01-14 | 2014-07-15 | Qualcomm Incorporated | Optimal weights for MMSE space-time equalizer of multicode CDMA system |
JP4725127B2 (ja) * | 2005-02-16 | 2011-07-13 | ソニー株式会社 | 復号装置および方法、記録媒体、並びにプログラム |
ES2336824T3 (es) * | 2005-03-10 | 2010-04-16 | Qualcomm Incorporated | Arquitectura de decodificador para gestion de errores optimizada en flujo continuo multimedia. |
US8693540B2 (en) * | 2005-03-10 | 2014-04-08 | Qualcomm Incorporated | Method and apparatus of temporal error concealment for P-frame |
MX2007011084A (es) | 2005-03-10 | 2007-11-15 | Qualcomm Inc | Clasificacion de contenido para procesamiento multimedia. |
US7925955B2 (en) * | 2005-03-10 | 2011-04-12 | Qualcomm Incorporated | Transmit driver in communication system |
US7714939B2 (en) * | 2005-04-05 | 2010-05-11 | Samsung Electronics Co., Ltd. | Reliability estimation of temporal noise estimation |
US7653085B2 (en) | 2005-04-08 | 2010-01-26 | Qualcomm Incorporated | Methods and apparatus for enhanced delivery of content over data network |
US7974193B2 (en) * | 2005-04-08 | 2011-07-05 | Qualcomm Incorporated | Methods and systems for resizing multimedia content based on quality and rate information |
US7483388B2 (en) * | 2005-06-23 | 2009-01-27 | Cisco Technology, Inc. | Method and system for sending a multimedia stream in an IP multicast network |
US8026945B2 (en) | 2005-07-22 | 2011-09-27 | Cernium Corporation | Directed attention digital video recordation |
US8879857B2 (en) | 2005-09-27 | 2014-11-04 | Qualcomm Incorporated | Redundant data encoding methods and device |
US8126283B1 (en) * | 2005-10-13 | 2012-02-28 | Maxim Integrated Products, Inc. | Video encoding statistics extraction using non-exclusive content categories |
US8149909B1 (en) * | 2005-10-13 | 2012-04-03 | Maxim Integrated Products, Inc. | Video encoding control using non-exclusive content categories |
US8654848B2 (en) | 2005-10-17 | 2014-02-18 | Qualcomm Incorporated | Method and apparatus for shot detection in video streaming |
US8948260B2 (en) | 2005-10-17 | 2015-02-03 | Qualcomm Incorporated | Adaptive GOP structure in video streaming |
US7451293B2 (en) * | 2005-10-21 | 2008-11-11 | Brightscale Inc. | Array of Boolean logic controlled processing elements with concurrent I/O processing and instruction sequencing |
US8112513B2 (en) * | 2005-11-30 | 2012-02-07 | Microsoft Corporation | Multi-user display proxy server |
US20070188505A1 (en) * | 2006-01-10 | 2007-08-16 | Lazar Bivolarski | Method and apparatus for scheduling the processing of multimedia data in parallel processing systems |
US8582905B2 (en) | 2006-01-31 | 2013-11-12 | Qualcomm Incorporated | Methods and systems for rate control within an encoding device |
US8005140B2 (en) * | 2006-03-17 | 2011-08-23 | Research In Motion Limited | Soft decision and iterative video coding for MPEG and H.264 |
US9131164B2 (en) | 2006-04-04 | 2015-09-08 | Qualcomm Incorporated | Preprocessor method and apparatus |
KR100834625B1 (ko) * | 2006-07-27 | 2008-06-02 | 삼성전자주식회사 | 비디오 인코딩 데이터율 제어를 위한 실시간 장면 전환검출 방법 |
US20080244238A1 (en) * | 2006-09-01 | 2008-10-02 | Bogdan Mitu | Stream processing accelerator |
US20080059467A1 (en) * | 2006-09-05 | 2008-03-06 | Lazar Bivolarski | Near full motion search algorithm |
WO2008032001A1 (fr) * | 2006-09-15 | 2008-03-20 | France Telecom | Procede et dispositif d'adaptation d'un flux de donnees scalable, produit programme d'ordinateur et equipement reseau correspondants |
EP2109992A2 (en) | 2007-01-31 | 2009-10-21 | Thomson Licensing | Method and apparatus for automatically categorizing potential shot and scene detection information |
JP4875007B2 (ja) * | 2007-02-09 | 2012-02-15 | パナソニック株式会社 | 動画像符号化装置、動画像符号化方法、及び、動画像復号化装置 |
GB2447058A (en) * | 2007-02-28 | 2008-09-03 | Tandberg Television Asa | Compression of video signals containing fades and flashes |
US8582647B2 (en) * | 2007-04-23 | 2013-11-12 | Qualcomm Incorporated | Methods and systems for quality controlled encoding |
US8090016B2 (en) | 2007-05-17 | 2012-01-03 | Zoran Corporation | Activity normalization for video encoding |
KR101382618B1 (ko) * | 2007-08-21 | 2014-04-10 | 한국전자통신연구원 | 콘텐츠 정보 생성 방법 및 콘텐츠 정보를 이용한 콘텐츠처리 장치 |
WO2009032255A2 (en) * | 2007-09-04 | 2009-03-12 | The Regents Of The University Of California | Hierarchical motion vector processing method, software and devices |
KR100939435B1 (ko) * | 2007-10-29 | 2010-01-28 | 에스케이 텔레콤주식회사 | 영상 분석 장치 및 방법 |
JP5006763B2 (ja) * | 2007-11-05 | 2012-08-22 | キヤノン株式会社 | 画像符号化装置及びその制御方法、コンピュータプログラム |
US8938005B2 (en) | 2007-11-05 | 2015-01-20 | Canon Kabushiki Kaisha | Image encoding apparatus, method of controlling the same, and computer program |
EP2101503A1 (en) | 2008-03-11 | 2009-09-16 | British Telecommunications Public Limited Company | Video coding |
WO2010009770A1 (en) * | 2008-07-25 | 2010-01-28 | Telefonaktiebolaget Lm Ericsson (Publ) | A method for the estimation of spatio-temporal homogeneity in video sequences |
CN101686383B (zh) * | 2008-09-23 | 2013-05-01 | Utc消防和保安美国有限公司 | 通过网络传输媒体的方法及系统 |
US8913668B2 (en) * | 2008-09-29 | 2014-12-16 | Microsoft Corporation | Perceptual mechanism for the selection of residues in video coders |
US8457194B2 (en) | 2008-09-29 | 2013-06-04 | Microsoft Corporation | Processing real-time video |
FR2936926B1 (fr) * | 2008-10-06 | 2010-11-26 | Thales Sa | Systeme et procede de determination de parametres de codage |
US9215467B2 (en) | 2008-11-17 | 2015-12-15 | Checkvideo Llc | Analytics-modulated coding of surveillance video |
EP2200319A1 (en) | 2008-12-10 | 2010-06-23 | BRITISH TELECOMMUNICATIONS public limited company | Multiplexed video streaming |
US8396114B2 (en) | 2009-01-29 | 2013-03-12 | Microsoft Corporation | Multiple bit rate video encoding using variable bit rate and dynamic resolution for adaptive video streaming |
US8311115B2 (en) | 2009-01-29 | 2012-11-13 | Microsoft Corporation | Video encoding using previously calculated motion information |
EP2219342A1 (en) | 2009-02-12 | 2010-08-18 | BRITISH TELECOMMUNICATIONS public limited company | Bandwidth allocation control in multiple video streaming |
FI20095273A0 (fi) * | 2009-03-17 | 2009-03-17 | On2 Technologies Finland Oy | Digitaalinen videokoodaus |
US8270473B2 (en) * | 2009-06-12 | 2012-09-18 | Microsoft Corporation | Motion based dynamic resolution multiple bit rate video encoding |
KR101839931B1 (ko) | 2009-11-30 | 2018-03-19 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 액정 표시 장치, 액정 표시 장치의 구동 방법, 및 이 액정 표시 장치를 구비하는 전자기기 |
US8705616B2 (en) | 2010-06-11 | 2014-04-22 | Microsoft Corporation | Parallel multiple bitrate video encoding to reduce latency and dependences between groups of pictures |
US20110321104A1 (en) * | 2010-06-24 | 2011-12-29 | Worldplay (Barbados) Inc. | System and method for mass distribution of high quality video |
CN101977309B (zh) * | 2010-06-30 | 2012-07-25 | 无锡中星微电子有限公司 | 码率控制方法及装置 |
EP2405661B1 (en) | 2010-07-06 | 2017-03-22 | Google, Inc. | Loss-robust video transmission using two decoders |
EP2434826A1 (en) * | 2010-08-30 | 2012-03-28 | NTT DoCoMo, Inc. | Method and apparatus for allocating network rates |
JP5349429B2 (ja) * | 2010-08-30 | 2013-11-20 | Kddi株式会社 | 符号量低減装置および符号化装置 |
US9036695B2 (en) * | 2010-11-02 | 2015-05-19 | Sharp Laboratories Of America, Inc. | Motion-compensated temporal filtering based on variable filter parameters |
US8837601B2 (en) * | 2010-12-10 | 2014-09-16 | Netflix, Inc. | Parallel video encoding based on complexity analysis |
US9547911B2 (en) | 2010-12-14 | 2017-01-17 | The United States Of America, As Represented By The Secretary Of The Navy | Velocity estimation from imagery using symmetric displaced frame difference equation |
US8781165B2 (en) * | 2010-12-14 | 2014-07-15 | The United States Of America As Represented By The Secretary Of The Navy | Method and apparatus for displacement determination by motion compensation |
MX2013008757A (es) * | 2011-01-28 | 2014-02-28 | Eye Io Llc | Control de velocidad de bits adaptativa basado en escenas. |
WO2012147740A1 (ja) * | 2011-04-25 | 2012-11-01 | シャープ株式会社 | 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム |
US20120275511A1 (en) * | 2011-04-29 | 2012-11-01 | Google Inc. | System and method for providing content aware video adaptation |
US8767821B2 (en) | 2011-05-09 | 2014-07-01 | Google Inc. | System and method for providing adaptive media optimization |
EP2536143B1 (en) * | 2011-06-16 | 2015-01-14 | Axis AB | Method and a digital video encoder system for encoding digital video data |
EP2536144A1 (en) * | 2011-06-17 | 2012-12-19 | Thomson Licensing | Method and device of lossy compress-encoding an image |
US20140119460A1 (en) * | 2011-06-24 | 2014-05-01 | Thomson Licensing | Method and device for assessing packet defect caused degradation in packet coded video |
US9032467B2 (en) | 2011-08-02 | 2015-05-12 | Google Inc. | Method and mechanism for efficiently delivering visual data across a network |
US9591318B2 (en) | 2011-09-16 | 2017-03-07 | Microsoft Technology Licensing, Llc | Multi-layer encoding and decoding |
US9432704B2 (en) * | 2011-11-06 | 2016-08-30 | Akamai Technologies Inc. | Segmented parallel encoding with frame-aware, variable-size chunking |
US20130142250A1 (en) * | 2011-12-06 | 2013-06-06 | Broadcom Corporation | Region based classification and adaptive rate control method and apparatus |
US9094684B2 (en) | 2011-12-19 | 2015-07-28 | Google Technology Holdings LLC | Method for dual pass rate control video encoding |
JP5722761B2 (ja) | 2011-12-27 | 2015-05-27 | 株式会社ソニー・コンピュータエンタテインメント | 動画圧縮装置、画像処理装置、動画圧縮方法、画像処理方法、および動画圧縮ファイルのデータ構造 |
US9014265B1 (en) | 2011-12-29 | 2015-04-21 | Google Inc. | Video coding using edge detection and block partitioning for intra prediction |
US11089343B2 (en) | 2012-01-11 | 2021-08-10 | Microsoft Technology Licensing, Llc | Capability advertisement, configuration and control for video coding and decoding |
US9438918B2 (en) * | 2012-04-23 | 2016-09-06 | Intel Corporation | Frame level rate control using motion estimated distortions |
US9042441B2 (en) | 2012-04-25 | 2015-05-26 | At&T Intellectual Property I, Lp | Apparatus and method for media streaming |
JP5409842B2 (ja) * | 2012-05-22 | 2014-02-05 | キヤノン株式会社 | 画像符号化装置及びその制御方法、コンピュータプログラム |
WO2014001605A1 (en) * | 2012-06-28 | 2014-01-03 | Ant-Advanced Network Technologies Oy | Processing and error concealment of digital signals |
JP2014063259A (ja) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | 端末装置,及び処理プログラム |
US9491459B2 (en) * | 2012-09-27 | 2016-11-08 | Qualcomm Incorporated | Base layer merge and AMVP modes for video coding |
CN109890071B (zh) | 2012-10-18 | 2023-05-12 | Vid拓展公司 | 移动多媒体流的解码复杂度 |
US20140112384A1 (en) * | 2012-10-22 | 2014-04-24 | General Instrument Corporation | Algorithms for determining bitrate for a statistical multiplexing system using scene change |
US8948529B1 (en) | 2012-10-30 | 2015-02-03 | Google Inc. | Multi-pass encoding |
WO2014094204A1 (en) * | 2012-12-17 | 2014-06-26 | Intel Corporation | Leveraging encoder hardware to pre-process video content |
RU2533852C2 (ru) * | 2012-12-26 | 2014-11-20 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ кодирования/декодирования многоракурсной видеопоследовательности на основе адаптивной компенсации локальных различий яркости при межкадровом предсказании (варианты) |
CN103943112B (zh) * | 2013-01-21 | 2017-10-13 | 杜比实验室特许公司 | 利用响度处理状态元数据的音频编码器和解码器 |
ES2749089T3 (es) | 2013-01-21 | 2020-03-19 | Dolby Laboratories Licensing Corp | Codificador y descodificador de audio con metadatos de límite y sonoridad de programa |
US9053366B2 (en) * | 2013-02-20 | 2015-06-09 | Honeywell International Inc. | System and method for detecting motion in compressed video |
US9210424B1 (en) | 2013-02-28 | 2015-12-08 | Google Inc. | Adaptive prediction block size in video coding |
US9607003B2 (en) * | 2013-03-14 | 2017-03-28 | Massachusetts Institute Of Technology | Network coded storage with multi-resolution codes |
US9313493B1 (en) | 2013-06-27 | 2016-04-12 | Google Inc. | Advanced motion estimation |
US9344218B1 (en) | 2013-08-19 | 2016-05-17 | Zoom Video Communications, Inc. | Error resilience for interactive real-time multimedia applications |
KR20150029593A (ko) | 2013-09-10 | 2015-03-18 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
US9485456B2 (en) | 2013-12-30 | 2016-11-01 | Akamai Technologies, Inc. | Frame-rate conversion in a distributed computing system |
CN105335595A (zh) * | 2014-06-30 | 2016-02-17 | 杜比实验室特许公司 | 基于感受的多媒体处理 |
US20160112707A1 (en) * | 2014-10-15 | 2016-04-21 | Intel Corporation | Policy-based image encoding |
CN104410863B (zh) * | 2014-12-11 | 2017-07-11 | 上海兆芯集成电路有限公司 | 图像处理器以及图像处理方法 |
EP3073738A1 (en) * | 2015-03-26 | 2016-09-28 | Alcatel Lucent | Methods and devices for video encoding |
CN104811694B (zh) * | 2015-04-28 | 2017-03-08 | 华为技术有限公司 | 一种视频数据质量评估的方法和装置 |
WO2016179513A1 (en) * | 2015-05-06 | 2016-11-10 | North Carolina State University | Code-modulated phased-array interferometric imaging |
CN104902275B (zh) * | 2015-05-29 | 2018-04-20 | 宁波菊风系统软件有限公司 | 一种控制视频通信质量甜点的方法 |
JP6231046B2 (ja) * | 2015-06-24 | 2017-11-15 | 株式会社ドワンゴ | 動画データ配信管理装置、動画データ配信管理方法、プログラム |
CN107852508A (zh) | 2015-07-31 | 2018-03-27 | 深圳市大疆创新科技有限公司 | 修改搜索区域的方法 |
EP3225026A4 (en) * | 2015-07-31 | 2017-12-13 | SZ DJI Technology Co., Ltd. | Method of sensor-assisted rate control |
FR3040849A1 (fr) * | 2015-09-04 | 2017-03-10 | Stmicroelectronics (Grenoble 2) Sas | Procede de compression d'un flux de donnees video |
US9807416B2 (en) | 2015-09-21 | 2017-10-31 | Google Inc. | Low-latency two-pass video coding |
EP3151562B1 (en) | 2015-09-29 | 2020-06-17 | Dolby Laboratories Licensing Corporation | Feature based bitrate allocation in non-backward compatible multi-layer codec via machine learning |
CN105426515B (zh) | 2015-12-01 | 2018-12-18 | 小米科技有限责任公司 | 视频归类方法及装置 |
US10678828B2 (en) | 2016-01-03 | 2020-06-09 | Gracenote, Inc. | Model-based media classification service using sensed media noise characteristics |
CN114115609A (zh) | 2016-11-25 | 2022-03-01 | 株式会社半导体能源研究所 | 显示装置及其工作方法 |
US10798387B2 (en) | 2016-12-12 | 2020-10-06 | Netflix, Inc. | Source-consistent techniques for predicting absolute perceptual video quality |
CA3051059A1 (en) | 2017-01-30 | 2018-08-02 | Euclid Discoveries, Llc | Video characterization for smart encoding based on perceptual quality optimization |
US11076179B2 (en) * | 2017-06-13 | 2021-07-27 | DISH Technologies L.L.C. | Viewership-balanced video multiplexing |
EP3662470B1 (en) | 2017-08-01 | 2021-03-24 | Dolby Laboratories Licensing Corporation | Audio object classification based on location metadata |
CN108024146A (zh) * | 2017-12-14 | 2018-05-11 | 深圳Tcl数字技术有限公司 | 新闻界面自动设置方法、智能电视及计算机可读存储介质 |
TW201942870A (zh) | 2018-04-03 | 2019-11-01 | 香港商科科串流股份有限公司 | 位元率優化系統及方法 |
FR3082689B1 (fr) * | 2018-06-13 | 2020-09-11 | Ateme | Procede d'analyse de la complexite d'un contenu multimedia source pour une diffusion a la demande |
CN110876060B (zh) * | 2018-08-31 | 2022-07-15 | 网宿科技股份有限公司 | 一种编码过程中的码率调整方法及装置 |
CN110876082B (zh) * | 2018-08-31 | 2020-12-29 | 网宿科技股份有限公司 | 一种视频帧的复杂度的确定方法及装置 |
US10992938B2 (en) * | 2018-09-28 | 2021-04-27 | Ati Technologies Ulc | Spatial block-level pixel activity extraction optimization leveraging motion vectors |
US10778938B2 (en) * | 2018-12-20 | 2020-09-15 | Hulu, LLC | Video chunk combination optimization |
US11924449B2 (en) | 2020-05-19 | 2024-03-05 | Google Llc | Multivariate rate control for transcoding video content |
CN113038142B (zh) * | 2021-03-25 | 2022-11-01 | 北京金山云网络技术有限公司 | 视频数据的筛选方法、装置及电子设备 |
CN116800976B (zh) * | 2023-07-17 | 2024-03-12 | 武汉星巡智能科技有限公司 | 伴睡婴幼儿时音视频压缩和还原方法、装置及设备 |
Family Cites Families (277)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2646047B1 (fr) | 1989-04-13 | 1995-08-04 | Telediffusion Fse | Procede et installation de codage et de transmission d'images animees sous forme numerique a bas debit |
JP2909239B2 (ja) * | 1991-03-27 | 1999-06-23 | 株式会社東芝 | 高能率符号化記録再生装置 |
JP3189292B2 (ja) | 1991-05-09 | 2001-07-16 | 松下電器産業株式会社 | 走査線補間装置 |
KR0121328B1 (ko) * | 1991-12-13 | 1997-11-17 | 사또오 후미오 | 디지탈 신호 기록 재생 장치 |
IT1252546B (it) | 1991-12-18 | 1995-06-19 | Alcatel Italia | Metodo e sistema per adattare il ciclo di frequenza di refresh alla complessita' dell'immagine |
JPH05344492A (ja) | 1992-06-11 | 1993-12-24 | Ricoh Co Ltd | フレーム間予測符号化方式 |
US5289276A (en) | 1992-06-19 | 1994-02-22 | General Electric Company | Method and apparatus for conveying compressed video data over a noisy communication channel |
JP2611607B2 (ja) | 1992-06-29 | 1997-05-21 | 日本ビクター株式会社 | シーンチェンジ検出装置 |
FR2700090B1 (fr) * | 1992-12-30 | 1995-01-27 | Thomson Csf | Procédé de désentrelacement de trames d'une séquence d'images animées. |
JP2979900B2 (ja) | 1993-05-26 | 1999-11-15 | 日本ビクター株式会社 | 記録媒体 |
KR0151234B1 (ko) | 1993-06-03 | 1998-10-15 | 모리시타 요이찌 | 화상재생장치 및 화상복호장치 |
EP0710422B1 (en) | 1993-07-19 | 1998-09-30 | BRITISH TELECOMMUNICATIONS public limited company | Detecting errors in video images |
CA2127151A1 (en) | 1993-09-21 | 1995-03-22 | Atul Puri | Spatially scalable video encoding and decoding |
US5991502A (en) | 1993-10-04 | 1999-11-23 | Matsushita Electric Industrial Co., Ltd. | Optical recording device which calculates distances between I-frames and records I-frame addresses in a sector |
AU681185B2 (en) | 1993-10-22 | 1997-08-21 | Sony Corporation | apparatus and method for recording and reproducing digital video data |
JP3173257B2 (ja) | 1993-11-09 | 2001-06-04 | 松下電器産業株式会社 | 符号化方法と符号化装置 |
JP2734953B2 (ja) * | 1993-12-16 | 1998-04-02 | 日本電気株式会社 | Cdma受信装置 |
US5642294A (en) | 1993-12-17 | 1997-06-24 | Nippon Telegraph And Telephone Corporation | Method and apparatus for video cut detection |
JP2839132B2 (ja) | 1993-12-17 | 1998-12-16 | 日本電信電話株式会社 | 映像カット点検出方法及び装置 |
US5446491A (en) | 1993-12-21 | 1995-08-29 | Hitachi, Ltd. | Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals |
JP3149303B2 (ja) | 1993-12-29 | 2001-03-26 | 松下電器産業株式会社 | デジタル画像符号化方法及びデジタル画像復号化方法 |
US5592226A (en) | 1994-01-26 | 1997-01-07 | Btg Usa Inc. | Method and apparatus for video data compression using temporally adaptive motion interpolation |
JP3197420B2 (ja) * | 1994-01-31 | 2001-08-13 | 三菱電機株式会社 | 画像符号化装置 |
US6798834B1 (en) * | 1996-08-15 | 2004-09-28 | Mitsubishi Denki Kabushiki Kaisha | Image coding apparatus with segment classification and segmentation-type motion prediction circuit |
KR100213015B1 (ko) * | 1994-03-31 | 1999-08-02 | 윤종용 | 양자화 방법 및 회로 |
US6091460A (en) * | 1994-03-31 | 2000-07-18 | Mitsubishi Denki Kabushiki Kaisha | Video signal encoding method and system |
US5508752A (en) | 1994-04-12 | 1996-04-16 | Lg Electronics Inc. | Partial response trellis decoder for high definition television (HDTV) system |
JPH07298272A (ja) | 1994-04-28 | 1995-11-10 | Canon Inc | 映像符号化装置 |
US5706386A (en) * | 1994-05-24 | 1998-01-06 | Sony Corporation | Image information recording method and apparatus, image information reproducing method and apparatus and editing method and system |
DE69529579D1 (de) | 1994-06-17 | 2003-03-13 | Snell & Wilcox Ltd | Komprimieren eines aus kompressionskodierten Videosignalen nach deren Teildekodierung kombinierten Signales |
US5521644A (en) | 1994-06-30 | 1996-05-28 | Eastman Kodak Company | Mechanism for controllably deinterlacing sequential lines of video data field based upon pixel signals associated with four successive interlaced video fields |
KR100213018B1 (ko) * | 1994-07-30 | 1999-08-02 | 윤종용 | 동화상 부호화장치 |
JP3755155B2 (ja) | 1994-09-30 | 2006-03-15 | ソニー株式会社 | 画像符号化装置 |
JPH0918782A (ja) | 1995-06-29 | 1997-01-17 | Sony Corp | 映像信号処理方法及び装置 |
MY115648A (en) | 1995-08-23 | 2003-08-30 | Sony Corp | Encoding/decoding fields of predetermined field polarity apparatus and method |
JPH0974566A (ja) | 1995-09-04 | 1997-03-18 | Sony Corp | 圧縮符号化装置及び圧縮符号化データの記録装置 |
WO1997013362A1 (en) * | 1995-09-29 | 1997-04-10 | Matsushita Electric Industrial Co., Ltd. | Method and device for encoding seamless-connection of telecine-converted video data |
JPH09130732A (ja) | 1995-11-01 | 1997-05-16 | Matsushita Electric Ind Co Ltd | シーンチェンジ検出方法および動画像編集装置 |
US5835163A (en) | 1995-12-21 | 1998-11-10 | Siemens Corporate Research, Inc. | Apparatus for detecting a cut in a video |
US5682204A (en) | 1995-12-26 | 1997-10-28 | C Cube Microsystems, Inc. | Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level |
US5821991A (en) | 1996-02-28 | 1998-10-13 | C-Cube Microsystems, Inc. | Method and apparatus for inverse telecine process by correlating vectors of pixel differences |
US5929902A (en) | 1996-02-28 | 1999-07-27 | C-Cube Microsystems | Method and apparatus for inverse telecine processing by fitting 3:2 pull-down patterns |
US6157674A (en) | 1996-03-21 | 2000-12-05 | Sony Corporation | Audio and video data transmitting apparatus, system, and method thereof |
GB9607645D0 (en) | 1996-04-12 | 1996-06-12 | Snell & Wilcox Ltd | Processing of video signals prior to compression |
JPH09284770A (ja) | 1996-04-13 | 1997-10-31 | Sony Corp | 画像符号化装置および方法 |
JPH1013826A (ja) | 1996-06-21 | 1998-01-16 | Sony Corp | 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、画像送信装置、画像受信装置、並びに記録媒体 |
US7095874B2 (en) * | 1996-07-02 | 2006-08-22 | Wistaria Trading, Inc. | Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data |
US6643506B1 (en) * | 1996-08-07 | 2003-11-04 | Telxon Corporation | Wireless software upgrades with version control |
US5793895A (en) | 1996-08-28 | 1998-08-11 | International Business Machines Corporation | Intelligent error resilient video encoder |
KR100389893B1 (ko) | 1996-11-09 | 2003-09-19 | 삼성전자주식회사 | 영상 특성 분류법을 이용한 영상 부호화 장치 |
FR2756399B1 (fr) | 1996-11-28 | 1999-06-25 | Thomson Multimedia Sa | Procede et dispositif de compression video pour images de synthese |
JPH10313463A (ja) | 1997-03-12 | 1998-11-24 | Matsushita Electric Ind Co Ltd | 映像信号符号化方法及び符号化装置 |
WO1998041027A1 (en) * | 1997-03-12 | 1998-09-17 | Matsushita Electric Industrial Co., Ltd. | Video signal coding method and coding device |
US6333950B1 (en) | 1997-04-18 | 2001-12-25 | Canon Kabushiki Kaisha | Encoding apparatus and method and computer readable recording medium in which encoding program has been recorded |
JP3679606B2 (ja) | 1997-04-18 | 2005-08-03 | キヤノン株式会社 | 符号化装置及び方法並びに符号化プログラムが記録されたコンピュータ可読記録媒体 |
JP3588970B2 (ja) * | 1997-04-30 | 2004-11-17 | ソニー株式会社 | 信号符号化方法、信号符号化装置、信号記録媒体及び信号伝送方法 |
FR2764156B1 (fr) * | 1997-05-27 | 1999-11-05 | Thomson Broadcast Systems | Dispositif de pretraitement pour codage mpeg ii |
US5864369A (en) * | 1997-06-16 | 1999-01-26 | Ati International Srl | Method and apparatus for providing interlaced video on a progressive display |
US6012091A (en) | 1997-06-30 | 2000-01-04 | At&T Corporation | Video telecommunications server and method of providing video fast forward and reverse |
KR100226722B1 (ko) | 1997-07-30 | 1999-10-15 | 구자홍 | 동영상 움직임 벡터 추정 방법 |
US5978029A (en) * | 1997-10-10 | 1999-11-02 | International Business Machines Corporation | Real-time encoding of video sequence employing two encoders and statistical analysis |
US6574211B2 (en) * | 1997-11-03 | 2003-06-03 | Qualcomm Incorporated | Method and apparatus for high rate packet data transmission |
US5956026A (en) | 1997-12-19 | 1999-09-21 | Sharp Laboratories Of America, Inc. | Method for hierarchical summarization and browsing of digital video |
US6115499A (en) | 1998-01-14 | 2000-09-05 | C-Cube Semiconductor Ii, Inc. | Repeat field detection using checkerboard pattern |
US6175650B1 (en) | 1998-01-26 | 2001-01-16 | Xerox Corporation | Adaptive quantization compatible with the JPEG baseline sequential mode |
AU2582499A (en) * | 1998-02-19 | 1999-09-06 | Motorola, Inc. | System and method for non-causal encoding of video information for improved streaming thereof |
JP3649370B2 (ja) | 1998-02-25 | 2005-05-18 | 日本ビクター株式会社 | 動き補償符号化装置及び動き補償符号化方法 |
JP3738939B2 (ja) | 1998-03-05 | 2006-01-25 | Kddi株式会社 | 動画像のカット点検出装置 |
DE69830471T2 (de) | 1998-03-09 | 2006-08-10 | Sony Deutschland Gmbh | Interpolator mit einem gewichteten Medianfilter |
US6895048B2 (en) * | 1998-03-20 | 2005-05-17 | International Business Machines Corporation | Adaptive encoding of a sequence of still frames or partially still frames within motion video |
US6538688B1 (en) * | 1998-07-02 | 2003-03-25 | Terran Interactive | Method and apparatus for performing an automated inverse telecine process |
JP2000032474A (ja) | 1998-07-08 | 2000-01-28 | Sharp Corp | 動画像符号化装置 |
JP2000059774A (ja) | 1998-08-06 | 2000-02-25 | Nippon Telegr & Teleph Corp <Ntt> | 映像符号化制御装置 |
US6580829B1 (en) | 1998-09-25 | 2003-06-17 | Sarnoff Corporation | Detecting and coding flash frames in video data |
KR20010099660A (ko) | 1998-09-29 | 2001-11-09 | 매클린토크 샤운 엘 | 고품위 텔레비전 인코더에서 장면변화의 검출 및화면코딩타입의 조정을 행하기 위한 방법 및 장치 |
JP3921841B2 (ja) * | 1998-10-16 | 2007-05-30 | ソニー株式会社 | 信号処理装置および方法、ならびに、記録装置、再生装置および記録再生装置 |
JP2000209553A (ja) | 1998-11-13 | 2000-07-28 | Victor Co Of Japan Ltd | 情報信号記録装置及び再生装置 |
US6297848B1 (en) | 1998-11-25 | 2001-10-02 | Sharp Laboratories Of America, Inc. | Low-delay conversion of 3:2 pulldown video to progressive format with field averaging |
JP3260713B2 (ja) * | 1998-12-21 | 2002-02-25 | 日本電気株式会社 | 無線基地局のプログラムダウンロード方式 |
US6618507B1 (en) | 1999-01-25 | 2003-09-09 | Mitsubishi Electric Research Laboratories, Inc | Methods of feature extraction of video sequences |
JP3588564B2 (ja) | 1999-03-31 | 2004-11-10 | 株式会社東芝 | 映像データ記録装置 |
JP3591712B2 (ja) | 1999-04-02 | 2004-11-24 | 松下電器産業株式会社 | 動画送信装置及び動画受信装置 |
EP1041827B1 (en) | 1999-04-02 | 2006-11-22 | Matsushita Electric Industrial Co., Ltd. | Moving picture transmission apparatus, reception apparatus and recording medium |
JP2000295626A (ja) | 1999-04-08 | 2000-10-20 | Mitsubishi Electric Corp | 多段画像符号化装置 |
US6325805B1 (en) * | 1999-04-23 | 2001-12-04 | Sdgi Holdings, Inc. | Shape memory alloy staple |
JP4287538B2 (ja) | 1999-04-30 | 2009-07-01 | パナソニック株式会社 | 画像信号切替方法及び装置並びにこれを用いたデジタル撮像カメラ及び監視システム |
EP1092321A1 (en) | 1999-04-30 | 2001-04-18 | Koninklijke Philips Electronics N.V. | Video encoding method with selection of b-frame encoding mode |
GB2352350B (en) * | 1999-07-19 | 2003-11-05 | Nokia Mobile Phones Ltd | Video coding |
JP3669619B2 (ja) * | 1999-09-06 | 2005-07-13 | 富士通株式会社 | 無線端末装置のソフトウェア更新方法及びその装置 |
US6370672B1 (en) | 1999-11-01 | 2002-04-09 | Lsi Logic Corporation | Determining the received data rate in a variable rate communications system |
GB2359918A (en) | 2000-03-01 | 2001-09-05 | Sony Uk Ltd | Audio and/or video generation apparatus having a metadata generator |
US6639943B1 (en) | 1999-11-23 | 2003-10-28 | Koninklijke Philips Electronics N.V. | Hybrid temporal-SNR fine granular scalability video coding |
JP2001169251A (ja) | 1999-12-03 | 2001-06-22 | Sony Corp | 記録装置および方法、ならびに、再生装置および方法 |
US7116717B1 (en) | 1999-12-15 | 2006-10-03 | Bigband Networks, Inc. | Method and system for scalable representation, storage, transmission and reconstruction of media streams |
US7093028B1 (en) * | 1999-12-15 | 2006-08-15 | Microsoft Corporation | User and content aware object-based data stream transmission methods and arrangements |
US6449002B1 (en) | 1999-12-21 | 2002-09-10 | Thomson Licensing S.A. | Truncated metric for NTSC interference rejection in the ATSC-HDTV trellis decoder |
JP2001045494A (ja) | 2000-01-01 | 2001-02-16 | Mitsubishi Electric Corp | 画像符号化装置 |
JP2001204026A (ja) | 2000-01-21 | 2001-07-27 | Sony Corp | 画像情報変換装置及び方法 |
IL134182A (en) * | 2000-01-23 | 2006-08-01 | Vls Com Ltd | Method and apparatus for visual lossless pre-processing |
US6600836B1 (en) | 2000-01-28 | 2003-07-29 | Qualcomm, Incorporated | Quality based image compression |
WO2001058166A1 (en) | 2000-02-01 | 2001-08-09 | Koninklijke Philips Electronics N.V. | Video encoding with a two step motion estimation for p-frames |
US6490320B1 (en) | 2000-02-02 | 2002-12-03 | Mitsubishi Electric Research Laboratories Inc. | Adaptable bitstream video delivery system |
US6574279B1 (en) | 2000-02-02 | 2003-06-03 | Mitsubishi Electric Research Laboratories, Inc. | Video transcoding using syntactic and semantic clues |
US6542546B1 (en) | 2000-02-02 | 2003-04-01 | Mitsubishi Electric Research Laboratories, Inc. | Adaptable compressed bitstream transcoder |
JP3960451B2 (ja) | 2000-03-06 | 2007-08-15 | Kddi株式会社 | シーン特性検出型動画像符号化装置 |
SE0000766L (sv) | 2000-03-08 | 2001-06-25 | Sem Ab | Krets för tändförställning, varvtalsbegränsning och förhindrande av baklängesgång i magnettändsystem |
CA2374067C (en) | 2000-03-13 | 2012-09-25 | Sony Corporation | Method and apparatus for generating compact transcoding hints metadata |
US20020154705A1 (en) | 2000-03-22 | 2002-10-24 | Walton Jay R. | High efficiency high performance communications system employing multi-carrier modulation |
AU4670701A (en) | 2000-04-07 | 2001-10-23 | Snell & Wilcox Limited | Video signal processing |
US6867814B2 (en) | 2000-04-18 | 2005-03-15 | Silicon Image, Inc. | Method, system and article of manufacture for identifying the source type and quality level of a video sequence |
US6507618B1 (en) * | 2000-04-25 | 2003-01-14 | Hewlett-Packard Company | Compressed video signal including independently coded regions |
EP1152621A1 (en) * | 2000-05-05 | 2001-11-07 | STMicroelectronics S.r.l. | Motion estimation process and system. |
JP4517453B2 (ja) | 2000-05-30 | 2010-08-04 | ソニー株式会社 | 画像情報変換装置及び方法並びに符号化装置及び方法 |
JP2001346214A (ja) | 2000-06-05 | 2001-12-14 | Sony Corp | 画像情報変換装置及び方法 |
US6647061B1 (en) * | 2000-06-09 | 2003-11-11 | General Instrument Corporation | Video size conversion and transcoding from MPEG-2 to MPEG-4 |
KR100708091B1 (ko) | 2000-06-13 | 2007-04-16 | 삼성전자주식회사 | 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법 |
JP2002010259A (ja) | 2000-06-21 | 2002-01-11 | Mitsubishi Electric Corp | 画像符号化装置及び画像符号化方法及び画像符号化プログラムを記録した記録媒体 |
EP1172681A3 (en) * | 2000-07-13 | 2004-06-09 | Creo IL. Ltd. | Blazed micro-mechanical light modulator and array thereof |
US20040125877A1 (en) | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
JP4517475B2 (ja) | 2000-07-26 | 2010-08-04 | ソニー株式会社 | 画像情報変換装置及び方法並びに符号化装置及び方法 |
KR20020010171A (ko) | 2000-07-27 | 2002-02-04 | 오길록 | 블록 정합 움직임 추정을 위한 적응적 예측 방향성 탐색방법 |
JP2002064817A (ja) | 2000-08-21 | 2002-02-28 | Kddi Research & Development Laboratories Inc | オブジェクトスケーラブル符号化装置 |
FI120125B (fi) * | 2000-08-21 | 2009-06-30 | Nokia Corp | Kuvankoodaus |
JP3903703B2 (ja) | 2000-09-01 | 2007-04-11 | 株式会社日立製作所 | 順次走査変換回路 |
JP2002094994A (ja) * | 2000-09-19 | 2002-03-29 | Nec Corp | 動画再生処理装置および動画再生処理方法 |
US7038736B2 (en) | 2000-09-21 | 2006-05-02 | Canon Kabushiki Kaisha | Moving image processing apparatus and method, and computer readable memory |
US7020193B2 (en) | 2000-09-22 | 2006-03-28 | Koninklijke Philips Electronics N.V. | Preferred transmission/streaming order of fine-granular scalability |
JP2002101416A (ja) | 2000-09-25 | 2002-04-05 | Fujitsu Ltd | 画像制御装置 |
JP2002125227A (ja) | 2000-10-11 | 2002-04-26 | Sony Corp | 画像情報変換装置及び方法 |
US7095814B2 (en) * | 2000-10-11 | 2006-08-22 | Electronics And Telecommunications Research Institute | Apparatus and method for very high performance space-time array reception processing using chip-level beamforming and fading rate adaptation |
KR100895725B1 (ko) | 2000-11-23 | 2009-04-30 | 엔엑스피 비 브이 | 비디오 비트스트림 디코딩 방법 및 비디오 디코더 |
EP1209624A1 (en) | 2000-11-27 | 2002-05-29 | Sony International (Europe) GmbH | Method for compressed imaging artefact reduction |
US6934335B2 (en) | 2000-12-11 | 2005-08-23 | Sony Corporation | Video encoder with embedded scene change and 3:2 pull-down detections |
US7058130B2 (en) | 2000-12-11 | 2006-06-06 | Sony Corporation | Scene change detection |
US7203238B2 (en) * | 2000-12-11 | 2007-04-10 | Sony Corporation | 3:2 Pull-down detection |
US6744474B2 (en) | 2000-12-13 | 2004-06-01 | Thomson Licensing S.A. | Recursive metric for NTSC interference rejection in the ATSC-HDTV trellis decoder |
US6807234B2 (en) | 2000-12-19 | 2004-10-19 | Intel Corporation | Method and apparatus for constellation mapping and bitloading in multi-carrier transceivers, such as DMT-based DSL transceivers |
GB2372394B (en) | 2000-12-22 | 2004-09-22 | Matsushita Electric Ind Co Ltd | Interpolation apparatus and video signal processing apparatus including the same |
CA2330854A1 (en) | 2001-01-11 | 2002-07-11 | Jaldi Semiconductor Corp. | A system and method for detecting a non-video source in video signals |
US6987728B2 (en) | 2001-01-23 | 2006-01-17 | Sharp Laboratories Of America, Inc. | Bandwidth allocation system |
JP4336051B2 (ja) * | 2001-01-31 | 2009-09-30 | 株式会社エヌ・ティ・ティ・ドコモ | 無線通信端末、発呼制限方法及びプログラム |
US6721361B1 (en) | 2001-02-23 | 2004-04-13 | Yesvideo.Com | Video processing system including advanced scene break detection methods for fades, dissolves and flashes |
AU2002245609A1 (en) | 2001-03-05 | 2002-09-19 | Intervideo, Inc. | Systems and methods of error resilience in a video decoder |
KR100783396B1 (ko) * | 2001-04-19 | 2007-12-10 | 엘지전자 주식회사 | 부호기의 서브밴드 분할을 이용한 시공간 스케일러빌러티방법 |
US6947598B2 (en) * | 2001-04-20 | 2005-09-20 | Front Porch Digital Inc. | Methods and apparatus for generating, including and using information relating to archived audio/video data |
US20020163964A1 (en) | 2001-05-02 | 2002-11-07 | Nichols James B. | Apparatus and method for compressing video |
US6909745B1 (en) * | 2001-06-05 | 2005-06-21 | At&T Corp. | Content adaptive video encoder |
KR100803115B1 (ko) | 2001-06-07 | 2008-02-14 | 엘지전자 주식회사 | 적응 안테나 어레이가 구비된 wcdma 시스템에서의 신호 처리 방법 이를 위한 시스템 |
KR100393066B1 (ko) * | 2001-06-11 | 2003-07-31 | 삼성전자주식회사 | 적응 움직임 보상형 디-인터레이싱 장치 및 그 방법 |
JP2002051336A (ja) | 2001-06-15 | 2002-02-15 | Sharp Corp | 画像符号化装置及び画像復号装置 |
US7483581B2 (en) * | 2001-07-02 | 2009-01-27 | Qualcomm Incorporated | Apparatus and method for encoding digital image data in a lossless manner |
JP2003037844A (ja) | 2001-07-23 | 2003-02-07 | Sharp Corp | 動画像符号化装置 |
KR100440953B1 (ko) | 2001-08-18 | 2004-07-21 | 삼성전자주식회사 | 영상 압축 비트 스트림의 트랜스코딩 방법 |
US6959044B1 (en) | 2001-08-21 | 2005-10-25 | Cisco Systems Canada Co. | Dynamic GOP system and method for digital video encoding |
US7359466B2 (en) | 2001-08-24 | 2008-04-15 | Lucent Technologies Inc. | Signal detection by a receiver in a multiple antenna time-dispersive system |
US6784942B2 (en) | 2001-10-05 | 2004-08-31 | Genesis Microchip, Inc. | Motion adaptive de-interlacing method and apparatus |
TW536918B (en) | 2001-11-01 | 2003-06-11 | Aiptek Int Inc | Method to increase the temporal resolution of continuous image series |
JP2003209837A (ja) | 2001-11-09 | 2003-07-25 | Matsushita Electric Ind Co Ltd | 動画像符号化方法及び動画像符号化装置 |
AU2002343220A1 (en) * | 2001-11-09 | 2003-05-19 | Matsushita Electric Industrial Co., Ltd. | Moving picture coding method and apparatus |
US6847680B2 (en) | 2001-12-17 | 2005-01-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting talking heads in a compressed video |
US20030118097A1 (en) | 2001-12-21 | 2003-06-26 | Koninklijke Philips Electronics N.V. | System for realization of complexity scalability in a layered video coding framework |
KR100446083B1 (ko) | 2002-01-02 | 2004-08-30 | 삼성전자주식회사 | 움직임 추정 및 모드 결정 장치 및 방법 |
US20030142762A1 (en) * | 2002-01-11 | 2003-07-31 | Burke Joseph P. | Wireless receiver method and apparatus using space-cover-time equalization |
US7139551B2 (en) | 2002-01-19 | 2006-11-21 | Sasken Communication Technologies Ltd. | System and method for automatically downloading software applications to a remote terminal |
JP2003224847A (ja) | 2002-01-29 | 2003-08-08 | Sony Corp | 画像符号化装置とその方法、および、画像復号化装置とその方法 |
US6700935B2 (en) | 2002-02-08 | 2004-03-02 | Sony Electronics, Inc. | Stream based bitrate transcoder for MPEG coded video |
US6996186B2 (en) * | 2002-02-22 | 2006-02-07 | International Business Machines Corporation | Programmable horizontal filter with noise reduction and image scaling for video encoding system |
KR100850705B1 (ko) * | 2002-03-09 | 2008-08-06 | 삼성전자주식회사 | 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치 |
ATE490649T1 (de) * | 2002-03-27 | 2010-12-15 | British Telecomm | Videokodierung und -übertragung |
US20030185302A1 (en) | 2002-04-02 | 2003-10-02 | Abrams Thomas Algie | Camera and/or camera converter |
CA2380105A1 (en) | 2002-04-09 | 2003-10-09 | Nicholas Routhier | Process and system for encoding and playback of stereoscopic video sequences |
KR100468726B1 (ko) | 2002-04-18 | 2005-01-29 | 삼성전자주식회사 | 실시간 가변 비트율 제어를 수행하는 부호화 장치 및 방법 |
US6985635B2 (en) | 2002-04-22 | 2006-01-10 | Koninklijke Philips Electronics N.V. | System and method for providing a single-layer video encoded bitstreams suitable for reduced-complexity decoding |
JP4135395B2 (ja) | 2002-04-26 | 2008-08-20 | 日本電気株式会社 | 符号化パケット伝送受信方法およびその装置ならびにプログラム |
JP3926203B2 (ja) | 2002-05-15 | 2007-06-06 | シャープ株式会社 | コンテンツ表示装置、コンテンツ表示プログラム、該プログラムを記録した記録媒体、およびコンテンツ表示方法 |
KR100850706B1 (ko) | 2002-05-22 | 2008-08-06 | 삼성전자주식회사 | 적응적 동영상 부호화 및 복호화 방법과 그 장치 |
FR2840495B1 (fr) * | 2002-05-29 | 2004-07-30 | Canon Kk | Procede et dispositif de selection d'une methode de transcodage parmi un ensemble de methodes de transcodage |
US7436890B2 (en) * | 2002-06-05 | 2008-10-14 | Kddi R&D Laboratories, Inc. | Quantization control system for video coding |
JP2004023288A (ja) * | 2002-06-13 | 2004-01-22 | Kddi R & D Laboratories Inc | 動画像符号化のための前処理方式 |
CN1231055C (zh) | 2002-06-10 | 2005-12-07 | 成都威斯达芯片有限责任公司 | 电视中传送电影场景的数字检测装置 |
KR100553082B1 (ko) | 2002-06-20 | 2006-02-15 | 엘지전자 주식회사 | 이동통신 단말기의 무선 데이터 다운로드 이어받기 장치및 방법 |
US7167507B2 (en) * | 2002-07-01 | 2007-01-23 | Lucent Technologies Inc. | Equalizer and method for performing equalization in a wireless communications system |
US7136417B2 (en) | 2002-07-15 | 2006-11-14 | Scientific-Atlanta, Inc. | Chroma conversion optimization |
AU2003253908A1 (en) | 2002-07-16 | 2004-02-02 | Thomson Licensing S.A. | Interleaving of base and enhancement layers for hd-dvd |
KR100500196B1 (ko) | 2002-07-20 | 2005-07-12 | 학교법인 한국정보통신학원 | 멀티미디어 메타데이터의 오류 내성 부호화/복호화 장치및 방법 |
US7089313B2 (en) * | 2002-07-25 | 2006-08-08 | Matsushita Electric Industrial Co., Ltd. | Protocol independent communication system for mobile devices |
KR20050058366A (ko) | 2002-08-21 | 2005-06-16 | 톰슨 라이센싱 에스.에이. | 사용자 장치에서의 디지털 데이터 워터마킹 |
US20040045038A1 (en) * | 2002-08-29 | 2004-03-04 | Duff John F. | System and method for the synchronized activation of external devices in association with video programs |
US6904081B2 (en) | 2002-08-30 | 2005-06-07 | Motorola, Inc. | Spread spectrum receiver apparatus and method |
GB0222562D0 (en) | 2002-09-28 | 2002-11-06 | Koninkl Philips Electronics Nv | Method and apparatus for encoding image and or audio data |
JP4294933B2 (ja) | 2002-10-16 | 2009-07-15 | 富士通株式会社 | マルチメディアコンテンツ編集装置およびマルチメディアコンテンツ再生装置 |
KR20050061556A (ko) | 2002-10-22 | 2005-06-22 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 고장시 조치를 갖는 이미지 처리 유닛 |
KR100501933B1 (ko) | 2002-11-21 | 2005-07-18 | 삼성전자주식회사 | 멀티미디어 데이터 암호화 압축방법 및 장치 |
WO2004049722A1 (en) | 2002-11-22 | 2004-06-10 | Koninklijke Philips Electronics N.V. | Transcoder for a variable length coded data stream |
EP1569460B1 (en) * | 2002-11-25 | 2013-05-15 | Panasonic Corporation | Motion compensation method, image encoding method, and image decoding method |
KR20040046320A (ko) | 2002-11-27 | 2004-06-05 | 엘지전자 주식회사 | 동영상 부호화 방법 |
WO2004054270A1 (en) | 2002-12-10 | 2004-06-24 | Koninklijke Philips Electronics N.V. | A unified metric for digital video processing (umdvp) |
US20060098737A1 (en) | 2002-12-20 | 2006-05-11 | Koninklijke Philips Electronics N.V. | Segment-based motion estimation |
US7154555B2 (en) | 2003-01-10 | 2006-12-26 | Realnetworks, Inc. | Automatic deinterlacing and inverse telecine |
US7039855B2 (en) * | 2003-01-22 | 2006-05-02 | Lsi Logic Corporation | Decision function generator for a Viterbi decoder |
MXPA05008094A (es) | 2003-01-28 | 2006-02-08 | Thomson Licensing | Formacion escalonada de modo robusto. |
JP2004248124A (ja) | 2003-02-17 | 2004-09-02 | Nippon Telegr & Teleph Corp <Ntt> | 階層的画像符号化装置および階層的画像復号装置 |
KR20040079084A (ko) | 2003-03-06 | 2004-09-14 | 삼성전자주식회사 | 시간적 복잡도를 고려한 적응적 동영상 부호화와 그 장치 |
US7062260B2 (en) * | 2003-03-27 | 2006-06-13 | Nokia Corporation | Fetching application and driver for extension device from network |
US7075581B1 (en) * | 2003-06-03 | 2006-07-11 | Zoran Corporation | Interlaced-to-progressive scan conversion based on film source detection |
KR100518580B1 (ko) | 2003-06-10 | 2005-10-04 | 삼성전자주식회사 | 인버스 텔레시네 변환장치 및 변환방법 |
WO2004114668A1 (en) | 2003-06-16 | 2004-12-29 | Thomson Licensing S.A. | Decoding method and apparatus enabling fast channel change of compressed video |
WO2004114671A2 (en) | 2003-06-19 | 2004-12-29 | Thomson Licensing S.A. | Method and apparatus for low-complexity spatial scalable decoding |
KR100546333B1 (ko) * | 2003-06-25 | 2006-01-26 | 삼성전자주식회사 | 감지 증폭기 드라이버 및 이를 구비하는 반도체 장치 |
KR100505694B1 (ko) | 2003-07-09 | 2005-08-02 | 삼성전자주식회사 | 직접 계산 방식에 의한 코드화 직교 주파수 분할 다중화수신기의 채널 상태 평가 장치 및 그 방법 |
US7406123B2 (en) | 2003-07-10 | 2008-07-29 | Mitsubishi Electric Research Laboratories, Inc. | Visual complexity measure for playing videos adaptively |
GB0316387D0 (en) * | 2003-07-12 | 2003-08-13 | Ncr Int Inc | Software updates |
KR100994198B1 (ko) * | 2003-07-14 | 2010-11-12 | 인터디지탈 테크날러지 코포레이션 | 클러스터 다중 경로 간섭 억제 회로를 갖는 고성능 무선 수신기 |
US7356073B2 (en) * | 2003-09-10 | 2008-04-08 | Nokia Corporation | Method and apparatus providing an advanced MIMO receiver that includes a signal-plus-residual-interference (SPRI) detector |
US20050076057A1 (en) * | 2003-10-03 | 2005-04-07 | Puneet Sharma | Method and system for transferring video and audio files to portable computing devices |
US7840112B2 (en) | 2003-10-08 | 2010-11-23 | Intel Corporation | Gradually degrading multimedia recordings |
JP2005123732A (ja) | 2003-10-14 | 2005-05-12 | Matsushita Electric Ind Co Ltd | デブロックフィルタ処理装置およびデブロックフィルタ処理方法 |
KR20050037293A (ko) | 2003-10-18 | 2005-04-21 | 삼성전자주식회사 | 영상신호의 아티팩트 억제장치 및 그 방법 |
US7780886B2 (en) * | 2003-10-21 | 2010-08-24 | Certainteed Corporation | Insulation product having directional facing layer thereon and method of making the same |
WO2005043783A1 (ja) | 2003-10-30 | 2005-05-12 | Matsushita Electric Industrial Co., Ltd. | 携帯端末向け伝送方法及び装置 |
US7420618B2 (en) * | 2003-12-23 | 2008-09-02 | Genesis Microchip Inc. | Single chip multi-function display controller and method of use thereof |
JP2007519120A (ja) | 2004-01-21 | 2007-07-12 | クゥアルコム・インコーポレイテッド | 無線加入者ネットワークにおけるアプリケーションをベースにした価値課金 |
JP4847874B2 (ja) | 2004-01-30 | 2011-12-28 | ユニベルシテ ラバル | マルチユーザ適応型アレイ受信機および方法 |
US7529426B2 (en) | 2004-01-30 | 2009-05-05 | Broadcom Corporation | Correlation function for signal detection, match filters, and 3:2 pulldown detection |
US20050168656A1 (en) * | 2004-01-30 | 2005-08-04 | Wyman Richard H. | Method and system for quantized historical motion for motion detection in motion adaptive deinterlacer |
US7557861B2 (en) | 2004-01-30 | 2009-07-07 | Broadcom Corporation | Reverse pull-down video using corrective techniques |
US7483077B2 (en) * | 2004-01-30 | 2009-01-27 | Broadcom Corporation | Method and system for control of a multi-field deinterlacer including providing visually pleasing start-up and shut-down |
US7324583B2 (en) | 2004-02-13 | 2008-01-29 | Nokia Corporation | Chip-level or symbol-level equalizer structure for multiple transmit and receiver antenna configurations |
KR100586883B1 (ko) * | 2004-03-04 | 2006-06-08 | 삼성전자주식회사 | 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법 |
KR100596705B1 (ko) | 2004-03-04 | 2006-07-04 | 삼성전자주식회사 | 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템 |
US7339980B2 (en) * | 2004-03-05 | 2008-03-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Successive interference cancellation in a generalized RAKE receiver architecture |
US20050201478A1 (en) * | 2004-03-10 | 2005-09-15 | Holger Claussen | Modulation in a mobile telecommunications system |
US20050222961A1 (en) | 2004-04-05 | 2005-10-06 | Philippe Staib | System and method of facilitating contactless payment transactions across different payment systems using a common mobile device acting as a stored value device |
US20050231635A1 (en) | 2004-04-16 | 2005-10-20 | Lin Ken K | Automated inverse telecine process |
EP1592250A1 (en) | 2004-04-30 | 2005-11-02 | Matsushita Electric Industrial Co., Ltd. | Film-mode detection in video sequences |
US7991053B2 (en) | 2004-05-04 | 2011-08-02 | Qualcomm Incorporated | Method and apparatus to enable acquisition of media in streaming applications |
US7430336B2 (en) | 2004-05-06 | 2008-09-30 | Qualcomm Incorporated | Method and apparatus for image enhancement for low bit rate video compression |
DE102004026433A1 (de) | 2004-05-29 | 2005-12-22 | Schott Ag | Nanoglaspulver und deren Verwendung |
US7536626B2 (en) * | 2004-06-18 | 2009-05-19 | Qualcomm Incorporated | Power control using erasure techniques |
EP1615447B1 (en) | 2004-07-09 | 2016-03-09 | STMicroelectronics Srl | Method and system for delivery of coded information streams, related network and computer program product therefor |
JP4145275B2 (ja) * | 2004-07-27 | 2008-09-03 | 富士通株式会社 | 動きベクトル検出・補償装置 |
KR20060011281A (ko) | 2004-07-30 | 2006-02-03 | 한종기 | 트랜스코더에 적용되는 해상도 변환장치 및 방법 |
JP2006074684A (ja) | 2004-09-06 | 2006-03-16 | Matsushita Electric Ind Co Ltd | 画像処理方法及び装置 |
US7474701B2 (en) * | 2004-09-23 | 2009-01-06 | International Business Machines Corporation | Single pass variable bit rate control strategy and encoder for processing a video frame of a sequence of video frames |
US7528887B2 (en) * | 2004-10-08 | 2009-05-05 | Broadcom Corporation | System and method for performing inverse telecine deinterlacing of video by bypassing data present in vertical blanking intervals |
US7660987B2 (en) * | 2004-10-29 | 2010-02-09 | Baylis Stephen W | Method of establishing a secure e-mail transmission link |
KR100592882B1 (ko) * | 2004-12-13 | 2006-06-26 | 한국전자통신연구원 | 세션 초기화 프로토콜(sip) 기능이 없는 이동 단말에인터넷 프로토콜 멀티미디어 서브시스템을 통한 세션초기화 프로토콜 기반 인스턴스 메시징 서비스 제공방법,시스템 및 이를 위한 인스턴스 메시징 프록시 서버 |
US20060153294A1 (en) * | 2005-01-12 | 2006-07-13 | Nokia Corporation | Inter-layer coefficient coding for scalable video coding |
US8780957B2 (en) * | 2005-01-14 | 2014-07-15 | Qualcomm Incorporated | Optimal weights for MMSE space-time equalizer of multicode CDMA system |
US20060166739A1 (en) * | 2005-01-25 | 2006-07-27 | Jeng-Tay Lin | Operating method for a wireless recreation system |
KR20060088461A (ko) * | 2005-02-01 | 2006-08-04 | 엘지전자 주식회사 | 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치 |
US7995656B2 (en) | 2005-03-10 | 2011-08-09 | Qualcomm Incorporated | Scalable video coding with two layer encoding and single layer decoding |
ES2336824T3 (es) | 2005-03-10 | 2010-04-16 | Qualcomm Incorporated | Arquitectura de decodificador para gestion de errores optimizada en flujo continuo multimedia. |
MX2007011084A (es) | 2005-03-10 | 2007-11-15 | Qualcomm Inc | Clasificacion de contenido para procesamiento multimedia. |
US8165167B2 (en) * | 2005-03-10 | 2012-04-24 | Qualcomm Incorporated | Time tracking for a communication system |
US7929776B2 (en) | 2005-03-10 | 2011-04-19 | Qualcomm, Incorporated | Method and apparatus for error recovery using intra-slice resynchronization points |
US8693540B2 (en) * | 2005-03-10 | 2014-04-08 | Qualcomm Incorporated | Method and apparatus of temporal error concealment for P-frame |
US8553777B2 (en) * | 2005-04-14 | 2013-10-08 | Thomson Licensing | Method and apparatus for slice adaptive motion vector coding for spatial scalable video encoding and decoding |
US20060239347A1 (en) | 2005-04-25 | 2006-10-26 | Ashish Koul | Method and system for scene change detection in a video encoder |
US20060271990A1 (en) | 2005-05-18 | 2006-11-30 | Rodriguez Arturo A | Higher picture rate HD encoding and transmission with legacy HD backward compatibility |
KR100716998B1 (ko) * | 2005-05-24 | 2007-05-10 | 삼성전자주식회사 | 블록화 현상을 감소시키기 위한 부호화 및 복호화 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체 |
US8879857B2 (en) * | 2005-09-27 | 2014-11-04 | Qualcomm Incorporated | Redundant data encoding methods and device |
AT502881B1 (de) * | 2005-10-05 | 2007-08-15 | Pirker Wolfgang Ddr | Zahnimplantat |
US8654848B2 (en) * | 2005-10-17 | 2014-02-18 | Qualcomm Incorporated | Method and apparatus for shot detection in video streaming |
US9521584B2 (en) * | 2005-10-17 | 2016-12-13 | Qualcomm Incorporated | Method and apparatus for managing data flow through a mesh network |
US20070206117A1 (en) * | 2005-10-17 | 2007-09-06 | Qualcomm Incorporated | Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video |
US8948260B2 (en) | 2005-10-17 | 2015-02-03 | Qualcomm Incorporated | Adaptive GOP structure in video streaming |
US7916784B2 (en) | 2005-10-20 | 2011-03-29 | Broadcom Corporation | Method and system for inverse telecine and field pairing |
US7433982B2 (en) | 2005-10-21 | 2008-10-07 | Microsoft Corporation | Transferable component that effectuates plug-and-play |
US20070171280A1 (en) * | 2005-10-24 | 2007-07-26 | Qualcomm Incorporated | Inverse telecine algorithm based on state machine |
JP4984503B2 (ja) * | 2005-11-28 | 2012-07-25 | 富士通株式会社 | 携帯端末装置およびソフトウェアインストール方法 |
US7587569B2 (en) | 2005-12-19 | 2009-09-08 | Yahoo! Inc. | System and method for removing a storage server in a distributed column chunk data store |
US7705913B2 (en) * | 2005-12-20 | 2010-04-27 | Lsi Corporation | Unified approach to film mode detection |
US7835904B2 (en) | 2006-03-03 | 2010-11-16 | Microsoft Corp. | Perceptual, scalable audio compression |
US9131164B2 (en) * | 2006-04-04 | 2015-09-08 | Qualcomm Incorporated | Preprocessor method and apparatus |
JP4929819B2 (ja) | 2006-04-27 | 2012-05-09 | 富士通株式会社 | 映像信号の変換装置及び方法 |
JP5412739B2 (ja) | 2008-03-26 | 2014-02-12 | 富士通株式会社 | 光増幅装置 |
-
2006
- 2006-03-10 MX MX2007011084A patent/MX2007011084A/es not_active Application Discontinuation
- 2006-03-10 KR KR1020077022963A patent/KR20070117660A/ko active Search and Examination
- 2006-03-10 AU AU2006223416A patent/AU2006223416A1/en not_active Abandoned
- 2006-03-10 EP EP06737643A patent/EP1867173A2/en not_active Withdrawn
- 2006-03-10 CN CN2006800148981A patent/CN101171843B/zh active Active
- 2006-03-10 WO PCT/US2006/008484 patent/WO2006099082A2/en active Application Filing
- 2006-03-10 BR BRPI0608282-3A patent/BRPI0608282A2/pt not_active IP Right Cessation
- 2006-03-10 US US11/373,577 patent/US9197912B2/en active Active
- 2006-03-10 JP JP2008500935A patent/JP5318561B2/ja active Active
- 2006-03-10 TW TW095108342A patent/TW200704200A/zh unknown
- 2006-03-10 RU RU2007137462/09A patent/RU2402885C2/ru not_active IP Right Cessation
- 2006-03-10 AR ARP060100925A patent/AR052601A1/es unknown
- 2006-03-10 CL CL2006000541A patent/CL2006000541A1/es unknown
- 2006-03-10 CN CN200910206672A patent/CN101697591A/zh active Pending
- 2006-03-10 CA CA002600750A patent/CA2600750A1/en not_active Abandoned
-
2007
- 2007-09-09 IL IL185828A patent/IL185828A0/en unknown
- 2007-10-09 NO NO20075130A patent/NO20075130L/no not_active Application Discontinuation
-
2009
- 2009-02-24 CL CL2009000412A patent/CL2009000412A1/es unknown
-
2011
- 2011-11-04 JP JP2011242313A patent/JP2012075136A/ja active Pending
-
2012
- 2012-12-21 JP JP2012279890A patent/JP2013085287A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP1867173A2 (en) | 2007-12-19 |
CL2006000541A1 (es) | 2008-01-04 |
AR052601A1 (es) | 2007-03-21 |
CN101697591A (zh) | 2010-04-21 |
CN101171843A (zh) | 2008-04-30 |
CN101171843B (zh) | 2010-10-13 |
JP2013085287A (ja) | 2013-05-09 |
KR20070117660A (ko) | 2007-12-12 |
TW200704200A (en) | 2007-01-16 |
US20060222078A1 (en) | 2006-10-05 |
NO20075130L (no) | 2007-10-09 |
JP5318561B2 (ja) | 2013-10-16 |
WO2006099082A3 (en) | 2007-09-20 |
IL185828A0 (en) | 2008-01-06 |
RU2402885C2 (ru) | 2010-10-27 |
CA2600750A1 (en) | 2006-09-21 |
RU2007137462A (ru) | 2009-04-20 |
CL2009000412A1 (es) | 2009-06-12 |
WO2006099082A2 (en) | 2006-09-21 |
US9197912B2 (en) | 2015-11-24 |
AU2006223416A1 (en) | 2006-09-21 |
JP2012075136A (ja) | 2012-04-12 |
JP2008533841A (ja) | 2008-08-21 |
BRPI0608282A2 (pt) | 2009-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MX2007011084A (es) | Clasificacion de contenido para procesamiento multimedia. | |
JP5384694B2 (ja) | 多層ビデオ設計のためのレート制御 | |
US9071841B2 (en) | Video transcoding with dynamically modifiable spatial resolution | |
RU2377737C2 (ru) | Способ и устройство для преобразования с повышением частоты кадров с помощью кодера (ea-fruc) для сжатия видеоизображения | |
EP2227019B1 (en) | Redundant data encoding methods and device | |
US8406297B2 (en) | System and method for bit-allocation in video coding | |
KR101210578B1 (ko) | 스케일러블 비디오 코딩에서의 비트율-왜곡값을 이용한 상위 계층의 빠른 부호화 방법 및 그 부호화 장치 | |
US20070019724A1 (en) | Method and apparatus for minimizing number of reference pictures used for inter-coding | |
KR20080068716A (ko) | 비디오 스트리밍에서 샷 검출을 위한 방법 및 장치 | |
KR20070117623A (ko) | 2계층 인코딩 및 단일 계층 디코딩을 이용한 스케일러블비디오 코딩 | |
CN110996102B (zh) | 抑制p/b帧中帧内块呼吸效应的视频编码方法及装置 | |
US20050129125A1 (en) | Method and apparatus for pitcure compression using variable block of arbitrary size | |
CN111314700B (zh) | 抑制呼吸效应的视频编码方法及装置 | |
EP1921866A2 (en) | Content classification for multimedia processing | |
KR100770873B1 (ko) | 영상 부호화시 비트율 제어 방법 및 장치 | |
Sofke et al. | Dynamic quality control for transform domain Wyner-Ziv video coding | |
Ye et al. | Hybrid spatial and temporal error concealment for distributed video coding | |
JP2005217499A (ja) | 画像処理装置、画像処理プログラムおよび画像処理方法 | |
Yin et al. | An efficient mode decision algorithm for real-time high-definition H. 264/AVC transcoding | |
Wei | Adaptive rate control for video compression and transmission over fading channel in wireless networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FA | Abandonment or withdrawal |