MX2007011084A - Clasificacion de contenido para procesamiento multimedia. - Google Patents

Clasificacion de contenido para procesamiento multimedia.

Info

Publication number
MX2007011084A
MX2007011084A MX2007011084A MX2007011084A MX2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A MX 2007011084 A MX2007011084 A MX 2007011084A
Authority
MX
Mexico
Prior art keywords
multimedia data
complexity
determining
block
temporal
Prior art date
Application number
MX2007011084A
Other languages
English (en)
Inventor
Gordon Kent Walker
Vijayalakshmi R Raveendran
Phanikumar Bhamidipati
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of MX2007011084A publication Critical patent/MX2007011084A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/198Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including smoothing of a sequence of encoding parameters, e.g. by averaging, by choice of the maximum, minimum or median value
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Se describe un aparato y metodo para procesamiento de datos multimedia, tal como, por ejemplo, datos de video, datos de audio, o ambos, datos de video y audio para codificacion utilizando una clasificacion de contenido determinada; el procesamiento de los datos multimedia incluye determinar la complejidad de datos multimedia, clasificar los datos multimedia con base en la complejidad determinada y, determinar una velocidad de bits para codificar los datos multimedia con base en su clasificacion; la complejidad puede incluir un componente de complejidad espacial y un componentes de complejidad temporal de los datos multimedia; los datos multimedia se clasifican utilizando clasificaciones de contenido, las cuales se basen en un valor de calidad visual para visualizar datos multimedia, utilizando la complejidad espacial, la complejidad temporal, o ambas, la complejidad espacial y la complejidad temporal.

Description

CLASIFICACIÓN DE CONTENIDO PARA PROCESAMIENTO MULTIMEDIA CAMPO DE LA INVENCIÓN El campo de la invención se refiere a procesamiento de datos multimedia a través de algoritmos de compresión para analizar, clasificar, cuantificar y representar datos multimedia con base en el contenido de los datos multimedia.
ANTECEDENTES DE LA INVENCIÓN El amplio uso de la Internet y la comunicación inalámbrica ha aumentado la demanda de servicios multimedia que ponen en corriente medios sobre la Internet y canales móviles/inalámbricos. En redes de Protocolo de Internet (IP), datos multimedia pueden ser provistos por un servidor y pueden ser puestos en corriente por uno o más clientes cableados o inalámbricos. Las conexiones cableadas incluyen marcación, red digital de servicios integrados (ISDN), cable, protocolos de linea de suscriptor digital (colectivamente denominados como xDSL) , fibra, redes de área local (LAN), redes de área amplia (WAN) y otros. Los dispositivos electrónicos que utilizan comunicaciones inalámbricas incluyen teléfonos (por ejemplo, teléfonos celulares), asistentes de datos personales (PDA), computadoras manuales y portátiles, asi como otros. En su mayoria, si no es que en todas estas aplicaciones, los requerimientos y/o restricciones de ancho de banda necesitan que el procesamiento de datos multimedia utilice un codificador fuente que incorpore algoritmos de compresión multimedia para analizar, cuantificar y representar datos multimedia a fin de transmitir la máxima información gastando un "minimo" número de bits. Las características de dichos algoritmos varian significativamente, lo cual conduce a grandes variaciones de escala en su rendimiento (tal como eficiencia de compresión y tasa de transferencia de bits) . Las características del procesamiento multimedia que utiliza algoritmos de compresión pueden variar significativamente con base en el contenido, lo cual puede conducir a grandes variaciones de escala en su rendimiento (tal como eficiencia de compresión y tasa de transferencia de bits) . Algunos esquemas de procesamiento de datos multimedia utilizan ciertos tipos de información para clasificar los datos multimedia. Por lo regular, los algoritmos de clasificación de imágenes se basan en alguna forma de métodos de segmentación de imagen. Los algoritmos de agrupamiento de imágenes se han propuesto en MPEG para MPEG-7 (agrupamiento de fotos) . Los algoritmos de clasificación de imágenes actualmente propuestos y descritos en la literatura se han basado en aspectos matemáticos y estadísticos de los datos multimedia. Métodos y dispositivos mejorados para procesamiento y codificación de datos multimedia podrían tener un amplio rango de aplicaciones en comunicaciones cableadas e inalámbricas, y seria benéfico en la técnica utilizar y/o modificar las características de dicho procesamiento de forma que sus funciones se puedan explotar en el mejoramiento de productos existentes y la creación de nuevos productos que todavía no se han desarrollado.
SUMARIO DE LA INVENCIÓN Cada uno de los aparatos inventivos y métodos tiene varios aspectos, ninguno de los cuales es el único responsable de sus atributos deseables. Sin limitar el alcance de la invención, ahora se analizarán de manera breve sus funciones más prominentes. Después de considerar este análisis, y particularmente después de leer la sección titulada "Descripción Detallada" uno entenderla las funciones de las mejoras para los aparatos y métodos de procesamiento de datos multimedia. En un aspecto, un método para el procesamiento de datos multimedia incluye determinar la complejidad de datos multimedia, clasificar los datos multimedia con base en la complejidad determinada, y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. El método también puede incluir: determinar la complejidad espacial y la complejidad temporal de los datos multimedia, y la clasificación de los datos multimedia puede incluir asociar la complejidad espacial con un valor de textura, asociar la complejidad temporal con un valor de movimiento, y asignar una clasificación de contenido con los datos multimedia con base en el valor de textura y el valor de movimiento. En otro aspecto, un aparato para procesar datos multimedia incluye medios para determinar la complejidad de datos multimedia, medios para clasificar los datos multimedia con base en la complejidad determinada, y medios para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. En otro aspecto, un dispositivo configurado para procesar datos multimedia incluye un procesador configurado para determinar la complejidad de datos multimedia, configurado para clasificar los datos multimedia con base en la complejidad determinada, y además configurado para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
En otro aspecto, un medio legible por computadora para incorporar un método para procesamiento de datos multimedia incluye determinar la complejidad de datos multimedia, clasificar datos multimedia con base en la complejidad determinada, y determinar una tasa de transferencia de -bits para codificar los datos multimedia con base en su clasificación. En otro aspecto, un aparato para procesamiento de datos multimedia incluye un primer determinador para determinar la complejidad de datos multimedia, un clasificador de contenido para clasificar los datos multimedia con base en la complejidad determinada, y un segundo determinador para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. En algunos aspectos, la complejidad incluye una complejidad espacial de los datos multimedia y/o una complejidad temporal de los datos multimedia, y la clasificación de los datos multimedia se puede basar en la complejidad espacial y/o la complejidad temporal. En otros aspectos todavía, un método y aparato para procesamiento de datos multimedia comprende un método o medios para determinar la complejidad de datos multimedia; y clasificar los datos multimedia con base en la complejidad determinada. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para determinar la complejidad de datos multimedia; y seleccionar, a partir por lo menos de multimedia, procesos basados en la complejidad determinada. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para determinar la complejidad de datos multimedia; y seleccionar un conjunto de procesos de codificación con base en la complejidad de los datos multimedia. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para clasificar los datos multimedia con base en la complejidad determinada; y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medios para determinar la complejidad de datos multimedia; y seleccionar un conjunto de procesos de decodificación con base en la complejidad de los datos multimedia. Un método y aparato para procesamiento de datos multimedia puede comprender un método o medio para determinar la complejidad de datos multimedia; clasificar los datos multimedia con base en la complejidad determinada; y seleccionar un conjunto de procesos de decodificación con base en la clasificación de los datos multimedia. Se deberla apreciar que el método y aparato se pueden ejecutar a través de un medio legible por computadora y/o procesador.
BREVE DESCRIPCIÓN DE LAS FIGURAS La figura 1 es un diagrama en bloques de un sistema de comunicaciones general para codificar y decodificar datos multimedia en corriente, La figura 2 es un diagrama que ilustra una corriente de datos de Perfil Simple MPEG-4, La figura 3 es una ilustración de un ejemplo del proceso de construcción del cuadro P en MPEG-4, La figura 4 es un diagrama en bloques de un componente de clasificación de contenido, La figura 5 es un esquema de un grupo de macrobloques en un cuadro de video que ilustra valores medios para cada macrobloque, La figura 6 es una gráfica que ilustra un ejemplo de clasificación de imágenes con base en una textura y un valor de movimiento, La figura 7 es una gráfica que ilustra ejemplos para determinar una tasa de transferencia de bits utilizando curvas de clasificación de contenido y un valor de calidad visualmente percibido, La figura 8 es un diagrama de flujo que ilustra un proceso para clasificar datos multimedia, y La figura 9 es un diagrama de flujo que ilustra un proceso para codificar datos multimedia con base en su clasificación de contenido. La figura 10 es un diagrama de sistema que ilustra la codificación de múltiples corrientes multimedia o canales . La figura 11 es un diagrama que ilustra la compensación de movimiento. La figura 12 es una gráfica que ilustra el pre-énfasis de lambda grande.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La siguiente descripción detallada se enfoca en ciertas modalidades que se pueden utilizar. Sin embargo, las modalidades descritas se pueden incorporar en una multitud de diferentes formas. Referencia en esta descripción a "una modalidad" significa que esa función, estructura o característica particular descrita en relación con la modalidad está incluida por lo menos en una modalidad. Las apariencias de la frase "en una modalidad", "de acuerdo con una modalidad", o "en algunas modalidades" en varios lugares en la descripción detallada no necesariamente se refieren a la misma modalidad, y tampoco a modalidades separadas o alternas mutuamente exclusivas de otras modalidades. Además, varias se describen varias funciones las cuales se pueden mostrar a través de algunas modalidades y no a través de otras. De manera similar, se describen varios requerimientos los cuales pueden ser requerimientos para algunas modalidades pero no para otras modalidades . La siguiente descripción incluye detalles para proveer un completo entendimiento de los ejemplos. Sin embargo, aquellos expertos en la técnica entenderán que los ejemplos se pueden practicar incluso si cada detalle de un proceso o dispositivo en un ejemplo o modalidad no se describe o ilustra en la presente invención. Por ejemplo, componentes eléctricos se pueden mostrar en diagramas de bloques que no ilustran cada conexión eléctrica o cada elemento eléctrico del componente para no oscurecer los ejemplos en detalles innecesarios. En algunos casos, dichos componentes, otras estructuras y técnicas se pueden mostrar a detalle para explicar adicionalmente los ejemplos. Ejemplos de aparatos y métodos para codificar datos multimedia que utilizan la clasificación de los datos multimedia en categorías basadas en su contenido (por ejemplo, una o más clasificaciones de contenido) se describen en la presente invención. Los métodos y aparatos descritos ofrecen técnicas para codificar datos multimedia con base en la determinación de características espaciales y temporales de los datos multimedia, y clasificar los datos multimedia con base en una o más de sus características de complejidad. Estos métodos y aparatos permiten que algoritmos de compresión y procesamiento de datos multimedia sean "sintonizados" con base en la categoría de contenido de los datos multimedia para optimizar el método y aparato utilizados para codificar datos multimedia utilizando información de contenido y entregar, de manera eficiente, un nivel de calidad deseado de datos multimedia conforme a lo percibido por el ojo humano, u otra medición del nivel de calidad. "Datos multimedia", tal como aqui se utiliza, es un término amplio que incluye datos de video (los cuales pueden incluir datos de audio) , datos de audio, o ambos, datos de video y datos de audio. "Datos de video" o "video" se utilizan aqui como un término amplio, refiriéndose a secuencias de imágenes que contienen texto o información de imágenes y/o datos de audio, y se pueden utilizar para hacer referencia a datos multimedia (por ejemplo, los términos se pueden utilizar de manera intercambiable) a menos que se especifique lo contrario. Los sistemas codee multimedia generalmente no toman en cuenta los diferentes tipos de contenido. Más bien, la codificación se realiza en una forma similar para todos los tipos de contenido. Por lo regular, los datos multimedia se codifican a una calidad constante o a una tasa de transferencia de bits constante. La codificación a una tasa de transferencia de bits constante conduce a discrepancias en la calidad del video codificado para secciones de baja actividad y secciones de alta actividad. Por ejemplo, una secuencia de noticias que contiene secuencias deportivas se puede codificar con el mismo número de bits asignados para cada sección. Cuando se observa, la sección de secuencia deportiva seria percibida como a una calidad inferior que la sección de encabezado de diálogo y los resultados generales no pueden ser aceptables. La codificación a una calidad constante conduce a un uso ineficiente de las tasas de transferencia de bits. La codificación de video de baja actividad a una alta calidad utiliza una tasa de transferencia de bits innecesariamente alta produciendo como resultado un ancho de banda desperdiciado. Al clasificar datos multimedia con base en la textura y movimiento en una secuencia de video, en lugar de simplemente el tipo general de contenido en la secuencia, la tasa de transferencia de bits se puede ajustar sobre la secuencia con base en el movimiento texturizado real para esos datos particulares. La clasificación de contenido se puede utilizar en una variedad de aplicaciones que pueden resultar en una mejor administración de bits y un uso más inteligente del presupuesto de bits disponibles. Por ejemplo, en algunas modalidades una clasificación de contenido se puede utilizar para detección de cambio de escena de datos de video.
Comunicación de datos multimedia Los datos multimedia comunicados a un dispositivo de cliente por lo regular están comprimidos. Un par de estándares de codificación de video, conocidos como MPEG-x y H.2ßx, describen técnicas de procesamiento y manipulación de datos (denominadas aqui como codificación híbrida) que son muy convenientes para la compresión y entrega de video, audio y otra información utilizando técnicas de codificación de fuente de longitud variable o fija. En particular, los estándares antes mencionados, y otros estándares y técnicas de codificación híbrida comprimen, de forma ilustrativa, información multimedia utilizando técnicas de codificación intra-cuadro (tal como, por ejemplo, codificación de longitud corrida, codificación Huffman y similares) y técnicas de codificación intercuadro (tal como, por ejemplo, codificación predictiva de avance y retroceso, compensación de movimiento y similares) . Específicamente, en el caso de sistemas de procesamiento multimedia, los sistemas de codificación multimedia híbridos se caracterizan por la codificación de compresión basada en predicción de cuadros multimedia con codificación de compensación de movimiento intra- y/o inter-cuadro. La codificación basada, por lo menos en parte, en clasificación de contenido, se puede incorporar en dichos algoritmos de compresión para optimizar adicionalmente el procesamiento multimedia. Aunque los ejemplos aqui descritos están escritos hacia los estándares de codificación de video MPEG y H.2ßx, el uso similar de otros estándares de codificación de video también es aplicable. La codificación intra-cuadro se refiere a la codificación de una imagen (o campo o un cuadro) sin referencia a alguna otra imagen, pero la imagen intra-codificada se puede utilizar como una referencia para otras imágenes. Los términos intra-cuadro, cuadro intra-codificado y cuadro I son ejemplos de objetos de video formados con intra-codificación que se utilizan a través de esta solicitud. La inter-codificación o codificación predictiva se refiere a la codificación de una imagen (o campo o un cuadro) con referencia a otra imagen. En comparación con la imagen intra-codificada, la imagen inter-codificada o pronosticada se puede codificar con mayor eficiencia. Ejemplos de imágenes inter-codificadas que se utilizarán a través de esta aplicación son cuadros pronosticados (ya sea pronosticados de avance o retroceso, también denominados como cuadros P) , y cuadros pronosticados bidireccionales (también denominados como cuadros B) . Otros términos para inter-codificación incluyen codificación de paso alto, codificación residual, interpolación de movimiento compensado y otros que son muy conocidos por aquellos expertos en la técnica. Una técnica, conocida como codificación escalable, puede dividir imágenes intra-codificadas y las diferentes imágenes inter-codificadas (tal como cuadros P o cuadros B) en diferentes capas en la corriente de bits tal como, por ejemplo, una capa base y una capa de mejoramiento. La codificación escalable es útil en canales dinámicos, donde las corrientes de bits escalables se pueden adaptar para ajustarse a las fluctuaciones en ancho de banda de red. En canales propensos al error, la codificación escalable puede agregar robustez a través de la protección de error desigual de la capa base y la capa de mejoramiento. La mejor protección de error se puede aplicar a la capa más importante.
Codificación de datos multimedia La figura 1 es un diagrama en bloques de un sistema de comunicaciones general para clasificar el contenido de datos multimedia, codificar, comunicar y decodificar dichos datos. El sistema 100 incluye el dispositivo codificador 105 y el dispositivo decodificador 110. El dispositivo codificador 105 incluye el componente codificador 185 el cual incluye el componente intra-codificador 115, y el componente codificador predictivo 120. El dispositivo codificador 105 además incluye el componente de memoria 130, el componente de comunicaciones 175, y el componente clasificador de contenido 190. El dispositivo codificador 105 puede recibir datos desde una fuente externa 135 utilizando lógica de comunicación contenida en componente de comunicaciones 175. La fuente externa 135 podria ser, por ejemplo, memoria externa, la Internet, una alimentación de video y/o video en vivo, y la recepción de los datos puede incluir comunicaciones cableadas y/o inalámbricas. Los datos contenidos en la fuente externa 135 pueden estar en un formato sin procesar (no codificado) o estado codificado. El componente intra codificador 115 se utiliza para codificar porciones intra codificadas de cuadros (trozos, macrobloques y sub-macrobloques) . El componente codificador predictivo 120 se utiliza para codificar porciones pronosticadas de cuadros, incluyendo predicción de avance, predicción de retroceso y predicción bidireccional. Después de la codificación, los cuadros codificados se almacenan en el componente de memoria 130 o memoria externa. La memoria externa se puede contener dentro de la fuente externa 135 o un componente de memoria separada (que no se muestra) . El dispositivo codificador 105 incluye un procesador 187 el cual está en comunicación con el componente de memoria 130 y uno o más de los otros componentes en el dispositivo codificador 105. El procesador 187 puede ejecutar el procesamiento para cualquiera de los otros componentes del codificador y puede contener un proceso de codificación principal. En algunas modalidades, el procesador 187 no puede ser un componente separado (como se muestra) sino que la funcionalidad del procesador se puede incorporar en uno o más de los otros componentes del codificador 105. El componente de comunicaciones 175 contiene lógica utilizada para la transmisión de datos (Tx) en conjunto con la red 140. La red 140 puede ser parte de un sistema cableado tal como un teléfono, cable, y fibra óptica, o un sistema inalámbrico. En el caso de sistemas de comunicación inalámbrica, la red 140 puede comprender, por ejemplo, parte de un sistema de comunicación de acceso múltiple por división de código (CDMA o CDMA2000), o alternativamente, el sistema puede ser un sistema de acceso múltiple por división de frecuencia (FDMA), un sistema de multiplexión por división de frecuencia ortogonal (OFDM) , un sistema de acceso múltiple por división de tiempo (TDMA) , tal como GSM/GPRS (Servicio de Radio en Paquete General) /EDGE (ambiente GSM de datos mejorado) o TETRA (Radio Truncado Terrestre) tecnología telefónica móvil para la industria de servicio, un acceso múltiple por división de código de banda amplia (WCDMA) , un sistema de alta velocidad de datos (Multidifusión Gold lxEV-DO o lxEV-DO) , o en general, cualquier sistema de comunicación inalámbrica que emplee una combinación de técnicas. Los cuadros codificados son transmitidos (Tx) sobre la red 140. Los procesos de codificación ejecutados por el dispositivo codificador 105 se describen de manera más completa a continuación. El componente de clasificación de contenido 190 contiene lógica para determinar una clasificación del contenido de datos de datos multimedia recibidos desde la fuente externa 135. Para clasificar los datos multimedia, se puede utilizar un modelo visual humano para cuantificar la sensibilidad del ojo humano a perturbaciones en luminancia de una señal visual con respecto a su contexto espacial y/o temporal en la imagen y/o secuencia de imágenes en movimiento. Los efectos de enmascaramiento espacial y temporal del ojo también se toman en cuenta. Un aspecto incluye el uso de algoritmos de comparación de bloques o cálculo de movimiento para representar los aspectos temporales del video. La información relacionada con los datos multimedia, por ejemplo, valores de complejidad espacial y temporal de los datos de video, puede ser determinada por uno o más componentes del codificador 105, y utilizada en conjunto con la percepción de efectos espaciales y de movimiento en video se utilizan para clasificar contenido de los datos de video en dos o más categorías. Dicha clasificación se puede utilizar en algoritmos de pre-/post-procesamiento y compresión (por ejemplo, detección de cambio de escena, control de tasa de transferencia, FRUC) . La clasificación de contenido provee al codificador 105 un cálculo confiable respecto al tipo de contenido a esperar en datos de video próximos (por ejemplo, un súper-cuadro) , de manera que el codificador 105 puede determinar la asignación de tasa de transferencia de bits apropiada para lograr un nivel particular de calidad visualmente percibida con base en la clasificación de contenido, y para otros propósitos de decisión de tipo de cuadro. Un súper-cuadro es un conjunto de datos de medios para una ventana o periodo de tiempo predeterminado, por lo regular igual a un segundo de datos, que se utilizan como una unidad para determinar la clase de contenido, transmitir y para cualesquiera otros propósitos. Las clasificaciones de contenido se pueden basar en características de datos multimedia tal como las percibe el ojo humano, por ejemplo, complejidad espacial y complejidad temporal. Los algoritmos de procesamiento multimedia se pueden optimizar para varios tipos de contenido y proveer estabilidad y control con respecto a su rendimiento en la codificación y comunicación de los datos multimedia. El componente codificador 185 puede proveer información de procesamiento (por ejemplo, de macrobloques) para uso por parte del componente de clasificación de contenido 190. Por ejemplo, el componente codificador 185 puede calcular información de los datos multimedia, incluyendo métrica de sensibilidad visual humana tal como un valor Dcsat, valor de relación de contraste, vectores de movimiento (MV) , y la suma de las diferencias de pixel absolutas (SAD) . El componente codificador 185 puede almacenar esta información para el componente de memoria 130 de forma que está disponible para ser recuperada por el componente de clasificación de contenido 190 a fin de determinar la complejidad espacial y temporal de los datos multimedia, determinar la textura y movimiento de los datos, y después determinar la clasificación de contenido resultante. En otro aspecto, el componente de clasificación de contenido 190, u otro componente tal como el procesador 187 calcula por lo menos parte de esta información a partir de los datos multimedia.
Proceso de decodificación El dispositivo decodificador 110 contiene componentes similares a algunos de los componentes en el dispositivo codificador 105, incluyendo, el componente intra-decodificador 145, componente decodificador predictivo 150, componente de memoria 160, procesador 167, y componente de comunicaciones 180. El dispositivo decodificador 110 recibe datos codificados que se han transmitido sobre la red 140 o desde el almacenamiento externo 165. El componente de comunicaciones 180 contiene lógica utilizada para recibir (Rx) datos codificados en conjunto con la red 140, asi como lógica para recibir datos codificados desde el almacenamiento externo 165. El almacenamiento externo 165 podria ser, por ejemplo, RAM o ROM externa o un servidor remoto. El componente intra decodificador 145 se utiliza para decodificar datos intra-codificados. El componente decodificador predictivo 150 se utiliza para decodificar datos inter-codificados . El procesador 167 está en comunicación con el componente de memoria 160 y uno o más de los otros componentes en el dispositivo decodificador 110. El procesador 167 puede ejecutar procesamiento para cualquiera de los otros componentes del decodificador y puede contener un proceso de decodificación principal. El componente decodificador predictivo 150 decodifica tanto cuadros P (pronosticados de avance y retroceso) como cuadros B. Los mismos sub-componentes utilizados para decodificar cuadros P se pueden utilizar en serie para decodificar cuadros B con múltiples referencias. Múltiples referencias para cuadros B pueden estar en cuadros de referencia de avance y retroceso, ambos en el mismo cuadro de referencia, ambos en cuadros de referencia de avance separados o ambos en cuadros de referencia de retroceso. Después de la decodificación, los cuadros decodificados se pueden desplegar con el componente de despliegue 170 o almacenar en memoria interna 160 o almacenamiento externo 165. El componente de despliegue 170 puede ser una parte integrada del dispositivo de decodificación que contiene dichas partes como hardware y lógica de despliegue de video, incluyendo una pantalla de despliegue, o puede ser un dispositivo periférico externo. Los procesos de decodificación ejecutados por el dispositivo decodificador 110 se describen de manera más completa a continuación.
Codificación de MPEG ejemplar En un decodificador MPEG típico, los bloques de pixeles codificados predictivos (por ejemplo, bloques que comprenden uno o más vectores de movimiento y un componente de error residual) se decodifican con respecto a un cuadro de referencia (donde un intra-cuadro u otro cuadro predictivo puede servir como un cuadro de referencia) . La figura 2 es un diagrama que ilustra una corriente de datos de Perfil Simple MPEG-4 convencional, la cual retrata las dependencias del cuadro para un Grupo de Imágenes (GOP) . GOP 10 está formado del Cuadro I inicial 12, seguido por varios cuadros P pronosticados de avance 14. Debido a la dependencia de los cuadros P en un cuadro I ó P previo, la pérdida de cualquiera de los cuadros P 14 puede resultar en una pérdida de información que puede ser crucial en la decodificación de otros cuadros P. La pérdida o remoción del cuadro P puede resultar, por ejemplo, en fluctuación de video o la incapacidad del decodificador para seguir decodificando hasta el siguiente cuadro I 16, lo cual marca el inicio del siguiente GOP. Los cuadros P (o cualquiera de las secciones inter-codificadas) puede explotar la redundancia temporal entre una región en una imagen actual y una región de predicción de mejor comparación en una imagen de referencia. La diferencia entre la región actual y la región de predicción de mejor comparación se conoce como error residual (o error de predicción) . La ubicación de la región de predicción de mejor comparación en el cuadro de referencia se puede codificar en un vector de movimiento. El procesador 167 puede ejecutar el procesamiento para cualquiera de los otros componentes del decodificador 110 y puede contener un proceso de decodificación principal. En algunas modalidades, el procesador 167 puede no ser un componente separado, sino más bien la funcionalidad del procesador se puede incorporar en uno o más de los otros componentes del decodificador 110. La figura 3 es una ilustración de un ejemplo de un proceso de construcción de cuadro P, por ejemplo, en MPEG-4. El proceso 300 incluye la imagen actual 305 formada por macro-bloques 5x5, donde el número de macro-bloques en este ejemplo es arbitrario. Un macro-bloque es un grupo de pixeles asociados, y en este ejemplo está formado de pixeles 16x16. Los pixeles se pueden definir por un valor de luminancia de 8 bits (Y) y dos valores de crominancia de 8 bits (Cr y Cb) . En MPEG, los componentes Y, Cr y Cb se pueden almacenar en un formato 4:2:0, donde los componentes Cr y Cb son sub-muestreados por 2 en las direcciones X y Y. Por lo tanto, cada macro-bloque constarla de 256 componentes Y, 64 componentes Cr y 64 componentes Cb. El macro-bloque 315 de la imagen actual 305 es pronosticado a partir de la imagen de referencia 310 en un punto de tiempo diferente que la imagen actual 305. Se realiza una búsqueda en la imagen de referencia 310 para localizar el macro-bloque de mejor comparación 320 que está más cerca, en términos de valores Y, Cr y Cb, del macro- bloque actual 315 que se está codificando. Métodos de búsqueda del macro-bloque de mejor comparación 320, conocidos por aquellos expertos en la técnica, incluyen a) reducir al mínimo SAD (suma de diferencias de pixel absolutas) entre el macro-bloque actual 315 y los macrobloques de imagen de referencia 310, b) reducir al mínimo SSD (suma de diferencias de pixel al cuadrado) , y c) costo mínimo en un sentido de distorsión de tasa de transferencia, y otros. La ubicación del macro-bloque de mejor comparación 320 en la imagen de referencia 310 está codificada en el vector de movimiento 325. La imagen de referencia 310 puede ser un Cuadro I o Cuadro P que el decodificador habría reconstruido antes de la construcción de la imagen actual 305. El macro-bloque de mejor comparación 320 es sustraído del macro-bloque actual 315 (se calcula una diferencia para cada uno de los componentes Y, Cr y Cb) resultando en el error residual 330. El error residual 330 está codificado con la Transformada de Coseno Discreto2D (DCT) 335 y después es cuantificado 340. La cuantificación 340 se puede realizar para proveer compresión espacial, por ejemplo, repartiendo menos bits a los coeficientes de alta frecuencia al mismo tiempo que se reparten más bits a los coeficientes de baja frecuencia. Los coeficientes cuantificados de error residual 330, junto con el vector de movimiento 325 y la imagen de referencia 310 que identifica información, son información codificada que representa el macro-bloque actual 315. La información codificada se puede almacenar en la memoria para futuro uso o se puede operar para propósitos, por ejemplo, de corrección de error o mejoramiento de imagen, o se puede transmitir sobre la red 345. Los coeficientes cuantificados codificados de error residual 330, junto con el vector de movimiento codificado 325, se pueden utilizar para reconstruir el macro-bloque actual 315 en el codificador para uso como parte de un cuadro de referencia para posterior cálculo y compensación de movimiento. El codificador puede emular los procedimientos de un decodificador para esta reconstrucción de cuadro P. La emulación del decodificador puede producir como resultado que el codificador y decodificador funcionen con la misma imagen de referencia. El proceso de reconstrucción, ya sea realizado en un codificador, para inter-codificación adicional, o en un decodificador, se presenta aqui. La reconstrucción de un cuadro P se puede iniciar después que se reconstruye el cuadro de referencia (o una porción de una imagen o cuadro al que se está haciendo referencia) . Los coeficientes cuantificados codificados son descuantificados 350 y después se ejecuta DCT inversa 2D, o IDCT, 355 produciendo como resultado un error residual decodificado o reconstruido 360. El vector de movimiento codificado 325 se utiliza para localizar el macro-bloque de mejor comparación ya reconstruido 365 en la imagen de referencia ya reconstruido 310. El error residual reconstruido 360 se agrega entonces al macro-bloque de mejor comparación reconstruido 365 para formar el macro-bloque reconstruido 370. Los macro-bloques reconstruidos 370 se pueden almacenar en memoria, desplegar de forma independiente o en una imagen con otros macro-bloques reconstruidos, o procesar adicionalmente para mejora de imagen.
Clasificación de contenido de datos multimedia La figura 4 es un diagrama en bloques de un componente de clasificación de contenido 190 que se ilustra en la figura 1. El componente de clasificación de contenido 190 incluye un componente de complejidad 192 configurado para determinar la complejidad espacial y la complejidad temporal de datos multimedia, y también para asociar un valor de textura a la complejidad espacial y un valor de movimiento a la complejidad temporal. Para datos multimedia que se están codificando, el componente de clasificación de contenido 190 recupera la información previamente procesada relacionada con el contenido de los datos de la memoria 130. Esta información puede incluir, por ejemplo, uno o más valores Dcsat, valores de relación de contraste, vectores de movimiento (MV) , y suma de diferencias absolutas (SAD) . En aspectos donde esta información no es determinada por un pre-procesador (por ejemplo, el componente codificador 185 o procesador 187 en la figura 1), el componente de clasificación 190 puede incluir la funcionalidad para calcular esta información. En general, datos multimedia incluyen una o más secuencias de imágenes o cuadros. Cada cuadro puede ser separado en bloques de pixeles para procesamiento. La complejidad espacial es un término amplio que generalmente describe una medición del nivel de detalles espaciales dentro de un cuadro. Escenas con áreas de luminancia o crominancia principalmente planas, sin cambios o con pocos cambios pueden tener complejidad espacial baja. La complejidad espacial está asociada con la textura de los datos de video. La complejidad espacial se basa, en este aspecto, en la métrica de sensibilidad visual humana denominada Dcsat, la cual se calcula para cada bloque como una función de frecuencia espacial local e iluminación ambiental. Los expertos en la técnica están conscientes de las técnicas para utilizar patrones de frecuencia espacial y características de iluminación y contraste de imágenes visuales para sacar ventaja del sistema visual humano. Se conoce un número de métricas sensibles para sacar ventaja de las limitaciones de perspectiva del sistema visual humano y se podrían utilizar con el método aqui descrito. La complejidad temporal es un término amplio el cual se utiliza para describir de manera general una medición del nivel de movimiento en datos multimedia como se hace referencia entre cuadros en una secuencia de cuadros. Las escenas (por ejemplo, secuencias de cuadros de datos de video) con poco o ningún movimiento tienen una complejidad temporal baja. La complejidad temporal se puede calcular para cada macro-bloque, y se puede basar en el valor Dcsa / vectores de movimiento y la suma de diferencias de pixel absolutas entre un cuadro y otro cuadro (por ejemplo, un cuadro de referencia) .
Detección de cambio de escena La detección de cambio de escena es un paso necesario para cualquier sistema de codificación de video para que éste conserve de manera inteligente los bits sin desperdiciar bits al insertar un cuadro I en un intervalo fijo. La siguiente descripción muestra la forma en que un cambio de escena puede ser detectado y su uso consecuente en la clasificación de contenido. La longitud de un GOP puede ser lo suficientemente larga para reducir la pérdida eficiente de cuadros I grandes, y lo suficientemente corta para combatir la desigualdad entre el codificador y el decodificador, o afectación de canal. Además, los macro-bloques (MB) en los cuadros P pueden ser INTRA codificados por el mismo motivo. En un sistema práctico de video en corriente, el canal de comunicación por lo general se ve afectado por errores de bits o pérdidas de paquete. Los lugares donde se colocan los cuadros I o MB I pueden impactar de manera importante la calidad de video decodificado y la experiencia de visualización. Una regla de oro es utilizar INTRA codificación para imágenes o porciones de imágenes que tienen un cambio significativo de las imágenes previas colocadas o porciones de imágenes. Estas regiones no pueden ser pronosticadas de forma efectiva y eficiente con cálculo de movimiento. Por lo tanto, pueden estar exentas de las técnicas de ÍNTER codificación. En el contexto de afectación de canal, esas regiones probablemente sufrirán de propagación de error. La INTRA codificación se puede utilizar para reducir la propagación de error. Las regiones que necesitan ser INTRA actualizadas se pueden clasificar como tres categorías. 1) Cambios de escena abruptos: esta categoría incluye cuadros que son significativamente diferentes del cuadro previo, generalmente ocasionado por una operación de cámara. Debido a que el contenido de estos cuadros es diferente de aquel del cuadro previo, los cuadros con cambio de escena abrupto se pueden codificar como cuadros I. 2) Desvanecimiento cruzado y otros cambios de escena lentos: esta categoría incluye baja conmutación de escenas, generalmente ocasionado por el procesamiento de cómputo de las tomas de cámara. La mezcla gradual de dos escenas diferentes puede parecer más placentera a lo ojos humanos, pero posee un reto para la codificación de video. La compensación de movimiento no puede reducir la tasa de transferencia de bits de esos cuadros en forma efectiva. Más INTRA MB necesitan ser actualizados para estos cuadros. 3) Luz de destellos de cámara: las luces de destellos de cámara cambian la luminancia de una imagen de forma repentina y rápida. Por lo regular, la duración de una luz de destellos de cámara es más corta que la duración de enmascaramiento temporal del sistema de visión humano (HVS) , lo cual por lo regular se define como 44ms. Los ojos humanos no son sensibles a la calidad de estas ráfagas cortas de brillantez y, por lo tanto, se pueden codificar de forma ordinaria. Debido a que los cuadros de luz de destellos no pueden ser manejados de manera efectiva con compensación de movimiento y son un mal candidato de predicción para futuros cuadros, la codificación ordinaria de estos cuadros no reduce la eficiencia de la codificación de futuros cuadros.
Cuando se detecta cualquiera de los cuadros anteriores, se declara un evento de disparo. La detección de disparo no solo es útil para mejorar la calidad de la codificación; también puede ayudar en la búsqueda/indexación de contenido de video. A continuación se describe un algoritmo de detección. La secuencia es previamente procesada con un compensador de movimiento bidireccional. Este se ajusta a cada bloque 8x8 del cuadro actual con bloques en dos de estos cuadros más adyacentes de cuadros vecinos, uno en el pasado, y uno en el futuro, como se ilustra en la figura 11. El compensador de movimiento produce vectores de movimiento y métricas de diferencia para cada bloque. La métrica de diferencia puede ser la suma de la diferencia cuadrada (SSD) o la suma de la diferencia absoluta (SAD) . Sin que haya una pérdida de generalidad, se utiliza SAD como un ejemplo en este documento. Para cada cuadro, una relación SAD se calcula de la siguiente forma: e + SAD„ ,p . , . y = p- (Ecuación 1) e + SADN donde SADP y SAD^ son la SAD de la métrica de diferencia de avance y retroceso, respectivamente. Se deberla observar que el denominador contiene un pequeño número positivo e para evitar el error "dividir-entre-cero". El nominador también contiene un e para equilibrar el efecto de la unidad en el denominador. Por ejemplo, si el cuadro previo, el cuadro actual, y el siguiente cuadro son idénticos, la búsqueda de movimiento produce SADP = SAD^ = 0. En este caso, los generadores de cálculo anteriores y=l en lugar de 0 o infinito. También se tiene el histograma de luminancia de cada cuadro. Normalmente, se trata con imágenes cuya profundidad de luminancia es ocho bits. Para esta profundidad de luminancia se puede establecer el número de depósitos para que sea 16 a fin de obtener el histograma. La siguiente métrica evalúa la diferencia de histograma: (Ecuación 2) donde NP es el número de bloques en el iavo depósito para el cuadro previo, y Na es el número de bloques en el iav0 depósito para el cuadro actual, y N es el número total de bloques en un cuadro. De manera obvia, si el histograma del cuadro previo y actual están separados, entonces y^2. Se declara un cuadro con cambio de escena abrupto si se satisface el siguiente criterio, como se ilustra en la ecuación 3 M^ + A?(2? + \) = T (Ecuación 3] donde A es una constante elegida por la aplicación, y Ti es un umbral. La simulación muestra que A = 1, y Ti = 5 logran un buen rendimiento de detección. Si el cuadro actual es un cuadro de cambio de escena abrupto, entonces ?c puede ser grande y ?P puede ser pequeño. Se nomina M a la métrica de ? . intensidad de cambio de escena. La relación — se puede utilizar en lugar de ?c solo, de forma que la métrica es normalizada al nivel de actividad del contexto. Se deberla apreciar que el criterio anterior utiliza la diferencia del histograma de luminancia ? en una forma no lineal. Refiriéndose a la figura 12, se puede apreciar que esto es una función convexa. Cuando ? es pequeño (cercano a cero), éste es apenas pre-énfasis. Mientras más grande es ?, más énfasis es conducido por la función. Con este pre-énfasis, para cualquier ? mayor que 1.4, un cambio de escena abrupto es detectado si el umbral Ti es establecido para que sea 5. El desvanecimiento cruzado y otros cambios de escena lentos son detectados si T2<M< T? para un determinado número de cuadros continuos, donde T2 es un umbral . Para detectar eventos de luz de destellos de cámara, se pueden utilizar estadísticas de histrograma de luminancia. Por ejemplo, un evento de luz de destellos generalmente ocasiona que el histograma de luminancia cambie al lado más brillante. El siguiente criterio se puede imponer para detectar eventos de luz de destellos de cámara.
Yc -Yp = T3,7C -YN = T3, y SADP = T?, SADN = T, (Ecuación 4) T4=30 logra un buen rendimiento de detección. El motivo para incluir valores SAD es que los destellos de cámara por lo regular toman un cuadro, y debido a la diferencia de luminancia, este cuadro no puede ser pronosticado bien utilizando la compensación de movimiento desde la dirección de avance y retroceso. Refiriéndose nuevamente a la figura 1, aunque el componente de clasificación de contenido 190 puede incluir funcionalidad para calcular vectores de movimiento y la suma de diferencias de pixel absolutas, por lo regular otros componentes de codificador pueden calcular esta información y proveen estos datos al componente de clasificación de contenido 190. Los valores Dcsat también pueden ser calculados por el componente de complejidad 192 u otro componente del codificador 105 o el procesador 187. Alternativamente, se pueden utilizar relaciones de contraste para determinar la complejidad espacial de un cuadro. Primero, se calculan las relaciones de contraste para cada macro-bloque en un cuadro. La relación de contraste para un macro-bloque determinado se calcula con base en su luminancia promedio con respecto a sus macrobloques vecinos. La figura 5 ilustra un grupo de nueve macro-bloques en un cuadro de video donde cada macro-bloque tiene pixeles 16x16. µx representa la media para un macro-bloque determinado 1-9. El cálculo de la relación de contraste para el macro-bloque cinco (CR5) , el bloque de macro-bloque central, se calcula utilizando la siguiente fórmula: CR5 = [?(µ, - µi)I Sµl]* MBLUMA5 donde i = 1.2...9 (Ecuación 5 ) donde MBLUMA5 representa el contraste de luminancia media para el macro-bloque cinco. La relación de contraste para los macro-bloques 1-4 y 6-9 se calculan de una manera similar. La relación de contraste de un cuadro se obtiene tomando la media de los valores de relación de contraste de cada uno de los nueve macro-bloques en el cuadro. También se calcula la desviación estándar de las relaciones de contraste de los nueve macro-bloques y provee una indicación de la cantidad de variación de textura dentro de cada cuadro.
Determinar una métrica de clasificación de contenido Una métrica de clasificación de contenido se puede determinar utilizando valores de relación de contraste, su desviación estándar, y una métrica de diferencia de cuadro.
Métrica de diferencia de cuadro La otra entrada para el módulo de clasificación de contenido es la métrica de Diferencia de Cuadro calculada en el pre-procesador. La métrica de diferencia de cuadro proporciona una medición de la diferencia entre dos cuadros consecutivos tomando en cuenta la cantidad de movimiento (ejemplo, vector de movimiento o MV) junto con la energía residual representada como la suma de la diferencia absoluta (SAD) entre el predictor y el macro-bloque actual (figura 3, componente 325) . La diferencia de cuadro también provee una medición de las eficiencias de predicción bidireccional y unidireccional. Un ejemplo de una métrica de diferencia de cuadro basada en la información de movimiento recibida desde un pre-procesador que potencialmente ejecuta des-intercalación compensada de movimiento es de la siguiente forma. El desintercalador ejecuta un cálculo de movimiento bidireccional y, por lo tanto, el vector de movimiento bidireccional y la información SAD están disponibles. La diferencia de cuadro representada por SAD_MV para cada macro-bloque se puede derivar de la siguiente forma : SAD_MV=log?0[SAD*exp(-min(l,MV) ) ] (Ecuación 6) donde MV = rai z — cuadrada ( MV•^* + MV y] ) , SAD=min ( SADN, SADP) , donde SADN: es iá SAD calculada del cuadro de referencia hacia atrás, y SADP: es la SAD calculada a partir del cuadro de referencia de avance. Otro enfoque para el cálculo de diferencia de cuadro es calculando una métrica gamma de la siguiente forma : e + SADp ? = (Ecuación 7) e + SAD ¡ donde SADP y SAD son la SAD de la métrica de diferencia de avance y retroceso, respectivamente. Se deberla observar que el denominador contiene un pequeño número positivo e para evitar el error "dividir-entre-cero". El nominador también contiene un e para equilibrar el efecto de la unidad en el denominador. También se tiene el histograma de luminancia de cada cuadro. Normalmente, se trata con imágenes cuya profundidad de luminancia es ocho bits. Para esta profundidad de luminancia se puede establecer el número de depósitos para que sea 16 a fin de obtener el histograma. La siguiente métrica evalúa la diferencia de histograma: (Ecuación 8) donde NPl es el número de bloques en el iav0 depósito para el cuadro previo, y NCi es el número de bloques en el iavo depósito para el cuadro actual, y N es el número total de bloques en un cuadro. De manera obvia, si el histograma del cuadro previo y actual están separados, entonces y^2. Se calcula una métrica de diferencia de cuadro como se muestra en la ecuación 9: (Ecuación 9) Clasificación de procedimiento Los valores de relación de contraste y los valores de diferencia de cuadro se utilizan en la siguiente forma para obtener una métrica de clasificación de contenido de video, la cual podria pronosticar de manera confiable las funciones en una secuencia de video determinada. El algoritmo propuesto puede clasificar el contenido en ocho clases posibles, similar a la clasificación obtenida del análisis basado en la curva R-D. El algoritmo emite un valor en el rango entre 0 y 1 para cada súper-cuadro dependiendo de la complejidad de la escena y el número de ocurrencias de cambio de escena en ese súper-cuadro. El módulo de clasificación de contenido en el pre-procesador ejecutarla los siguientes pasos para cada súper-cuadro a fin de obtener la métrica de clasificación de contenido a partir de los valores de contraste de cuadro y diferencia de cuadro. (1) Calcular el contraste de cuadro medio y la desviación de contraste de cuadro a partir de los valores de contraste de macro-bloque. (2) Los valores de contraste de cuadro y diferencia de cuadro se normalizan utilizando los valores obtenidos a partir de simulaciones las cuales son 40 y 5 respectivamente. (3) La ecuación generalizada utilizada para el cálculo de la Métrica de Clasificación de Contenido es: CCMétrica=CCWl*I_Cuadro_Contraste_Media+CCW2*Cuadro_ Diferencia_Media-CCW3*I_Contraste_Desviación?2*exp (CCW4* Cuadro_Diferencia_DesviaciónA2 ) (Ecuación 10) donde CCWl, CCW2, CCW3 y CCW4 son factores de ponderación. Los valores se eligen para que sean 0.2 para CCWl, 0.9 para CCW2, 0.1 para CCW3 y -0.00009 para CCW4. (4) Determinar el número de cambios de escena en el súper-cuadro. Dependiendo del número de cambios de escena, se ejecuta uno de los siguientes casos. (a) Sin cambios de escena: cuando no hay cambios de escena en un súper-cuadro, la métrica depende completamente de los valores de diferencia de cuadro como se muestra en la siguiente ecuación: CCMétrica= (CCW2+ (CCW1/2) ) *Cuadro_Diferencia_Media- (CCW3- (CCW1/2) ) *l*exp(-CCW4*Cuadro_Diferencia_Desviación?2) (Ecuación 11) (b) Cambio de escena sencillo: cuando existe un cuadro con cambio de escena sencillo observado en el súper-cuadro, la ecuación por omisión se utilizarla para calcular la métrica, como se muestra a continuación: CCMétrica=CCWl*I_Cuadro_Contraste_Media+CCW2*Cuadro_ Diferencia_Media-CCW3*I_Contraste_Desviación?2*exp (CCW4* Cuadro_Diferencia_Desviación 2 ) (Ecuación 12) (c) Dos cambios de escena: cuando se observa que hay máximo 2 cambios de escena en el súper-cuadro determinado, al último súper-cuadro se le otorga más peso que al primero ya que, de cualquier forma, el primero seria renovado por el último rápidamente, como se muestra en la siguiente ecuación: CCMétrica=0. l*I_Cuadro_Contraste_Medial+CCWl*I_Cuadro_ Contraste_Media2+ (CCW2-0.1) *Cuadro_Diferencia_Media- CCW3*I_Contraste_Desviación?2*I_Contraste_Desviación2?2*exp (CCW4*Cuadro_Diferencia_Desviación 2) (Ecuación 13) (d) Tres o más cambios de escena: Si se observa que el súper-cuadro determinado tiene más de 3 cuadros I (por decir, N) , al último cuadro I se le otorga mayor peso y a todos los otros cuadros I se les otorga un peso de 0.05, como se muestra en la siguiente ecuación: CCMétrica=0.05*I_Cuadro_Contraste_Media(1 N_i)+CCWl*I_Cuadro_ Contraste_Media(N)+(CCW2- (0.05* (N-l) ) ) *Cuadro_Diferencia_ Media-CCW3*I_Contraste_Desviación(N) A2*I_Contraste_ Desviación(? _u A2*exp (CCW4*Cuadro_Diferencia_DesviaciónA2) (Ecuación 14) (5) Se requiere una corrección para la métrica en el caso de escenas de bajo movimiento cuando la media de Diferencia de Cuadro es menor que 0.05. Una compensación de (CCCOMPENSACIÓN) 0.33 se agregarla a la CCMétrica. El componente de complejidad 192 utiliza el valor Desata vectores de movimiento y la suma de diferencias absolutas para determinar un valor que indique una complejidad espacial para el macro-bloque (o cantidad designada de datos de video). La complejidad temporal es determinada por una medición de la Métrica de Diferencia de Cuadro. La Métrica de Diferencia de Cuadro mide la diferencia entre dos cuadros consecutivos tomando en cuenta la cantidad de movimiento (con vectores de movimiento) y la suma de diferencias absolutas entre los cuadros.
Generación de mapa de ancho de banda La calidad visual humana V puede ser una función de la complejidad de codificación C y los bits asignados B (también denominados como ancho de banda) . Se deberla apreciar que la métrica de complejidad de codificación C considera las frecuencias espacial y temporal desde el punto de vista de la visión humana. Para distorsiones más sensibles a los ojos humanos, el valor de complejidad es correspondientemente superior. Por lo regular, se puede asumir que V es reducido de manera monotónica en C, e incrementado de manera monotónica en B. Para lograr la calidad visual constante, un ancho de banda ( Bx ) es asignado al iavo objeto (cuadro o MB) que va a ser codificado y que satisface los criterios expresados en las ecuaciones 15 y 16.
B' 5( "F) (Ecuación 15) B = ?B, ¡Ecuación 16! En las ecuaciones 15 y/o 16, C? es la complejidad de codificación del iavo objeto, B es el ancho de banda disponible total, y V es la calidad visual lograda para un objeto. La calidad visual humana es difícil de formular como una ecuación. Por lo tanto, el conjunto de ecuaciones anteriores no se define de forma precisa. Sin embargo, si se asume que el modelo 3-D es continuo en todas las variables, la relación de ancho de banda ( /'?£>> ) se puede tratar como sin cambios dentro de las inmediaciones de un par ( C, V) . La relación de ancho de banda ß se define en la ecuación 17.
B. ß, = B (Ecuación 17) El problema de la repartición de bits se puede entonces definir como se expresa en la ecuación 18: ß, = ß(C,) i = ß para ( /' ) G d(c° ' ° ) (Ecuación 18 ) En la ecuación 18 anterior, d indica las "inmediaciones". La complejidad de codificación es afectada por la sensibilidad visual humana, tanto espacial como temporal. El modelo de visión humana de Girod es un ejemplo de un modelo que se puede utilizar para definir la complejidad espacial. Este modelo considera la frecuencia espacial local y la iluminación ambiental. La métrica resultante se denomina Dcsat. En un punto de procesamiento previo en el proceso, no se sabe si una imagen va a ser intra-codificada o inter-codificada y se generan relaciones de ancho de banda para ambos. Para imágenes intra-codificadas, la relación de ancho de banda se expresa en la ecuación 19: ß.NTRA - ß m-RA log.o (1 + aINTRAY Dc al ) ( E cua c i ón 1 9 } En la ecuación anterior, Y es el componente de luminancia promedio de un MB, aINTRA es un factor de ponderación para el cuadrado de luminancia y el término Dcsat que le sigue, ßoiNTRA es un factor de normalización para garantizar l - ß, . Por ejemplo, un valor de aINTRA = 4 logra una buena calidad visual. El valor del factor de escalación ßoiNTRA no es importante siempre y cuando los bits sean asignados de acuerdo con la relación existente entre ß?NTRA de diferentes objetos de video. Para entender esta relación, se deberla observar que el ancho de banda es asignado logarítmicamente con complejidad de codificación. El término cuadrado de luminancia refleja el hecho de que los coeficientes con magnitud más grande utilizan más bits para codificar. Para evitar que el logaritmo obtenga valores negativos, se agrega unidad al término en el paréntesis. También se pueden utilizar logaritmos con otras bases.
La complejidad temporal se determina por medio de una medición de la Métrica de Diferencia de Cuadro. La Métrica de Diferencia de Cuadro mide la diferencia entre dos cuadros consecutivos tomando en cuenta la cantidad de movimiento (con vectores de movimiento) junto con la SAD. La asignación de bits para imágenes inter-codificadas necesita considerar tanto la complejidad espacial como la temporal. Esto se expresa a continuación en la ecuación 20: iNiiR = ßomiLR loB?o (1 + am R • SSD • Dcwl expH?l F,, + MVN )) (Ecuación 20 ) En la ecuación 20, MVP y MVN son los vectores de movimiento de avance y retroceso para el MB actual. Se puede observar que Y2 en la fórmula INTRA es reemplazado por SSD, el cual representa la suma de diferencia cuadrada. Para entender la función de en la ecuación 6, se pueden observar las siguientes características del sistema visual humano: áreas que experimentan movimiento predecible suave ( t ¡iMV + pequeño) atraen la atención y pueden ser rastreadas por el ojo y, por lo regular, no pueden tolerar ninguna distorsión más que las regiones estacionarias. Sin embargo, las áreas que experimentan movimiento rápido o impredecible grande) no pueden ser rastreadas y pueden tolerar una cuantificación importante. Los experimentos muestran que aINTER=í r y^O.OOl logra buena calidad visual.
Determinar valores de textura y movimiento Para cada macro-bloque en los datos multimedia, el componente de clasificación 194 asocia un valor de textura con la complejidad espacial y un valor de movimiento con la complejidad temporal. El valor de textura se refiere a los valores de luminiscencia de los datos multimedia, donde un valor de baja textura indica pequeños cambios en los valores de luminiscencia de pixeles vecinos de los datos, y un valor de textura elevado indica cambios grandes en los valores de luminiscencia de pixeles vecinos de los datos. De acuerdo con un aspecto, una vez que se calculan los valores de textura y movimiento, un componente de clasificación 194 determina una métrica de clasificación de contenido (por ejemplo, una clasificación de contenido) considerando tanto la información de movimiento como de textura. El componente de clasificación 194 asocia la textura para los datos de video que se están clasificando con un valor de textura relativo, por ejemplo, textura "Baja", textura "Media" o textura "Alta", lo cual generalmente indica la complejidad de los valores de luminancia de los macro-bloques. También, el componente de clasificación 194 asocia el valor de movimiento calculado para los datos de video que se están clasificando con un valor de movimiento relativo, por ejemplo, movimiento "Bajo", movimiento "Medio", o movimiento "Alto" lo cual generalmente indica la cantidad de movimiento de los macrobloques. En modalidades alternas, se puede utilizar una cantidad menor o mayor de categorías para movimiento y textura. Después se determina una métrica de clasificación de contenido considerando los valores de textura y movimiento asociados. La figura 6 ilustra un ejemplo de una gráfica de clasificación que muestra la forma en que los valores de textura y movimiento están asociados con una clasificación de contenido. Un experto en la técnica está familiarizado con muchas formas para ejecutar dicha gráfica de clasificación, por ejemplo, en un cuadro de búsqueda o una base de datos. La gráfica de clasificación es generada con base en evaluaciones predeterminadas de contenido de datos de video. Para determinar la clasificación de datos de video, un valor pe textura de "Bajo", "Medio" o "Alto" (en el "eje x") está en referencia cruzada con un valor de movimiento de "Bajo", "Medio" o "Alto" (en el "eje y") . Una clasificación de contenido indicada en el bloque de cruce es asignada a los datos de video. Por ejemplo, un valor de textura de "Alto" y un valor de movimiento de "Medio" resulta en una clasificación de siete (7). La figura 6 ilustra varias combinaciones de valores relativos de textura y movimiento que están asociados con ocho clasificaciones de contenido diferentes, en este ejemplo. En algunas otras modalidades se puede utilizar una cantidad mayor o menos de clasificaciones.
Determinación de tasa de transferencia de bits Como se describió anteriormente, la clasificación de contenido de datos multimedia resultante se puede utilizar en algoritmos de pre-/post-procesamiento y compresión para mejorar de forma efectiva la administración de bits al mismo tiempo que se mantiene una constante de la calidad de video perceptiva. Por ejemplo, la métrica de clasificación se puede utilizar en algoritmos para detección de cambio de escena, control de asignación de tasa de transferencia de bits de codificación, y conversión ascendente de tasa de transferencia de cuadro (FRUC) . Los sistemas de compresor/descompresor (codee) y los algoritmos de procesamiento de señal digital comúnmente se utilizan en comunicaciones de datos de video, y se pueden configurar para conservar el ancho de banda, pero existe una compensación entre la calidad y la conservación del ancho de banda. Los mejores codees proveen la mayoría de la conservación del ancho de banda al mismo tiempo que producen la menor degradación de la calidad de video. En un aspecto, un componente de tasa de transferencia de bits 196 utiliza la clasificación de contenido para determinar una tasa de transferencia de bits (por ejemplo, el número de bits asignados para codificar los datos multimedia) y almacena la tasa de transferencia de bits en memoria para uso por parte de otro proceso y componentes, por ejemplo, el componente codificador 185 en la figura 1. Una tasa de transferencia de bits determinada a partir de la clasificación de los datos de video puede ayudar a conservar el ancho de banda al mismo tiempo que provee datos multimedia a un nivel de calidad consistente. En un aspecto, una tasa de transferencia de bits diferente se puede asociar con cada una de las ocho clasificaciones de contenido diferentes y, después que la tasa de transferencia de bits es utilizada, para codificar los datos multimedia. El efecto resultante es que, aunque a las diferentes clasificaciones de contenido de datos multimedia se les asigna un número diferente de bits para codificación, la calidad percibida es similar o consistente cuando es vista en una pantalla. Por lo general, los datos multimedia con una clasificación de contenido superior son indicativos de un nivel superior de movimiento y/o textura y se les asignan más bits cuando son codificados. A los datos multimedia con una clasificación inferior (indicativa de menos textura y movimiento) se les asignan menos bits. Para datos multimedia de una clasificación de contenido particular, la tasa de transferencia de bits se puede determinar con base en un nivel de calidad percibido objetivo seleccionado para visualizar los datos multimedia. La determinación de la calidad de datos multimedia se puede determinar cuando las personas observan y clasifican los datos multimedia. En algunas modalidades alternas, se pueden realizar cálculos de la calidad de datos multimedia a través de sistemas de prueba automáticos utilizando, por ejemplo, algoritmos de relación señal a ruido. En un aspecto, un conjunto de niveles de calidad estándar (por ejemplo, cinco) y una tasa de transferencia de bits correspondiente necesaria para lograr cada nivel de calidad particular se predeterminan para datos multimedia de cada clasificación de contenido. Para determinar , un conjunto de niveles de calidad, se pueden evaluar datos multimedia de una clasificación de contenido particular mediante la generación de un Puntaje de Opinión Medio (MOS) que provee una indicación numérica de una calidad visualmente percibida de los datos multimedia cuando son codificados utilizando una cierta tasa de transferencia de bits. El MOS se puede expresar como un número sencillo en el rango 1 a 5, donde 1 es la calidad más baja percibida, y 5 es la calidad más alta percibida. En otras modalidades, el MOS puede tener más de cinco o menos de cinco niveles de calidad, y se pueden utilizar diferentes descripciones de cada nivel de calidad. La determinación de la calidad de datos multimedia se puede lograr cuando las personas observan y clasifican los datos multimedia. En algunas modalidades alternas, los cálculos de la calidad de datos multimedia se pueden realizar a través de sistemas de prueba automáticos utilizando, por ejemplo, algoritmos de relación señal a ruido. En un aspecto, un conjunto de niveles de calidad estándar (por ejemplo, cinco) y una tasa de transferencia de bits correspondiente necesaria para lograr cada nivel de calidad particular son predeterminados para datos multimedia de cada clasificación de contenido. Al conocer la relación entre el nivel de calidad visualmente percibido y una tasa de transferencia de bits para datos multimedia de un cierto contenido, la clasificación se puede determinar seleccionando un nivel de calidad objetivo (por ejemplo, deseado) . El nivel de calidad objetivo utilizado para determinar la tasa de transferencia de bits puede ser preseleccionado, seleccionado por un usuario, seleccionado a través de un proceso automático o un proceso semi-automático que requiera una entrada de un usuario o de otro proceso, o puede ser seleccionado dinámicamente por el dispositivo de codificación o sistema con base en un criterio predeterminado. Un nivel de calidad objetivo se puede seleccionar con base en, por ejemplo, el tipo de aplicación de codificación, o el tipo de dispositivo de cliente que estarla recibiendo los datos multimedia.
Determinación de clasificaciones de contenido Las curvas de clasificación de contenido y las curvas de distorsión de tasa de transferencia a partir de las cuales se derivan, son generadas antes de clasificar los datos de video. Para las clasificaciones de datos multimedia identificadas, la tasa de transferencia de bits aceptable es determinada mediante el hallazgo del punto de intersección del nivel de calidad objetivo con la curva de calidad de distorsión de tasa de transferencia particular para la clasificación particular de datos de video. La tasa de transferencia de bits es el punto que corresponde al punto de intersección, y la tasa de transferencia de bits puede reducir conforme se selecciona un nivel de calidad objetivo inferior. Por ejemplo, si el nivel de calidad objetivo se seleccionó para que fuera "Aceptable" en lugar de "Bueno", los datos de video de codificación clasificados como, por ejemplo, clase 6 con una tasa de transferencia de bits de nivel 5, pueden ahora requerir una tasa de transferencia de bits de aproximadamente nivel 4. Para determinar las ocho clasificaciones de contenido de datos multimedia a las que se hace referencia en las figuras 6 y 7, secuencias de datos multimedia que contienen varios tipos de contenido se pueden utilizar para obtener tasas de transferencia de bits promedio y una relación señal-a-ruido pico de luminancia promedio (PSNR) . Las tasas de transferencia de bits promedio para las secuencias son trazadas contra la PSNR promedio que forma las curvas de tasa de transferencia-distorsión (R-D) . Por ejemplo, las curvas R-D para numerosas secuencias de datos multimedia se pueden mostrar en formato gráfico donde el eje-x es la tasa de transferencia de bits promedio (kbps), y el eje-y es la PSNR de luminancia promedio (db) . Las curvas R-D para las secuencias caen en varias agrupaciones diferentes, y las secuencias de datos multimedia son entonces clasificadas en diferentes grupos (también curvas) con base en las agrupaciones de las curvas R-D. En un ejemplo, inicialmente se forman cinco grupos, donde cada grupo es obtenido tomando la media de todas las secuencias que caen en esa agrupación. Las agrupaciones pueden incluir una o más secuencias. La desviación estándar para cada grupo también se puede calcular a partir de las secuencias particulares que forman el grupo. En otros ejemplos, las secuencias de datos de video se pueden agrupar para formar menos de cinco grupos o más de cinco grupos dependiendo de las secuencias utilizadas. En este ejemplo, el número de grupos (cinco) se incrementa posteriormente con base en un análisis adicional de los datos de video. De manera similar, si inicialmente se forma una cantidad mayor o menor de grupos en algunos otros aspectos, dichos aspectos también pueden incluir aumentar o reducir adicionalmente el número de grupos con base en las secuencias adicionales de evaluación. Los cinco grupos iniciales corresponden a cinco clases que representan varios niveles de movimiento y textura en un s.úper-cuadro determinado. Por ejemplo, la clase 1 representa un súper-cuadro que tiene bajo movimiento y baja textura (LM, LT) , la clase 2 representa un súper-cuadro que tiene movimiento mediano y baja textura (MM, LT) , la clase 3 representa un súper-cuadro que tiene movimiento mediano y textura mediana (MM, LT) , la clase 4 representa un súper-cuadro que tiene alto movimiento y textura mediana (HM, MT) , y la clase 5 representa un súper-cuadro que tiene alto movimiento y alta textura (HM, HT) . A continuación, cada súper-cuadro de todas las secuencias fuente disponibles es clasificado para probar si cada súper-cuadro cae en su clase respectiva. La clasificación inicial se puede refinar probando varias secuencias de datos multimedia y utilizando un proceso iterativo para acomodar las otras secuencias que no se ajustan en los cinco grupos previamente definidos, y se puede obtener un nuevo conjunto de curvas R-D modificadas. En este ejemplo, el número de agrupaciones se incrementó de cinco a ocho y se formaron clases adicionales, donde el número de clase más grande representa el movimiento creciente y un nivel superior de textura en los datos multimedia . En este ejemplo, estas curvas R-D se configuraron entonces para facilitar su uso en la clasificación de datos multimedia. Debido a que la relación existente entre la tasa de transferencia de bits y la PSNR de luminancia de una señal es una función logarítmica, las curvas R-D se pueden configurar utilizando una función logarítmica de la siguiente forma, ypsnr = a * In(tasa de transferencia) + b, a>0. En este ejemplo, los valores de parámetros a y b se reproducen a continuación: Clase a b 1 5.0874 -13.038 2 5.1765 -20.790 3 5.9369 -32.149 4 5.2884 -27.498 5 5.3435 -30.421 6 5.1642 -29.173 7 5.0773 -32.890 8 5.0813 -37.631 Un sistema de procesamiento multimedia diseñado para operar en tal forma que todos los servicios en tiempo real tengan una calidad percibida similar sin importar su asignación de tasa de transferencia de bits provee datos multimedia consistentes para despliegue. Por lo tanto, una métrica de calidad (por ejemplo, PSNR) para un servicio de tiempo real se espera que aumente de manera monotónica con la tasa de transferencia de bits asignada. Debido a que un valor igual de PSNR no necesariamente produce una calidad consistente percibida de datos multimedia, las clases existentes se modificaron con base en otra métrica de calidad, diferente a la PSNR. Para lograr la misma calidad percibida de los datos multimedia, las curvas de clasificación de contenido se modificaron agregando compensaciones correspondientes de forma que todas las clases tuvieran una métrica de calidad similar. Las ecuaciones con compensación corregida también son de forma logarítmica, ypsnr = a * In(tasa de transferencia) + b + compensación. En el ejemplo descrito, los valores de compensación para cada una de las ocho clases de contenido son -9.833, -5.831, -4.335, -2.064, -0.127, 0.361, 4.476 y 6.847. Un uso de clasificación de contenido es para detección de cambio de escena de datos de video. Si la métrica de diferencia de cuadro o el valor de relación de contraste o la métrica de clasificación de contenido son relativamente altas con respecto al cuadro previo y futuro en una secuencia de cuadros, se determina que el cuadro particular es un cambio de escena o una nueva toma. La figura 8 es un diagrama de flujo que ilustra un ejemplo de un proceso 200 para determinar una tasa de transferencia de bits con base en la clasificación de datos multimedia. También se observa que los ejemplos se pueden describir como un proceso el cual se puede mostrar como un diagrama, un diagrama de flujo, un diagrama de estructura o un diagrama de bloques. Aunque un diagrama puede describir las operaciones como un proceso en secuencia, muchas de las operaciones se pueden ejecutar en paralelo o simultáneamente y el proceso se puede repetir. Además, el orden de las operaciones se puede reacomodar, las operaciones no mostradas se pueden ejecutar o las operaciones mostradas se pueden omitir dependiendo de las circunstancias de una aplicación del proceso. Un proceso aqui descrito puede corresponder a un método, una función, un procedimiento, un programa de software o parte de un programa de software. Cuando un proceso corresponde a una función, su terminación corresponde a un retorno de la función a la función de llamada o la función principal. La descripción de un proceso como un programa de software, módulo, componente, sub-rutina, o un sub-programa es una descripción amplia y no pretende requerir que todas las modalidades sean ejecutadas de manera idéntica, a menos que expresamente asi se estipule. Más bien, aquellos expertos en la técnica reconocerán que dichas operaciones por lo regular se pueden ejecutar en hardware, software, software personalizado, microprogramación cableada, o microcódigo. La funcionalidad o una operación que se describe como un componente sencillo, programa o módulo se puede también ejecutar en dos o más componentes, módulos, programas, por ejemplo, sub-módulos, sub-programas o sub-rutinas. El proceso 200 puede ser realizado, por ejemplo, por el dispositivo codificador 105, y los componentes de los mismos, que se muestran en la figura 1. Los datos de video codificados o no codificados son recibidos por el dispositivo codificador 105 desde la fuente externa 135. En el proceso 200, el paso 205 determina la complejidad de los datos de video., En algunas modalidades, el componente codificador 185 calcula información utilizada para determinar la complejidad espacial y la complejidad temporal de los datos de video, por ejemplo, vectores de movimiento, por lo menos un valor Dcsat, y la suma de las diferencias absolutas de macro-bloques. En algunas modalidades, el componente de clasificación de contenido 190 calcula por lo menos parte de la información necesaria para determinar la complejidad temporal y espacial de datos multimedia. Los medios de clasificación, tales como el componente de clasificación de contenido 190, pueden clasificar datos multimedia con base en la complejidad determinada, paso 210. Como resultado del paso 210, los datos multimedia se clasifican en una de varias clasificaciones de contenido (por ejemplo, una de ocho clasificaciones de contenido) . En el paso 215, el proceso 200 determina un valor de calidad para visualizar datos multimedia en una pluralidad de clasificaciones de contenido, lo cual, por lo regular, se realiza antes del inicio del proceso 200. La determinación de un nivel de calidad de datos puede ser realizada por personas que observan y clasifican los datos multimedia o, en algunas modalidades alternas, cálculos de la calidad de datos multimedia se pueden realizar a través de sistemas de evaluación de datos automáticos utilizando, por ejemplo, algoritmos de relación señal a ruido. El nivel de calidad puede ser preseleccionado, seleccionado por un usuario, seleccionado a través de un proceso automático o un proceso semi-automático que requiera una entrada de un usuario o de otro proceso. Alternativamente, el nivel de calidad se puede seleccionar dinámicamente a través del dispositivo o sistema de codificación durante la operación del sistema, con base, por ejemplo, en criterios predeterminados relacionados con un nivel de calidad deseado o requerido para visualizar los datos multimedia. El proceso 200 determina una tasa de transferencia de bits para codificar los datos de video con base en su clasificación y el nivel de calidad objetivo deseado. La tasa de transferencia de bits para codificar los datos de video se puede determinar agregando cálculos de tamaño de cuadro individuales a ese súper-cuadro. Los cálculos de tamaño de cuadro individuales se pueden calcular de dos formas. En un enfoque, el cálculo de los tamaños de cada cuadro en el súper-cuadro se realiza con base en las relaciones de ancho de banda y después el tamaño del súper-cuadro se puede calcular como una combinación lineal de los tamaños de cuadro.
Cálculo de tamaño de súper-cuadro con base en tamaños de cuadro Los tamaños de cuadro se calculan dependiendo de los cuadros previamente codificados y las relaciones de ancho de banda del cuadro. Se utiliza un filtro de Respuesta de Impulso Infinito (IIR) para calcular los tamaños de cuadro y se observa una fuerte correlación entre el tamaño real y los tamaños calculados de las simulaciones. Las relaciones de ancho de banda (BWR) se calculan en el pre-procesador con base en los vectores de movimiento y la SAD en el decodificador MPEG-2. Se asume una relación lineal directa entre el tamaño de cuadro y la BWR de la siguiente forma: Tamaño de Cuadro (n) /BWR (n) =Tamaño de Cuadro (n+1 ) /BWR (n+1) (Ecuación 20) A continuación se describe un procedimiento para calcular los tamaños de cuadro. (1) Una cantidad denominada Gamma se calcula como la relación entre el Tamaño de Cuadro y la BWR para cada cuadro codificado.
Gamma (i) = Tamaño de Cuadro (i) /Temporal_BWR (i) (Ecuación 21) (2) Para cada cuadro que se va a codificar, se calcula un peso utilizando el siguiente filtro IIR.
Gammap(i) = (1-alfa) *Gamma (i-1) +alfa*Gammap (i-1 ) (Ecuación 22) Por lo tanto, el tamaño de cuadro se calcula de la siguiente forma: Cálculo de cuadro (i) = Gammap (i) *Temporal_BWR (i) (Ecuación 23) Este procedimiento se puede utilizar para cuadros P y B con cuadros P sucesivos calculados a partir de cuadros P codificados previos y cuadros B calculados a partir de cuadros B codificados previos. En un enfoque, Temporal_BWR puede ser la suma de Beta_inter (anteriormente descrito) para todos los macro-bloques en el cuadro. En el caso de cuadros I, se observa que un filtro FIR provee un resultado más preciso que con un filtro IIR. Por lo tanto, para cuadros I, el cálculo se obtiene de la siguiente forma : Cálculo de - CuadrosI (i) =Espacial_BWR (i) * (Tamaño de Cuadro_I (i-1) /Espacial_BWR (i-1) ) (Ecuación 24) El tamaño del súper-cuadro es la suma de todos los cálculos de cuadro en ese súper-cuadro.
Cálculo del tamaño de súper-cuadro como un todo En otro enfoque, el tamaño de súper-cuadro se puede calcular como un todo. El tamaño de súper-cuadro se puede calcular dependiendo de los súper-cuadros previamente codificados y las relaciones de ancho de banda del súper-cuadro como un todo. Un filtro de Respuesta de Impulso Infinito (IIR) , como se describió para el primer enfoque anteriormente, se puede utilizar para calcular los tamaños de súper-cuadro. Una vez más, se puede asumir una relación lineal entre el tamaño de súper-cuadro y la complejidad de súper-cuadro representada por medio de la relación de ancho de banda para el súper-cuadro como un todo: SF_Tamaño(n)SF_BWR(n)=SF_Tamaño (n+1) /SF_BWR(n+l) (Ecuación 25) El procedimiento para calcular tamaños de súper-cuadro se pueden explicar de la siguiente forma: (1) Una cantidad denominada Teta se calcula como la relación entre el tamaño de súper-cuadro y la BWR para el súper-cuadro completo, como se muestra en la siguiente ecuación: Teta(i)=SF_Tamaño(i) /SF_BWR(i) (Ecuación 26) (2) Para cada súper-cuadro que se va a codificar, se calcula un peso utilizando el siguiente filtro IIR.
TetaP(i)=(l-alfa) *Teta (i-1) +alfa*TetaP (i-1) (Ecuación 27) El tamaño de súper-cuadro se puede calcular de la siguiente forma: SúperCuadro_Cálculo ( i) =TetaP (i ) *SF_BWR ( i ) (Ecuación 28) La relación de ancho de banda para un súper-cuadro determinado se calcula utilizando una combinación lineal de las relaciones de ancho de banda para los cuadros individuales en ese súper-cuadro. Los tipos de cuadro en un súper-cuadro se pueden basar en una estructura GOP fija tal como IBP o IBBP, etc. Los tipos de cuadro en un súper-cuadro se determinan con base en la métrica de diferencia de cuadro antes descrita. Un umbral intra y un umbral inter se determinan con base en la clasificación del tipo de contenido en este súper-cuadro determinado. Con base en estos umbrales, un cuadro es declarado como un I-cuadro si su diferencia de cuadro excede el intra_umbral o un P-cuadro si su diferencia de cuadro se ubica entre los umbrales intra e inter y un B-cuadro si la diferencia de cuadro se ubica por debajo del inter_umbral .
La relación de ancho de banda espacial, descrita como Beta_Intra derivada utilizando Dcsat y el modelo de Girod antes descrito, se utiliza para calcular el tamaño de cuadros Intra. Otro enfoque es donde la relación de ancho de banda espacial se basa en la relación de contraste antes descrita o cualquier otra métrica que represente la cantidad. La relación de ancho de banda temporal, descrita como Beta_Inter derivada utilizando Dcsat y el modelo de Girod y MV y SAD antes descritos, se utiliza para calcular el tamaño de inter. Otro enfoque es donde la relación de ancho de banda temporal se basa en la métrica SAD_MV antes descrita o cualquier otra métrica que represente la cantidad o nivel de movimiento en el cuadro. Refiriéndose nuevamente a la figura 8, en el paso 221, el proceso 200 utiliza la tasa de transferencia de bits determinada en el paso 215 para procesamiento adicional de los datos multimedia, por ejemplo, para codificar los datos multimedia para comunicación a lo largo de una red inalámbrica. La figura 9 es un diagrama de flujo que ilustra un proceso 201 para operaciones adicionales de procesamiento de datos multimedia entre los puntos "A" y "B" que se muestran en la figura 8. El proceso 201 determina la complejidad espacial de los datos multimedia en el paso 206. La determinación de la complejidad espacial requiere que el proceso 201 calcule por lo menos un valor Dcsat para bloques de los datos multimedia, el cual se realiza en el paso 207. El paso 207 se puede realizar a través del componente codificador 185 o el componente de clasificación de contenido 190, ambos se muestran en la figura 1. El proceso para calcular un valor Dcsat se describió anteriormente. Procediendo con el paso 240, el proceso 201 ahora determina la complejidad temporal de los datos multimedia. El paso 209 determina por lo menos un vector de movimiento por lo menos para un bloque de datos, lo cual, por lo regular, se realiza a través del componente codificador 185. En el paso 211, el proceso 201 también determina la suma de diferencias absolutas (SAD) asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia. Los cálculos en el paso 211 por lo regular se realizan a través del componente codificador 185. Procediendo con el paso 210, el proceso 201 clasifica los datos multimedia con base en la complejidad determinada. Para clasificar los datos multimedia, la complejidad espacial se asocia con un valor de textura, en el paso 255. También, la complejidad temporal se asocia con un valor de movimiento, como se muestra en el paso 260. Por último, en el paso 265, el proceso 201 asigna una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento, determinado en el paso 255 y 260, respectivamente. Los pasos del proceso 201 finalizan en "B" que es donde el proceso 200 continuarla para determinar una tasa de transferencia de bits, como se muestra en el paso 215 de la figura 9. La clasificación de contenido y el proceso para calcular la complejidad de contenido multimedia y la relación de compresión o tasa de transferencia de codificación correspondiente para una calidad perceptiva determinada se puede extender para mejorar las ganancias en la multiplexión estadística de corrientes de tasa de transferencia variables. Dicho multiplexor que explota los métodos y aparatos antes descritos, también permite que la multiplexión de calidad uniforme sea emitida para variar dinámicamente contenido en aplicaciones multimedia. Dicho multiplexor se describe a continuación.
Multiplexor En algunas modalidades, se puede utilizar un multiplexor para la administración de bits antes analizada.
Por ejemplo, se puede ejecutar un multiplexor para proveer el control de asignación de tasa de transferencia de bits.
La complejidad calculada se puede proveer al multiplexor, el cual entonces asigna el ancho de banda disponible para una recopilación de canales de video multiplexados de acuerdo con la complejidad de codificación anticipada para esos canales de video, lo cual entonces permite que la calidad de un canal particular permanezca relativamente constante incluso si el ancho de banda para la recopilación de corrientes de video multiplexadas es relativamente constante. Esto permite que un canal, dentro de una recopilación de canales, tenga una tasa de transferencia de bits variable y una calidad visual relativamente constante, en lugar de una tasa de transferencia de bits relativamente constante y una calidad visual variable. La figura 10 es un diagrama de sistema que ilustra la codificación de múltiples corrientes multimedia o canales 1002.- Las corrientes multimedia 1002 son codificadas por codificadores respectivos 1004, los cuales están en comunicación con un multiplexor (MUX) 1006, el cual a su vez está en comunicación con un medio de transmisión 1008. Por ejemplo, las corrientes multimedia 1002 pueden corresponder a varios canales de contenido, tales como canales de noticias, canales deportivos, canales de películas, y similares. Los codificadores 1004 codifican las corrientes multimedia 1002 al formato de codificación especificado para el sistema. Aunque se describen en el contexto de codificación de corrientes de video, los principios y ventajas de las técnicas descritas generalmente se pueden aplicar a corrientes multimedia incluyendo, por ejemplo, corrientes de audio. Las corrientes multimedia codificadas son provistas a un multiplexor 1006, el cual combina las diversas corrientes multimedia codificadas y envía la corriente combinada al medio de transmisión 1008 para transmisión. El medio de transmisión 1008 puede corresponder a una variedad de medios, tal como, pero no limitado a, comunicación satelital digital, tal como DirecTV®, cable digital, comunicaciones por Internet cableadas e inalámbricas, redes ópticas, redes de teléfono celular, y similares. El medio de transmisión 1008 puede incluir, por ejemplo, modulación a radiofrecuencia (RF) . Por lo regular, debido a las restricciones espectrales y similares, el medio de transmisión tiene un ancho de banda limitado y los datos del multiplexor 1006 al medio de transmisión se mantienen a una tasa de transferencia de bits relativamente constante (CBR) . En sistemas convencionales, el uso de la tasa de transferencia de bits constante (CBR) en la salida del multiplexor 1006 requiere que las corrientes de video o multimedia codificadas que son ingresadas al multiplexor 1006 sean también CBR. Como se describió en los antecedentes, el uso de CBR, cuando se codifica contenido de video, puede resultar en una calidad visual variable, lo cual por lo general es indeseable. En el sistema ilustrado, dos o más de los codificadores 1004 comunican una complejidad de codificación anticipada de datos de entrada. Uno o más del codificador 1004 puede recibir control de tasa de transferencia de bits adaptado del multiplexor 1006 en respuesta. Esto permite a un codificador 1004, que espera codificar video relativamente complejo, recibir una tasa de transferencia de bits superior o ancho de banda superior (más bits por cuadro) para esos cuadros de video en una forma de tasa de transferencia de bits cuasi-variable. Esto permite a la corriente multimedia 1002 ser codificada con más calidad visual consistente. El ancho de banda extra que es utilizado por un codificador particular 1004 que codifica video relativamente complejo, proviene de los bits que, de otra forma, se habrían utilizado para codificar otras corrientes de video 1004, en caso que los codificadores se ejecutaran para operar a tasas de transferencia de bits constantes. Esto mantiene la salida del multiplexor 1006 a la tasa de transferencia de bits constante (CBR) . Aunque una corriente multimedia individual 1002 puede estar relativamente en "ráfaga", es decir, puede variar en ancho de banda utilizado, la suma acumulativa de múltiples corrientes de video puede estar en una situación de menos ráfaga. La tasa de transferencia de bits de los canales que están codificando video menos complejo de lo que puede ser reasignado, por ejemplo, por el multiplexor 1006, a canales que están codificando video relativamente complejo, y esto puede mejorar la calidad visual de las corrientes de video combinadas como un todo. Los codificadores 1004 proveen al multiplexor 1006 una indicación de la complejidad de un conjunto de cuadros de video que van a ser codificados y multiplexados juntos. La salida del multiplexor 1006 deberla proveer una salida que no sea superior que la tasa de transferencia de bits especificada para el medio de transmisión 1008. Las indicaciones de la complejidad se pueden basar en la clasificación de contenido, tal como se analizó anteriormente, para proveer un nivel de calidad seleccionado. El -multiplexor 1006 analiza las indicaciones de complejidad, y provee a los diversos codificadores 1004 un número asignado de bits o ancho de banda, y los codificadores 1004 utilizan esta información para codificar los cuadros de video en el conjunto. Esto permite que un conjunto de cuadros de video sea individualmente una tasa de transferencia de bits variable, e incluso lograr una tasa de transferencia de bits constante como un grupo. La clasificación de contenido también se puede utilizar para permitir la compresión de multimedia basada en calidad en general para cualquier compresor genérico. La clasificación de contenido y los métodos y aparatos aqui descritos se pueden utilizar en procesamiento multimedia basado en calidad y/o basado en contenido de cualesquiera datos multimedia. Un ejemplo es su uso en la compresión de multimedia en general para cualquier compresor genérico. Otro ejemplo es la descompresión o decodificación en cualquier descompresor o decodificador o post-procesador tal como operaciones de interpolación, re-muestreo, mejora, restauración y presentación. Aspectos de las diversas modalidades se pueden ejecutar en cualquier dispositivo que esté configurado para codificar datos multimedia para posterior despliegue, incluyendo datos multimedia en donde los cuadros mostrados despliegan una imagen en movimiento (por ejemplo, una secuencia de cuadros asociados que retratan una imagen en movimiento o cambiante) o una imagen estacionaria (por ejemplo, imagen sin cambios o que cambia lentamente) , y ya sea textual o pictórica. De manera muy particular, se tiene contemplado que algunas modalidades se pueden ejecutar en, o asociar con una variedad de dispositivos electrónicos que se pueden utilizar para comunicación tal como, pero no limitados a, teléfonos móviles, dispositivos inalámbricos, asistentes de datos personales (PDA) , computadoras manuales o portátiles, y otros dispositivos de comunicación inalámbrica o cableada configurados para recibir datos multimedia para despliegue. La comunicación de datos multimedia a dispositivos del cliente, tal como teléfonos inalámbricos, PDA, computadoras portátiles, etc., involucra transmitir y procesar grandes cantidades de datos. La mayoría de las aplicaciones multimedia podrían tener beneficios incrementados en calidad si la secuencia de cuadros multimedia provista al codificador se clasifica con base en su contenido. Existe un número de aplicaciones en un sistema de comunicación multimedia donde la clasificación de contenido, si está disponible, puede ser útil. Por ejemplo, la clasi icación de contenido puede ser útil para determinar una tasa de transferencia de bits necesaria para codificar datos multimedia para obtener una calidad de visualización predeterminada, y también se puede utilizar para determinar el mejor tipo de cuadro para un cuadro determinado. Aquellos expertos en la técnica entenderán que la información y señales se pueden representar utilizando cualquiera de una variedad de diferentes tecnologías y técnicas. Por ejemplo, datos, instrucciones, comandos, información, señales, bits, símbolos y chips a los que se pudo hacer referencia en la descripción anterior se pueden representar a través de voltajes, corrientes, ondas electromagnéticas, campos o partículas magnéticas, campos o partículas ópticas, o cualquier combinación de los mismos. Aquellos expertos en la técnica además apreciarán que los diversos bloques lógicos ilustrativos, módulos, circuitos, y pasos de algoritmo descritos en relación con los ejemplos aqui analizados se pueden ejecutar como hardware electrónico, microprogramación cableada, software de cómputo, software personalizado, microcódigo o combinaciones de los mismos. Para ilustrar con claridad esta capacidad de intercambio de hardware y software, varios componentes ilustrativos, bloques, módulos, circuitos, y pasos se han descrito anteriormente de manera general en términos de su funcionalidad. Si dicha funcionalidad es ejecutada como hardware o software, depende de la aplicación particular y de las restricciones de diseño impuestas en el sistema en general. Los expertos en la técnica pueden ejecutar la funcionalidad descrita en varias formas para cada aplicación particular, pero esas decisiones de ejecución no se deberían interpretar como un motivo para apartarse del alcance de la presente invención. Los diversos bloques lógicos ilustrativos, módulos, y circuitos descritos en relación con los ejemplos aqui descritos se pueden ejecutar o realizar con un procesador de propósito general, un procesador de señal digital (DSP), un circuito integrado de aplicación especifica (ASIC) , un arreglo de compuerta programable en campo (FPGA) u otro dispositivo lógico programable, compuerta discreta o lógica de transistor, componentes de hardware discretos, o cualquier combinación de los mismos diseñada para realizar las funciones aqui descritas. Un procesador de propósito general puede ser un microprocesador, pero en la alternativa, el procesador puede ser cualquier procesador convencional, controlador, microcontrolador, o máquina de estado. Un procesador también se puede ejecutar como una combinación de dispositivos de cómputo, por ejemplo, una combinación de un DSP y un microprocesador, una pluralidad de microprocesadores, uno o más microprocesadores en conjunto con un DSP núcleo, o cualquier otra configuración. Los pasos de un método o algoritmo descritos en relación con los ejemplos aqui mostrados se pueden incorporar directamente en hardware, en un módulo de software ejecutado por un procesador o en una combinación de los dos. Un módulo de software puede residir en memoria RAM, memoria rápida, memoria ROM, memoria EPROM, memoria EEPROM, registros, disco duro, un disco removible, un CD-ROM, o cualquier otra forma de medio de almacenamiento conocida en la técnica. Un medio de almacenamiento ejemplar está acoplado al procesador de manera que el procesador puede leer información de, y escribir información en el medio de almacenamiento. En la alternativa, el medio de almacenamiento puede ser parte integral del procesador. El procesador y el medio de almacenamiento pueden residir en un Circuito Integrado de Aplicación Especifica (ASIC) . El ASIC puede residir en un módem inalámbrico. En la alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en el módem inalámbrico. La descripción previa de los ejemplos descritos se provee para permitir a cualquier experto en la técnica hacer o utilizar los métodos y aparatos descritos. Varias modificaciones a estos ejemplos serán fácilmente aparentes para aquellos expertos en la técnica, y los principios genéricos aqui definidos se pueden aplicar a otros ejemplos y elementos adicionales sin apartarse del espíritu o alcance del método y aparato descritos.

Claims (164)

NOVEDAD DE LA INVENCIÓN Habiendo descrito el presente invento, se considera como una novedad y, por lo tanto, se reclama como prioridad lo contenido en las siguientes: REIVINDICACIONES
1.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; y clasificar los datos multimedia con base en la complejidad determinada.
2. - El método de conformidad con la reivindicación 1, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
3.- El método de conformidad con la reivindicación 2, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
4.- El método de conformidad con la reivindicación 2, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
5.- El método de conformidad con la reivindicación 1, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
6.- El método de conformidad con la reivindicación 5, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
7.- El método de conformidad con la reivindicación 6, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
8.- El método de conformidad con la reivindicación 5, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD MV determinado por lo menos para un bloque de los datos multimedia.
9.- El método de conformidad con la reivindicación 5, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
10.- El método de conformidad con la reivindicación 1, caracterizado porque la clasificación de los datos multimedia comprende utilizar una pluralidad de clasificaciones de contenido.
11.- El método de conformidad con la reivindicación 1, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial y la complejidad temporal de los datos multimedia y en donde la clasificación de los datos multimedia comprende: asociar la complejidad espacial con un valor de textura; asociar la complejidad temporal con un valor de movimiento; y asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
12.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; y medios para clasificar los datos multimedia con base en la complejidad determinada.
13.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde medios de clasificación se basan en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
14.- El aparato de conformidad con la reivindicación 2, caracterizado porque medios de determinación de la complejidad espacial se basan en medios para determinar por lo menos un valor Dcsat por lo menos para un bloque de los datos multimedia.
15.- El aparato de conformidad con la reivindicación 2, caracterizado porque los medios de determinación de la complejidad espacial se basan en medios para determinar por lo menos en un valor de relación de contraste por lo menos para un bloque de los datos multimedia.
16.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde los medios de clasificación se basan en la complejidad temporal.
17.- El aparato de conformidad con la reivindicación 5, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
18.- El aparato de conformidad con la reivindicación 6, caracterizado porque los medios de determinación de la complejidad temporal además se basan en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
19.- El aparato de conformidad con la reivindicación 5, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia.
20.- El aparato de conformidad con la reivindicación 5, caracterizado porque los medios de determinación de la complejidad temporal se basan por lo menos en medios para determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
21.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de clasificación de los datos multimedia comprenden utilizar una pluralidad de medios de clasificaciones de contenido.
22.- El aparato de conformidad con la reivindicación 1, caracterizado porque los medios de determinación de la complejidad comprenden: medios para determinar la complejidad espacial y la complejidad temporal de los datos multimedia y en donde los medios de clasificación de los datos multimedia comprenden: medios para asociar la complejidad espacial con un valor de textura; medios para asociar la complejidad temporal con un valor de movimiento; y medios para asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
23.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; y seleccionar a partir por lo menos de un proceso multimedia con base en la complejidad determinada.
24.- El método de conformidad con la reivindicación 23, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
25.- El método de conformidad con la reivindicación 24, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
26.- El método de conformidad con la reivindicación 24, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
27.- El método de conformidad con la reivindicación 23, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
28.- El método de conformidad con la reivindicación 27, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
29.- El método de conformidad con la reivindicación 28, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
30.- El método de conformidad con la reivindicación 28, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia .
31.- El método de conformidad con la reivindicación 28, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro determinado por lo menos para un bloque de los datos multimedia.
32.- El método de conformidad con la reivindicación 23, caracterizado porque la selección por lo menos de un proceso multimedia basado en la complejidad determinada comprende ya sea uno o una combinación de compresión multimedia, encapsulación, transmisión, recepción o presentación.
33.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; y medios para seleccionar a partir por lo menos de un proceso multimedia con base en la complejidad determinada .
34.- El aparato de conformidad con la reivindicación 33, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde los medios de clasificación se basan en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
35.- El aparato de conformidad con la reivindicación 34, caracterizado porque los medios de determinación de la complejidad espacial se basan en los medios para determinar por lo menos un valor Dcsat por lo menos para un bloque de los datos multimedia.
36.- El aparato de conformidad con la reivindicación 34, caracterizado porque los medios de determinación de la complejidad espacial se basan en medios para determinar -por lo menos un valor de relación de contraste por lo menos para un bloque de los datos multimedia .
37.- El aparato de conformidad con la reivindicación 33, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde los medios para clasificación se basan en la complejidad temporal.
38.- El aparato de conformidad con la reivindicación 37, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
39.- El aparato de conformidad con la reivindicación 38, caracterizado porque los medios de determinación de la complejidad temporal además se basan en medios para determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
40.- El aparato de conformidad con la reivindicación 38, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia.
41.- El aparato de conformidad con la reivindicación 38, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios para determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
42.- El aparato de conformidad con la reivindicación 33, caracterizado porque los medios de selección por lo .menos de un proceso multimedia basado en medios para determinar la complejidad comprenden ya sea uno o una combinación de compresión multimedia, encapsulación, transmisión, recepción o presentación.
43.- Un método para procesar datos multimedia que comprende : determinar la complejidad de datos multimedia; seleccionar un conjunto de procesos de codificación con base en la complejidad de datos multimedia.
44.- El método de conformidad con la reivindicación 43, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
45.- El método de conformidad con la reivindicación 44, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia .
46.- El método de conformidad con la reivindicación 44, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
47.- El método de conformidad con la reivindicación 43, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
48.- El método de conformidad con la reivindicación 47, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
49.- El método de conformidad con la reivindicación 48, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
50.- El método de conformidad con la reivindicación 47, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia.
51.- El método de conformidad con la reivindicación 47, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro determinado por lo menos para un bloque de los datos multimedia.
52.- El método de conformidad con la reivindicación 43, caracterizado porque la selección por lo menos de un proceso de codificación basado en la complejidad determinada comprende ya sea uno o una combinación de cálculo de movimiento, control de velocidad, escalabilidad, resiliencia de error, determinación de cambio de escena, o determinación de estructura GOP.
53.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de cálculo de movimiento comprenden ya sea uno o una combinación de: determinar el rango de búsqueda; y determinar el número de imágenes de referencia se basa en la complejidad temporal por lo menos para un bloque de datos multimedia.
54.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de control de tasa de transferencia comprenden ya sea uno o una combinación de: determinar la asignación de bits; y determinar el parámetro de cuantificación; y determinar la distorsión con base en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
55.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de resiliencia de error comprenden ya sea uno o una combinación de: determinar el tipo de codificación para un bloque de datos multimedia; y determinar la frecuencia de actualización para un bloque de datos multimedia; y determinar criterios de distorsión se basa en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
56.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de detección de cambio de escena comprenden ya sea uno o una combinación de: determinar el inicio de una escena; y determinar el fin de una escena; y determinar un limite de disparo gradual se basa en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
57.- El método de conformidad con la reivindicación 52, caracterizado porque los procesos de determinación de estructura GOP comprenden ya sea uno o una combinación de: determinar el tipo de cuadro para que sea intra, con base en un umbral intra; y determinar el tipo de cuadro para que sea inter, con base en un umbral inter, se basa en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
58.- El método de conformidad con la reivindicación 53, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
59.- El método de conformidad con la reivindicación 53, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia .
60.- El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
61.- El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
62. - El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
63.- El método de conformidad con la reivindicación 53, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
64.- El método de conformidad con la reivindicación 54, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
65.- El método de conformidad con la reivindicación 54, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por ,1o menos para un bloque de los datos multimedia .
66.- El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
67. - El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
68.- El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
69.- El método de conformidad con la reivindicación 54, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
70.- El método de conformidad con la reivindicación 55, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
71.- El método de conformidad con la reivindicación 55, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia.
72.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
73.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
74.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
75.- El método de conformidad con la reivindicación 55, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
76.- El método de conformidad con la reivindicación 56, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
77.- El método de conformidad con la reivindicación 56, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia.
78.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
79.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
80.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV -por lo menos para un bloque de los datos multimedia .
81.- El método de conformidad con la reivindicación 56, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
82.- El método de conformidad con la reivindicación 57, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
83.- El método de conformidad con la reivindicación .57, caracterizado porque la complejidad espacial se basa por lo menos en un valor de contraste determinado por lo menos para un bloque de los datos multimedia .
84.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
85.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
86.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia .
87.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal además se basa en determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia y se basa en determinar por lo menos un valor SAD_MV por lo menos para un bloque de los datos multimedia.
88.- El método de conformidad con la reivindicación 57, caracterizado porque la determinación de la complejidad temporal se basa en determinar por lo menos un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia.
89.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; medios para seleccionar un conjunto de procesos de codificación con base en la complejidad de datos multimedia .
90.- El aparato de conformidad con la reivindicación 43, caracterizado porque los medios para determinar la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
91.- El aparato de conformidad con la reivindicación 44, caracterizado porque los medios para determinar la complejidad espacial se basan por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
92.- El aparato de conformidad con la reivindicación 44, caracterizado porque los medios para determinar la complejidad espacial se basan por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
93.- El aparato de conformidad con la reivindicación 43, caracterizado porque los medios para determinar la complejidad comprenden determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
94.- El aparato de conformidad con la reivindicación 47, caracterizado porque los medios para determinar la complejidad temporal se basan por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
95.- El aparato de conformidad con la reivindicación 48, caracterizado porque los medios para determinar la complejidad temporal además se basan en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
96.- El aparato de conformidad con la reivindicación 47, caracterizado porque los medios para determinar la complejidad temporal se basan por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia.
97.- El aparato de conformidad con la reivindicación 47, caracterizado porque los medios para determinar la complejidad temporal se basan por lo menos en un valor de diferencia de cuadro determinado por lo menos para un bloque de los datos multimedia.
98.- El aparato de conformidad con la reivindicación 43, caracterizado porque los medios de selección por lo menos de un proceso de codificación basado en la complejidad determinada comprenden ya sea uno o una combinación de cálculo de movimiento, control de velocidad, escalabilidad, resiliencia de error, determinación de cambio de escena, o determinación de estructura GOP.
99.- El aparato de conformidad con la reivindicación 52, caracterizado porque los procesos de cálculo de movimiento comprenden ya sea uno o una combinación de: medios para determinar el rango de búsqueda; y medios para determinar el número de imágenes de referencia se basan en la complejidad temporal por lo menos para un bloque de datos multimedia.
100.- El aparato de conformidad con la reivindicación 52, caracterizado porque los procesos de control de tasa de transferencia comprenden ya sea uno o una combinación de: medios para determinar la asignación de bits; y medios para determinar el parámetro de cuantificación; y medios para determinar la distorsión con base en las complejidades espacial y temporal por lo menos para un bloque de datos multimedia.
101.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; clasificar los datos multimedia con base en la complejidad determinada; y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
102.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y en donde la clasificación se basa en la complejidad espacial. 103.- El método de conformidad con la reivindicación 102, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor
Dcsat determinado por lo menos para un bloque de los datos multimedia.
104.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
105.- El método de conformidad con la reivindicación 104, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
106.- El método de conformidad con la reivindicación 105, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia .
107.- El método de conformidad con la reivindicación 101, caracterizado porque la clasificación de los datos multimedia comprende utilizar una pluralidad de clasificaciones de contenido.
108.- El método de conformidad con la reivindicación 107, que además comprende determinar un valor de calidad visual para visualizar datos multimedia en la pluralidad de clasificaciones de contenido.
109.- El método de conformidad con la reivindicación 107, que además comprende determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en su clasificación.
110.- El método de conformidad con la reivindicación 109, caracterizado porque la determinación de la tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con una clasificación de contenido con base en un valor de calidad visual para visualizar datos multimedia.
111.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial y la complejidad temporal de los datos multimedia y en donde la clasificación de los datos multimedia comprende: asociar la complejidad espacial con un valor de textura; asociar la complejidad temporal con un valor de movimiento; y asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
112.- El método de conformidad con la reivindicación 101, caracterizado porque la determinación de la tasa de transferencia de bits comprende determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
113.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; medios para clasificar los datos multimedia con base en la complejidad determinada; medios para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
114.- El aparato de conformidad con la reivindicación 113, caracterizado porque dichos medios para determinar la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia, en donde medios para clasificar los datos multimedia se basan en la complejidad espacial.
115.- El aparato de conformidad con la reivindicación 114, caracterizado porque dichos medios para determinar la complejidad espacial comprenden medios para determinar por lo menos un valor Dcsat por lo menos para un bloque de los datos multimedia.
116.- El aparato de conformidad con la reivindicación 113, caracterizado porque los medios de determinación de la tasa de transferencia de bits comprenden medios para determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
117.- El aparato de conformidad con la reivindicación 113, caracterizado porque dichos medios para determinar la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde dichos medios para clasificar los datos multimedia se basan en la complejidad temporal.
118.- El aparato de conformidad con la reivindicación 117, caracterizado porque dichos medios para determinar la complejidad temporal comprenden medios para determinar por lo menos un vector de movimiento (MV) por lo menos para un bloque de los datos multimedia.
119.- El aparato de conformidad con la reivindicación 117, caracterizado porque dichos medios para determinar la complejidad temporal además comprenden medios para determinar una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
120.- El aparato de conformidad con la reivindicación 113, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos multimedia, y en donde dichos medios de clasificación comprenden: medios para asociar la complejidad espacial con un valor de textura; medios para asociar la complejidad temporal con un valor de movimiento; y medios para asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
121.- El aparato de conformidad con la reivindicación 113, caracterizado porque dichos medios de clasificación comprenden utilizar una pluralidad de clasificaciones de contenido.
122.- El aparato de conformidad con la reivindicación 113, que además comprende medios para determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en su clasificación.
123.- El aparato de conformidad con la reivindicación 122, caracterizado porque la determinación de una tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con la clasificación, en donde la tasa de transferencia de bits se basa en el nivel de calidad visual para visualizar datos multimedia.
124.- El aparato de conformidad con la reivindicación 123, que además comprende medios para determinar un valor de calidad visual en la clasificación.
125.- -Un dispositivo para procesar datos multimedia que comprende un procesador configurado para determinar la complejidad de datos multimedia, configurado para clasificar los datos multimedia con base en la complejidad determinada; y además configurado para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
126.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el procesador además está configurado para determinar la complejidad espacial de los datos multimedia y está configurado para clasificar los datos multimedia con base en la complejidad espacial .
127.- El dispositivo de conformidad con la reivindicación 126, caracterizado porque la complejidad espacial se basa en un valor Dcsat asociado por lo menos con un bloque de los datos multimedia.
128.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque la complejidad es determinada mediante la determinación de la complejidad temporal de los datos multimedia, y en donde los datos multimedia son clasificados con base en la complejidad temporal .
129.- El dispositivo de conformidad con la reivindicación 128, caracterizado porque la complejidad temporal se basa por lo menos en un vector de movimiento (MV) asociado por lo menos con un bloque de los datos multimedia .
130.- El dispositivo de conformidad con la reivindicación 129, caracterizado porque la complejidad temporal además se basa en una suma de diferencias absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
131.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque los datos multimedia están clasificados como uno de una pluralidad de clasificaciones de contenido.
132.- El dispositivo de conformidad con la reivindicación 131, caracterizado porque el procesador además está configurado para determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en su clasificación de contenido.
133.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el procesador además está configurado para determinar la complejidad espacial de los datos multimedia, determinar la complejidad temporal de los datos multimedia, y clasificar los datos multimedia asociando la complejidad espacial con un valor de textura, y asociando la complejidad temporal con un valor de movimiento, y asignando una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
134.- El dispositivo de conformidad con la reivindicación 133, caracterizado porque el procesador además está configurado para determinar un valor de calidad visual para visualizar datos multimedia en una pluralidad de clasificaciones.
135.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el procesador está configurado para determinar una tasa de transferencia de bits asociando una tasa de transferencia de bits con una clasificación de contenido, en donde la asociación se basa en un valor de calidad visual para visualizar datos multimedia.
136.- El dispositivo de conformidad con la reivindicación 125, caracterizado porque el hecho de estar configurado para determinar una tasa de transferencia de bits comprende estar configurado para determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación multimedia.
137.- Un medio legible por computadora para incorporar un método para procesar datos multimedia, el método comprende: determinar la complejidad de datos multimedia; clasificar datos multimedia con base en la complejidad determinada; y determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
138.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar la complejidad comprende determinar la complejidad espacial de los datos multimedia, en donde la clasificación se basa en la complejidad espacial .
139.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal .
140.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para clasificar los datos multimedia comprende asociar una de una pluralidad de clasificaciones de contenido con los datos multimedia con base en la complej idad.
141.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método además comprende determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en la clasificación de datos multimedia.
142.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar la complejidad comprende determinar la complejidad espacial y la complejidad temporal de los datos multimedia, y en donde la clasificación de los datos multimedia comprende: asociar la complejidad espacial con un valor de textura; asociar la complejidad temporal con un valor de movimiento; y asignar una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
143.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar una tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con una clasificación de contenido con base en un valor de calidad visual, en donde el nivel de calidad visual comprende un nivel de calidad percibido por una persona para visualizar datos multimedia.
144.- El medio legible por computadora de conformidad con la reivindicación 137, caracterizado porque el método para determinar una tasa de transferencia de bits comprende determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
145.- Un aparato para procesar datos multimedia, que comprende: un primer determinador para determinar la complejidad de datos multimedia; un clasificador de contenido para clasificar los datos multimedia con base en la complejidad determinada; y un segundo determinador para determinar una tasa de transferencia de bits para codificar los datos multimedia con base en su clasificación.
146.- El aparato de conformidad con la reivindicación 145, caracterizado porque la complejidad es determinada mediante la determinación de la complejidad espacial de los datos multimedia y en donde los datos multimedia están clasificados con base en la complejidad espacial .
147.- El aparato de conformidad con la reivindicación 146, caracterizado porque la complejidad espacial se basa por lo menos en un valor Dcsat asociado por lo menos con un bloque de los datos multimedia.
148.- El aparato de conformidad con la reivindicación 145, caracterizado porque la complejidad es determinada mediante la determinación de la complejidad temporal de los datos multimedia, y en donde los datos multimedia son clasificados con base en la complejidad temporal .
149.- El aparato de conformidad con la reivindicación 148, caracterizado porque la complejidad temporal se basa por lo menos en un vector de movimiento (MV) asociado por lo menos con un bloque de los datos multimedia .
150.- El aparato de conformidad con la reivindicación 149, caracterizado porque la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
151.- El aparato de conformidad con la reivindicación 145, que además comprende determinar una tasa de transferencia de bits para comunicar los datos multimedia con base en la clasificación.
152.- El aparato de conformidad con la reivindicación 145, caracterizado porque la determinación de una tasa de transferencia de bits comprende asociar una tasa de transferencia de bits con la clasificación de datos multimedia con base en un valor de calidad visual para visualizar datos multimedia.
153.- El aparato de conformidad con la reivindicación 145, caracterizado porque la determinación de la tasa de transferencia de bits comprende determinar un número de bits que van a ser asignados para codificar por lo menos un bloque de los datos multimedia con base en la clasificación.
154.- El aparato de conformidad con la reivindicación 145, que además comprende un tercer determinador para determinar un valor de calidad visual para visualizar datos multimedia en una pluralidad de clasificaciones de contenido.
155.- El aparato de conformidad con la reivindicación 145, caracterizado porque los datos multimedia se clasifican utilizando una de una pluralidad de clasificaciones de contenido.
156.- El aparato de conformidad con la reivindicación 145, caracterizado porque el primer determinador determina la complejidad espacial de los datos multimedia y la complejidad temporal de los datos multimedia, el clasificador clasifica los datos multimedia mediante : asociando la complejidad espacial con un valor de textura; asociando la complejidad temporal con un valor de movimiento; y asignando una clasificación de contenido a los datos multimedia con base en el valor de textura y el valor de movimiento.
157.- Un método para procesar datos multimedia que comprende: determinar la complejidad de datos multimedia; y seleccionar un conjunto de procesos de decodificación con base en la complejidad de los datos multimedia.
158.- El método de conformidad con la reivindicación 157, caracterizado porque la determinación de la complejidad comprende determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video, y en donde la clasificación se basa en la complejidad espacial, la complejidad temporal, o ambas la complejidad espacial y la complejidad temporal.
159.- El método de conformidad con la reivindicación 158, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor Dcsat determinado por lo menos para un bloque de los datos multimedia.
160.- El método de conformidad con la reivindicación 158, caracterizado porque la determinación de la complejidad espacial se basa por lo menos en un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia.
161.- El método de conformidad con la reivindicación 157, caracterizado porque la determinación de la complejidad comprende determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal.
162.- El método de conformidad con la reivindicación 161, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia.
163.- El método de conformidad con la reivindicación 162, caracterizado porque la determinación de la complejidad temporal además se basa en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia.
164.- El método de conformidad con la reivindicación 161, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia. 165- El método de conformidad con la reivindicación 161, caracterizado porque la determinación de la complejidad temporal se basa por lo menos en un valor de diferencia de cuadro por lo menos para un bloque de los datos multimedia. 166.- El método de conformidad con la reivindicación 157, caracterizado porque la selección de un conjunto de procesos de decodificación basado en la complejidad de los datos multimedia comprende ya sea uno o una combinación de: decodificar una selección de cuadros de los datos multimedia; ocultar una porción de los datos multimedia; interpolar por lo menos una porción de los datos multimedia; post-procesar los datos multimedia; y clasificar los datos multimedia con base en la complejidad determinada. 167.- El método de conformidad con la reivindicación 166, caracterizado porque la decodificación de una selección de cuadros de los datos multimedia comprende decodificar ya sea uno o una combinación de: Intra cuadros basados en complejidad espacial; e ínter cuadros basados en complejidad temporal. 168.- El método de conformidad con la reivindicación 166, caracterizado porque la ocultación de una porción de los datos multimedia comprende decodificar ya sea uno o una combinación de: ocultar intra cuadros con base en la complejidad espacial; y ocultar inter cuadros con base en la complejidad temporal. 169.- El método de conformidad con la reivindicación 166, caracterizado porque la interpolación por lo menos de una porción de los datos multimedia comprende decodificar ya sea uno o una combinación de: interpolar espacialmente intra cuadros con base en la complejidad espacial; e interpolar temporalmente inter cuadros con base en la complejidad temporal. 170.- El método de conformidad con la reivindicación 166, caracterizado porque el post- procesamiento de los datos multimedia comprende decodificar cualquiera o una combinación de: procesos de mejoramiento de medios que comprenden uno o una combinación de mejora de contraste, mejora de color, mejora de resolución, o mejora de tasa de transferencia de cuadro con base en uno o una combinación de complejidades espaciales y temporales; y procesos de restauración de medios que comprenden uno o una combinación de reducción o remoción de ruido, remoción o reducción de artefacto con base en una o una combinación de complejidades espaciales y temporales. 171.- El método de conformidad con la reivindicación 166, caracterizado porque la clasificación de datos multimedia se basa en una de una pluralidad de clasificaciones de contenido. 172.- Un aparato para procesar datos multimedia que comprende: medios para determinar la complejidad de datos multimedia; y medios para seleccionar un conjunto de procesos de decodificación con base en la complejidad de los datos multimedia. 173.- El aparato de conformidad con la reivindicación 172, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad espacial de los datos multimedia y la complejidad temporal de los datos de video. 174.- El aparato de conformidad con la reivindicación 173, caracterizado porque medios de determinación de la complejidad espacial se basan en medios por lo menos para un valor Dcsat determinado por lo menos para un bloque de los datos multimedia. 175.- El aparato de conformidad con la reivindicación 173, caracterizado porque los medios de determinación de la complejidad espacial se basan en medios por lo menos para un valor de relación de contraste determinado por lo menos para un bloque de los datos multimedia . 176.- El aparato de conformidad con la reivindicación 172, caracterizado porque los medios de determinación de la complejidad comprenden medios para determinar la complejidad temporal de los datos multimedia, y en donde la clasificación se basa en la complejidad temporal . 177.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios por lo menos para un vector de movimiento (MV) determinado por lo menos para un bloque de los datos multimedia. 178.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal además se basan en una suma de diferencias de pixel absolutas asociadas por lo menos con un bloque de los datos multimedia y un bloque de referencia. 179.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios por lo menos para un valor SAD_MV determinado por lo menos para un bloque de los datos multimedia. 180.- El aparato de conformidad con la reivindicación 176, caracterizado porque los medios de determinación de la complejidad temporal se basan en medios por lo menos para un valor de diferencia de cuadro determinado por -lo menos para un bloque de los datos multimedia . 181.- El aparato de conformidad con la reivindicación 172, caracterizado porque los medios para seleccionar un conjunto de procesos de decodificación basado en la complejidad de los datos multimedia comprenden ya sea uno o una combinación de: medios para decodificar una selección de cuadros de los datos multimedia; medios para ocultar una porción de los datos multimedia; medios para interpolar por lo menos una porción de los datos multimedia; medios para post-procesar los datos multimedia; y medios para clasificar los datos multimedia con base en la complejidad determinada. 182.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para decodificar una selección de cuadros de los datos multimedia comprenden decodificar ya sea uno o una combinación de: Intra cuadros basados en complejidad espacial; e ínter cuadros basados en complejidad temporal. 183.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para ocultar una porción de los datos multimedia comprenden decodificar ya sea uno o una combinación de: medios para ocultar intra cuadros con base en la complejidad espacial; y medios -para ocultar inter cuadros con base en la complejidad temporal. 184.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para interpolar por lo menos una porción de los datos multimedia comprenden decodificar ya sea uno o una combinación de: medios para interpolar espacialmente intra cuadros con base en la complejidad espacial; y medios para interpolar temporalmente inter cuadros con base en la complejidad temporal. 185.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para post-procesar los datos multimedia comprenden decodificar cualquiera o una combinación de: procesos de mejoramiento de medios que comprenden uno o una combinación de mejora de contraste, mejora de color, mejora de resolución, o mejora de tasa de transferencia de cuadro con base en uno o una combinación de complejidades espaciales y temporales; y procesos de restauración de medios que comprenden uno o una combinación de reducción o remoción de ruido, remoción o reducción de artefacto con base en una o una combinación de complejidades espaciales y temporales. 186.- El aparato de conformidad con la reivindicación 181, caracterizado porque los medios para clasificar los datos multimedia se basan en una de una pluralidad de clasificaciones de contenido.
MX2007011084A 2005-03-10 2006-03-10 Clasificacion de contenido para procesamiento multimedia. MX2007011084A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US66067705P 2005-03-10 2005-03-10
PCT/US2006/008484 WO2006099082A2 (en) 2005-03-10 2006-03-10 Content adaptive multimedia processing

Publications (1)

Publication Number Publication Date
MX2007011084A true MX2007011084A (es) 2007-11-15

Family

ID=36589187

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2007011084A MX2007011084A (es) 2005-03-10 2006-03-10 Clasificacion de contenido para procesamiento multimedia.

Country Status (16)

Country Link
US (1) US9197912B2 (es)
EP (1) EP1867173A2 (es)
JP (3) JP5318561B2 (es)
KR (1) KR20070117660A (es)
CN (2) CN101171843B (es)
AR (1) AR052601A1 (es)
AU (1) AU2006223416A1 (es)
BR (1) BRPI0608282A2 (es)
CA (1) CA2600750A1 (es)
CL (2) CL2006000541A1 (es)
IL (1) IL185828A0 (es)
MX (1) MX2007011084A (es)
NO (1) NO20075130L (es)
RU (1) RU2402885C2 (es)
TW (1) TW200704200A (es)
WO (1) WO2006099082A2 (es)

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7383421B2 (en) * 2002-12-05 2008-06-03 Brightscale, Inc. Cellular engine for a data processing system
US7936818B2 (en) * 2002-07-01 2011-05-03 Arris Group, Inc. Efficient compression and transport of video over a network
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
JP4725127B2 (ja) * 2005-02-16 2011-07-13 ソニー株式会社 復号装置および方法、記録媒体、並びにプログラム
ES2336824T3 (es) * 2005-03-10 2010-04-16 Qualcomm Incorporated Arquitectura de decodificador para gestion de errores optimizada en flujo continuo multimedia.
US8693540B2 (en) * 2005-03-10 2014-04-08 Qualcomm Incorporated Method and apparatus of temporal error concealment for P-frame
MX2007011084A (es) 2005-03-10 2007-11-15 Qualcomm Inc Clasificacion de contenido para procesamiento multimedia.
US7925955B2 (en) * 2005-03-10 2011-04-12 Qualcomm Incorporated Transmit driver in communication system
US7714939B2 (en) * 2005-04-05 2010-05-11 Samsung Electronics Co., Ltd. Reliability estimation of temporal noise estimation
US7653085B2 (en) 2005-04-08 2010-01-26 Qualcomm Incorporated Methods and apparatus for enhanced delivery of content over data network
US7974193B2 (en) * 2005-04-08 2011-07-05 Qualcomm Incorporated Methods and systems for resizing multimedia content based on quality and rate information
US7483388B2 (en) * 2005-06-23 2009-01-27 Cisco Technology, Inc. Method and system for sending a multimedia stream in an IP multicast network
US8026945B2 (en) 2005-07-22 2011-09-27 Cernium Corporation Directed attention digital video recordation
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8126283B1 (en) * 2005-10-13 2012-02-28 Maxim Integrated Products, Inc. Video encoding statistics extraction using non-exclusive content categories
US8149909B1 (en) * 2005-10-13 2012-04-03 Maxim Integrated Products, Inc. Video encoding control using non-exclusive content categories
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US7451293B2 (en) * 2005-10-21 2008-11-11 Brightscale Inc. Array of Boolean logic controlled processing elements with concurrent I/O processing and instruction sequencing
US8112513B2 (en) * 2005-11-30 2012-02-07 Microsoft Corporation Multi-user display proxy server
US20070188505A1 (en) * 2006-01-10 2007-08-16 Lazar Bivolarski Method and apparatus for scheduling the processing of multimedia data in parallel processing systems
US8582905B2 (en) 2006-01-31 2013-11-12 Qualcomm Incorporated Methods and systems for rate control within an encoding device
US8005140B2 (en) * 2006-03-17 2011-08-23 Research In Motion Limited Soft decision and iterative video coding for MPEG and H.264
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
KR100834625B1 (ko) * 2006-07-27 2008-06-02 삼성전자주식회사 비디오 인코딩 데이터율 제어를 위한 실시간 장면 전환검출 방법
US20080244238A1 (en) * 2006-09-01 2008-10-02 Bogdan Mitu Stream processing accelerator
US20080059467A1 (en) * 2006-09-05 2008-03-06 Lazar Bivolarski Near full motion search algorithm
WO2008032001A1 (fr) * 2006-09-15 2008-03-20 France Telecom Procede et dispositif d'adaptation d'un flux de donnees scalable, produit programme d'ordinateur et equipement reseau correspondants
EP2109992A2 (en) 2007-01-31 2009-10-21 Thomson Licensing Method and apparatus for automatically categorizing potential shot and scene detection information
JP4875007B2 (ja) * 2007-02-09 2012-02-15 パナソニック株式会社 動画像符号化装置、動画像符号化方法、及び、動画像復号化装置
GB2447058A (en) * 2007-02-28 2008-09-03 Tandberg Television Asa Compression of video signals containing fades and flashes
US8582647B2 (en) * 2007-04-23 2013-11-12 Qualcomm Incorporated Methods and systems for quality controlled encoding
US8090016B2 (en) 2007-05-17 2012-01-03 Zoran Corporation Activity normalization for video encoding
KR101382618B1 (ko) * 2007-08-21 2014-04-10 한국전자통신연구원 콘텐츠 정보 생성 방법 및 콘텐츠 정보를 이용한 콘텐츠처리 장치
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
KR100939435B1 (ko) * 2007-10-29 2010-01-28 에스케이 텔레콤주식회사 영상 분석 장치 및 방법
JP5006763B2 (ja) * 2007-11-05 2012-08-22 キヤノン株式会社 画像符号化装置及びその制御方法、コンピュータプログラム
US8938005B2 (en) 2007-11-05 2015-01-20 Canon Kabushiki Kaisha Image encoding apparatus, method of controlling the same, and computer program
EP2101503A1 (en) 2008-03-11 2009-09-16 British Telecommunications Public Limited Company Video coding
WO2010009770A1 (en) * 2008-07-25 2010-01-28 Telefonaktiebolaget Lm Ericsson (Publ) A method for the estimation of spatio-temporal homogeneity in video sequences
CN101686383B (zh) * 2008-09-23 2013-05-01 Utc消防和保安美国有限公司 通过网络传输媒体的方法及系统
US8913668B2 (en) * 2008-09-29 2014-12-16 Microsoft Corporation Perceptual mechanism for the selection of residues in video coders
US8457194B2 (en) 2008-09-29 2013-06-04 Microsoft Corporation Processing real-time video
FR2936926B1 (fr) * 2008-10-06 2010-11-26 Thales Sa Systeme et procede de determination de parametres de codage
US9215467B2 (en) 2008-11-17 2015-12-15 Checkvideo Llc Analytics-modulated coding of surveillance video
EP2200319A1 (en) 2008-12-10 2010-06-23 BRITISH TELECOMMUNICATIONS public limited company Multiplexed video streaming
US8396114B2 (en) 2009-01-29 2013-03-12 Microsoft Corporation Multiple bit rate video encoding using variable bit rate and dynamic resolution for adaptive video streaming
US8311115B2 (en) 2009-01-29 2012-11-13 Microsoft Corporation Video encoding using previously calculated motion information
EP2219342A1 (en) 2009-02-12 2010-08-18 BRITISH TELECOMMUNICATIONS public limited company Bandwidth allocation control in multiple video streaming
FI20095273A0 (fi) * 2009-03-17 2009-03-17 On2 Technologies Finland Oy Digitaalinen videokoodaus
US8270473B2 (en) * 2009-06-12 2012-09-18 Microsoft Corporation Motion based dynamic resolution multiple bit rate video encoding
KR101839931B1 (ko) 2009-11-30 2018-03-19 가부시키가이샤 한도오따이 에네루기 켄큐쇼 액정 표시 장치, 액정 표시 장치의 구동 방법, 및 이 액정 표시 장치를 구비하는 전자기기
US8705616B2 (en) 2010-06-11 2014-04-22 Microsoft Corporation Parallel multiple bitrate video encoding to reduce latency and dependences between groups of pictures
US20110321104A1 (en) * 2010-06-24 2011-12-29 Worldplay (Barbados) Inc. System and method for mass distribution of high quality video
CN101977309B (zh) * 2010-06-30 2012-07-25 无锡中星微电子有限公司 码率控制方法及装置
EP2405661B1 (en) 2010-07-06 2017-03-22 Google, Inc. Loss-robust video transmission using two decoders
EP2434826A1 (en) * 2010-08-30 2012-03-28 NTT DoCoMo, Inc. Method and apparatus for allocating network rates
JP5349429B2 (ja) * 2010-08-30 2013-11-20 Kddi株式会社 符号量低減装置および符号化装置
US9036695B2 (en) * 2010-11-02 2015-05-19 Sharp Laboratories Of America, Inc. Motion-compensated temporal filtering based on variable filter parameters
US8837601B2 (en) * 2010-12-10 2014-09-16 Netflix, Inc. Parallel video encoding based on complexity analysis
US9547911B2 (en) 2010-12-14 2017-01-17 The United States Of America, As Represented By The Secretary Of The Navy Velocity estimation from imagery using symmetric displaced frame difference equation
US8781165B2 (en) * 2010-12-14 2014-07-15 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for displacement determination by motion compensation
MX2013008757A (es) * 2011-01-28 2014-02-28 Eye Io Llc Control de velocidad de bits adaptativa basado en escenas.
WO2012147740A1 (ja) * 2011-04-25 2012-11-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
US20120275511A1 (en) * 2011-04-29 2012-11-01 Google Inc. System and method for providing content aware video adaptation
US8767821B2 (en) 2011-05-09 2014-07-01 Google Inc. System and method for providing adaptive media optimization
EP2536143B1 (en) * 2011-06-16 2015-01-14 Axis AB Method and a digital video encoder system for encoding digital video data
EP2536144A1 (en) * 2011-06-17 2012-12-19 Thomson Licensing Method and device of lossy compress-encoding an image
US20140119460A1 (en) * 2011-06-24 2014-05-01 Thomson Licensing Method and device for assessing packet defect caused degradation in packet coded video
US9032467B2 (en) 2011-08-02 2015-05-12 Google Inc. Method and mechanism for efficiently delivering visual data across a network
US9591318B2 (en) 2011-09-16 2017-03-07 Microsoft Technology Licensing, Llc Multi-layer encoding and decoding
US9432704B2 (en) * 2011-11-06 2016-08-30 Akamai Technologies Inc. Segmented parallel encoding with frame-aware, variable-size chunking
US20130142250A1 (en) * 2011-12-06 2013-06-06 Broadcom Corporation Region based classification and adaptive rate control method and apparatus
US9094684B2 (en) 2011-12-19 2015-07-28 Google Technology Holdings LLC Method for dual pass rate control video encoding
JP5722761B2 (ja) 2011-12-27 2015-05-27 株式会社ソニー・コンピュータエンタテインメント 動画圧縮装置、画像処理装置、動画圧縮方法、画像処理方法、および動画圧縮ファイルのデータ構造
US9014265B1 (en) 2011-12-29 2015-04-21 Google Inc. Video coding using edge detection and block partitioning for intra prediction
US11089343B2 (en) 2012-01-11 2021-08-10 Microsoft Technology Licensing, Llc Capability advertisement, configuration and control for video coding and decoding
US9438918B2 (en) * 2012-04-23 2016-09-06 Intel Corporation Frame level rate control using motion estimated distortions
US9042441B2 (en) 2012-04-25 2015-05-26 At&T Intellectual Property I, Lp Apparatus and method for media streaming
JP5409842B2 (ja) * 2012-05-22 2014-02-05 キヤノン株式会社 画像符号化装置及びその制御方法、コンピュータプログラム
WO2014001605A1 (en) * 2012-06-28 2014-01-03 Ant-Advanced Network Technologies Oy Processing and error concealment of digital signals
JP2014063259A (ja) * 2012-09-20 2014-04-10 Fujitsu Ltd 端末装置,及び処理プログラム
US9491459B2 (en) * 2012-09-27 2016-11-08 Qualcomm Incorporated Base layer merge and AMVP modes for video coding
CN109890071B (zh) 2012-10-18 2023-05-12 Vid拓展公司 移动多媒体流的解码复杂度
US20140112384A1 (en) * 2012-10-22 2014-04-24 General Instrument Corporation Algorithms for determining bitrate for a statistical multiplexing system using scene change
US8948529B1 (en) 2012-10-30 2015-02-03 Google Inc. Multi-pass encoding
WO2014094204A1 (en) * 2012-12-17 2014-06-26 Intel Corporation Leveraging encoder hardware to pre-process video content
RU2533852C2 (ru) * 2012-12-26 2014-11-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ кодирования/декодирования многоракурсной видеопоследовательности на основе адаптивной компенсации локальных различий яркости при межкадровом предсказании (варианты)
CN103943112B (zh) * 2013-01-21 2017-10-13 杜比实验室特许公司 利用响度处理状态元数据的音频编码器和解码器
ES2749089T3 (es) 2013-01-21 2020-03-19 Dolby Laboratories Licensing Corp Codificador y descodificador de audio con metadatos de límite y sonoridad de programa
US9053366B2 (en) * 2013-02-20 2015-06-09 Honeywell International Inc. System and method for detecting motion in compressed video
US9210424B1 (en) 2013-02-28 2015-12-08 Google Inc. Adaptive prediction block size in video coding
US9607003B2 (en) * 2013-03-14 2017-03-28 Massachusetts Institute Of Technology Network coded storage with multi-resolution codes
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
US9344218B1 (en) 2013-08-19 2016-05-17 Zoom Video Communications, Inc. Error resilience for interactive real-time multimedia applications
KR20150029593A (ko) 2013-09-10 2015-03-18 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
US9485456B2 (en) 2013-12-30 2016-11-01 Akamai Technologies, Inc. Frame-rate conversion in a distributed computing system
CN105335595A (zh) * 2014-06-30 2016-02-17 杜比实验室特许公司 基于感受的多媒体处理
US20160112707A1 (en) * 2014-10-15 2016-04-21 Intel Corporation Policy-based image encoding
CN104410863B (zh) * 2014-12-11 2017-07-11 上海兆芯集成电路有限公司 图像处理器以及图像处理方法
EP3073738A1 (en) * 2015-03-26 2016-09-28 Alcatel Lucent Methods and devices for video encoding
CN104811694B (zh) * 2015-04-28 2017-03-08 华为技术有限公司 一种视频数据质量评估的方法和装置
WO2016179513A1 (en) * 2015-05-06 2016-11-10 North Carolina State University Code-modulated phased-array interferometric imaging
CN104902275B (zh) * 2015-05-29 2018-04-20 宁波菊风系统软件有限公司 一种控制视频通信质量甜点的方法
JP6231046B2 (ja) * 2015-06-24 2017-11-15 株式会社ドワンゴ 動画データ配信管理装置、動画データ配信管理方法、プログラム
CN107852508A (zh) 2015-07-31 2018-03-27 深圳市大疆创新科技有限公司 修改搜索区域的方法
EP3225026A4 (en) * 2015-07-31 2017-12-13 SZ DJI Technology Co., Ltd. Method of sensor-assisted rate control
FR3040849A1 (fr) * 2015-09-04 2017-03-10 Stmicroelectronics (Grenoble 2) Sas Procede de compression d'un flux de donnees video
US9807416B2 (en) 2015-09-21 2017-10-31 Google Inc. Low-latency two-pass video coding
EP3151562B1 (en) 2015-09-29 2020-06-17 Dolby Laboratories Licensing Corporation Feature based bitrate allocation in non-backward compatible multi-layer codec via machine learning
CN105426515B (zh) 2015-12-01 2018-12-18 小米科技有限责任公司 视频归类方法及装置
US10678828B2 (en) 2016-01-03 2020-06-09 Gracenote, Inc. Model-based media classification service using sensed media noise characteristics
CN114115609A (zh) 2016-11-25 2022-03-01 株式会社半导体能源研究所 显示装置及其工作方法
US10798387B2 (en) 2016-12-12 2020-10-06 Netflix, Inc. Source-consistent techniques for predicting absolute perceptual video quality
CA3051059A1 (en) 2017-01-30 2018-08-02 Euclid Discoveries, Llc Video characterization for smart encoding based on perceptual quality optimization
US11076179B2 (en) * 2017-06-13 2021-07-27 DISH Technologies L.L.C. Viewership-balanced video multiplexing
EP3662470B1 (en) 2017-08-01 2021-03-24 Dolby Laboratories Licensing Corporation Audio object classification based on location metadata
CN108024146A (zh) * 2017-12-14 2018-05-11 深圳Tcl数字技术有限公司 新闻界面自动设置方法、智能电视及计算机可读存储介质
TW201942870A (zh) 2018-04-03 2019-11-01 香港商科科串流股份有限公司 位元率優化系統及方法
FR3082689B1 (fr) * 2018-06-13 2020-09-11 Ateme Procede d'analyse de la complexite d'un contenu multimedia source pour une diffusion a la demande
CN110876060B (zh) * 2018-08-31 2022-07-15 网宿科技股份有限公司 一种编码过程中的码率调整方法及装置
CN110876082B (zh) * 2018-08-31 2020-12-29 网宿科技股份有限公司 一种视频帧的复杂度的确定方法及装置
US10992938B2 (en) * 2018-09-28 2021-04-27 Ati Technologies Ulc Spatial block-level pixel activity extraction optimization leveraging motion vectors
US10778938B2 (en) * 2018-12-20 2020-09-15 Hulu, LLC Video chunk combination optimization
US11924449B2 (en) 2020-05-19 2024-03-05 Google Llc Multivariate rate control for transcoding video content
CN113038142B (zh) * 2021-03-25 2022-11-01 北京金山云网络技术有限公司 视频数据的筛选方法、装置及电子设备
CN116800976B (zh) * 2023-07-17 2024-03-12 武汉星巡智能科技有限公司 伴睡婴幼儿时音视频压缩和还原方法、装置及设备

Family Cites Families (277)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2646047B1 (fr) 1989-04-13 1995-08-04 Telediffusion Fse Procede et installation de codage et de transmission d'images animees sous forme numerique a bas debit
JP2909239B2 (ja) * 1991-03-27 1999-06-23 株式会社東芝 高能率符号化記録再生装置
JP3189292B2 (ja) 1991-05-09 2001-07-16 松下電器産業株式会社 走査線補間装置
KR0121328B1 (ko) * 1991-12-13 1997-11-17 사또오 후미오 디지탈 신호 기록 재생 장치
IT1252546B (it) 1991-12-18 1995-06-19 Alcatel Italia Metodo e sistema per adattare il ciclo di frequenza di refresh alla complessita' dell'immagine
JPH05344492A (ja) 1992-06-11 1993-12-24 Ricoh Co Ltd フレーム間予測符号化方式
US5289276A (en) 1992-06-19 1994-02-22 General Electric Company Method and apparatus for conveying compressed video data over a noisy communication channel
JP2611607B2 (ja) 1992-06-29 1997-05-21 日本ビクター株式会社 シーンチェンジ検出装置
FR2700090B1 (fr) * 1992-12-30 1995-01-27 Thomson Csf Procédé de désentrelacement de trames d'une séquence d'images animées.
JP2979900B2 (ja) 1993-05-26 1999-11-15 日本ビクター株式会社 記録媒体
KR0151234B1 (ko) 1993-06-03 1998-10-15 모리시타 요이찌 화상재생장치 및 화상복호장치
EP0710422B1 (en) 1993-07-19 1998-09-30 BRITISH TELECOMMUNICATIONS public limited company Detecting errors in video images
CA2127151A1 (en) 1993-09-21 1995-03-22 Atul Puri Spatially scalable video encoding and decoding
US5991502A (en) 1993-10-04 1999-11-23 Matsushita Electric Industrial Co., Ltd. Optical recording device which calculates distances between I-frames and records I-frame addresses in a sector
AU681185B2 (en) 1993-10-22 1997-08-21 Sony Corporation apparatus and method for recording and reproducing digital video data
JP3173257B2 (ja) 1993-11-09 2001-06-04 松下電器産業株式会社 符号化方法と符号化装置
JP2734953B2 (ja) * 1993-12-16 1998-04-02 日本電気株式会社 Cdma受信装置
US5642294A (en) 1993-12-17 1997-06-24 Nippon Telegraph And Telephone Corporation Method and apparatus for video cut detection
JP2839132B2 (ja) 1993-12-17 1998-12-16 日本電信電話株式会社 映像カット点検出方法及び装置
US5446491A (en) 1993-12-21 1995-08-29 Hitachi, Ltd. Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals
JP3149303B2 (ja) 1993-12-29 2001-03-26 松下電器産業株式会社 デジタル画像符号化方法及びデジタル画像復号化方法
US5592226A (en) 1994-01-26 1997-01-07 Btg Usa Inc. Method and apparatus for video data compression using temporally adaptive motion interpolation
JP3197420B2 (ja) * 1994-01-31 2001-08-13 三菱電機株式会社 画像符号化装置
US6798834B1 (en) * 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
KR100213015B1 (ko) * 1994-03-31 1999-08-02 윤종용 양자화 방법 및 회로
US6091460A (en) * 1994-03-31 2000-07-18 Mitsubishi Denki Kabushiki Kaisha Video signal encoding method and system
US5508752A (en) 1994-04-12 1996-04-16 Lg Electronics Inc. Partial response trellis decoder for high definition television (HDTV) system
JPH07298272A (ja) 1994-04-28 1995-11-10 Canon Inc 映像符号化装置
US5706386A (en) * 1994-05-24 1998-01-06 Sony Corporation Image information recording method and apparatus, image information reproducing method and apparatus and editing method and system
DE69529579D1 (de) 1994-06-17 2003-03-13 Snell & Wilcox Ltd Komprimieren eines aus kompressionskodierten Videosignalen nach deren Teildekodierung kombinierten Signales
US5521644A (en) 1994-06-30 1996-05-28 Eastman Kodak Company Mechanism for controllably deinterlacing sequential lines of video data field based upon pixel signals associated with four successive interlaced video fields
KR100213018B1 (ko) * 1994-07-30 1999-08-02 윤종용 동화상 부호화장치
JP3755155B2 (ja) 1994-09-30 2006-03-15 ソニー株式会社 画像符号化装置
JPH0918782A (ja) 1995-06-29 1997-01-17 Sony Corp 映像信号処理方法及び装置
MY115648A (en) 1995-08-23 2003-08-30 Sony Corp Encoding/decoding fields of predetermined field polarity apparatus and method
JPH0974566A (ja) 1995-09-04 1997-03-18 Sony Corp 圧縮符号化装置及び圧縮符号化データの記録装置
WO1997013362A1 (en) * 1995-09-29 1997-04-10 Matsushita Electric Industrial Co., Ltd. Method and device for encoding seamless-connection of telecine-converted video data
JPH09130732A (ja) 1995-11-01 1997-05-16 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法および動画像編集装置
US5835163A (en) 1995-12-21 1998-11-10 Siemens Corporate Research, Inc. Apparatus for detecting a cut in a video
US5682204A (en) 1995-12-26 1997-10-28 C Cube Microsystems, Inc. Video encoder which uses intra-coding when an activity level of a current macro-block is smaller than a threshold level
US5821991A (en) 1996-02-28 1998-10-13 C-Cube Microsystems, Inc. Method and apparatus for inverse telecine process by correlating vectors of pixel differences
US5929902A (en) 1996-02-28 1999-07-27 C-Cube Microsystems Method and apparatus for inverse telecine processing by fitting 3:2 pull-down patterns
US6157674A (en) 1996-03-21 2000-12-05 Sony Corporation Audio and video data transmitting apparatus, system, and method thereof
GB9607645D0 (en) 1996-04-12 1996-06-12 Snell & Wilcox Ltd Processing of video signals prior to compression
JPH09284770A (ja) 1996-04-13 1997-10-31 Sony Corp 画像符号化装置および方法
JPH1013826A (ja) 1996-06-21 1998-01-16 Sony Corp 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、画像送信装置、画像受信装置、並びに記録媒体
US7095874B2 (en) * 1996-07-02 2006-08-22 Wistaria Trading, Inc. Optimization methods for the insertion, protection, and detection of digital watermarks in digitized data
US6643506B1 (en) * 1996-08-07 2003-11-04 Telxon Corporation Wireless software upgrades with version control
US5793895A (en) 1996-08-28 1998-08-11 International Business Machines Corporation Intelligent error resilient video encoder
KR100389893B1 (ko) 1996-11-09 2003-09-19 삼성전자주식회사 영상 특성 분류법을 이용한 영상 부호화 장치
FR2756399B1 (fr) 1996-11-28 1999-06-25 Thomson Multimedia Sa Procede et dispositif de compression video pour images de synthese
JPH10313463A (ja) 1997-03-12 1998-11-24 Matsushita Electric Ind Co Ltd 映像信号符号化方法及び符号化装置
WO1998041027A1 (en) * 1997-03-12 1998-09-17 Matsushita Electric Industrial Co., Ltd. Video signal coding method and coding device
US6333950B1 (en) 1997-04-18 2001-12-25 Canon Kabushiki Kaisha Encoding apparatus and method and computer readable recording medium in which encoding program has been recorded
JP3679606B2 (ja) 1997-04-18 2005-08-03 キヤノン株式会社 符号化装置及び方法並びに符号化プログラムが記録されたコンピュータ可読記録媒体
JP3588970B2 (ja) * 1997-04-30 2004-11-17 ソニー株式会社 信号符号化方法、信号符号化装置、信号記録媒体及び信号伝送方法
FR2764156B1 (fr) * 1997-05-27 1999-11-05 Thomson Broadcast Systems Dispositif de pretraitement pour codage mpeg ii
US5864369A (en) * 1997-06-16 1999-01-26 Ati International Srl Method and apparatus for providing interlaced video on a progressive display
US6012091A (en) 1997-06-30 2000-01-04 At&T Corporation Video telecommunications server and method of providing video fast forward and reverse
KR100226722B1 (ko) 1997-07-30 1999-10-15 구자홍 동영상 움직임 벡터 추정 방법
US5978029A (en) * 1997-10-10 1999-11-02 International Business Machines Corporation Real-time encoding of video sequence employing two encoders and statistical analysis
US6574211B2 (en) * 1997-11-03 2003-06-03 Qualcomm Incorporated Method and apparatus for high rate packet data transmission
US5956026A (en) 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6115499A (en) 1998-01-14 2000-09-05 C-Cube Semiconductor Ii, Inc. Repeat field detection using checkerboard pattern
US6175650B1 (en) 1998-01-26 2001-01-16 Xerox Corporation Adaptive quantization compatible with the JPEG baseline sequential mode
AU2582499A (en) * 1998-02-19 1999-09-06 Motorola, Inc. System and method for non-causal encoding of video information for improved streaming thereof
JP3649370B2 (ja) 1998-02-25 2005-05-18 日本ビクター株式会社 動き補償符号化装置及び動き補償符号化方法
JP3738939B2 (ja) 1998-03-05 2006-01-25 Kddi株式会社 動画像のカット点検出装置
DE69830471T2 (de) 1998-03-09 2006-08-10 Sony Deutschland Gmbh Interpolator mit einem gewichteten Medianfilter
US6895048B2 (en) * 1998-03-20 2005-05-17 International Business Machines Corporation Adaptive encoding of a sequence of still frames or partially still frames within motion video
US6538688B1 (en) * 1998-07-02 2003-03-25 Terran Interactive Method and apparatus for performing an automated inverse telecine process
JP2000032474A (ja) 1998-07-08 2000-01-28 Sharp Corp 動画像符号化装置
JP2000059774A (ja) 1998-08-06 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> 映像符号化制御装置
US6580829B1 (en) 1998-09-25 2003-06-17 Sarnoff Corporation Detecting and coding flash frames in video data
KR20010099660A (ko) 1998-09-29 2001-11-09 매클린토크 샤운 엘 고품위 텔레비전 인코더에서 장면변화의 검출 및화면코딩타입의 조정을 행하기 위한 방법 및 장치
JP3921841B2 (ja) * 1998-10-16 2007-05-30 ソニー株式会社 信号処理装置および方法、ならびに、記録装置、再生装置および記録再生装置
JP2000209553A (ja) 1998-11-13 2000-07-28 Victor Co Of Japan Ltd 情報信号記録装置及び再生装置
US6297848B1 (en) 1998-11-25 2001-10-02 Sharp Laboratories Of America, Inc. Low-delay conversion of 3:2 pulldown video to progressive format with field averaging
JP3260713B2 (ja) * 1998-12-21 2002-02-25 日本電気株式会社 無線基地局のプログラムダウンロード方式
US6618507B1 (en) 1999-01-25 2003-09-09 Mitsubishi Electric Research Laboratories, Inc Methods of feature extraction of video sequences
JP3588564B2 (ja) 1999-03-31 2004-11-10 株式会社東芝 映像データ記録装置
JP3591712B2 (ja) 1999-04-02 2004-11-24 松下電器産業株式会社 動画送信装置及び動画受信装置
EP1041827B1 (en) 1999-04-02 2006-11-22 Matsushita Electric Industrial Co., Ltd. Moving picture transmission apparatus, reception apparatus and recording medium
JP2000295626A (ja) 1999-04-08 2000-10-20 Mitsubishi Electric Corp 多段画像符号化装置
US6325805B1 (en) * 1999-04-23 2001-12-04 Sdgi Holdings, Inc. Shape memory alloy staple
JP4287538B2 (ja) 1999-04-30 2009-07-01 パナソニック株式会社 画像信号切替方法及び装置並びにこれを用いたデジタル撮像カメラ及び監視システム
EP1092321A1 (en) 1999-04-30 2001-04-18 Koninklijke Philips Electronics N.V. Video encoding method with selection of b-frame encoding mode
GB2352350B (en) * 1999-07-19 2003-11-05 Nokia Mobile Phones Ltd Video coding
JP3669619B2 (ja) * 1999-09-06 2005-07-13 富士通株式会社 無線端末装置のソフトウェア更新方法及びその装置
US6370672B1 (en) 1999-11-01 2002-04-09 Lsi Logic Corporation Determining the received data rate in a variable rate communications system
GB2359918A (en) 2000-03-01 2001-09-05 Sony Uk Ltd Audio and/or video generation apparatus having a metadata generator
US6639943B1 (en) 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
JP2001169251A (ja) 1999-12-03 2001-06-22 Sony Corp 記録装置および方法、ならびに、再生装置および方法
US7116717B1 (en) 1999-12-15 2006-10-03 Bigband Networks, Inc. Method and system for scalable representation, storage, transmission and reconstruction of media streams
US7093028B1 (en) * 1999-12-15 2006-08-15 Microsoft Corporation User and content aware object-based data stream transmission methods and arrangements
US6449002B1 (en) 1999-12-21 2002-09-10 Thomson Licensing S.A. Truncated metric for NTSC interference rejection in the ATSC-HDTV trellis decoder
JP2001045494A (ja) 2000-01-01 2001-02-16 Mitsubishi Electric Corp 画像符号化装置
JP2001204026A (ja) 2000-01-21 2001-07-27 Sony Corp 画像情報変換装置及び方法
IL134182A (en) * 2000-01-23 2006-08-01 Vls Com Ltd Method and apparatus for visual lossless pre-processing
US6600836B1 (en) 2000-01-28 2003-07-29 Qualcomm, Incorporated Quality based image compression
WO2001058166A1 (en) 2000-02-01 2001-08-09 Koninklijke Philips Electronics N.V. Video encoding with a two step motion estimation for p-frames
US6490320B1 (en) 2000-02-02 2002-12-03 Mitsubishi Electric Research Laboratories Inc. Adaptable bitstream video delivery system
US6574279B1 (en) 2000-02-02 2003-06-03 Mitsubishi Electric Research Laboratories, Inc. Video transcoding using syntactic and semantic clues
US6542546B1 (en) 2000-02-02 2003-04-01 Mitsubishi Electric Research Laboratories, Inc. Adaptable compressed bitstream transcoder
JP3960451B2 (ja) 2000-03-06 2007-08-15 Kddi株式会社 シーン特性検出型動画像符号化装置
SE0000766L (sv) 2000-03-08 2001-06-25 Sem Ab Krets för tändförställning, varvtalsbegränsning och förhindrande av baklängesgång i magnettändsystem
CA2374067C (en) 2000-03-13 2012-09-25 Sony Corporation Method and apparatus for generating compact transcoding hints metadata
US20020154705A1 (en) 2000-03-22 2002-10-24 Walton Jay R. High efficiency high performance communications system employing multi-carrier modulation
AU4670701A (en) 2000-04-07 2001-10-23 Snell & Wilcox Limited Video signal processing
US6867814B2 (en) 2000-04-18 2005-03-15 Silicon Image, Inc. Method, system and article of manufacture for identifying the source type and quality level of a video sequence
US6507618B1 (en) * 2000-04-25 2003-01-14 Hewlett-Packard Company Compressed video signal including independently coded regions
EP1152621A1 (en) * 2000-05-05 2001-11-07 STMicroelectronics S.r.l. Motion estimation process and system.
JP4517453B2 (ja) 2000-05-30 2010-08-04 ソニー株式会社 画像情報変換装置及び方法並びに符号化装置及び方法
JP2001346214A (ja) 2000-06-05 2001-12-14 Sony Corp 画像情報変換装置及び方法
US6647061B1 (en) * 2000-06-09 2003-11-11 General Instrument Corporation Video size conversion and transcoding from MPEG-2 to MPEG-4
KR100708091B1 (ko) 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
JP2002010259A (ja) 2000-06-21 2002-01-11 Mitsubishi Electric Corp 画像符号化装置及び画像符号化方法及び画像符号化プログラムを記録した記録媒体
EP1172681A3 (en) * 2000-07-13 2004-06-09 Creo IL. Ltd. Blazed micro-mechanical light modulator and array thereof
US20040125877A1 (en) 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
JP4517475B2 (ja) 2000-07-26 2010-08-04 ソニー株式会社 画像情報変換装置及び方法並びに符号化装置及び方法
KR20020010171A (ko) 2000-07-27 2002-02-04 오길록 블록 정합 움직임 추정을 위한 적응적 예측 방향성 탐색방법
JP2002064817A (ja) 2000-08-21 2002-02-28 Kddi Research & Development Laboratories Inc オブジェクトスケーラブル符号化装置
FI120125B (fi) * 2000-08-21 2009-06-30 Nokia Corp Kuvankoodaus
JP3903703B2 (ja) 2000-09-01 2007-04-11 株式会社日立製作所 順次走査変換回路
JP2002094994A (ja) * 2000-09-19 2002-03-29 Nec Corp 動画再生処理装置および動画再生処理方法
US7038736B2 (en) 2000-09-21 2006-05-02 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US7020193B2 (en) 2000-09-22 2006-03-28 Koninklijke Philips Electronics N.V. Preferred transmission/streaming order of fine-granular scalability
JP2002101416A (ja) 2000-09-25 2002-04-05 Fujitsu Ltd 画像制御装置
JP2002125227A (ja) 2000-10-11 2002-04-26 Sony Corp 画像情報変換装置及び方法
US7095814B2 (en) * 2000-10-11 2006-08-22 Electronics And Telecommunications Research Institute Apparatus and method for very high performance space-time array reception processing using chip-level beamforming and fading rate adaptation
KR100895725B1 (ko) 2000-11-23 2009-04-30 엔엑스피 비 브이 비디오 비트스트림 디코딩 방법 및 비디오 디코더
EP1209624A1 (en) 2000-11-27 2002-05-29 Sony International (Europe) GmbH Method for compressed imaging artefact reduction
US6934335B2 (en) 2000-12-11 2005-08-23 Sony Corporation Video encoder with embedded scene change and 3:2 pull-down detections
US7058130B2 (en) 2000-12-11 2006-06-06 Sony Corporation Scene change detection
US7203238B2 (en) * 2000-12-11 2007-04-10 Sony Corporation 3:2 Pull-down detection
US6744474B2 (en) 2000-12-13 2004-06-01 Thomson Licensing S.A. Recursive metric for NTSC interference rejection in the ATSC-HDTV trellis decoder
US6807234B2 (en) 2000-12-19 2004-10-19 Intel Corporation Method and apparatus for constellation mapping and bitloading in multi-carrier transceivers, such as DMT-based DSL transceivers
GB2372394B (en) 2000-12-22 2004-09-22 Matsushita Electric Ind Co Ltd Interpolation apparatus and video signal processing apparatus including the same
CA2330854A1 (en) 2001-01-11 2002-07-11 Jaldi Semiconductor Corp. A system and method for detecting a non-video source in video signals
US6987728B2 (en) 2001-01-23 2006-01-17 Sharp Laboratories Of America, Inc. Bandwidth allocation system
JP4336051B2 (ja) * 2001-01-31 2009-09-30 株式会社エヌ・ティ・ティ・ドコモ 無線通信端末、発呼制限方法及びプログラム
US6721361B1 (en) 2001-02-23 2004-04-13 Yesvideo.Com Video processing system including advanced scene break detection methods for fades, dissolves and flashes
AU2002245609A1 (en) 2001-03-05 2002-09-19 Intervideo, Inc. Systems and methods of error resilience in a video decoder
KR100783396B1 (ko) * 2001-04-19 2007-12-10 엘지전자 주식회사 부호기의 서브밴드 분할을 이용한 시공간 스케일러빌러티방법
US6947598B2 (en) * 2001-04-20 2005-09-20 Front Porch Digital Inc. Methods and apparatus for generating, including and using information relating to archived audio/video data
US20020163964A1 (en) 2001-05-02 2002-11-07 Nichols James B. Apparatus and method for compressing video
US6909745B1 (en) * 2001-06-05 2005-06-21 At&T Corp. Content adaptive video encoder
KR100803115B1 (ko) 2001-06-07 2008-02-14 엘지전자 주식회사 적응 안테나 어레이가 구비된 wcdma 시스템에서의 신호 처리 방법 이를 위한 시스템
KR100393066B1 (ko) * 2001-06-11 2003-07-31 삼성전자주식회사 적응 움직임 보상형 디-인터레이싱 장치 및 그 방법
JP2002051336A (ja) 2001-06-15 2002-02-15 Sharp Corp 画像符号化装置及び画像復号装置
US7483581B2 (en) * 2001-07-02 2009-01-27 Qualcomm Incorporated Apparatus and method for encoding digital image data in a lossless manner
JP2003037844A (ja) 2001-07-23 2003-02-07 Sharp Corp 動画像符号化装置
KR100440953B1 (ko) 2001-08-18 2004-07-21 삼성전자주식회사 영상 압축 비트 스트림의 트랜스코딩 방법
US6959044B1 (en) 2001-08-21 2005-10-25 Cisco Systems Canada Co. Dynamic GOP system and method for digital video encoding
US7359466B2 (en) 2001-08-24 2008-04-15 Lucent Technologies Inc. Signal detection by a receiver in a multiple antenna time-dispersive system
US6784942B2 (en) 2001-10-05 2004-08-31 Genesis Microchip, Inc. Motion adaptive de-interlacing method and apparatus
TW536918B (en) 2001-11-01 2003-06-11 Aiptek Int Inc Method to increase the temporal resolution of continuous image series
JP2003209837A (ja) 2001-11-09 2003-07-25 Matsushita Electric Ind Co Ltd 動画像符号化方法及び動画像符号化装置
AU2002343220A1 (en) * 2001-11-09 2003-05-19 Matsushita Electric Industrial Co., Ltd. Moving picture coding method and apparatus
US6847680B2 (en) 2001-12-17 2005-01-25 Mitsubishi Electric Research Laboratories, Inc. Method for detecting talking heads in a compressed video
US20030118097A1 (en) 2001-12-21 2003-06-26 Koninklijke Philips Electronics N.V. System for realization of complexity scalability in a layered video coding framework
KR100446083B1 (ko) 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
US20030142762A1 (en) * 2002-01-11 2003-07-31 Burke Joseph P. Wireless receiver method and apparatus using space-cover-time equalization
US7139551B2 (en) 2002-01-19 2006-11-21 Sasken Communication Technologies Ltd. System and method for automatically downloading software applications to a remote terminal
JP2003224847A (ja) 2002-01-29 2003-08-08 Sony Corp 画像符号化装置とその方法、および、画像復号化装置とその方法
US6700935B2 (en) 2002-02-08 2004-03-02 Sony Electronics, Inc. Stream based bitrate transcoder for MPEG coded video
US6996186B2 (en) * 2002-02-22 2006-02-07 International Business Machines Corporation Programmable horizontal filter with noise reduction and image scaling for video encoding system
KR100850705B1 (ko) * 2002-03-09 2008-08-06 삼성전자주식회사 시공간적 복잡도를 고려한 적응적 동영상 부호화 방법 및그 장치
ATE490649T1 (de) * 2002-03-27 2010-12-15 British Telecomm Videokodierung und -übertragung
US20030185302A1 (en) 2002-04-02 2003-10-02 Abrams Thomas Algie Camera and/or camera converter
CA2380105A1 (en) 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
KR100468726B1 (ko) 2002-04-18 2005-01-29 삼성전자주식회사 실시간 가변 비트율 제어를 수행하는 부호화 장치 및 방법
US6985635B2 (en) 2002-04-22 2006-01-10 Koninklijke Philips Electronics N.V. System and method for providing a single-layer video encoded bitstreams suitable for reduced-complexity decoding
JP4135395B2 (ja) 2002-04-26 2008-08-20 日本電気株式会社 符号化パケット伝送受信方法およびその装置ならびにプログラム
JP3926203B2 (ja) 2002-05-15 2007-06-06 シャープ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、該プログラムを記録した記録媒体、およびコンテンツ表示方法
KR100850706B1 (ko) 2002-05-22 2008-08-06 삼성전자주식회사 적응적 동영상 부호화 및 복호화 방법과 그 장치
FR2840495B1 (fr) * 2002-05-29 2004-07-30 Canon Kk Procede et dispositif de selection d'une methode de transcodage parmi un ensemble de methodes de transcodage
US7436890B2 (en) * 2002-06-05 2008-10-14 Kddi R&D Laboratories, Inc. Quantization control system for video coding
JP2004023288A (ja) * 2002-06-13 2004-01-22 Kddi R & D Laboratories Inc 動画像符号化のための前処理方式
CN1231055C (zh) 2002-06-10 2005-12-07 成都威斯达芯片有限责任公司 电视中传送电影场景的数字检测装置
KR100553082B1 (ko) 2002-06-20 2006-02-15 엘지전자 주식회사 이동통신 단말기의 무선 데이터 다운로드 이어받기 장치및 방법
US7167507B2 (en) * 2002-07-01 2007-01-23 Lucent Technologies Inc. Equalizer and method for performing equalization in a wireless communications system
US7136417B2 (en) 2002-07-15 2006-11-14 Scientific-Atlanta, Inc. Chroma conversion optimization
AU2003253908A1 (en) 2002-07-16 2004-02-02 Thomson Licensing S.A. Interleaving of base and enhancement layers for hd-dvd
KR100500196B1 (ko) 2002-07-20 2005-07-12 학교법인 한국정보통신학원 멀티미디어 메타데이터의 오류 내성 부호화/복호화 장치및 방법
US7089313B2 (en) * 2002-07-25 2006-08-08 Matsushita Electric Industrial Co., Ltd. Protocol independent communication system for mobile devices
KR20050058366A (ko) 2002-08-21 2005-06-16 톰슨 라이센싱 에스.에이. 사용자 장치에서의 디지털 데이터 워터마킹
US20040045038A1 (en) * 2002-08-29 2004-03-04 Duff John F. System and method for the synchronized activation of external devices in association with video programs
US6904081B2 (en) 2002-08-30 2005-06-07 Motorola, Inc. Spread spectrum receiver apparatus and method
GB0222562D0 (en) 2002-09-28 2002-11-06 Koninkl Philips Electronics Nv Method and apparatus for encoding image and or audio data
JP4294933B2 (ja) 2002-10-16 2009-07-15 富士通株式会社 マルチメディアコンテンツ編集装置およびマルチメディアコンテンツ再生装置
KR20050061556A (ko) 2002-10-22 2005-06-22 코닌클리케 필립스 일렉트로닉스 엔.브이. 고장시 조치를 갖는 이미지 처리 유닛
KR100501933B1 (ko) 2002-11-21 2005-07-18 삼성전자주식회사 멀티미디어 데이터 암호화 압축방법 및 장치
WO2004049722A1 (en) 2002-11-22 2004-06-10 Koninklijke Philips Electronics N.V. Transcoder for a variable length coded data stream
EP1569460B1 (en) * 2002-11-25 2013-05-15 Panasonic Corporation Motion compensation method, image encoding method, and image decoding method
KR20040046320A (ko) 2002-11-27 2004-06-05 엘지전자 주식회사 동영상 부호화 방법
WO2004054270A1 (en) 2002-12-10 2004-06-24 Koninklijke Philips Electronics N.V. A unified metric for digital video processing (umdvp)
US20060098737A1 (en) 2002-12-20 2006-05-11 Koninklijke Philips Electronics N.V. Segment-based motion estimation
US7154555B2 (en) 2003-01-10 2006-12-26 Realnetworks, Inc. Automatic deinterlacing and inverse telecine
US7039855B2 (en) * 2003-01-22 2006-05-02 Lsi Logic Corporation Decision function generator for a Viterbi decoder
MXPA05008094A (es) 2003-01-28 2006-02-08 Thomson Licensing Formacion escalonada de modo robusto.
JP2004248124A (ja) 2003-02-17 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 階層的画像符号化装置および階層的画像復号装置
KR20040079084A (ko) 2003-03-06 2004-09-14 삼성전자주식회사 시간적 복잡도를 고려한 적응적 동영상 부호화와 그 장치
US7062260B2 (en) * 2003-03-27 2006-06-13 Nokia Corporation Fetching application and driver for extension device from network
US7075581B1 (en) * 2003-06-03 2006-07-11 Zoran Corporation Interlaced-to-progressive scan conversion based on film source detection
KR100518580B1 (ko) 2003-06-10 2005-10-04 삼성전자주식회사 인버스 텔레시네 변환장치 및 변환방법
WO2004114668A1 (en) 2003-06-16 2004-12-29 Thomson Licensing S.A. Decoding method and apparatus enabling fast channel change of compressed video
WO2004114671A2 (en) 2003-06-19 2004-12-29 Thomson Licensing S.A. Method and apparatus for low-complexity spatial scalable decoding
KR100546333B1 (ko) * 2003-06-25 2006-01-26 삼성전자주식회사 감지 증폭기 드라이버 및 이를 구비하는 반도체 장치
KR100505694B1 (ko) 2003-07-09 2005-08-02 삼성전자주식회사 직접 계산 방식에 의한 코드화 직교 주파수 분할 다중화수신기의 채널 상태 평가 장치 및 그 방법
US7406123B2 (en) 2003-07-10 2008-07-29 Mitsubishi Electric Research Laboratories, Inc. Visual complexity measure for playing videos adaptively
GB0316387D0 (en) * 2003-07-12 2003-08-13 Ncr Int Inc Software updates
KR100994198B1 (ko) * 2003-07-14 2010-11-12 인터디지탈 테크날러지 코포레이션 클러스터 다중 경로 간섭 억제 회로를 갖는 고성능 무선 수신기
US7356073B2 (en) * 2003-09-10 2008-04-08 Nokia Corporation Method and apparatus providing an advanced MIMO receiver that includes a signal-plus-residual-interference (SPRI) detector
US20050076057A1 (en) * 2003-10-03 2005-04-07 Puneet Sharma Method and system for transferring video and audio files to portable computing devices
US7840112B2 (en) 2003-10-08 2010-11-23 Intel Corporation Gradually degrading multimedia recordings
JP2005123732A (ja) 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd デブロックフィルタ処理装置およびデブロックフィルタ処理方法
KR20050037293A (ko) 2003-10-18 2005-04-21 삼성전자주식회사 영상신호의 아티팩트 억제장치 및 그 방법
US7780886B2 (en) * 2003-10-21 2010-08-24 Certainteed Corporation Insulation product having directional facing layer thereon and method of making the same
WO2005043783A1 (ja) 2003-10-30 2005-05-12 Matsushita Electric Industrial Co., Ltd. 携帯端末向け伝送方法及び装置
US7420618B2 (en) * 2003-12-23 2008-09-02 Genesis Microchip Inc. Single chip multi-function display controller and method of use thereof
JP2007519120A (ja) 2004-01-21 2007-07-12 クゥアルコム・インコーポレイテッド 無線加入者ネットワークにおけるアプリケーションをベースにした価値課金
JP4847874B2 (ja) 2004-01-30 2011-12-28 ユニベルシテ ラバル マルチユーザ適応型アレイ受信機および方法
US7529426B2 (en) 2004-01-30 2009-05-05 Broadcom Corporation Correlation function for signal detection, match filters, and 3:2 pulldown detection
US20050168656A1 (en) * 2004-01-30 2005-08-04 Wyman Richard H. Method and system for quantized historical motion for motion detection in motion adaptive deinterlacer
US7557861B2 (en) 2004-01-30 2009-07-07 Broadcom Corporation Reverse pull-down video using corrective techniques
US7483077B2 (en) * 2004-01-30 2009-01-27 Broadcom Corporation Method and system for control of a multi-field deinterlacer including providing visually pleasing start-up and shut-down
US7324583B2 (en) 2004-02-13 2008-01-29 Nokia Corporation Chip-level or symbol-level equalizer structure for multiple transmit and receiver antenna configurations
KR100586883B1 (ko) * 2004-03-04 2006-06-08 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법
KR100596705B1 (ko) 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
US7339980B2 (en) * 2004-03-05 2008-03-04 Telefonaktiebolaget Lm Ericsson (Publ) Successive interference cancellation in a generalized RAKE receiver architecture
US20050201478A1 (en) * 2004-03-10 2005-09-15 Holger Claussen Modulation in a mobile telecommunications system
US20050222961A1 (en) 2004-04-05 2005-10-06 Philippe Staib System and method of facilitating contactless payment transactions across different payment systems using a common mobile device acting as a stored value device
US20050231635A1 (en) 2004-04-16 2005-10-20 Lin Ken K Automated inverse telecine process
EP1592250A1 (en) 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Film-mode detection in video sequences
US7991053B2 (en) 2004-05-04 2011-08-02 Qualcomm Incorporated Method and apparatus to enable acquisition of media in streaming applications
US7430336B2 (en) 2004-05-06 2008-09-30 Qualcomm Incorporated Method and apparatus for image enhancement for low bit rate video compression
DE102004026433A1 (de) 2004-05-29 2005-12-22 Schott Ag Nanoglaspulver und deren Verwendung
US7536626B2 (en) * 2004-06-18 2009-05-19 Qualcomm Incorporated Power control using erasure techniques
EP1615447B1 (en) 2004-07-09 2016-03-09 STMicroelectronics Srl Method and system for delivery of coded information streams, related network and computer program product therefor
JP4145275B2 (ja) * 2004-07-27 2008-09-03 富士通株式会社 動きベクトル検出・補償装置
KR20060011281A (ko) 2004-07-30 2006-02-03 한종기 트랜스코더에 적용되는 해상도 변환장치 및 방법
JP2006074684A (ja) 2004-09-06 2006-03-16 Matsushita Electric Ind Co Ltd 画像処理方法及び装置
US7474701B2 (en) * 2004-09-23 2009-01-06 International Business Machines Corporation Single pass variable bit rate control strategy and encoder for processing a video frame of a sequence of video frames
US7528887B2 (en) * 2004-10-08 2009-05-05 Broadcom Corporation System and method for performing inverse telecine deinterlacing of video by bypassing data present in vertical blanking intervals
US7660987B2 (en) * 2004-10-29 2010-02-09 Baylis Stephen W Method of establishing a secure e-mail transmission link
KR100592882B1 (ko) * 2004-12-13 2006-06-26 한국전자통신연구원 세션 초기화 프로토콜(sip) 기능이 없는 이동 단말에인터넷 프로토콜 멀티미디어 서브시스템을 통한 세션초기화 프로토콜 기반 인스턴스 메시징 서비스 제공방법,시스템 및 이를 위한 인스턴스 메시징 프록시 서버
US20060153294A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Inter-layer coefficient coding for scalable video coding
US8780957B2 (en) * 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US20060166739A1 (en) * 2005-01-25 2006-07-27 Jeng-Tay Lin Operating method for a wireless recreation system
KR20060088461A (ko) * 2005-02-01 2006-08-04 엘지전자 주식회사 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
US7995656B2 (en) 2005-03-10 2011-08-09 Qualcomm Incorporated Scalable video coding with two layer encoding and single layer decoding
ES2336824T3 (es) 2005-03-10 2010-04-16 Qualcomm Incorporated Arquitectura de decodificador para gestion de errores optimizada en flujo continuo multimedia.
MX2007011084A (es) 2005-03-10 2007-11-15 Qualcomm Inc Clasificacion de contenido para procesamiento multimedia.
US8165167B2 (en) * 2005-03-10 2012-04-24 Qualcomm Incorporated Time tracking for a communication system
US7929776B2 (en) 2005-03-10 2011-04-19 Qualcomm, Incorporated Method and apparatus for error recovery using intra-slice resynchronization points
US8693540B2 (en) * 2005-03-10 2014-04-08 Qualcomm Incorporated Method and apparatus of temporal error concealment for P-frame
US8553777B2 (en) * 2005-04-14 2013-10-08 Thomson Licensing Method and apparatus for slice adaptive motion vector coding for spatial scalable video encoding and decoding
US20060239347A1 (en) 2005-04-25 2006-10-26 Ashish Koul Method and system for scene change detection in a video encoder
US20060271990A1 (en) 2005-05-18 2006-11-30 Rodriguez Arturo A Higher picture rate HD encoding and transmission with legacy HD backward compatibility
KR100716998B1 (ko) * 2005-05-24 2007-05-10 삼성전자주식회사 블록화 현상을 감소시키기 위한 부호화 및 복호화 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체
US8879857B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
AT502881B1 (de) * 2005-10-05 2007-08-15 Pirker Wolfgang Ddr Zahnimplantat
US8654848B2 (en) * 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US9521584B2 (en) * 2005-10-17 2016-12-13 Qualcomm Incorporated Method and apparatus for managing data flow through a mesh network
US20070206117A1 (en) * 2005-10-17 2007-09-06 Qualcomm Incorporated Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US7916784B2 (en) 2005-10-20 2011-03-29 Broadcom Corporation Method and system for inverse telecine and field pairing
US7433982B2 (en) 2005-10-21 2008-10-07 Microsoft Corporation Transferable component that effectuates plug-and-play
US20070171280A1 (en) * 2005-10-24 2007-07-26 Qualcomm Incorporated Inverse telecine algorithm based on state machine
JP4984503B2 (ja) * 2005-11-28 2012-07-25 富士通株式会社 携帯端末装置およびソフトウェアインストール方法
US7587569B2 (en) 2005-12-19 2009-09-08 Yahoo! Inc. System and method for removing a storage server in a distributed column chunk data store
US7705913B2 (en) * 2005-12-20 2010-04-27 Lsi Corporation Unified approach to film mode detection
US7835904B2 (en) 2006-03-03 2010-11-16 Microsoft Corp. Perceptual, scalable audio compression
US9131164B2 (en) * 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
JP4929819B2 (ja) 2006-04-27 2012-05-09 富士通株式会社 映像信号の変換装置及び方法
JP5412739B2 (ja) 2008-03-26 2014-02-12 富士通株式会社 光増幅装置

Also Published As

Publication number Publication date
EP1867173A2 (en) 2007-12-19
CL2006000541A1 (es) 2008-01-04
AR052601A1 (es) 2007-03-21
CN101697591A (zh) 2010-04-21
CN101171843A (zh) 2008-04-30
CN101171843B (zh) 2010-10-13
JP2013085287A (ja) 2013-05-09
KR20070117660A (ko) 2007-12-12
TW200704200A (en) 2007-01-16
US20060222078A1 (en) 2006-10-05
NO20075130L (no) 2007-10-09
JP5318561B2 (ja) 2013-10-16
WO2006099082A3 (en) 2007-09-20
IL185828A0 (en) 2008-01-06
RU2402885C2 (ru) 2010-10-27
CA2600750A1 (en) 2006-09-21
RU2007137462A (ru) 2009-04-20
CL2009000412A1 (es) 2009-06-12
WO2006099082A2 (en) 2006-09-21
US9197912B2 (en) 2015-11-24
AU2006223416A1 (en) 2006-09-21
JP2012075136A (ja) 2012-04-12
JP2008533841A (ja) 2008-08-21
BRPI0608282A2 (pt) 2009-12-15

Similar Documents

Publication Publication Date Title
MX2007011084A (es) Clasificacion de contenido para procesamiento multimedia.
JP5384694B2 (ja) 多層ビデオ設計のためのレート制御
US9071841B2 (en) Video transcoding with dynamically modifiable spatial resolution
RU2377737C2 (ru) Способ и устройство для преобразования с повышением частоты кадров с помощью кодера (ea-fruc) для сжатия видеоизображения
EP2227019B1 (en) Redundant data encoding methods and device
US8406297B2 (en) System and method for bit-allocation in video coding
KR101210578B1 (ko) 스케일러블 비디오 코딩에서의 비트율-왜곡값을 이용한 상위 계층의 빠른 부호화 방법 및 그 부호화 장치
US20070019724A1 (en) Method and apparatus for minimizing number of reference pictures used for inter-coding
KR20080068716A (ko) 비디오 스트리밍에서 샷 검출을 위한 방법 및 장치
KR20070117623A (ko) 2계층 인코딩 및 단일 계층 디코딩을 이용한 스케일러블비디오 코딩
CN110996102B (zh) 抑制p/b帧中帧内块呼吸效应的视频编码方法及装置
US20050129125A1 (en) Method and apparatus for pitcure compression using variable block of arbitrary size
CN111314700B (zh) 抑制呼吸效应的视频编码方法及装置
EP1921866A2 (en) Content classification for multimedia processing
KR100770873B1 (ko) 영상 부호화시 비트율 제어 방법 및 장치
Sofke et al. Dynamic quality control for transform domain Wyner-Ziv video coding
Ye et al. Hybrid spatial and temporal error concealment for distributed video coding
JP2005217499A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
Yin et al. An efficient mode decision algorithm for real-time high-definition H. 264/AVC transcoding
Wei Adaptive rate control for video compression and transmission over fading channel in wireless networks

Legal Events

Date Code Title Description
FA Abandonment or withdrawal