ES2784837T3 - Sistema de descodificación para descodificar archivos multimedia, sistema para codificar un archivo multimedia, y archivo multimedia - Google Patents

Sistema de descodificación para descodificar archivos multimedia, sistema para codificar un archivo multimedia, y archivo multimedia Download PDF

Info

Publication number
ES2784837T3
ES2784837T3 ES15162562T ES15162562T ES2784837T3 ES 2784837 T3 ES2784837 T3 ES 2784837T3 ES 15162562 T ES15162562 T ES 15162562T ES 15162562 T ES15162562 T ES 15162562T ES 2784837 T3 ES2784837 T3 ES 2784837T3
Authority
ES
Spain
Prior art keywords
video
fragments
fragment
audio
subtitle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15162562T
Other languages
English (en)
Inventor
Jason Braness
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Divx LLC
Original Assignee
Divx LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34634434&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2784837(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Divx LLC filed Critical Divx LLC
Application granted granted Critical
Publication of ES2784837T3 publication Critical patent/ES2784837T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00086Circuits for prevention of unauthorised reproduction or copying, e.g. piracy
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00086Circuits for prevention of unauthorised reproduction or copying, e.g. piracy
    • G11B20/00731Circuits for prevention of unauthorised reproduction or copying, e.g. piracy involving a digital rights management system for enforcing a usage restriction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00086Circuits for prevention of unauthorised reproduction or copying, e.g. piracy
    • G11B20/00731Circuits for prevention of unauthorised reproduction or copying, e.g. piracy involving a digital rights management system for enforcing a usage restriction
    • G11B20/00739Circuits for prevention of unauthorised reproduction or copying, e.g. piracy involving a digital rights management system for enforcing a usage restriction wherein the usage restriction is associated with a specific geographical region

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Systems (AREA)

Abstract

Un sistema de descodificación para descodificar archivos multimedia (30, 30'), comprendiendo el sistema de descodificación: un procesador configurado y al que se le dan instrucciones por software para extraer información a partir de un archivo multimedia, en donde: el archivo multimedia incluye una pluralidad de fragmentos para portar información, incluyendo dichos fragmentos una pluralidad de fragmentos de vídeo (262) y una pluralidad de fragmentos de audio (264); los fragmentos de vídeo (262) son porciones de al menos una pista de vídeo, comprendiendo dicha al menos una pista de vídeo una serie de tramas de vídeo codificadas que incluye al menos unas tramas de vídeo codificadas 1 a N, incluyendo dichos fragmentos de vídeo (262) al menos unos fragmentos de vídeo 1 a N, en donde cada una de dichas tramas de vídeo codificadas 1 a N se corresponde con un fragmento a partir de los fragmentos de vídeo 1 a N, en donde los fragmentos de vídeo (262) incluyen un fragmento de vídeo marcador N en donde una información suficiente está contenida en los fragmentos 1 a N - 1 para generar una trama de vídeo N, en donde el fragmento de vídeo marcador N incluye una trama P no codificada con una información de temporización idéntica a una trama de vídeo codificada previa en la serie de tramas de vídeo codificadas; y los fragmentos de audio (264) son porciones de al menos una pista de audio; y el procesador adicionalmente se configura y se le dan instrucciones por software para acceder a información a partir del archivo multimedia al: descodificar la trama N usando un fragmento de vídeo marcador N correspondiente junto con los fragmentos de vídeo 1 a N - 1.

Description

DESCRIPCIÓN
Sistema de descodificación para descodificar archivos multimedia, sistema para codificar un archivo multimedia, y archivo multimedia
Antecedentes de la invención
La presente invención se refiere, en general, a la codificación, la transmisión y la descodificación de archivos multimedia. Más concretamente, la invención se refiere a la codificación, la transmisión y la descodificación de archivos multimedia que pueden incluir pistas además de una única pista de audio y una única pista de vídeo.
El desarrollo de Internet ha impulsado el desarrollo de formatos de archivo para información multimedia para habilitar una generación, distribución y visualización normalizada de los archivos. Por lo general, un único archivo multimedia incluye una única pista de vídeo y una única pista de audio. Cuando se escriben datos multimedia en un medio físicamente transportable y de alto volumen, tal como un Disco de Vídeo Digital (DVD), se pueden usar múltiples archivos para proporcionar un número de pistas de vídeo, pistas de audio y pistas de subtítulo. Se pueden proporcionar archivos adicionales que contienen información que se puede usar para generar un menú interactivo. El documento US 6.046.778 (Nonomura y col.) describe la multiplexación de secuencias elementales de acuerdo con secuencias del sistema de MPEG-2 y la generación de subtítulos en conexión con el formato de vídeo de MPEG-2. El documento disponible en línea "OpenOML AVI File Format Extensions", septiembre de 1997, describe un formato de archivo compatible con AVI para vídeo; este también introduce la intercalación de secuencias de audio y de vídeo.
Sumario de la invención
La invención se dirige a sistemas para codificar y descodificar archivos multimedia como se define en las reivindicaciones 11 y 1, respectivamente, así como a un archivo multimedia como se define en la reivindicación 8. Breve descripción de los dibujos
La figura 1. es un diagrama de un sistema de acuerdo con una realización de la presente invención para codificar, distribuir y descodificar archivos.
La figura 2.0. es un diagrama de la estructura de un archivo multimedia de acuerdo con una realización de la presente invención.
La figura 2.0.1. es un diagrama de la estructura de un archivo multimedia de acuerdo con otra realización de la presente invención.
La figura 2.1. es un diagrama conceptual de un fragmento de lista de 'hdrl' de acuerdo con una realización de la invención.
La figura 2.2. es un diagrama conceptual de un fragmento de 'strl' de acuerdo con una realización de la invención.
La figura 2.3. es un diagrama conceptual de la memoria asignada para almacenar un fragmento de 'DXDT' de un archivo multimedia de acuerdo con una realización de la invención.
La figura 2.3.1. es un diagrama conceptual de fragmentos de 'metadatos' que se pueden incluir en un fragmento de 'DXDT' de un archivo multimedia de acuerdo con una realización de la invención.
La figura 2.4. es un diagrama conceptual del fragmento de 'DMNU' de acuerdo con una realización de la invención.
La figura 2.5. es un diagrama conceptual de fragmentos de menú contenidos en un fragmento de 'GestorMenuWow' de acuerdo con una realización de la invención.
La figura 2.6. es un diagrama conceptual de fragmentos de menú contenidos dentro de un fragmento de 'GestorMenuWow' de acuerdo con otra realización de la invención.
La figura 2.6.1. es un diagrama conceptual que ilustra las relaciones entre los diversos fragmentos contenidos dentro de un fragmento de 'DMNU'.
La figura 2.7. es un diagrama conceptual del fragmento de lista de 'película' de un archivo multimedia de acuerdo con una realización de la invención.
La figura 2.8. es un diagrama conceptual del fragmento de lista de 'película' de un archivo multimedia de acuerdo con una realización de la invención que incluye una DRM.
La figura 2.9. es un diagrama conceptual del fragmento de 'DRM' de acuerdo con una realización de la invención. La figura 3.0. es un diagrama de bloques de un sistema para generar un archivo multimedia de acuerdo con una realización de la presente invención.
La figura 3.1. es un diagrama de bloques de un sistema para generar un fragmento de 'DXDT' de acuerdo con una realización de la invención.
La figura 3.2. es un diagrama de bloques de un sistema para generar un fragmento de 'DMNU' de acuerdo con una realización de la invención.
La figura 3.3. es un diagrama conceptual de un modelo de medios de acuerdo con una realización de la invención.
La figura 3.3.1. es un diagrama conceptual de objetos a partir de un modelo de medios que se puede usar para generar automáticamente un menú pequeño de acuerdo con una realización de la invención.
La figura 3.4. es un diagrama de flujo de un proceso que se puede usar para refragmentar audio de acuerdo con una realización de la invención.
La figura 3.5. es un diagrama de bloques de un codificador de vídeo de acuerdo con una realización de la presente.
La figura 3.6. es un diagrama de flujo de un método de realización de una potenciación psicovisual de suavidad en una trama I de acuerdo con algunas realizaciones de la invención.
La figura 3.7. es un diagrama de flujo de un proceso para realizar una potenciación psicovisual de SAD de macrobloque de acuerdo con una realización de la invención.
La figura 3.8. es un diagrama de flujo de un proceso para un control de tasa de una pasada de acuerdo con una realización de la invención.
La figura 3.9. es un diagrama de flujo de un proceso para realizar un control de tasa de VBV de N-ésima pasada de acuerdo con una realización de la invención.
La figura 4.0. es un diagrama de flujo para un proceso para localizar la información multimedia requerida a partir de un archivo multimedia y visualizar la información multimedia de acuerdo con una realización de la invención. La figura 4.1. es un diagrama de bloques de un descodificador de acuerdo con una realización de la invención. La figura 4.2. es un ejemplo de un menú visualizado de acuerdo con una realización de la invención.
La figura 4.3. es un diagrama conceptual que muestra las fuentes de información usadas para generar la visualización mostrada en la figura 4.2 de acuerdo con una realización de la invención.
Descripción detallada de la invención
Haciendo referencia a los dibujos, algunas realizaciones de la presente invención son capaces de codificar, transmitir y descodificar archivos multimedia. Los archivos multimedia de acuerdo con algunas realizaciones de la presente invención pueden contener múltiples pistas de vídeo, múltiples pistas de audio, múltiples pistas de subtítulo, datos que se pueden usar para generar una interfaz de menú para acceder a los contenidos del archivo y 'metadatos' con respecto a los contenidos del archivo. Los archivos multimedia de acuerdo con varias realizaciones de la presente invención también incluyen referencias a pistas de vídeo, pistas de audio, pistas de subtítulo y 'metadatos' externos al archivo.
1. Descripción del sistema
Pasando a continuación a la figura 1, se muestra un sistema de acuerdo con una realización de la presente invención para codificar, distribuir y descodificar archivos. El sistema 10 incluye un ordenador 12, que se conecta a una otros diversos dispositivos informáticos por medio de una red 14. Los dispositivos que se pueden conectar a la red incluyen un servidor 16, un ordenador portátil 18 y un asistente personal digital (PDA) 20. En diversas realizaciones, las conexiones entre los dispositivos y la red pueden ser o bien cableadas o bien inalámbricas e implementarse usando cualquiera de diversos protocolos de interconexión de redes.
Durante el funcionamiento, el ordenador 12 se puede usar para codificar archivos multimedia de acuerdo con una realización de la presente invención. El ordenador 12 también se puede usar para descodificar archivos multimedia de acuerdo con algunas realizaciones de la presente invención y distribuir archivos multimedia de acuerdo con algunas realizaciones de la presente invención. El ordenador puede distribuir archivos usando cualquiera de diversos protocolos de transferencia de archivos, incluyendo por medio de una red entre elementos del mismo nivel. Además, el ordenador 12 puede transferir archivos multimedia de acuerdo con algunas realizaciones de la presente invención a un servidor 18, en donde se puede acceder a los archivos mediante otros dispositivos. Los otros dispositivos pueden incluir cualquier diversidad de dispositivos informáticos o incluso un dispositivo de descodificación dedicado. En la realización ilustrada, se muestran un ordenador portátil y un PDA. En otras realizaciones, descodificadores digitales de salón, ordenadores de escritorio, videoconsolas, dispositivos de electrónica de consumo y otros dispositivos se pueden conectar a la red, descargar los archivos multimedia y descodificarlos.
En una realización, los dispositivos acceden a los archivos multimedia a partir del servidor por medio de la red. En otras realizaciones, los dispositivos acceden a los archivos multimedia desde un número de ordenadores por medio de una red entre elementos del mismo nivel. En varias realizaciones, se pueden escribir archivos multimedia en un dispositivo de almacenamiento portátil tal como una unidad de disco, CD-ROM o DVD. En muchas realizaciones, los dispositivos electrónicos pueden acceder a los archivos multimedia escritos en dispositivos de almacenamiento portátiles.
2. Descripción de estructura de archivo
Los archivos multimedia de acuerdo con algunas realizaciones de la presente invención se pueden estructurar para ser conformes con el Formato de Archivo de Intercambio de Recursos ('formato de archivo RIFF'), definido por Microsoft Corporation de Redmond, WA e International Business Machines Corporation de Armonk, NY. RIFF es un formato de archivo para almacenar datos multimedia e información asociada. Por lo general, un archivo RIFF tiene un encabezamiento de RIFF de 8 bytes, que identifica el archivo y proporciona la longitud residual del archivo después del encabezamiento (es decir, longitud_archivo - 8). La totalidad del resto del archivo RIFF comprende "fragmentos" y "listas". Cada fragmento tiene un encabezamiento de fragmento de 8 bytes que identifica el tipo de fragmento, y que da la longitud en bytes de los datos a continuación del encabezamiento de fragmento. Cada lista tiene un encabezamiento de lista de 8 bytes que identifica el tipo de lista y que da la longitud en bytes de los datos a continuación del encabezamiento de lista. Los datos en una lista comprenden fragmentos y/u otras listas (que, a su vez pueden comprender fragmentos y/u otras listas). A veces, también se hace referencia a las listas RIFf como "fragmentos de lista".
Un archivo AVI es una forma especial de archivo RIFF que sigue el formato de un archivo RIFF, pero incluye diversos fragmentos y listas con identificadores definidos que contienen datos multimedia en formatos particulares. El formato AVI fue desarrollado y definido por Microsoft Corporation. Por lo general, los archivos AVI se crean usando un codificador que puede emitir datos multimedia en el formato AVI. Por lo general, los archivos AVI son descodificados por cualquiera de un grupo de software conocido de forma colectiva como descodificadores de AVI. Los formatos RIFF y AVI son flexibles en que estos solo definen fragmentos y listas que son parte del formato de archivo definido, pero permiten que los archivos también incluyan listas y/o fragmentos que están fuera de las definiciones de formato de archivo RIFF y/o AVI sin volver el archivo ilegible por un descodificador de RIFF y/o de AVI. En la práctica, los descodificadores de AVI (y, de forma similar, de RIFF) se implementan de tal modo que estos simplemente ignoran las listas y fragmentos que contienen información de encabezamiento no hallada en la definición de formato de archivo AVI. El descodificador de AVI ha de seguir leyendo a través de estas listas y fragmentos que no son AVI y, por lo tanto, el funcionamiento del descodificador de AVI se puede ralentizar pero, por lo demás, estos no tienen, en general, efecto alguno sobre, y son ignorados por, un descodificador de AVI.
Un archivo multimedia de acuerdo con una realización de la presente invención se ilustra en la figura 2.0. El archivo multimedia 30 ilustrado incluye un fragmento de conjunto de caracteres (fragmento de 'CSET') 32, un fragmento de lista de información (fragmento de lista de 'INFO') 34, un fragmento de encabezamiento de archivo (fragmento de lista de 'hdrl') 36, un fragmento de metadatos (fragmento de 'DXDT') 38, un fragmento de menú (fragmento de 'DMNU') 40, un fragmento de basura (fragmento de 'basura') 41, el fragmento de lista de película (fragmento de lista de 'película') 42, un fragmento de índice opcional (fragmento de 'idxl') 44 y un segundo fragmento de menú (fragmento de 'DMNU') 46. Algunos de estos fragmentos, y porciones de otros, se definen en el formato de archivo AVI, mientras que otros no están contenidos en el formato de archivo AVI. En muchos casos, pero no en todos ellos, el análisis posterior identifica fragmentos o porciones de fragmentos que se definen como parte del formato de archivo AVI.
Otro archivo multimedia de acuerdo con una realización de la presente invención se muestra en la figura 2.0.1. El archivo multimedia 30' es similar al mostrado en la figura 2.0. excepto por que el archivo incluye múltiples fragmentos 'RIFF' concatenados. Los fragmentos 'RIFF' pueden contener un fragmento 'RIFF' similar al mostrado en la figura 2.0. que puede excluir el segundo fragmento de 'DMNU' 46 o puede contener información de menú en la forma de un fragmento de 'DMNU' 46'.
En la realización ilustrada, los datos multimedia incluyen múltiples fragmentos 'RIFF' concatenados, en donde el primer fragmento 'RIFF' 50 incluye un fragmento de conjunto de caracteres (fragmento de 'CSET') 32', un fragmento de lista de información (fragmento de lista de 'INFO') 34', un fragmento de encabezamiento de archivo (fragmento de lista de 'hdrl') 36', un fragmento de metadatos (fragmento de 'DXDT') 38', un fragmento de menú (fragmento de 'DMNU') 40', un fragmento de basura (fragmento de 'basura') 41', el fragmento de lista de película (fragmento de lista de 'película') 42' y un fragmento de índice opcional (fragmento de 'idxl') 44'. El segundo fragmento 'RIFF' 52 contiene un segundo fragmento de menú (fragmento de 'DMNU') 46'. Se pueden incluir fragmentos 'RIFF' adicionales 54, que contienen títulos adicionales, después del fragmento de menú 'RIFF' 52. Los fragmentos 'RIFF' adicionales pueden contener medios independientes en un formato de archivo conforme con AVI. En una realización, el segundo fragmento de menú 46' y los fragmentos 'RIFF' adicionales tienen unos códigos de 4 caracteres especializados (definidos en el formato AVI y analizados posteriormente) de tal modo que los primeros dos caracteres de los códigos de 4 caracteres aparecen como los segundos dos caracteres y los segundos dos caracteres de los códigos de 4 caracteres aparecen como los primeros dos caracteres.
2.1. El fragmento de 'CSET'
El fragmento de 'CSET' 32 es un fragmento definido en el formato de archivo de Intercalación de Audio y Vídeo (formato de archivo AVI), creado por Microsoft Corporation. El fragmento de 'CSET' define el conjunto de caracteres y la información de idioma del archivo multimedia. La inclusión de un fragmento de 'CSET' de acuerdo con algunas realizaciones de la presente invención es opcional.
Un archivo multimedia de acuerdo con una realización de la presente invención no usa el fragmento de 'CSET' y usa UTF-8, que es definido por el Consorcio Unicode, para el conjunto de caracteres por defecto combinado con la Especificación de Idiomas 3066 de RFC, que es definida por el Grupo de Tareas Especiales sobre Ingeniería de Internet para la información de idioma.
2.2. El fragmento de lista de 'INFO'
El fragmento de lista de 'INFO' 34 puede almacenar información que ayuda a identificar los contenidos del archivo multimedia. La lista de 'INFO' se define en el formato de archivo AVI y su inclusión en un archivo multimedia de acuerdo con algunas realizaciones de la presente invención es opcional. Muchas realizaciones que incluyen un fragmento de 'DXDT' no incluyen un fragmento de lista de 'INFO'.
2.3. El fragmento de lista de 'hdrl'
El fragmento de lista de 'hdrl' 38 se define en el formato de archivo AVI y proporciona información con respecto al formato de los datos en el archivo multimedia. En general, se requiere la inclusión de un fragmento de lista de 'hdrl' o un fragmento que contiene una información de descripción similar. El fragmento de lista de 'hdrl' incluye un fragmento para cada pista de vídeo, cada pista de audio y cada pista de subtítulo.
Un diagrama conceptual de un fragmento de lista de 'hdrl' 38 de acuerdo con una realización de la invención que incluye una única pista de vídeo 62, dos pistas de audio 64, una pista de audio externa 66, dos pistas de subtítulo 68 y una pista de subtítulo externa 70 se ilustra en la figura 2.1. La lista de 'hdrl' 60 incluye un fragmento de 'avih'. El fragmento de 'avih' 60 contiene información global para la totalidad del archivo, tal como el número de secuencias dentro del archivo y la anchura y la altura del vídeo contenido en el archivo multimedia. El fragmento de 'avih' se puede implementar de acuerdo con el formato de archivo AVI.
Además del fragmento de 'avih', la lista de 'hdrl' incluye una lista de descriptores de secuencia para cada pista de audio, de vídeo y de subtítulo. En una realización, la lista de descriptores de secuencia se implementa usando fragmentos de 'strl'. Un fragmento de 'strl' de acuerdo con una realización de la presente invención se ilustra en la figura 2.2. Cada fragmento de 'strl' sirve para describir cada pista en el archivo multimedia. Los fragmentos de 'strl' para las pistas de audio, de vídeo y de subtítulo dentro del archivo multimedia incluyen un fragmento de 'strl' que hace referencia a un fragmento de 'strh' 92, un fragmento de 'strf' 94, un fragmento de 'strd' 96 y un fragmento de 'strn' 98. La totalidad de estos fragmentos se puede implementar de acuerdo con el formato de archivo AVI. De un interés particular es el fragmento de 'strh' 92, que especifica el tipo de pista de medios, y el fragmento de 'strd' 96, que se puede modificar para indicar si el vídeo está protegido por gestión de derechos digitales. Posteriormente se proporciona un análisis de diversas implementaciones de gestión de derechos digitales de acuerdo con algunas realizaciones de la presente invención.
Los archivos multimedia de acuerdo con algunas realizaciones de la presente invención pueden contener referencias a archivos externos que contienen información multimedia tal como una pista de audio adicional o una pista de subtítulo adicional. Las referencias a estas pistas se pueden contener o bien en el fragmento de 'hdrl' o bien en el fragmento de 'basura' 41. En todo caso, la referencia se puede contener en el fragmento de 'strh' 92 de un fragmento de 'strl' 90, que hace referencia o bien a un archivo local o bien a un archivo almacenado de forma remota. El archivo al que se hace referencia puede ser un archivo AVI convencional o un archivo multimedia de acuerdo con una realización de la presente invención que contiene la pista adicional.
En algunas realizaciones adicionales, el archivo al que se hace referencia puede contener cualquiera de los fragmentos que pueden estar presentes en el archivo de referencia, incluyendo fragmentos de 'DMNU', fragmentos de 'DXDT' y fragmentos asociados con pistas de audio, de vídeo y/o de subtítulo para una presentación multimedia. Por ejemplo, un primer archivo multimedia podría incluir un fragmento de 'DMNU' (analizado con mayor detalle posteriormente) que hace referencia a una primera presentación multimedia ubicada dentro del fragmento de lista de 'película' del primer archivo multimedia y una segunda presentación multimedia dentro del fragmento de lista de 'película' de un segundo archivo multimedia. Como alternativa, ambos fragmentos de lista de 'película' se pueden incluir en el mismo archivo multimedia, que no es necesario que sea el mismo archivo que el archivo en el que se ubica el fragmento de 'DMNU'.
2.4. El fragmento de 'DXDT'
El fragmento de 'DXDT' 38 contiene unos así denominados 'metadatos'. 'Metadatos' es un término usado para describir datos que proporcionan información acerca de los contenidos de un archivo, un documento o una radiodifusión. Los 'metadatos' almacenados dentro del fragmento de 'DXDT' de archivos multimedia de acuerdo con algunas realizaciones de la presente invención se pueden usar para almacenar una información específica del contenido tal como título, autor, propietario de los derechos de autor y reparto. Además, se pueden proporcionar detalles técnicos acerca del códec usado para codificar el archivo multimedia, tales como las opciones de CLI usadas y la distribución de cuantificador después de cada pasada.
En una realización, los metadatos se representan dentro del fragmento de 'DXDT' como una serie de sentencias, en donde cada sentencia incluye un sujeto, un predicado, un objeto y una autoridad. El sujeto es una referencia a lo que se está describiendo. El sujeto puede hacer referencia a un archivo, un artículo, una persona o una organización. El sujeto puede hacer referencia a cualquier cosa que tenga características que se puedan describir. El predicado identifica una característica del sujeto que se está describiendo. El objeto es una descripción de la característica identificada del sujeto y la autoridad identifica la fuente de la información.
Lo siguiente es una tabla que muestra un ejemplo de cómo se pueden representar diversos fragmentos de 'metadatos', como un objeto, un predicado, un sujeto y una autoridad:
Tabla 1 - Re resentación conce tual de 'metadatos'
Figure imgf000006_0001
En una realización, la expresión del sujeto, predicado, objeto y autoridad se implementa usando representaciones binarias de los datos, que se puede considerar que forman Grafos con Etiquetas Dirigidos (DLG). Un DLG consiste en nodos que son o bien recursos o bien literales. Los recursos son identificadores, que o bien pueden ser conformes con una convención de nomenclatura tal como un Identificador de Recursos Universal ("URI") como se define en RFC 2396 del Grupo de Tareas Especiales sobre Ingeniería de Internet (http://www.ietf.org/rfc/rfc2396.txt) o bien se refieren a datos específicos del propio sistema. Los literales son representaciones de un valor real, en lugar de una referencia.
Una ventaja de los DLG es que estos permiten la inclusión de un número flexible de artículos de datos que son del mismo tipo, tales como los miembros de reparto de una película. En el ejemplo mostrado en la tabla 1, se incluyen tres miembros de reparto. No obstante, se puede incluir cualquier número de miembros de reparto. Los DLG también permiten conexiones relacionales con otros tipos de datos. En la tabla 1, hay un artículo de 'metadatos' que tiene un sujeto "_:archivo281", una "Serie" de predicado, y un objeto "_:archivo321". El sujeto "_:archivo281" indica que los 'metadatos' se refieren al contenido del archivo al que se hace referencia como "_:archivo321" (en este caso, la película "Matrix"). El predicado es "Serie", que indica que el objeto tendrá información acerca de otra película en la serie a la que pertenece "Matrix". No obstante, "_:archivo321" no es el título o cualquier otra información específica acerca de la serie que incluye "Matrix", sino más bien una referencia a otra entrada que proporciona más información acerca de "_:archivo321". La siguiente entrada de 'metadatos', con el sujeto "_:archivo321", no obstante, incluye datos acerca de "_:archivo321", en concreto, que el Título, como es especificado por el Vocabulario Dublin Core, como es indicado por "http://purl.org/dc/elements/1.1/title" de esta secuela, es "Matrix Reloaded".
Las sentencias de 'metadatos' adicionales en la tabla 1 especifican que Keanu Reeves era un miembro del reparto que desempeñaba el papel de Neo y que tanto Larry como Andy Wachowski eran directores. También se expresa información técnica en los 'metadatos'. Las sentencias de 'metadatos' identifican que "_:archivo281" incluye la pista "_:pista#dc00". Los 'metadatos' proporcionan información que incluye la resolución de la pista de vídeo, el nivel de certificación de la pista de vídeo y los ajustes de códec. Aunque no se muestra en la tabla 1, los 'metadatos' también pueden incluir un identificador único asignado a una pista en el momento de la codificación. Cuando se usan identificadores únicos, codificar el mismo contenido múltiples veces dará como resultado un identificador diferente para cada versión codificada del contenido. No obstante, una copia de la pista de vídeo codificada conservaría el identificador de la pista a partir de la cual se copió esta.
Las entradas mostradas en la tabla 1 se pueden sustituir con otros vocabularios tales como el vocabulario de UPnP, que es definido por el foro de UPnP (véase http://www.upnpforum.org). Otra alternativa serían los vocabularios de Lenguaje de Sentencia de Artículos Digitales (DIDL) o de DIDL Ligero desarrollados por la Organización Internacional de Normalización como parte del trabajo hacia la norma MPEG-21. Lo siguiente son ejemplos de predicados dentro del vocabulario de UPnP:
urn:schemas-upnp-org:metadata-1-0/upnp/artist
urn:schemas-upnp-org:metadata-1-0/upnp/actor
urn:schemas-upnp-org:metadata-1-0/upnp/autor
urn:schemas-upnp-org:metadata-1-0/upnp/producer
urn:schemas-upnp-org:metadata-1-0/upnp/director
urn:schemas-upnp-org:metadata-1-0/upnp/genre
urn:schemas-upnp-org:metadata-1-0/upnp/album
urn:schemas-upnp-org:metadata-1-0/upnp/playlist
urn:schemas-upnp-org:metadata-1-0/upnp/originalTrackNumber
urn:schemas-upnp-org:metadata-1-0/upnp/userAnnotation
La autoridad para la totalidad de los 'metadatos' es '_:aut42'. Las sentencias de 'metadatos' muestran que '_:aut42' es 'Warner Brothers'. La autoridad posibilita la evaluación tanto de la calidad del archivo como de las sentencias de 'metadatos' asociadas con el archivo.
Los nodos en un grafo se conectan por medio de nodos de recurso con nombre. Una sentencia de 'metadatos' consiste en un nodo de sujeto, un nodo de predicado y un nodo de objeto. De forma opcional, un nodo de autoridad se puede conectar al DLG como parte de la sentencia de 'metadatos'.
Para cada nodo, hay determinadas características que ayudan a explicar adicionalmente la funcionalidad del nodo. Los tipos posibles se pueden representar como sigue usando el lenguaje de programación ANSI C:
/** Tipo no válido */
#define
TIPO_IDENTIFICADOR_RDF_DESCONOCIDO 0x00
/** URI de Recurso rdf:about */
#define TIPO_IDENTIFICADOR_RDF_RECURSO 0x01
/** rdf:IdNodo, _:archivo o N Tripletes generados */
#define TIPO_IDENTIFICADOR_RDF_ANONIMO 0x02
/** URI de predicado */
#define
TIPO IDENTIFICADOR RDF PREDICADO 0x03
(continuación)
/** rdf:li, rdf:_<n> */
#define TIPO_IDENTIFICADOR_RDF_ORDINAL 0x04
/** URI de Autoridad */
#define
TIPO_IDENTIFICADOR_RDF_AUTORIDAD 0x05
/** literal con formato UTF-8 */
#define TIPO_IDENTIFICADOR_RDF_LITERAL 0x06
/** Entero Literal */
#define TIPO_IDENTIFICADOR_RDF_INT 0x07
/** Datos de XML literal */
#define
TIPO_IDENTIFICADOR_RDF_XML_LITERAL 0x08
Un ejemplo de una estructura de datos (representada en el lenguaje de programación ANSI C) que representa los fragmentos de 'metadatos' contenidos dentro del fragmento de 'DXDT' es como sigue:
typedef struct StructDatosRDF
{
Encabezamiento
RDF Encabezamiento;
uint32_t numDeSentencias;
SentenciaRDF sentencias[RDF_MAX_SENTENCIAS]:
} DatosRDF
El fragmento de 'DatosRDF' incluye un fragmento al que se hace referencia como un fragmento de 'EncabezamientoRDF', un valor 'numDeSentencias' y una lista de fragmentos de 'SentenciaRDF'.
El fragmento de 'EncabezamientoRDF' contiene información acerca de la forma en la que se dio formato a los 'metadatos' en el fragmento. En una realización, los datos en el fragmento de 'EncabezamientoRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructEncabezamientoRDF
{
uint16_t versionPrincipal;
uint16_t versionSecundaria;
uint16_t versionCorreccion;
uint16_t numDeEsquemas;
EsquemaRDF Esquemas[RDF_MAX_ESQUEMAS]
} EncabezamientoRDF;
El fragmento de 'EncabezamientoRDF' incluye un número 'versión' que indica la versión del formato de descripción de recurso para posibilitar la compatibilidad con versiones posteriores. El encabezamiento incluye un segundo número 'numDeEsquemas' que representa el número de fragmentos de 'EsquemaRDF' en la lista 'Esquemas', que también forma parte del fragmento de 'EncabezamientoRDF'. En varias realizaciones, los fragmentos de 'EsquemaRDF' se usan para posibilitar que recursos complejos se representen más eficientemente. En una realización, los datos contenidos en un fragmento de 'EsquemaRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructEsquemaRDF
{
wchar_t* prefijo;
wchar_t* uri;
} EsquemaRDF;
El fragmento de 'EsquemaRDF' incluye una primera cadena de texto tal como 'dc' identificada como 'prefijo' y una segunda cadena de texto tal como 'http://purl.org/dc/elements/11/' identificada como 'un'. El 'prefijo' define un término que se puede usar en los 'metadatos' el lugar del 'uri'. El 'uri' es un Identificador de Recursos Universal, que puede ser conforme con un vocabulario normalizado especificado o puede ser un vocabulario específico para un sistema particular.
Volviendo al análisis del fragmento de 'DatosRDF'. Además de un fragmento de 'EncabezamientoRDF', el fragmento de 'DatosRDF' también incluye un valor 'numDeSentencias' y una lista 'sentencia' de fragmentos de 'SentenciaRDF'. El valor 'numDeSentencias' indica el número real de fragmentos de 'SentenciaRDF' en la lista 'sentencias' que contienen información. En una realización, los datos contenidos en el fragmento de 'SentenciaRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructSentenciaRDF {
SujetoRDF sujeto;
PredicadoRDF predicado
ObjetoRDF objeto;
AutoridadRDF autoridad;
} SentenciaRDF;
Cada fragmento de 'SentenciaRDF' contiene un fragmento de 'metadatos' con respecto al archivo multimedia. Los fragmentos 'sujeto', 'predicado', 'objeto' y 'autoridad' se usan para contener los diversos componentes de los 'metadatos' descritos anteriormente.
El 'sujeto' es un fragmento de 'SujetoRDF', que representa la porción de sujeto de los 'metadatos' descritos anteriormente. En una realización, los datos contenidos dentro del fragmento de 'SujetoRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructSujetoRDF {
uint16_t tipo;
wchar_t* valor;
} SujetoRDF;
El fragmento de 'SujetoRDF' mostrado anteriormente incluye un valor 'tipo' que indica que los datos son o bien un Recurso o bien un nodo anónimo de un fragmento de 'metadatos' y una cadena de texto de Unicode 'valor', que contiene datos que representan el sujeto del fragmento de 'metadatos'. En algunas realizaciones en las que se ha definido un fragmento de 'EsquemaRDF', el valor puede ser un término definido en lugar de una referencia directa a un recurso.
El 'predicado' en un fragmento de 'SentenciaRDF' es un fragmento de 'PredicadoRDF', que representa la porción de predicado de un fragmento de 'metadatos'. En una realización, los datos contenidos dentro de un fragmento de 'PredicadoRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructPredicadoRDF
{
uint16_t tipo;
wchar_t* valor;
} PredicadoRDF;
El fragmento de 'PredicadoRDF' mostrado anteriormente incluye un valor 'tipo' que indica que los datos son el URI de predicado o una entrada de lista ordinal de un fragmento de 'metadatos' y una cadena de texto 'valor', que contiene datos que representan el predicado de un fragmento de 'metadatos'. En algunas realizaciones en las que se ha definido un fragmento de 'EsquemaRDF', el valor puede ser un término definido en lugar de una referencia directa a un recurso.
El 'objeto' en un fragmento de 'SentenciaRDF' es un fragmento de 'ObjetoRDF', que representa la porción de objeto de un fragmento de 'metadatos'. En una realización, los datos contenidos en el fragmento de 'ObjetoRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructObjetoRDF {
uint16_t tipo;
(continuación)
wchar_t* idioma;
wchar_t* URITipoDatos;
wchar_t* valor;
} ObjetoRDF;
El fragmento de 'ObjetoRDF' mostrado anteriormente incluye un valor 'tipo' que indica que el fragmento de datos es una cadena literal de UTF-8, un entero literal o datos de XML literal de un fragmento de 'metadatos'. El fragmento también incluye tres valores. El primer valor 'idioma' se usa para representar el idioma en el que se expresa el fragmento de 'metadatos' (por ejemplo, el título de una película puede variar en diferentes idiomas). En varias realizaciones, se puede usar una representación convencional para identificar el idioma (tal como RFC 3066 -Etiquetas para la Identificación de Idiomas especificada por el Grupo de Tareas Especiales sobre Ingeniería de Internet, véase http://www.ietf.org/rfc/rfc3066.txt). El segundo valor 'URITipoDatos' se usa para indicar el tipo de datos que están contenidos dentro del campo de 'valor' si este no puede ser indicado de forma explícita por el campo de 'tipo'. El URI especificado por el valor URITipoDatos apunta a un Vocabulario de URI de RDF general usado para describir el tipo particular de Datos que se usa. Diferentes formatos en los que se puede expresar el URI se describen en http://www.w3.org/TR/rdf-concepts/#section-Datatypes. En una realización, el 'valor' es un 'carácter ancho'. En otras realizaciones, el 'valor' puede ser cualquiera de diversos tipos de datos, de un único bit a una imagen o una secuencia de vídeo. El 'valor' contiene el fragmento de objeto de los 'metadatos'.
La 'autoridad' en un fragmento de 'SentenciaRDF' es un fragmento de 'AutoridadRDF', que representa la porción de autoridad de un fragmento de 'metadatos'. En una realización, los datos contenidos dentro del fragmento de 'AutoridadRDF' se pueden representar como sigue (representado en ANSI C):
typedef struct StructAutoridadRDF
{
uint16_t tipo;
wchar_t* valor;
} AutoridadRDF;
La estructura de datos de 'AutoridadRDF' mostrada anteriormente incluye un valor 'tipo' que indica los datos son un Recurso o un nodo anónimo de un fragmento de 'metadatos'. El 'valor' contiene los datos que representan la autoridad para los 'metadatos'. En algunas realizaciones en las que se ha definido un fragmento de 'EsquemaRDF', el valor puede ser un término definido en lugar de una referencia directa a un recurso.
Una representación conceptual del almacenamiento de un fragmento de 'DXDT' de un archivo multimedia de acuerdo con una realización de la presente invención se muestra en la figura 2.3. El fragmento de 'DXDT' 38 incluye un fragmento de 'EncabezamientoRDF' 110, un valor de 'numDeSentencias' 112 y una lista de fragmentos de SentenciaRDF 114. El fragmento de EncabezamientoRDF 110 incluye un valor de 'versión' 116, un valor de 'numDeEsquemas' 118 y una lista de fragmentos de 'Esquema' 120. Cada fragmento de 'SentenciaRDF' 114 incluye un fragmento de 'SujetoRDF' 122, un fragmento de 'PredicadoRDF' 124, un fragmento de 'ObjetoRDF' 126 y un fragmento de 'AutoridadRDF' 128. El fragmento de 'SujetoRDF' incluye un valor de 'tipo' 130 y un valor de 'valor' 132. El fragmento de 'PredicadoRDF' 124 también incluye un valor de 'tipo' 134 y un valor de 'valor' 136. El fragmento de 'ObjetoRDF' 126 incluye un valor de 'tipo' 138, un valor de 'idioma' 140 (mostrado en la figura como 'idio'), un valor de 'URITipoDatos' 142 (mostrado en la figura como 'Tdatos') y un valor de "valor" 144. El fragmento de 'AutoridadRDF' 128 incluye un valor de 'tipo' 146 y un valor de 'valor' 148. Aunque el fragmento de 'DXDT' ilustrado se muestra como que incluye un único fragmento de 'Esquema' y un único fragmento de 'SentenciaRDF', un experto en la materia apreciará fácilmente que se pueden usar números diferentes de fragmentos de 'Esquema' y fragmentos de 'SentenciaRDF' en un fragmento que describe 'metadatos'.
Como se analiza posteriormente, los archivos multimedia de acuerdo con algunas realizaciones de la presente invención se pueden modificar y actualizar de forma continua. Puede ser difícil determinar por adelantado los 'metadatos' que asociar con el propio archivo y los 'metadatos' a los que acceder de forma remota (por ejemplo, por medio de Internet). Por lo general, unos 'metadatos' suficientes están contenidos dentro de un archivo multimedia de acuerdo con una realización de la presente invención con el fin de describir los contenidos del archivo. Se puede obtener información adicional si el dispositivo que está revisando el archivo es capaz de acceder, por medio de una red, a otros dispositivos que contienen 'metadatos' a los que se hace referencia desde dentro del archivo.
Los métodos de representar 'metadatos' descritos anteriormente pueden ser ampliables y pueden proporcionar la capacidad de añadir y retirar diferentes campos de 'metadatos' almacenados dentro del archivo a medida que la necesidad del mismo cambia con el paso del tiempo. Además, la representación de 'metadatos' puede ser compatible con versiones posteriores entre revisiones.
La forma estructurada en la que se representan los 'metadatos' de acuerdo con algunas realizaciones de la presente invención posibilita que los dispositivos consulten el archivo multimedia para determinar mejor sus contenidos. Entonces, la consulta se podría usar para actualizar los contenidos del archivo multimedia, para obtener 'metadatos' adicionales con respecto al archivo multimedia, generar un menú en relación con los contenidos del archivo o realizar cualquier otra función que implique el procesamiento automático de datos representados en un formato convencional. Además, definir la longitud de cada elemento analizable de los 'metadatos' puede aumentar la facilidad con la que los dispositivos con cantidades limitadas de memoria, tales como dispositivos de electrónica de consumo, pueden acceder los 'metadatos'.
En otras realizaciones, los 'metadatos' se representan usando fragmentos individuales para cada fragmento de 'metadatos'. Varios fragmentos de 'DXDT' de acuerdo con la presente invención incluyen un fragmento binario que contiene 'metadatos' codificados como se ha descrito anteriormente y fragmentos adicionales que contienen fragmentos individuales de 'metadatos' a los que se da formato o bien como se ha descrito anteriormente o bien en otro formato. En algunas realizaciones en las que se incluyen 'metadatos' binarios en el fragmento de 'DXDT', los 'metadatos' binarios se pueden representar usando ASCII codificado de 64 bits. En otras realizaciones, se pueden usar otras representaciones binarias.
Algunos ejemplos de fragmentos individuales que se pueden incluir en el fragmento de 'DXDT' de acuerdo con la presente invención se ilustran en la figura 2.3.1. Los 'metadatos' incluyen un fragmento de 'Metadatos' 150 que puede contener un fragmento de 'MetadatosRelacionAspectoPixeles' 152a, un fragmento de 'MetadatosURICodificador' 152b, un fragmento de 'MetadatosAjustesCodec' 152c, un fragmento de 'MetadatosTipoTrama' 152d, un fragmento de 'MetadatosResolucionVideo' 152e, un fragmento de 'MetadatosPublicador' 152f, un fragmento de 'MetadatosCreador' 152g, un fragmento de 'MetadatosGenero' 152h, un fragmento de 'MetadatosHerramientaCreador' 152i, un fragmento de 'MetadatosDerechos' 152j, un fragmento de 'MetadatosTiempoEjecucion' 152k, un fragmento de 'MetadatosCuantificador' 1521, un fragmento de 'MetadatosInfoCodec' 152m, un fragmento de 'MetadatosNombreCodificador' 152n, un Fragmento de 'MetadatosTasaTramas' 152o, un fragmento de 'MetadatosFuenteEntrada' 152p, un fragmento de 'MetadatosIDArchivo' 152q, un fragmento de 'MetadatosTipo' 152r, un fragmento de 'MetadatosTitulo' 152s y/o un fragmento de 'MetadatosNivelCert' 152t.
El fragmento de 'MetadatosRelacionAspectoPixeles' 152a incluye información con respecto a la relación de aspecto de píxeles del vídeo codificado. El fragmento de 'MetadatosURICodificador' 152b incluye información con respecto al codificador. El fragmento de 'MetadatosAjustesCodec' 152c incluye información con respecto a los ajustes del códec usado para codificar el vídeo. El fragmento de 'MetadatosTipoTrama' 152d incluye información con respecto a las tramas de vídeo. El fragmento de 'MetadatosResolucionVideo' 152e incluye información con respecto a la resolución de vídeo del vídeo codificado. El fragmento de 'MetadatosPublicador' 152f incluye información con respecto a la persona u organización que publicó los medios. El fragmento de 'MetadatosCreador' 152g incluye información con respecto al creador del contenido. El fragmento de 'MetadatosGenero' 152h incluye información con respecto al género de los medios. El fragmento de 'MetadatosHerramientaCreador' 152i incluye información con respecto a la herramienta usada para crear el archivo. El fragmento de 'MetadatosDerechos' 152j incluye información con respecto a la DRM. El fragmento de 'MetadatosTiempoEjecucion' 152k incluye información con respecto al tiempo de ejecución de los medios. El fragmento de 'MetadatosCuantificador' 1521 incluye información con respecto al cuantificador usado para codificar el vídeo. El fragmento de 'MetadatosInfoCodec' 152m incluye información con respecto al códec. El fragmento de 'MetadatosNombreCodificador' 152n incluye información con respecto al nombre del codificador. El Fragmento de 'MetadatosTasaTramas' 152o incluye información con respecto a la tasa de tramas de los medios. El fragmento de 'MetadatosFuenteEntrada' 152p incluye información con respecto a la fuente de entrada. El fragmento de 'MetadatosIDArchivo' 152q incluye un identificador único para el archivo. El fragmento de 'MetadatosTipo' 152r incluye información con respecto al tipo del archivo multimedia. El fragmento de 'MetadatosTitulo' 152s incluye el título de los medios y el fragmento de 'MetadatosNivelCert' 152t incluye información con respecto al nivel de certificación de los medios. En otras realizaciones, se pueden incluir fragmentos adicionales que contienen 'metadatos' adicionales. En varias realizaciones, un fragmento que contiene 'metadatos' en un formato binario como se ha descrito anteriormente se puede incluir dentro del fragmento de 'Metadatos', En una realización, el fragmento de 'metadatos' binarios se codifica como ASCII de 64 bits.
2.5. Los fragmentos de 'DMNU'
Haciendo referencia a las figuras 2.0. y 2.0.1., se muestran un primer fragmento de 'DMNU' 40 (40') y un segundo fragmento de 'DMNU' 46 (46'). En la figura 2.0. el segundo fragmento de 'DMNU' 46 forma parte del archivo multimedia 30. En la realización ilustrada en la figura 2.0.1., el fragmento de 'DMNU' 46' está contenido dentro de un fragmento RIFF separado. En ambos casos, el primer y el segundo fragmentos de 'DMNU' contienen datos que se pueden usar para visualizar menús navegables. En una realización, el primer fragmento de 'DMNU' 40 (40') contiene datos que se pueden usar para crear un menú simple que no incluye características avanzadas tales como animaciones de segundo plano ampliadas. Además, el segundo fragmento de 'DMNU' 46 (46') incluye datos que se pueden usar para crear un menú más complejo que incluye características avanzadas tales como un segundo plano animado ampliado.
En varias realizaciones, proporcionar un menú simple y uno complejo puede posibilitar que un dispositivo elija el menú que este desea reproducir. Colocar el menor de los dos menús antes que el fragmento de lista de 'película' 42 posibilita que aquellos dispositivos de acuerdo con algunas realizaciones de la presente invención que no pueden visualizar menús salten rápidamente la información que no se puede visualizar.
En otras realizaciones, los datos requeridos para crear un único menú se dividen entre el primer y el segundo fragmentos de 'DMNU'. Como alternativa, el fragmento de 'DMNU' puede ser un único fragmento antes del fragmento de 'película' que contiene datos para un único conjunto de menús o múltiples conjuntos de menús. En otras realizaciones, el fragmento de 'DMNU' puede ser un único o múltiples fragmentos ubicados en otras ubicaciones de principio a fin del archivo multimedia.
En varios archivos multimedia de acuerdo con la presente invención, el primer fragmento de 'DMNU' 40 (40') se puede generar automáticamente basándose en un menú 'más rico' en el segundo fragmento de 'DMNU' 46 (46'). La generación automática de menús se analiza con mayor detalle posteriormente.
La estructura de un fragmento de 'DMNU' de acuerdo con una realización de la presente invención se muestra en la figura 2.4. El fragmento de 'DMNU' 158 es un fragmento de lista que contiene un fragmento de menú 160 y un fragmento de 'MRIF' 162. El fragmento de menú contiene la información necesaria para construir y navegar a través de los menús. El fragmento de 'MRIF' contiene información de medios que se puede usar para proporcionar subtítulos, vídeo de segundo plano y audio de segundo plano a los menús. En varias realizaciones, el fragmento de 'DMNU' contiene información de menú que posibilita la visualización de menús en varios idiomas diferentes.
En una realización, el fragmento de 'MenuWow' 160 contiene la jerarquía de los objetos de fragmento de menú que se ilustran conceptualmente en la figura 2.5. En la parte de arriba de la jerarquía está el fragmento de 'GestorMenuWow' 170. El fragmento de 'GestorMenuWow' puede contener uno o más fragmentos de 'MenusIdioma' 172 y un fragmento de 'Medios' 174.
El uso de fragmentos de 'MenusIdioma' 172 posibilita que el fragmento de 'DMNU' 158 contenga información de menú en idiomas diferentes. Cada fragmento de 'MenusIdioma' 172 contiene la información usada para generar un conjunto completo de menús en un idioma especificado. Por lo tanto, el fragmento de 'MenusIdioma' incluye un identificador que identifica el idioma de la información asociada con el fragmento de 'MenusIdioma'. El fragmento de 'MenusIdioma' también incluye una lista de fragmentos de 'MenuWow' 175.
Cada fragmento de 'MenuWow' 175 contiene la totalidad de la información que se va a visualizar en la pantalla para un menú particular. Esta información puede incluir vídeo y audio de segundo plano. La información también puede incluir datos con respecto a acciones de botón que se pueden usar para acceder a otros menús o para salir del menú y comenzar a visualizar una porción del archivo multimedia. En una realización, el fragmento de 'MenuWow' 175 incluye una lista de referencias a medios. Estas referencias se refieren a información contenida en el fragmento de 'Medios' 174, que se analizará más adelante. Las referencias a medios pueden definir el vídeo de segundo plano y el audio de segundo plano para un menú. El fragmento de 'MenuWow' 175 también define una superposición que se puede usar para resaltar un botón específico, cuando se accede por primera vez a un menú.
Además, cada fragmento de 'MenuWow' 175 incluye un número de fragmentos de 'MenuBoton' 176. Cada fragmento de 'MenuBoton' define las propiedades de un botón en pantalla. El fragmento de 'MenuBoton' puede describir cosas tales como la superposición a usar cuando el botón es resaltado por el usuario, el nombre del botón y qué hacer en respuesta a diversas acciones realizadas por un usuario que navega a través del menú. Las respuestas a acciones se definen al hacer referencia a un fragmento de 'Acción' 178. Una única acción, por ejemplo, seleccionar un botón, puede dar como resultado que se acceda a varios fragmentos de 'Acción'. En algunas realizaciones en las que el usuario es capaz de interaccionar con el menú usando un dispositivo tal como un ratón que posibilita que un puntero en pantalla se mueva en torno a la visualización de una forma sin restricciones, la ubicación en pantalla de los botones se puede definir usando un fragmento de 'RectanguloMenu' 180. El conocimiento de la ubicación en pantalla del botón posibilita que un sistema determine si un usuario está seleccionando un botón, cuando se usa un dispositivo de entrada libre.
Cada fragmento de 'Acción' identifica uno o más de un número de diferentes diversidades de fragmentos relacionados con acciones, que pueden incluir un fragmento de 'AccionReproduccion' 182, un fragmento de 'AccionTransicionMenu' 184, un fragmento de 'AccionVolverAReproduccion' 186, un fragmento de 'AccionSeleccionAudio' 188, un fragmento de 'AccionSeleccionSubtitulo' 190 y un fragmento de 'AccionTransicionBoton' 191. Un fragmento de 'AccionReproduccion' 182 identifica una porción de cada una de las pistas de vídeo, de audio y de subtítulo dentro de un archivo multimedia. El fragmento de 'AccionReproduccion' hace referencia a una porción de la pista de vídeo usando una referencia a un fragmento de 'PistaMedios' (véase el análisis posterior). El fragmento de 'AccionReproduccion' identifica pistas de audio y de subtítulo usando fragmentos de 'PistaSubtitulo' 192 y de 'PistaAudio' 194. Los fragmentos tanto de 'PistaSubtitulo' como de 'PistaAudio' contienen referencias a un fragmento de 'PistaMedios' 198. Cuando un fragmento de 'AccionReproduccion' forma la base de una acción de acuerdo con algunas realizaciones de la presente invención, las pistas de audio y de subtítulo que se seleccionan se determinan mediante los valores de variables establecidos inicialmente como valores por defecto y, entonces, son potencialmente modificadas por las interacciones de un usuario con el menú.
Cada fragmento de 'AccionTransicionMenu' 184 contiene una referencia a un fragmento de 'MenuWow' 175. Esta referencia se puede usar para obtener información para realizar una transición a, y para visualizar, otro menú.
Cada fragmento de 'AccionVolverAReproduccion' 186 contiene información que posibilita que un reproductor vuelva a una porción del archivo multimedia a la que se estaba accediendo antes de que el usuario suba un menú.
Cada fragmento de 'AccionSeleccionAudio' 188 contiene información que se puede usar para seleccionar una pista de audio particular. En una realización, la pista de audio se selecciona de entre pistas de audio contenidas dentro de un archivo multimedia de acuerdo con una realización de la presente invención. En otras realizaciones, la pista de audio se puede ubicar en un archivo al que se hace referencia externamente.
Cada fragmento de 'AccionSeleccionSubtitulo' 190 contiene información que se puede usar para seleccionar una pista de subtítulo particular. En una realización, la pista de subtítulo se selecciona de entre un subtítulo contenido dentro de un archivo multimedia de acuerdo con una realización de la presente invención. En otras realizaciones, la pista de subtítulo se puede ubicar en un archivo al que se hace referencia externamente.
Cada fragmento de 'AccionTransicionBoton' 191 contiene información que se puede usar para realizar una transición a otro botón en el mismo menú. Esto se realiza después de que se hayan realizado otras acciones asociadas con un botón.
El fragmento de 'Medios' 174 incluye un número de fragmentos de 'FuenteMedios' 166 y fragmentos de 'PistaMedios' 198. El fragmento de 'Medios' define la totalidad de las pistas multimedia (por ejemplo, audio, vídeo, subtítulo) usadas por la característica y el sistema de menú. Cada fragmento de 'FuenteMedios' 196 identifica un fragmento RIFF dentro del archivo multimedia de acuerdo con una realización de la presente invención, que, a su vez, puede incluir múltiples fragmentos RIFF. Cada fragmento de 'PistaMedios' 198 identifica una porción de una pista multimedia dentro de un fragmento RIFF especificado por un fragmento de 'FuenteMedios'.
El fragmento de 'MRIF' 162 es, en esencia, su propio archivo multimedia pequeño que cumple con el formato RIFF. El fragmento de 'MRIF' contiene pistas de audio, de vídeo y de subtítulo que se pueden usar para proporcionar un audio y vídeo de segundo plano y superposiciones para menús. El fragmento de 'MRIF' también puede contener vídeo que se va a usar como superposiciones para indicar botones de menú resaltados. En algunas realizaciones en las que se requieren menos datos de menú, el vídeo de segundo plano puede ser una trama fija (una variación del formato AVI) o una secuencia pequeña de tramas idénticas. En otras realizaciones, se pueden usar unas secuencias de vídeo más elaboradas para proporcionar el vídeo de segundo plano.
Como se ha analizado anteriormente, los diversos fragmentos que forman parte de un fragmento de 'MenuWow' 175 y el propio fragmento de 'MenuWow' contienen referencias a pistas de medios reales. Cada una de estas referencias es, por lo general, para una pista de medios definida en el fragmento de lista de 'hdrl' de un fragmento RIFF.
Otros fragmentos que se pueden usar para crear un fragmento de 'DMNU' de acuerdo con la presente invención se muestran en la figura 2.6. El fragmento de 'DMNU' incluye un fragmento de 'GestorMenuWow' 170'. El fragmento de 'GestorMenuWow' 170' puede contener al menos un fragmento de 'MenusIdioma' 172', al menos un fragmento de 'Medios' 174' y al menos un fragmento de 'TablaTraduccion' 200.
El contenido del fragmento de 'MenusIdioma' 172' es, en gran medida, similar al del fragmento de 'MenusIdioma' 172 ilustrado en la figura 2.5. La diferencia principal es que el fragmento de 'AccionReproduccion' 182' no contiene los fragmentos de 'PistaSubtitulo' 192 y los fragmentos de 'PistaAudio' 194.
El fragmento de 'Medios' 174' es significativamente diferente del fragmento de 'Medios' 174 mostrado en la figura 2.5. El fragmento de 'Medios' 174' contiene al menos un fragmento de 'Título' 202 y al menos un fragmento de 'PistasMenu' 204. El fragmento de 'Título' se refiere a un título dentro del archivo multimedia. Como se ha analizado anteriormente, los archivos multimedia de acuerdo con algunas realizaciones de la presente invención pueden incluir más de un título (por ejemplo, múltiples episodios en una serie de televisión, una serie relacionada de características de longitud completa o simplemente una selección de características diferentes). El fragmento de 'PistasMenu' 204 contiene información con respecto a información de medios que se usa para crear una visualización de menú y la pista de sonido de audio y los subtítulos que acompañan a la visualización.
El fragmento de 'Título' puede contener al menos un fragmento de 'Capítulo' 206. El fragmento de 'Capítulo' 206 hace referencia a una escena dentro de un título particular. El fragmento de 'Capítulo' 206 contiene referencias a las porciones de la pista de vídeo, cada pista de audio y cada pista de subtítulo que se corresponden con la escena indicada por el fragmento de 'Capítulo'. En una realización, las referencias se implementan usando los fragmentos de 'FuenteMedios' 196' y los fragmentos de 'PistaMedios' 198' similares a los descritos anteriormente en relación con la figura 2.5. En varias realizaciones, un fragmento de 'PistaMedios' hace referencia a la porción apropiada de la pista de vídeo y cada uno de un número de fragmentos de 'PistaMedios' adicionales hace referencia a una de las pistas de audio o pistas de subtítulo. En una realización, se hace referencia a la totalidad de las pistas de audio y pistas de subtítulo que se corresponden con una pista de vídeo particular usando fragmentos de 'PistaMedios' separados.
Como se ha descrito anteriormente, los fragmentos de 'PistasMenu' 204 contienen referencias a los medios que se usan para generar los medios de audio, de vídeo y de superposición de los menús. En una realización, las referencias a la información de medios se hacen usando los fragmentos de 'FuenteMedios' 196' y los fragmentos de 'PistaMedios' 198' contenidos dentro del fragmento de 'PistasMenu'. En una realización, los fragmentos de 'FuenteMedios' 196' y los fragmentos de 'PistaMedios' 198' se implementan de la forma descrita anteriormente en relación con la figura 2.5.
El fragmento de 'TablaTraduccion' 200 se puede usar para contener cadenas de texto que describen cada título y capítulo en diversos idiomas. En una realización, el fragmento de 'TablaTraduccion' 200 incluye al menos un fragmento de 'ConsultaTraduccion' 208. Cada fragmento de 'ConsultaTraduccion' 208 se asocia con un fragmento de 'Título' 202, un fragmento de 'Capítulo' 206 o un fragmento de 'PistaMedios' 196' y contiene un número de fragmentos de 'Traducción' 210. Cada uno de los fragmentos de 'Traducción' en un fragmento de 'ConsultaTraduccion' contiene una cadena de texto que describe el fragmento asociado con el fragmento de 'ConsultaTraduccion' en un idioma indicado por el fragmento de 'Traducción'.
Un diagrama que ilustra conceptualmente las relaciones entre los diversos fragmentos contenidos dentro de un fragmento de 'DMNU' se ilustra en la figura 2.6.1. La figura muestra la contención de un fragmento por otro fragmento usando una flecha de trazo continuo. La dirección en la que apunta la flecha indica el fragmento contenidos por el fragmento en el que se origina la flecha. Las referencias realizadas por un fragmento a otro fragmento son indicadas por una línea de trazo discontinuo, en donde el fragmento al que se hace referencia es indicado por la flecha de trazo discontinuo.
2.6. El fragmento de 'basura'
El fragmento de 'basura' 41 es un fragmento opcional que se puede incluir en archivos multimedia de acuerdo con algunas realizaciones de la presente invención. La naturaleza del fragmento de 'basura' se especifica en el formato de archivo AVI.
2.7. El fragmento de lista de 'película'
El fragmento de lista de 'película' 42 contiene un número de fragmentos de 'datos'. Algunos ejemplos de información que los fragmentos de 'datos' pueden contener son datos de audio, de vídeo o de subtítulo. En una realización, el fragmento de lista de 'película' incluye datos para al menos una pista de vídeo, múltiples pistas de audio y múltiples pistas de subtítulo.
La intercalación de fragmentos de 'datos' en el fragmento de lista de 'película' 42 de un archivo multimedia que contiene una pista de vídeo, tres pistas de audio y tres pistas de subtítulo se ilustra en la figura 2.7. Por razones de conveniencia, un fragmento de 'datos' que contiene vídeo se describirá como fragmento de 'vídeo', se hará referencia a un fragmento de 'datos' que contiene audio como fragmento de 'audio' y se hará referencia a un fragmento de 'datos' que contiene subtítulos como fragmento de 'subtítulo'. En el fragmento de lista de 'película' 42 ilustrado, cada fragmento de 'vídeo' 262 está separado del siguiente fragmento de 'vídeo' por los fragmentos de 'audio' 264 a partir de cada una de las pistas de audio. En varias realizaciones, los fragmentos de 'audio' contienen la porción de la pista de audio que se corresponde con la porción de vídeo contenida en el fragmento de 'vídeo' a continuación del fragmento de 'audio'.
Los fragmentos de 'vídeo' adyacentes también pueden estar separados de una de las pistas de subtítulo por uno o más fragmentos de 'subtítulo' 266. En una realización, el fragmento de 'subtítulo' 266 incluye un subtítulo y un tiempo de inicio y un tiempo de parada. En varias realizaciones, el fragmento de 'subtítulo' se intercala en el fragmento de lista de 'película' de tal modo que el fragmento de 'vídeo' a continuación del fragmento de 'subtítulo' incluye la porción de vídeo que tiene lugar en el tiempo de inicio del subtítulo. En otras realizaciones, el tiempo de inicio de todos los fragmentos de 'subtítulo' y de 'audio' se produce antes del tiempo de inicio equivalente del vídeo. En una realización, los fragmentos de 'audio' y de 'subtítulo' se pueden colocar dentro de un plazo de 5 segundos del fragmento de 'vídeo' correspondiente y, en otras realizaciones, los fragmentos de 'audio' y de 'subtítulo' se pueden colocar dentro de un plazo de tiempo en relación con la cantidad de vídeo que puede ser almacenado en memoria intermedia por un dispositivo capaz de visualizar el audio y vídeo dentro del archivo.
En una realización, los fragmentos de 'datos' incluyen un código de 'FOURCC' para identificar la secuencia a la que pertenece el fragmento de 'datos'. El código de 'FOURCC' consiste en un número de secuencia de dos dígitos seguido por un código de dos caracteres que define el tipo de información en el fragmento. (Raider) Un código 'FOURCC' alternativo consiste en un código de dos caracteres que define el tipo de información en el fragmento seguido por el número de secuencia de dos dígitos. Algunos ejemplos del código de dos caracteres se muestran en la siguiente tabla:
Tabla 2 - Códi os de dos caracteres seleccionados usados en códi os FOURCC
Figure imgf000015_0001
En una realización, la estructura de los fragmentos de 'vídeo' 262 y los fragmentos de 'audio' 264 cumple con el formato de archivo AVI. En otras realizaciones, se pueden usar otros formatos para los fragmentos que especifican la naturaleza de los medios y contienen los medios codificados.
En varias realizaciones, los datos contenidos dentro de un fragmento de 'subtítulo' 266 se pueden representar como sigue:
typedef struct
fragmentosubtitulo {
FOURCC fcc;
DWORD cb;
STRduracion;
STR subtitulo;
} FRAGMENTOSUBTITULO;
El valor 'fcc' es el código de FOURCC que indica la pista de subtítulo y la naturaleza de la pista de subtítulo (modo de texto o de mapa de bits). El valor 'cb' especifica el tamaño de la estructura. El valor 'duración' especifica el tiempo en el punto de partida y de finalización del subtítulo. En una realización, esta puede estar en la forma hh:mm:ss.xxx -hh:mm:ss.xxx. hh representa las horas, mm los minutos, ss los segundos y xxx los milisegundos. El valor 'subtítulo' contiene o bien el texto de Unicode del subtítulo en modo de texto o bien una imagen de mapa de bits del subtítulo en el modo de mapa de bits. Varias realizaciones de la presente invención usan imágenes de mapa de bits comprimidas para representar la información de subtítulo. En una realización, el campo de 'subtítulo' contiene información con respecto a la anchura, la altura y la posición en pantalla del subtítulo. Además, el campo de 'subtítulo' también puede contener información de color y los píxeles reales del mapa de bits. En varias realizaciones, se usa una codificación por longitud de ejecución para reducir la cantidad de información de píxeles requerida para representar el mapa de bits.
Los archivos multimedia de acuerdo con algunas realizaciones de la presente invención pueden incluir gestión de derechos digitales. Esta información se puede usar en vídeo sobre aplicaciones a petición. Los archivos multimedia que están protegidos por gestión de derechos digitales solo se pueden reproducir correctamente en un reproductor al que se ha concedido el derecho específico de reproducción. En una realización, el hecho de que una pista está protegida por gestión de derechos digitales se puede indicar en la información acerca de la pista en el fragmento de lista de 'hdrl' (véase la descripción anterior). Un archivo multimedia de acuerdo con una realización de la presente invención que incluye una pista protegida por gestión de derechos digitales también puede contener información acerca de la gestión de derechos digitales en el fragmento de lista de 'película'.
Un fragmento de lista de 'película' de un archivo multimedia de acuerdo con una realización de la presente invención que incluye una pista de vídeo, múltiples pistas de audio, al menos una pista de subtítulo e información que posibilita la gestión de derechos digitales se ilustra en la figura 2.8. El fragmento de lista de 'película' 42' es similar al fragmento de lista de 'película' mostrado en la figura 2.7. con la adición de un fragmento de 'DRM' 270 antes de cada fragmento de vídeo 262'. Los fragmentos de 'DRM' 270 son fragmentos de 'datos' que contienen información de gestión de derechos digitales, que puede ser identificada por un código de FOURCc 'nndd'. Los primeros dos caracteres 'nn' se refieren al número de pista y los segundos dos caracteres son 'dd' para señalar que el fragmento contiene información de gestión de derechos digitales. En una realización, el fragmento de 'DRM' 270 proporciona la información de gestión de derechos digitales para el fragmento de 'vídeo' 262' a continuación del fragmento de 'DRM'. Un dispositivo que intenta reproducir la pista de vídeo protegida por gestión de derechos digitales usa la información en el fragmento de 'DRM' para descodificar la información de vídeo en el fragmento de 'vídeo'. Por lo general, se interpreta que la ausencia de un fragmento de 'DRM' antes de un fragmento de 'vídeo' quiere decir que el fragmento de 'vídeo' está desprotegido.
En un sistema de cifrado de acuerdo con una realización de la presente invención, los fragmentos de vídeo solo están parcialmente cifrados. En donde se usa un cifrado parcial, los fragmentos de 'DRM' contienen una referencia a la porción de un fragmento de 'vídeo' que se cifra y una referencia a la clave que se puede usar para descifrar la porción cifrada. Las claves de descifrado se pueden ubicar en un encabezamiento de 'DRM', que es parte del fragmento de 'strd' (véase la descripción anterior). Las claves de descifrado se aleatorizan y se cifran con una clave maestra. El encabezamiento de 'DRM' también contiene información que identifica la clave maestra.
Una representación conceptual de la información en un fragmento de 'DRM' se muestra en la figura 2.9. El fragmento de 'DRM' 270 puede incluir un valor de 'trama' 280, un valor de 'estado' 282, un valor de 'desplazamiento' 284, un valor de 'número' 286 y un valor de 'clave' 288. El valor de 'trama' se puede usar para hacer referencia a la trama cifrada de vídeo. El valor de 'estado' se puede usar para indicar si se cifra la trama, el valor de 'desplazamiento' 284 apunta al inicio del bloque cifrado dentro de la trama y el valor de 'número' 286 indica el número de bytes cifrados en el bloque. El valor de 'clave' 288 hace referencia a la clave de descifrado que se puede usar para descifrar el bloque.
2.8. El fragmento de 'idx1'
El fragmento de 'idx1' 44 es un fragmento opcional que se puede usar para indexar los fragmentos de 'datos' en el fragmento de lista de 'película' 42. En una realización, el fragmento de 'idx1' se puede implementar como se especifica en el formato AVI. En otras realizaciones, el fragmento de 'idx1' se puede implementar usando estructuras de datos que hacen referencia a la ubicación dentro del archivo de cada uno de los fragmentos de 'datos' en el fragmento de lista de 'película'. En varias realizaciones, el fragmento de 'idx1' identifica cada fragmento de 'datos' mediante el número de pista de los datos y el tipo de los datos. Los códigos de FOURCC a los que se ha hecho referencia anteriormente se pueden usar para este fin.
3. Codificación de un archivo multimedia
Algunas realizaciones de la presente invención se pueden usar para generar archivos multimedia en un número de formas. En un caso, algunos sistemas de acuerdo con algunas realizaciones de la presente invención pueden generar archivos multimedia a partir de archivos que contienen pistas de vídeo, pistas de audio y pistas de subtítulo separadas. En tales casos, se puede crear e insertar en el archivo otra información, tal como información de menú y 'metadatos'.
Otros sistemas de acuerdo con algunas realizaciones de la presente invención se pueden usar para extraer información a partir de los diversos archivos en un Disco de Vídeo Digital ("DVD") y crear un único archivo multimedia de acuerdo con una realización de la presente invención. En donde la fuente inicial de la información es un DVD, algunos sistemas de acuerdo con algunas realizaciones de la presente invención pueden usar un códec para obtener una compresión más grande y pueden refragmentar el audio de tal modo que los fragmentos de audio se corresponden con los fragmentos de vídeo en el archivo multimedia recién creado. Además, la información de menú en el sistema de menú de DVD se puede analizar y usarse para generar información de menú incluida en el archivo multimedia.
Otras realizaciones pueden generar un nuevo archivo multimedia mediante la adición de contenido adicional a un archivo multimedia existente de acuerdo con una realización de la presente invención. Un ejemplo de adición de contenido adicional sería la adición de una pista de audio adicional al archivo tal como una pista de audio que contiene un comentario (por ejemplo, comentarios del director, relato creado a posteriori de un vídeo de vacaciones). La información de pista de audio adicional intercalada en el archivo multimedia también podría estar acompañada por una modificación de la información de menú en el archivo multimedia para habilitar la reproducción de la nueva pista de audio.
3.1. Generación usando pistas de datos almacenadas
Un sistema de acuerdo con una realización de la presente invención para generar un archivo multimedia se ilustra en la figura 3.0. El componente principal del sistema 350 es el intercalador 352. El intercalador recibe fragmentos de información y los intercala para crear un archivo multimedia de acuerdo con una realización de la presente invención en el formato descrito anteriormente. El intercalador también recibe información con respecto a 'metadatos' a partir de un gestor de metadatos 354. El intercalador emite un archivo multimedia de acuerdo con algunas realizaciones de la presente invención a un dispositivo de almacenamiento 356.
Por lo general, los fragmentos proporcionados al intercalador se almacenan en un dispositivo de almacenamiento. En varias realizaciones, la totalidad de los fragmentos se almacenan en el mismo dispositivo de almacenamiento. En otras realizaciones, los fragmentos se pueden proporcionar al intercalador a partir de diversos dispositivos de almacenamiento o generarse y proporcionarse al intercalador en tiempo real.
En la realización ilustrada en la figura 3.0., ya se han generado el fragmento de 'DMNU' 358 y el fragmento de 'DXDT' 360, y se almacenan en dispositivos de almacenamiento. La fuente de vídeo 362 se almacena en un dispositivo de almacenamiento y se descodifica usando un descodificador de vídeo 364 y, entonces, se codifica usando un codificador de vídeo 366 para generar un fragmento de 'vídeo'. Las fuentes de audio 368 también se almacenan en dispositivos de almacenamiento. Se generan fragmentos de audio mediante la descodificación de la fuente de audio usando un descodificador de audio 370 y, entonces, codificando el audio descodificado usando un codificador de audio 372. Los fragmentos de 'subtítulo' se generan a partir de subtítulos de texto 374 almacenados en un dispositivo de almacenamiento. Los subtítulos se proporcionan a un primer transcodificador 376, que convierte cualquiera de un número de formatos de subtítulo en un formato de mapa de bits sin procesar. En una realización, el formato de subtítulo almacenado puede ser un formato tal como SRT, SUB o SSA. Además, el formato de mapa de bits puede ser el de un mapa de bits de cuatro bits que incluye una tabla de consulta de paleta de color. La tabla de consulta de paleta de color incluye una identificación de profundidad de color de 24 bits para cada uno de los dieciséis códigos de color de cuatro bits posibles. Un único archivo multimedia puede incluir más de una tabla de consulta de paleta de color (véase el código de FOURCC de paleta "pc" en la tabla 2 anterior). El mapa de bits de cuatro bits permite de este modo que cada menú tenga 16 colores simultáneos diferentes tomados de una paleta de 16 millones de colores. En algunas realizaciones alternativas, se usan números diferentes de bits por píxel y profundidades de color diferentes. La salida del primer transcodificador 376 se proporciona a un segundo transcodificador 378, que comprime el mapa de bits. En una realización, se usa una codificación por longitud de ejecución para comprimir el mapa de bits. En otras realizaciones, se usan otros formatos de compresión adecuados. En una realización, las interfaces entre los diversos codificadores, descodificadores y transcodificadores son conformes con las normas de DirectShow especificadas por Microsoft Corporation. En otras realizaciones, no es necesario que el software usado para realizar la codificación, la descodificación y la transcodificación cumpla con tales normas.
En la realización ilustrada, se muestran componentes de procesamiento separados para cada fuente de medios. En otras realizaciones, los recursos se pueden compartir. Por ejemplo, se podría usar un único descodificador de audio y codificador de audio para generar fragmentos de audio a partir de la totalidad de las fuentes. Por lo general, la totalidad del sistema se puede implementar en un ordenador usando software y conectarse a un dispositivo de almacenamiento tal como una unidad de disco duro.
Con el fin de utilizar el intercalador de la forma descrita anteriormente, el fragmento de 'DMNU', el fragmento de 'DXDT', los fragmentos de 'vídeo', los fragmentos de 'audio' y los fragmentos de 'subtítulo' de acuerdo con algunas realizaciones de la presente invención se han de generar y proporcionarse al intercalador. El proceso de generar cada uno de los diversos fragmentos en un archivo multimedia de acuerdo con una realización de la presente invención se analiza con mayor detalle posteriormente.
3.2. Generación de un fragmento de 'DXDT'
El fragmento de 'DXDT' se puede generar en cualquiera de un número de formas. En una realización, se introducen 'metadatos' en estructuras de datos por medio de una interfaz gráfica de usuario y, entonces, se analizan para dar un fragmento de 'DXDT'. En una realización, los 'metadatos' se expresan como una serie de sentencias de sujeto, de predicado, de objeto y de autoridad. En otra realización, las sentencias de 'metadatos' se expresan en cualquiera de diversos formatos. En varias realizaciones, cada sentencia de 'metadatos' se analiza para dar un fragmento separado. En otras realizaciones, varias sentencias de 'metadatos' en un primer formato (tal como expresiones de sujeto, de predicado, de objeto, de autoridad) se analizan para dar un primer fragmento y otras sentencias de 'metadatos' en otros formatos se analizan para dar fragmentos separados. En una realización, las sentencias de 'metadatos' se escriben en un archivo de configuración de XML y el archivo de configuración de XML se analiza para crear los fragmentos dentro de un fragmento de 'DXDT'.
Una realización de un sistema para generar un fragmento de 'DXDT' a partir de una serie de sentencias de 'metadatos' contenidas dentro de un archivo de configuración de XML se muestra en la figura 3.1. El sistema 380 incluye un archivo de configuración de XML 382, que se puede proporcionar a un analizador 384. El archivo de configuración de XML incluye los 'metadatos' codificados como XML. El analizador analiza el XML y genera un fragmento de 'DXDT' 386 al convertir la sentencia de 'metadatos' en fragmentos que se escriben en el fragmento de 'DXDT' de acuerdo con cualquiera de los formatos de fragmento de 'metadatos' descritos anteriormente.
3.3. Generación de un fragmento de 'DMNU'
Un sistema que se puede usar para generar un fragmento de 'DMNU' de acuerdo con una realización de la presente invención se ilustra en la figura 3.2. El sistema de generación de fragmentos de menú 420 requiere como entrada un modelo de medios 422 e información de medios. La información de medios puede adoptar la forma de una fuente de vídeo 424, una fuente de audio 426 y una fuente de superposición 428.
La generación de un fragmento de 'DMNU' usando las entradas al sistema de generación de fragmentos de menú implica la creación de un número de archivos intermedios. El modelo de medios 422 se usa para crear un archivo de configuración de XML 430 y la información de medios se usa para crear un número de archivos AVI 432. El archivo de configuración de XML es creado por un transcodificador de modelos 434. Los archivos AVI 432 se crean al intercalar la información de vídeo, de audio y de superposición usando un intercalador 436. La información de vídeo se obtiene mediante el uso de un descodificador de vídeo 438 y un codificador de vídeo 440 para descodificar la fuente de vídeo 424 y recodificar esta de la forma analizada posteriormente. La información de audio se obtiene mediante el uso de un descodificador de audio 442 y un codificador de audio 444 para descodificar el audio y codificar este de la forma descrita posteriormente. La información de superposición se genera usando un primer transcodificador 446 y un segundo transcodificador 448. El primer transcodificador 446 convierte la superposición en una representación gráfica tal como un mapa de bits convencional y el segundo transcodificador toma la información gráfica y le da formato según se requiere para su inclusión en el archivo multimedia. Una vez que se han generado el archivo de XML y los archivos AVI que contienen la información requerida para construir los menús, el generador de menús 450 puede usar la información para generar un fragmento de 'DMNU' 358'.
3.3.1. El modelo de menú
En una realización, el modelo de medios es un modelo orientado a objetos que representa la totalidad de los menús y sus subcomponentes. El modelo de medios organiza los menús en una estructura jerárquica, lo que permite que los menús se organicen mediante una selección de idioma. Un modelo de medios de acuerdo con una realización de la presente invención se ilustra en la figura 3.3. El modelo de medios 460 incluye un objeto de 'GestorMedios' de nivel más alto 462, que se asocia con un número de objetos de 'MenusIdioma' 463, un objeto de 'Medios' 464 y un objeto de 'TablaTraduccion' 465. El 'GestorMenu' también contiene el idioma de menú por defecto. En una realización, el idioma por defecto puede ser indicado por el código de idioma de dos letras 639 de ISO.
Los objetos de 'MenusIdioma' organizan la información para diversos menús mediante una selección de idioma. La totalidad de los objetos de 'Menú' 466 para un idioma dado se asocian con el objeto de 'MenusIdioma' 463 para ese idioma. Cada objeto de 'Menú' se asocia con un número de objetos de 'Botón' 468 y hace referencia a un número de objetos de 'PistaMedios' 488. Los objetos de 'PistaMedios' 488 a los que se hace referencia indicados el vídeo de segundo plano y el audio de segundo plano para el objeto de 'Menú' 466.
Cada objeto de 'Botón' 468 se asocia con un objeto de 'Acción' 470 y un objeto de 'Rectángulo' 484. El objeto de 'Botón' 468 también contiene una referencia a un objeto de 'PistaMedios' 488 que indica la superposición que se va a usar cuando se resalta el botón en una visualización. Cada objeto de 'Acción' 470 se asocia con un número de objetos que pueden incluir un objeto de 'TransicionMenu' 472, un objeto de 'TransicionBoton' 474, un objeto de 'VolverAReproduccion' 476, un objeto de 'SeleccionSubtitulo' 478, un objeto de 'SeleccionAudio' 480 y un objeto de 'AccionReproduccion' 482. Cada uno de estos objetos define la respuesta del sistema de menú a diversas entradas procedentes de un usuario. El objeto de 'TransicionMenu' contiene una referencia a un objeto de 'Menú' que indica un menú al que se debería realizar una transición en respuesta a una acción. El objeto de 'TransicionBoton' indica un botón que se debería resaltar en respuesta a una acción. El objeto de 'VolverAReproduccion' puede dar lugar a que un reproductor reanude la reproducción de una característica. Los objetos de 'SeleccionSubtitulo' y de 'SeleccionAudio' contienen referencias a los objetos de 'Título' 487 (analizados posteriormente). El objeto de 'AccionReproduccion' contiene una referencia a un objeto de 'Capítulo' 492 (analizado posteriormente). El objeto de 'Rectángulo' 484 indica la porción de la pantalla ocupada por el botón.
El objeto de 'Medios' 464 indica la información de medios a la que se hace referencia en el sistema de menú. El objeto de 'Medios' tiene un objeto de 'PistasMenu' 486 y un número de objetos de 'Título' 487 asociado con este. El objeto de 'PistasMenu' 486 hace referencia a unos objetos de 'PistaMedios' 488 que son indicativos de los medios usados para construir los menús (es decir, audio de segundo plano, vídeo de segundo plano y superposiciones). Los objetos de 'Título' 487 son indicativos de una presentación multimedia y tienen un número de objetos de 'Capítulo' 492 y objetos de 'FuenteMedios' 490 asociados con los mismos. Los objetos de 'Título' también contienen una referencia a un objeto de 'ConsultaTraduccion' 494. Los objetos de 'Capítulo' son indicativos de un determinado punto en una presentación multimedia y tienen un número de objetos de 'PistaMedios' 488 asociados con los mismos. Los objetos de 'Capítulo' también contienen una referencia a un objeto de 'ConsultaTraduccion' 494. Cada objeto de 'PistaMedios' asociado con un objeto de 'Capítulo' es indicativo de un punto en una pista o bien de audio, o bien de vídeo o bien de subtítulo de la presentación multimedia y hace referencia a un objeto de 'FuenteMedios' 490 y un objeto de 'ConsultaTraduccion' 494 (analizados posteriormente).
El objeto de 'TablaTraduccion' 465 agrupa un número de cadenas de texto que describen las diversas partes de las presentaciones multimedia indicadas por los objetos de 'Título', los objetos de 'Capítulo' y los objetos de 'PistaMedios'. El objeto de 'TablaTraduccion' 465 tiene un número de objetos de 'ConsultaTraduccion' 494 asociado con este. Cada objeto de 'ConsultaTraduccion' es indicativo de un objeto particular y tiene un número de objetos de 'Traducción' 496 asociado con este. Cada uno de los objetos de 'Traducción' es indicativo de una cadena de texto que describe el objeto indicado por el objeto de 'ConsultaTraduccion' en un idioma particular.
Un modelo de objeto de medios se puede construir usando un software configurado para generar los diversos objetos descritos anteriormente y para establecer las asociaciones y referencias requeridas entre los objetos.
3.3.2. Generación de un archivo de XML
Un archivo de configuración de XML se genera a partir del modelo de menú, que representa la totalidad de los menús y sus subcomponentes. El archivo de configuración de XML también identifica la totalidad de los archivos de medios usados por los menús. El XML se puede generar mediante la implementación de una aplicación analizadora apropiada que analiza el modelo de objeto para dar código de XML.
En otras realizaciones, una aplicación de edición de vídeo puede proporcionar a un usuario una interfaz de usuario que posibilita la generación directa de un archivo de configuración de XML sin crear un modelo de menú.
En algunas realizaciones en las que otro sistema de menú es la base del modelo de menú, tal como un menú de DVD, los menús pueden ser purgados por el usuario para eliminar opciones de menú en relación con un contenido no incluido en el archivo multimedia generado de acuerdo con la práctica de la presente invención. En una realización, esto se puede realizar al proporcionar una interfaz gráfica de usuario que posibilita la eliminación de objetos del modelo de menú. En otra realización, el purgado de los menús se puede lograr al proporcionar una interfaz gráfica de usuario o una interfaz de texto que puede editar el archivo de configuración de x Ml .
3.3.3. La información de medios
Cuando se genera el fragmento de 'DMNU', la información de medios proporcionada al generador de menús 450 incluye los datos requeridos para proporcionar el vídeo de segundo plano, el audio de segundo plano y las superposiciones de primer plano para los botones especificados en el modelo de menú (véase la descripción anterior). En una realización, se usa una aplicación de edición de vídeo tal como VideoWave distribuida por Roxio, Inc. de Santa Clara, CA para proporcionar las pistas de medios de origen que representan las superposiciones de selección de vídeo, de audio y de botón para cada menú individual.
3.3.4. Generación de archivos AVI intermedios
Como se ha analizado anteriormente, las pistas de medios que se usan como el vídeo de segundo plano, el audio de segundo plano y las superposiciones de botón de primer plano se almacenan en un único archivo AVI para uno o más menús. Los fragmentos que contienen las pistas de medios en un archivo AVI de menú se pueden crear mediante el uso de software diseñado para intercalar pistas de vídeo, de audio y de superposición de botón. Los fragmentos de 'audio', de 'vídeo' y de 'superposición' (es decir, fragmentos de 'subtítulo' que contienen información de superposición) se intercalan en un archivo conforme con el formato AVI usando un intercalador.
Como se ha mencionado anteriormente, se puede crear un archivo AVI separado para cada menú. En otras realizaciones, se podrían usar otros formatos de archivo o un único archivo para contener la información de medios usada para proporcionar la información de audio de segundo plano, de vídeo de segundo plano y de superposición de primer plano.
3.3.5. Combinación del archivo de configuración de XML y los archivos AVI
En una realización, un ordenador está configurado para analizar información a partir del archivo de configuración de XML para crear un fragmento de 'MenuWow' (descrito anteriormente). Además, el ordenador puede crear el fragmento de 'MRIF' (descrito anteriormente) usando los archivos AVI que contienen los medios para cada menú. Entonces, el ordenador puede completar la generación del fragmento de 'DMNU' mediante la creación de las referencias necesarias entre el fragmento de 'MenuWow' y los fragmentos de medios en el fragmento de 'MRIF'. En varias realizaciones, la información de menú se puede cifrar. El cifrado se puede lograr mediante el cifrado de la información de medios contenida en el fragmento de 'MRIF' de una forma similar a la descrita posteriormente en relación con fragmentos de 'vídeo'. En otras realizaciones, se usan diversas técnicas de cifrado alternativas.
3.3.6. Generación automática de menús a partir del modelo de objeto
Haciendo referencia de nuevo a la figura 3.3., un menú que contiene menos contenido que el menú completo se puede generar automáticamente a partir del modelo de menú al simplemente examinar los objetos de 'Título' 487 asociados con el objeto de 'Medios' 464. Los objetos usados para generar automáticamente un menú de acuerdo con una realización de la invención se muestran en la figura 3.3.1. Un software puede generar un archivo de configuración de XML para un menú simple que simplemente posibilita la selección de una sección particular de una presentación multimedia y la selección de las pistas de audio y de subtítulo a usar.
3.3.7. Generación de fragmentos de 'DXDT' y de 'DMNU' usando un único archivo de configuración
Algunos sistemas de acuerdo con varias realizaciones de la presente invención son capaces de generar un único archivo de configuración de XML que contiene tanto 'metadatos' como información de menú y de usar el archivo de XML para generar los fragmentos de 'DXDT' y de 'DMNU'. Estos sistemas obtienen el archivo de configuración de XML usando la información de 'metadatos' y el modelo de objeto de menú. En otras realizaciones, no es necesario que el archivo de configuración esté en XML.
3.4. Generación de fragmentos de 'audio'
Los fragmentos de 'audio' en el fragmento de lista de 'película' de archivos multimedia de acuerdo con algunas realizaciones de la presente invención se pueden generar mediante la descodificación de una fuente de audio y, entonces, la codificación de la fuente para dar fragmentos de 'audio' de acuerdo con la práctica de la presente invención. En una realización, los fragmentos de 'audio' se pueden codificar usando un códec mp3.
3.4.1. Refragmentación de audio
En donde la fuente de audio se proporciona en fragmentos que no contienen información de audio que se corresponde con los contenidos de un fragmento de 'vídeo' correspondiente, entonces algunas realizaciones de la presente invención pueden refragmentar el audio. Un proceso que se puede usar para refragmentar el audio se ilustra en la figura 3.4. El proceso 480 implica identificar (482) un fragmento de 'vídeo', identificar (484) la información de audio que acompaña al fragmento de 'vídeo' y extraer (486) la información de audio a partir de los fragmentos de audio existentes para crear (488) un nuevo fragmento de 'audio'. El proceso se repite hasta que se toma la decisión (490) de que se ha refragmentado la totalidad de la fuente de audio. Punto en el que se ha completado la refragmentación del audio (492).
3.5. Generación de fragmentos de 'vídeo'
Como se ha descrito anteriormente, el proceso de creación de fragmentos de vídeo puede implicar descodificar la fuente de vídeo y codificar el vídeo descodificado para dar fragmentos de 'vídeo'. En una realización, cada fragmento de 'vídeo' contiene información para una única trama de vídeo. El proceso de descodificación simplemente implica tomar vídeo en un formato particular y descodificar el vídeo a partir de ese formato a un formato de vídeo convencional, que se puede descomprimir. El proceso de codificación implica tomar el vídeo convencional, codificar el vídeo y generar fragmentos de 'vídeo' usando el vídeo codificado.
Un codificador de vídeo de acuerdo con una realización de la presente invención se ilustra conceptualmente en la figura 3.5. El codificador de vídeo 500 preprocesa 502 la información de vídeo convencional 504. Entonces se realiza una estimación de movimiento 506 sobre el vídeo preprocesado para proporcionar una compensación de movimiento 508 al vídeo preprocesado. Se realiza una transformada de coseno discreta (transformación DCT) 510 sobre el vídeo de movimiento compensado. A continuación de la transformación DCT, se cuantifica 512 el vídeo y se realiza una predicción 514. Entonces se genera una secuencia de bits comprimida 516 mediante la combinación de una versión de código 518 de textura del vídeo con una codificación de movimiento 520 generada usando los resultados de la estimación de movimiento. Entonces, la secuencia de bits comprimida se usa para generar los fragmentos de 'vídeo'.
Con el fin de realizar una estimación de movimiento 506, el sistema ha de tener conocimiento de cómo la trama de vídeo previamente procesada será descodificada por un dispositivo de descodificación (por ejemplo, cuando el vídeo comprimido se descomprime para su visionado por un reproductor). Esta información se puede obtener mediante la cuantificación inversa 522 de la salida del cuantificador 512. Entonces, se puede realizar una DCT inversa 524 sobre la salida del cuantificador inverso y el resultado colocarse en un almacén de tramas 526 para el acceso al mismo durante el proceso de estimación de movimiento.
Los archivos multimedia de acuerdo con algunas realizaciones de la presente invención también pueden incluir un número de potenciaciones psicovisuales 528. Las potenciaciones psicovisuales pueden ser métodos de compresión de vídeo basándose en las percepciones humanas de la visión. Estas técnicas se analizan más adelante y, en general, implican modificar el número de bits usados por el cuantificador para representar diversos aspectos del vídeo. Otros aspectos del proceso de codificación también pueden incluir potenciaciones psicovisuales.
En una realización, la totalidad del sistema de codificación 500 se puede implementar usando un ordenador configurado para realizar las diversas funciones descritas anteriormente. Posteriormente se proporcionan algunos ejemplos de implementaciones detalladas de estas funciones.
3.5.1. Preprocesamiento
Las operaciones de preprocesamiento 502 que son realizadas de forma opcional por un codificador 500 de acuerdo con una realización de la presente invención pueden usar un número de técnicas de procesamiento de señal para mejorar la calidad del vídeo codificado. En una realización, el preprocesamiento 502 puede implicar uno o todos de entre desentrelazado, reducción de ruido espacial/temporal y redimensionamiento. En algunas realizaciones en las que se usan todas estas tres técnicas de preprocesamiento, por lo general el desentrelazado se realiza en primer lugar, seguido por la reducción de ruido espacial/temporal y el redimensionamiento.
3.5.2. Estimación y compensación de movimiento
Un codificador de vídeo de acuerdo con una realización de la presente invención puede reducir el número de píxeles requeridos para representar una pista de vídeo al buscar píxeles que se repiten en múltiples tramas. En esencia, por lo general cada trama en un vídeo contiene muchos de los mismos píxeles que la anterior a esta. El codificador puede realizar varios tipos de búsquedas para coincidencias en píxeles entre cada trama (como macrobloques, píxeles, medios píxeles y cuartos de píxel) y elimina estas redundancias siempre que sea posible sin reducir la calidad de imagen. Usando una estimación de movimiento, el codificador puede representar la mayor parte de la instantánea simplemente mediante el registro de los cambios que han tenido lugar desde la última trama en lugar de almacenar la totalidad de la instantánea para cada trama. Durante la estimación de movimiento, el codificador divide la trama que está analizando en cuadrícula uniforme de bloques, a la que se hace referencia a menudo como 'macrobloques'. Para cada 'macrobloque' en la trama, el codificador puede intentar hallar un bloque coincidente en la trama previa. El proceso de intentar hallar bloques coincidentes se denomina 'búsqueda de movimiento'. El movimiento del 'macrobloque' se puede representar como un vector bidimensional, es decir, una representación (x, y). El algoritmo de búsqueda de movimiento se puede realizar con diversos grados de precisión. Una búsqueda de píxeles completos es una en la que el codificador intentará localizar bloques coincidentes al recorrer gradualmente la trama de referencia en una cualquiera de las dimensiones, un píxel de cada vez. En una búsqueda de medios píxeles, el codificador busca un bloque coincidente al recorrer gradualmente la trama de referencia en una cualquiera de las dimensiones, medio píxel de cada vez. El codificador puede usar cuartos de píxel, otras fracciones de píxel, o búsquedas que implican una granularidad de más de un píxel.
La realización de codificador ilustrada en la figura 3.5. realiza una estimación de movimiento de acuerdo con una realización de la presente invención. Durante la estimación de movimiento, el codificador tiene acceso al vídeo preprocesado 502 y la trama previa, que se almacena en un almacén de tramas 526. La trama previa se genera al tomar la salida del cuantificador, realizando una cuantificación inversa 522 y una transformación DCT inversa 524. La razón de realizar las funciones inversas es de tal modo que la trama en el almacén de tramas es como aparecería cuando es descodificada por un reproductor de acuerdo con una realización de la presente invención.
La compensación de movimiento se realiza al tomar los bloques y los vectores generados como resultado de la estimación de movimiento. El resultado es una aproximación de la imagen codificada que se puede poner en coincidencia con la imagen real al proporcionar información de textura adicional.
3.5.3. Transformada de coseno discreta
La DCT y la DCT inversa realizadas por el codificador ilustrado en la figura 3.5. son de acuerdo con la norma especificada en ISO/IEC 14496-2:2001(E), Anexo A.1 (transformadas de codificación).
3.5.3.1. Descripción de transformada
La DCT es un método de transformación de un conjunto de puntos de datos en el dominio espacial en una representación en el dominio de la frecuencia. En el caso de la compresión de vídeo, una DCT bidimensional convierte bloques de imagen en una forma en la que las redundancias son más fácilmente aprovechables. Un bloque en el dominio de la frecuencia puede ser una matriz dispersa que se comprime fácilmente mediante codificación por entropía.
3.5.3.2. Potenciaciones psicovisuales para transformada
Los coeficientes de DCT se pueden modificar para mejorar la calidad de la imagen cuantificada mediante la reducción del ruido de cuantificación en áreas en donde este es inmediatamente evidente para un espectador humano. Además, el tamaño de archivo se puede reducir mediante el aumento del ruido de cuantificación en porciones de la imagen en donde este no es discernible fácilmente por un espectador humano.
Los codificadores de acuerdo con una realización de la presente invención pueden realizar aquello a lo que se hace referencia como potenciación psicovisual 'lenta'. La potenciación psicovisual 'lenta' analiza bloques de la imagen de vídeo y decide si permitir algo de ruido, se pueden ahorrar algunos bits sin deteriorar la apariencia del vídeo. El proceso usa una métrica por bloque. Se hace referencia al proceso como un proceso 'lento', debido a que este realiza una cantidad considerable de cómputo para evitar los artefactos de aparición de bloques o de aparición de anillos.
Otras realizaciones de codificadores de acuerdo con algunas realizaciones de la presente invención implementan una potenciación psicovisual 'rápida'. La potenciación psicovisual 'rápida' es capaz de controlar en dónde aparece ruido dentro de un bloque y puede dar forma al ruido de cuantificación.
Las potenciaciones psicovisuales tanto 'lenta' como 'rápida' se analizan con mayor detalle posteriormente. Se pueden realizar otras potenciaciones psicovisuales de acuerdo con algunas realizaciones de la presente invención que incluyen potenciaciones que controlan el ruido en los bordes de imagen y que buscan concentrar unos niveles más altos de ruido de cuantificación en áreas de la imagen en donde este no es inmediatamente evidente para la visión humana.
3.5.3.3. Potenciación psicovisual 'lenta'
La potenciación psicovisual 'lenta' analiza bloques de la imagen de vídeo y determina si permitir algo de ruido, puede ahorrar bits sin deteriorar la apariencia del vídeo. En una realización, el algoritmo incluye dos fases. La primera implica la generación de una imagen diferenciada para los píxeles de luminancia de entrada. La imagen diferenciada se genera de la forma descrita posteriormente. La segunda fase implica modificar los coeficientes de DCT antes de la cuantificación.
3.5.3.3.I. Generación de imagen diferenciada
Cada píxel p'xy de la imagen diferenciada se computa a partir de los píxeles de origen descomprimidos, pxy, de acuerdo con lo siguiente:
P'xy = máx (\Px+1y - pxy\, \Px-1y - Pxy\, \Px+1y - Pxy\, \Px-1y - Pxy\)
en donde
p'xy estará en el intervalo de 0 a 255 (suponiendo vídeo de 8 bits),
3.5.3.3.2. Modificación de coeficientes de DCT
La modificación de los coeficientes de DCT puede implicar el cómputo de un factor de aparición de anillos de bloque, el cómputo de la energía de bloque y la modificación real de los valores de coeficiente.
3.5.3.3.3. Cómputo de factor de aparición de anillos de bloque
Para cada bloque de la imagen, se calcula un "factor de aparición de anillos" basándose en la región local de la imagen diferenciada. En algunas realizaciones en las que el bloque se define como un bloque 8x8 , el factor de aparición de anillos se puede determinar usando el siguiente método.
Inicialmente, se determina un umbral basándose en los valores de los píxeles de luminancia máxima y mínima dentro del bloque 8x8:
umbralbioque = suelo ((máxbioque - mínbioque) / 8) 2
La imagen diferenciada y el umbral se usan para generar una correlación los píxeles "planos" en las proximidades del bloque. El potencial de que cada bloque tenga un umbral diferente evita la creación de una correlación píxeles planos para la totalidad de la trama. La correlación se genera como sigue:
planoxy = 1 cuando p'xy < umbralbioque
planoxy = 0 de lo contrario
La correlación de píxeles planos se filtra de acuerdo con una operación lógica simple:
plano'xy = 1 cuando planoxy = 1 y planox-iy = 1 y planoxy-i = 1 y planox-iy-i = 1
plano'xy de lo contrario
Entonces, los píxeles planos en la correlación filtrada se cuentan a lo largo de la región 9 x 9 que cubre el bloque 8x8.
recuentoplanobloque = £ plano'xy para 0 = x = 8 y 0 = y = 8
El riesgo de artefactos de aparición de anillos visibles se puede evaluar usando la siguiente expresión:
riesgoaparicionanillosbioque = ((recuentoplanobloque -10) x 256 20) / 40 Entonces, el factor de aparición de anillos del bloque 8 x 8 se puede obtener usando la siguiente expresión:
Factoraparicionanillos = 0 cuando riesgoaparicionanillos > 255
= 255 cuando riesgoaparicionanillos < 0
= 255 - riesgoaparicionanillos de lo contrario
3.5.3.3.4. Cómputo de energía de bloque
La energía para los bloques de la imagen se puede calcular usando el siguiente procedimiento. En varias realizaciones, se usan bloques 8 x 8 de la imagen.
Se realiza una DCT directa sobre la imagen de origen:
T = fDCT(S)
en donde S son los 64 valores de luminancia de imagen de origen del bloque 8 x 8 en cuestión y T es la versión transformada de la misma porción de la imagen de origen.
La energía en una posición de coeficiente particular se define como el cuadrado del valor de ese coeficiente:
ek = tk2 para 0 = k = 63
en donde tk es el k-ésimo coeficiente del bloque transformado T.
3.5.3.3.5. Modificación de coeficientes
La modificación de los coeficientes de DCT se puede realizar de acuerdo con el siguiente proceso. En varias realizaciones, el proceso se realiza para cada coeficiente de DCT de CA no nula antes de la cuantificación. La magnitud de cada coeficiente se cambia en un delta pequeño, determinándose el valor del delta de acuerdo con técnicas psicovisuales.
La modificación de coeficientes de DCT de cada coeficiente de CA no nulo ck se realiza al calcular una energía basándose en las energías local y de bloque usando la siguiente fórmula:
energíak = máx (ak x ek, 0,12 x energiatotal)
en donde ak es una constante cuyo valor depende de la posición de coeficiente como se describe en la siguiente tabla:
Tabla 3 - Tabla de coeficientes
Figure imgf000023_0001
La energía se puede modificar de acuerdo con el factor de aparición de anillos del bloque usando la siguiente relación:
energía'k = factoraparicionanillos x energíak
El valor resultante se desplaza y se recorta antes de usarse como una entrada a una tabla de consulta (LUT).
ek = mín (1023, 4 x energía'k)
dk = LUTi en donde i = ek
La tabla de consulta se computa como sigue:
LUTi = mín (suelo (ktextura x ((i + 0,5) / 4)1/2 kpano x desplazamiento), 2 x Qp) El valor 'desplazamiento' depende de un cuantificador, Qp, como se describe en la siguiente tabla:
Tabla 4 - de l z mi n m n f n i n l v lores de Qp
Figure imgf000024_0001
Las variables ktextura y kpano controlan la intensidad del efecto psicovisual en regiones planas y con textura, respectivamente. En una realización, estas toman valores en el intervalo de 0 a 1, con 0 significando sin efecto y 1 queriendo decir pleno efecto. En una realización, los valores para ktextura y kpano se establecen como sigue:
Luminancia:
ktextura = 1,0
kplano = 1,0
Crominancia:
ktextura = 1,0
kplano = 0,0
La salida a partir de la tabla de consulta (dk) se usa para modificar la magnitud del coeficiente de DCT mediante un proceso aditivo:
c'k = Ck - mín (dk, \ck\) x sgn(ck)
Por último, el coeficiente de DCT Ck es sustituido por el coeficiente modificado c'k y se transmite hacia adelante para la cuantificación.
3.5.3.4. Potenciación psicovisual 'rápida'
Se puede realizar una potenciación psicovisual 'rápida' sobre los coeficientes de DCT mediante el cómputo de una correlación de 'importancia' para los píxeles de luminancia de entrada y, entonces, la modificación de los coeficientes de DCT.
3.5.3.4.I. Cómputo de una correlación de 'importancia'
Una correlación de 'importancia' se puede generar al calcular un valor de 'importancia' para cada píxel en el lugar de la luminancia de la trama de vídeo de entrada. En varias realizaciones, el valor de 'importancia' aproxima la sensibilidad del ojo humano a cualquier distorsión ubicada en ese píxel particular. La correlación de 'importancia' es una distribución de valores de 'importancia' de píxel.
La 'importancia' de un píxel se puede determinar al calcular, en primer lugar, el intervalo dinámico de un bloque de píxeles que rodean al píxel (dxy). En varias realizaciones, el intervalo dinámico de un bloque 3 x 3 de píxeles centrado en la ubicación de píxel (x, y) se computa al restar el valor del píxel más oscuro en el área del valor del píxel más claro en el área.
La 'importancia' de un píxel (mxy) se puede obtener a partir del intervalo dinámico del píxel como sigue:
mxy = 0,08 / máx (dxy, 3) 0,001
3.5.3.4.2. Modificación de coeficientes de DCT
En una realización, la modificación de los coeficientes de DCT implica la generación de matrices de energía de función de base y tablas de consulta de delta.
3.5.3.4.3. Generación de matrices de energía de función de base
Se puede usar un conjunto de matrices de energía de función de base en la modificación de los coeficientes de DCT. Estas matrices contienen valores constantes que se pueden computar antes de la codificación. Se usa una matriz 8 x 8 para cada una de las 64 funciones de base DCT. Cada matriz describe cómo cada píxel en un bloque 8 x 8 se verá afectado por una modificación de su coeficiente correspondiente. La matriz de k-ésima energía de función de base se obtiene al tomar una matriz 8 x 8 Ak con el coeficiente correspondiente establecido a 100 y los otros coeficientes establecidos a 0.
akn= 100 si n = k
= 0 de lo contrario
en donde
n representa la posición de coeficiente dentro de la matriz 8x8; 0 = n = 63
Se realiza una DCT inversa sobre la matriz para dar una matriz 8 x 8 adicional A k . Los elementos de la matriz (ak n ) representan la k-ésima función de base DCT.
Ak = iDCT(Ak)
Cada valor en la matriz transformada se eleva entonces al cuadrado:
bkn = a'kn2 para 0 = n = 63
El proceso se lleva a cabo 64 veces para producir las matrices de energía de función de base Bk, 0 = k = 63, comprendiendo cada una 64 valores naturales. Cada valor de matriz es una medida de cuánto un píxel en la n-ésima posición en el bloque 8 x 8 se verá afectado por cualquier error o modificación del coeficiente k.
3.5.34.4. Generación de tabla de consulta de delta
Se puede usar una tabla de consulta (LUT) para agilizar el cómputo del delta de modificación de coeficientes. Los contenidos de la tabla se pueden generar de una forma que depende de la intensidad deseada de la potenciación psicovisual 'rápida' y el parámetro de cuantificador (Qp).
Los valores de la tabla de consulta se pueden generar de acuerdo con la siguiente relación:
LUTi = mín (suelo (128 x ktexturax intensidad / (i 0,5) kpanox desplazamiento 0,5), 2 x Qp)
en donde
i es la posición dentro de la tabla, 0 = i = 1023.
intensidad y desplazamiento dependen del cuantificador, Qp, como se describe en la siguiente tabla:
Tabla 5 - R l i n nr v l r in n i l z mi n l v lor de Qp
Figure imgf000025_0001
continuación
Figure imgf000026_0001
Las variables ktextura y kpano controlan la intensidad del efecto psicovisual en regiones planas y con textura, respectivamente. En una realización, estas toman valores en el intervalo de 0 a 1, con 0 significando sin efecto y 1 queriendo decir pleno efecto. En una realización, los valores para ktextura y kpano se establecen como sigue:
Luminancia:
ktextura = 1,0
kplano = 1,0
Crominancia:
ktextura = 1,0
kplano = 0,0
3.5.3.4.5. Modificación de coeficientes de DCT
Los coeficientes de DCT se pueden modificar usando los valores calculados anteriormente. En una realización, cada coeficiente de DCT de CA no nula se modifica de acuerdo con el siguiente procedimiento antes de la cuantificación. Inicialmente, un valor de 'energía' (ek) se computa al tomar el producto escalar de la matriz de energía de función de base correspondiente y el bloque 8 x 8 apropiado a partir de la correlación de importancia. Esta 'energía' es una medida de cómo los errores de cuantificación en el coeficiente particular serían percibidos por un espectador humano. Esta es la suma del producto de la importancia de píxel y la energía de función de base de píxel:
ek = M • Bk
en donde
M contiene los valores de correlación de importancia del bloque 8x8 ; y
Bk es la k-ésima matriz de energía de función de base.
El valor de 'energía' resultante se desplaza y se recorta antes de usarse como un índice (dk) en la tabla de consulta de delta.
e'k = mín [1023, suelo (ek / 32768)]
dk = LUT
en donde
i = e'k
La salida de la tabla de consulta de delta se usa para modificar la magnitud del coeficiente de DCT mediante un proceso aditivo:
c'k = ck- mín (dk, \ck\) x sign (ck)
El coeficiente de DCT Ck se sustituye con el c \ modificado y se transmite hacia adelante para la cuantificación. 3.5.4. Cuantificación
Los codificadores de acuerdo con algunas realizaciones de la presente invención pueden usar un cuantificador convencional tal como al cuantificador definido por la Unión Internacional de Telecomunicaciones como Codificación de Vídeo para Comunicaciones de Tasa de Bits Baja, Recomendación de UIT-T H.263, 1996.
3.5.4.1. Potenciaciones psicovisuales para cuantificación
Algunos codificadores de acuerdo con algunas realizaciones de la presente invención, usan una potenciación psicovisual que aprovecha los efectos psicológicos de la visión humana para lograr una compresión más eficiente. El efecto psicovisual se puede aplicar a nivel de trama y a nivel de macrobloque.
3.5.4.2. Potenciaciones psicovisuales a nivel de trama
Cuando se aplica a nivel de trama, la potenciación es parte del algoritmo de control de tasa y su objetivo es ajustar la codificación de tal modo que una cantidad dada de tasa de bits se usa del mejor modo para asegurar la máxima calidad visual como es percibida por los ojos humanos. La potenciación psicovisual de tasa de tramas está motivada por la teoría de que la visión humana tiende a ignorar los detalles cuando la acción es alta y que la visión humana tiende a percibir el detalle cuando una imagen es estática. En una realización, la cantidad de movimiento se determina al mirar la suma de diferencias absolutas (SAD) para una trama. En una realización, el valor de SAD se determina mediante la suma de las diferencias absolutas de los píxeles de luminancia de ubicación conjunta de dos bloques. En varias realizaciones, se usan las diferencias absolutas de bloques de píxeles 16x16. En algunas realizaciones que abordan desplazamientos de píxel fraccionarios, se realiza una interpolación como se especifica en la norma MPEG-4 (una norma de ISO/IEC desarrollada por el Grupo de Expertos en Imágenes en Movimiento de ISO/IEC), antes de que se haya calculado la suma de diferencias absolutas.
La potenciación psicovisual a nivel de trama solo es de aplicación a las tramas P de la pista de vídeo y se basa en el valor de SAD de la trama. Durante la codificación, el módulo psicovisual mantiene un registro del SAD promedio (es decir, SAD) de la totalidad de las tramas P de la pista de vídeo y la distancia promedio del SAD de cada trama con respecto a su SAD global (es decir, DSAD). El promediado se puede realizar usando un algoritmo de promedio móvil exponencial. En una realización, el algoritmo de control de tasa de una pasada descrito anteriormente se puede usar como el periodo de promediado en el presente caso (véase la descripción anterior).
Para cada trama P de la pista de vídeo codificada, el cuantificador de trama Q (obtenido a partir del módulo de control de tasa) tendrá una corrección psicovisual aplicada al mismo. En una realización, el proceso implica calcular una relación R usando la siguiente fórmula:
SAP - SAP R = DSAD - I
en donde
I es una constante y se establece actualmente a 0,5. La R se recorta para quedar dentro de la cota de [-1, 1].
Entonces, el cuantificador se ajusta de acuerdo con la relación R, por medio del cálculo mostrado posteriormente:
Q a d j = Q L Q . C 1 R . S t r a m a ) J
en donde
Strama es una constante de intensidad para las potenciaciones psicovisuales a nivel de trama.
La constante Strama determina lo fuerte que puede ser un ajuste para la psicovisual a nivel de trama. En una realización del códec, está disponible la opción de ajustar Strama a 0,2, 0,3 o 0,4.
3.5.4.3. Potenciaciones psicovisuales a nivel de macrobloque
Los codificadores de acuerdo con algunas realizaciones de la presente invención que utilizan una potenciación psicovisual en el intento a nivel de macrobloque para identificar los macrobloques que son prominentes para la calidad visual del vídeo para un espectador humano e intentan codificar esos macrobloques con una calidad más alta. El efecto de las potenciaciones psicovisuales a nivel de macrobloque es quitar bits de las partes menos importantes de una trama y aplicar los mismos a partes más importantes de la trama. En varias realizaciones, se logran potenciaciones usando tres tecnologías, que se basan en la suavidad, el brillo y el SAD de macrobloque. En otras realizaciones, se puede usar cualquiera de las técnicas, solas o en combinación con otra de las técnicas u otra técnica enteramente.
En una realización, todas las tres potenciaciones psicovisuales a nivel de macrobloque descritas anteriormente comparten un parámetro común, Smb, que controla la intensidad de la potenciación psicovisual a nivel de macrobloque. Entonces, el cuantificador máximo y mínimo para los macrobloques se obtienen a partir del parámetro de intensidad y el cuantificador de trama Qtrama por medio de los cálculos mostrados posteriormente:
Q tra m a
Q m BMáx
( 1 — S MB)
y
QMBMín — Qtrama, - SMb)
en donde
QMBMáx es el cuantificador máximo
QMBMáx es el cuantificador mínimo
Los valores QMBMáx y QMBMáx definen las cotas superior e inferior para los cuantificadores de macrobloque para la totalidad de la trama. En una realización, se proporciona la opción de ajustar el valor Smb a cualquiera de los valores 0,2, 0,3 y 0,4. En otras realizaciones, se pueden utilizar otros valores para Smb-3.5.4.3.I. Potenciación de brillo
En algunas realizaciones en las que se realiza una potenciación psicovisual basándose en el brillo de los macrobloques, el codificador intenta codificar los macrobloques más brillantes con una calidad más grande. La base teórica de esta potenciación es que las partes relativamente oscuras de la trama son, más o menos, ignoradas por los espectadores humanos. Esta potenciación psicovisual de macrobloque se aplica a las tramas I y a las tramas P de la pista de vídeo. Para cada trama, el codificador examina la totalidad de la trama en primer lugar. Se calcula el brillo promedio (BR) y también se calcula la diferencia promedio de brillo a partir del (DBR) promedio. Entonces, estos valores se usan para desarrollar dos umbrales (TBRInferior, TBRSuperior), que se pueden usar como indicadores para si se debería aplicar la potenciación psicovisual:
^ B R ln fe r io r = B R — D B R
T B R ln fe r io r B R + ( B R B R ln fe r io r )
Entonces, la potenciación de brillo se aplica basándose en los dos umbrales usando las condiciones expuestas posteriormente para generar un cuantificador previsto (Qmb) para el macrobloque:
QmB - QMBMín cuando BR > TBRSuperior
Qmb - Qtrama cuando TBRInferior < BR < TBRSuperior,
y
Qmb - QMBMáx cuando BR < TBRInferior
en donde
BR es el valor de brillo para ese macrobloque particular
En algunas realizaciones en las que el codificador es conforme con la norma MPEG-4, la técnica de potenciación de brillo psicovisual a nivel de macrobloque no puede cambiar, de un macrobloque al siguiente, el cuantificador en más de ±2. Por lo tanto, el Qmb calculado puede requerir una modificación basándose en el cuantificador usado en el macrobloque previo.
3.5.4.3.2. Potenciación de suavidad
Los codificadores de acuerdo con algunas realizaciones de la presente invención que incluyen una potenciación psicovisual de suavidad, modifican el cuantificador basándose en la variación espacial de la imagen que se está codificando. El uso de una potenciación psicovisual de suavidad puede estar motivado por la teoría de que la visión humana tiene una sensibilidad aumentada a los artefactos de cuantificación en partes suaves de una imagen. Por lo tanto, la potenciación psicovisual de suavidad puede implicar aumentar el número de bits para representar porciones más suaves de la imagen y disminuir el número de bits en donde hay un grado alto de variación espacial en la imagen.
En una realización, la suavidad de una porción de una imagen se mide como la diferencia promedio en la luminancia de píxeles en un macrobloque con respecto al brillo del macrobloque (DR). Un método de realización de una potenciación psicovisual de suavidad en una trama I de acuerdo con algunas realizaciones de la presente invención se muestra en la figura 3.6. El proceso 540, implica examinar la totalidad de la trama para calcular (542) DR. Entonces, el umbral para aplicar la potenciación de suavidad, Tdr, se puede obtener (544) usando el siguiente cálculo:
Figure imgf000029_0001
La siguiente potenciación de suavidad se realiza (546) basándose en el umbral.
Qmb = Qtrama cuando DR > Tdr,
y
Qmb = QMBMín cuando DR < Tdr
en donde
Qmb es el cuantificador previsto para el macrobloque
DR es el valor de desviación para el macrobloque (es decir, luminancia media - brillo medio)
Algunas realizaciones que codifican archivos de acuerdo con la norma MPEG-4 están limitadas, como se ha descrito anteriormente, en que el cambio de cuantificador a nivel de macrobloque puede ser, como mucho, ±2 de un macrobloque al siguiente.
3.5.4.3.3. Potenciación de SAD de macrobloque
Los codificadores de acuerdo con algunas realizaciones de la presente invención pueden utilizar una potenciación psicovisual de SAD de macrobloque. Se puede usar una potenciación psicovisual de SAD de macrobloque para aumentar el detalle para macrobloques estáticos y permitir un detalle disminuido en porciones de una trama que se usan en una escena de acción alta.
Un proceso para realizar una potenciación psicovisual de SAD de macrobloque de acuerdo con una realización de la presente invención se ilustra en la figura 3.7. El proceso 570 incluye inspeccionar (572) la totalidad de una trama I para determinar el SAD promedio (es decir,MBSv4D) para la totalidad de los macrobloques en la totalidad de la trama y también se obtiene la diferencia promedio del SAD de un macrobloque con respecto al promedio (es decir, MESAD). En una realización, ambos de estos macrobloques se promedian a lo largo de los macrobloques codificados entre tramas (es decir, los macrobloques codificados usando una compensación de movimiento u otras dependencias en tramas de vídeo codificadas previas). Entonces, se obtienen (574) dos umbrales para aplicar la potenciación de SAD de macrobloque a partir de estos promedios usando las siguientes fórmulas:
TMBSADInferior = MBSAD DMBSAD,
y
1 MBSADSuperior = MBSAD + DMBSAD,
en donde
TMBSADInferior es el umbral inferior
TMBSADSuperior es el umbral superior, que puede estar acotado por 1024 si es necesario
Entonces, la potenciación de SAD de macrobloque se aplica (576) basándose en estos dos umbrales de acuerdo con las siguientes condiciones:
Qmb = QMBMáx cuando MBSAD > TMBSADSuperior,
QMB = Qtrama cuando TMADInferior MBSAD TMBSADSuperior
Qmb = QMBMín cuando MBSAD < TMSADInferior
en donde
Qmb es el cuantificador previsto para el macrobloque
MBSAD es el valor de SAD para ese macrobloque particular
Algunas realizaciones que codifican archivos de acuerdo con la especificación de MPEG-4 están limitadas, como se ha descrito anteriormente, en que el cambio de cuantificador a nivel de macrobloque puede ser, como mucho, ±2 de un macrobloque al siguiente.
3.5.5. Control de tasa
La técnica de control de tasa usada por un codificador de acuerdo con una realización de la presente invención puede determinar cómo usa el codificador la tasa de bits asignada para codificar una secuencia de vídeo. Por lo general, un codificador buscará codificar a una tasa de bits predeterminada y la técnica de control de tasa es responsable de hacer coincidir la tasa de bits generada por el codificador tan cerca como es posible de la tasa de bits predeterminada. La técnica de control de tasa también puede buscar asignar la tasa de bits de una forma que asegure la más alta calidad visual de la secuencia de vídeo cuando se descodifica la misma. Gran parte del control de tasa se realiza mediante el ajuste del cuantificador. El cuantificador determina lo finamente que codifica el codificador la secuencia de vídeo. Un cuantificador menor dará como resultado una calidad más alta y un consumo de bits más alto. Por lo tanto, el algoritmo de control de tasa busca modificar el cuantificador de una forma que equilibre los intereses en conflicto de la calidad de vídeo y el consumo de bits.
Los codificadores de acuerdo con algunas realizaciones de la presente invención pueden utilizar cualquiera de diversas técnicas de control de tasa diferentes. En una realización, se usa una técnica de control de tasa de una única pasada. En otras realizaciones, se usa una técnica de control de tasa de pasada doble (o múltiple). Además, se puede realizar un control de tasa de 'memoria intermedia de vídeo verificada' según se requiera. Algunos ejemplos específicos de estas técnicas se analizan posteriormente. No obstante, se puede usar cualquier técnica de control de tasa en un codificador de acuerdo con la práctica de las presentes invenciones.
3.5.5.1. Control de tasa de una pasada
Una realización de una técnica de control de tasa de una pasada de acuerdo con una realización de la presente invención busca permitir picos altos de tasa de bits para escenas de movimiento alto. En varias realizaciones, la técnica de control de tasa de una pasada busca aumentar la tasa de bits lentamente en respuesta a un aumento en la cantidad de movimiento en una escena y disminuir rápidamente la tasa de bits en respuesta a una reducción en el movimiento en una escena.
En una realización, el algoritmo de control de tasa de una pasada usa dos periodos de promediado para realizar un seguimiento de la tasa de bits. Un promedio a largo plazo para asegurar la convergencia de tasa de bits global y un promedio a corto plazo para habilitar una respuesta a variaciones en la cantidad de acción en una escena.
Una técnica de control de tasa de una pasada de acuerdo con una realización de la presente invención se ilustra en la figura 3.8. La técnica de control de tasa de una pasada 580 comienza (582) mediante la inicialización (584) del codificador con una tasa de bits deseada, la tasa de tramas de vídeo y otros diversos parámetros (analizados más adelante). Se almacena una variable en coma flotante, que es indicativa del cuantificador. Si una trama requiere una cuantificación (586), entonces la variable en coma flotante se recupera (588) y el cuantificador se obtiene mediante el redondeo de la variable en coma flotante al entero más cercano. Entonces, la trama se codifica (590). Se hacen observaciones durante la codificación de la trama que habilitan la determinación (592) de un valor de cuantificador nuevo. El proceso decide (594) realizar una repetición a menos que no haya ninguna trama más. Punto en el que se ha completado la codificación (596).
Como se ha analizado anteriormente, el codificador se inicializa (584) con diversos parámetros. Estos parámetros son la 'tasa de bits', la 'tasa de tramas', el 'Máx Intervalo entre Tramas Clave', el 'Cuantificador Máximo', el 'Cuantificador Mínimo', el 'periodo de promediado', el 'periodo de reacción' y la 'relación arriba/abajo'. Lo siguiente es un análisis de cada uno de estos parámetros.
3.5.5.1.1. La 'tasa de bits'
El parámetro de 'tasa de bits' establece la tasa de bits objetivo de la codificación.
3.5.5.1.2. La 'tasa de tramas'
La 'tasa de tramas' define el periodo entre tramas de vídeo.
3.5.5.1.3. El 'Máx Intervalo entre Tramas Clave'
El 'Máx Intervalo entre Tramas Clave' especifica el intervalo máximo entre las tramas clave. Las tramas clave se insertan automáticamente de forma normal en el vídeo codificado cuando el códec detecta un cambio de escena. En circunstancias en las que una escena continúa durante un intervalo largo sin siquiera un corte, las tramas clave se pueden insertar y asegurar que el intervalo entre tramas clave es siempre menor que o igual al 'Máx Intervalo entre Tramas Clave'. En una realización, el parámetro de 'Máx Intervalo entre Tramas Clave' se puede establecer a un valor de 300 tramas. En otras realizaciones, se pueden usar otros valores.
3.5.5.1.4. El 'Cuantificador Máximo' y el 'Cuantificador Mínimo'
Los parámetros de 'Cuantificador Máximo' y de 'Cuantificador Mínimo' establecen la cota superior e inferior del cuantificador usado en la codificación. En una realización, las cotas de cuantificador se establecen a unos valores de entre 1 y 31.
3.5.5.1.5. El 'periodo de promediado'
El parámetro de 'periodo de promediado' controla la cantidad de vídeo que se considera cuando se modifica el cuantificador. Por lo general, un periodo de promediado más largo dará como resultado que el vídeo codificado tenga una tasa global más precisa. En una realización, se usa un 'periodo de promediado' de 2000. Aunque, en otras realizaciones, se pueden usar otros valores.
3.5.5.1.6 El 'periodo de reacción'
El parámetro de 'periodo de reacción' determina lo rápido que el codificador se adapta a los cambios en el movimiento en escenas recientes. Un valor de 'periodo de reacción' más largo puede dar como resultado unas escenas de movimiento alto de mejor calidad y unas escenas de movimiento bajo de calidad peor. En una realización, se usa un 'periodo de reacción' de 10. Aunque, en otras realizaciones, se pueden usar otros valores. 3.5.5.1.7. La 'relación arriba/abajo'
El parámetro de 'relación arriba/abajo' controla la sensibilidad relativa para el ajuste de cuantificador como reacción a las escenas de movimiento alto o bajo. Por lo general, un valor más grande da como resultado unas escenas de movimiento alto de calidad más alta y un consumo de bits aumentado. En una realización, se usa una 'relación arriba/abajo' de 20. Aunque en otras realizaciones, se pueden usar otros valores.
3.5.5.1.8, Cálculo del valor de cuantificador
Como se ha analizado anteriormente, la técnica de control de tasa de una pasada implica el cálculo de un valor de cuantificador después de la codificación de cada trama. Lo siguiente es una descripción de una técnica de acuerdo con una realización de la presente invención que se puede usar para actualizar el valor de cuantificador.
El codificador mantiene dos promedios móviles exponenciales que tienen periodos iguales al 'periodo de promediado' (Ppromedio) y el 'periodo de reacción' (Preacción) un promedio móvil de la tasa de bits. Los dos promedios móviles exponenciales
se pueden calcular de acuerdo con la relación:
At = At-r -— p - + B. p-en donde
At es el promedio en el caso t;
A-1 es el promedio en el caso t-T (habitualmente, el promedio en la trama previa);
T representa el periodo de intervalo (habitualmente, el tiempo de trama); y
P es el periodo promedio, que puede ser o bien Ppromedio y o bien Preacción-Entonces, el promedio móvil calculado anteriormente se ajusta a una tasa de bits al dividir por el intervalo de tiempo entre el caso actual y el último caso en el vídeo, usando el siguiente cálculo:
Rt = At i
en donde
Rt es la tasa de bits;
At es uno cualquiera de los promedios móviles; y
T es el intervalo de tiempo entre el caso actual y el último caso (este es, habitualmente, el inverso de la tasa de tramas).
El codificador puede calcular la tasa de bits objetivo (Robjetivo) de la siguiente trama como sigue:
Robjetivo = Rglobal + (Rglobal - Rpromedio)
en donde
Rglobal es la tasa de bits global establecida para la totalidad del vídeo; y
Rpromedio es la tasa de bits promedio usando el periodo de promediado largo.
En varias realizaciones, la tasa de bits objetivo está acotada inferiormente por un 75 % de la tasa de bits global. Si la tasa de bits objetivo cae por debajo de esa cota, entonces se forzará que está suba hasta la cota para asegurar la calidad del vídeo.
Entonces, el codificador actualiza el cuantificador interno basándose en la diferencia entre Robjetivo y Reacción- Si Rreacción es menor que Robjetivo, entonces hay una verosimilitud de que la trama previa fuera de una complejidad relativamente baja. Por lo tanto, el cuantificador se puede disminuir al realizar el siguiente cálculo:
Figure imgf000032_0001
Cuando Rreacción es mayor que Robjetivo, hay una verosimilitud significativa de que la trama previa poseyera un nivel relativamente alto de complejidad. Por lo tanto, el cuantificador se puede aumentar al realizar el siguiente cálculo:
Q ' ú = Qv. ' ■ ( 1 SPreacción/
en donde
S es la 'relación arriba/abajo'.
3.5.5.I.9. Codificación de VOP-B
El algoritmo descrito anteriormente también se puede aplicar a la codificación de VOP-B. Cuando se habilita VOP-B en la codificación, el cuantificador para el v OP-B (Qb) se elije basándose en el cuantificador del VOP-P (Qp) siguiendo el VOP-B. El valor se puede obtener de acuerdo con las siguientes relaciones:
Qb = 2, Qp para Qp <4
Qb = 5 ^ • QP para 4 < Qp <20
Qb = Qp para Q> 20
3.5.5.2. Control de tasa de dos pasadas
Los codificadores de acuerdo con una realización de la presente invención que usan una técnica de control de tasa de dos (o de múltiples) pasadas pueden determinar las propiedades de una secuencia de vídeo en una primera pasada y, entonces, codificar la secuencia de vídeo con conocimiento de las propiedades de la totalidad de la secuencia. Por lo tanto, el codificador puede ajustar el nivel de cuantificación para cada trama basándose en su complejidad relativa en comparación con otras tramas en la secuencia de vídeo.
Una técnica de control de tasa de dos pasadas de acuerdo con una realización de la presente invención, el codificador realiza una primera pasada en la que el vídeo se codifica de acuerdo con la técnica de control de tasa de una pasada descrita anteriormente y se registra la complejidad de cada trama (se puede usar cualquiera de diversas métricas diferentes para medir la complejidad). La complejidad promedio y, por lo tanto, el cuantificador promedio (Qref) se pueden determinar basándose en la primera. En la segunda pasada, la secuencia de bits se codifica con cuantificadores determinados basándose en los valores de complejidad calculados durante la primera pasada.
3.5.5.2.1. Cuantificadores para los VOP-I
El cuantificador Q para los VOP-I se establece a 0,75 x Qref, con la condición de que la siguiente trama no sea un VOP-I. Si la siguiente trama también es un VOP-I, la Q (para la trama actual) se establece a 1,25 x Qref-3.5.5.2.2. Cuantificadores para los VOP-P
El cuantificador para los VOP-P se puede determinar usando la siguiente expresión.
Figure imgf000033_0001
en donde
Ccompiejidad es la complejidad de la trama;
(complejidad es la complejidad promedio de la secuencia de vídeo;
F(x) es una función que proporciona el número por el que se ha de multiplicar la complejidad de la trama para dar el número de bits requerido para codificar la trama usando un cuantificador con un valor de cuantificación x; F 1(x) es la función inversa de F(x); y k es el parámetro de intensidad.
La siguiente tabla define una realización de una función F(Q) que se puede usar para generar el factor por el que se ha de multiplicar la complejidad de una trama con el fin de determinar el número de bits requerido para codificar la trama usando un codificador con un cuantificador Q.
Tabla 6 - Valores de FQ con res ecto a Q.
Figure imgf000033_0002
Si se elije que el parámetro de intensidad k sea 0, entonces el resultado es un cuantificador constante. Cuando se elije que el parámetro de intensidad sea 1, el cuantificador es proporcional a Ccompiejidad. Varios codificadores de acuerdo con algunas realizaciones de la presente invención tienen un parámetro de intensidad k igual a 0,5.
3.5.5.2.3. Cuantificadores para los VOP-B
El cuantificador Q para los VOP-B se puede elegir usando la misma técnica para elegir el cuantificador para los VOP-B en la técnica de una pasada descrita anteriormente.
3.5.5.3. Control de tasa de memoria intermedia de vídeo verificada
El número de bits requeridos para representar una trama puede variar dependiendo de las características de la secuencia de vídeo. La mayor parte de los sistemas de comunicación operan a una tasa de bits constante. Un problema que se puede encontrar con las comunicaciones de tasa de bits variable es la asignación de recursos suficientes para manejar los picos en el uso de recursos. Varios codificadores de acuerdo con algunas realizaciones de la presente invención codifican vídeo con una vista para evitar el desbordamiento de una memoria intermedia de vídeo de descodificador, cuando la tasa de bits de la comunicación de tasa de bits variable experimenta un aumento rápido.
Los objetivos del control de tasa de verificador de memoria intermedia de vídeo (VBV) pueden incluir generar vídeo que no superará la memoria intermedia de un descodificador cuando se transmite. Además, puede ser deseable que el vídeo codificado coincida con una tasa de bits objetivo y que el control de tasa produzca vídeo de alta calidad. Los codificadores de acuerdo con varias realizaciones de la presente invención proporcionan una elección de al menos dos técnicas de control de tasa de VBV. Se hace referencia a una de las técnicas de control de tasa de VBV como control de tasa causal y se hace referencia a la otra técnica como control de tasa de N-ésima pasada.
3.5.5.3.1. Control de tasa causal
Se puede usar un control de tasa de VBV causal junto con una técnica de control de tasa de una pasada y genera salidas simplemente basándose en los valores de cuantificador actual y previo.
Un codificador de acuerdo con una realización de la presente invención incluye un control de tasa causal que implica establecer el cuantificador para la trama n (es decir, Qn) de acuerdo con la siguiente relación.
Figure imgf000034_0001
1 1
/s ~7Tr + ^ d e r i v a
x n x n
en donde
Q'n es el cuantificador estimado por el control de tasa de una única pasada;
Xtasa de bits se calcula mediante la determinación de una tasa de bits objetivo basándose en la deriva con respecto a la tasa de bits deseada;
Xvelocidad se calcula basándose en el tiempo estimado hasta que la memoria intermedia de VBV se ha desbordado o subdesbordado;
Xtamaño solo se aplica sobre el resultado de los VOP-P y se calcula basándose en la tasa a la cual el tamaño de los VOP-P comprimidos está cambiando con el paso del tiempo;
Xderiva es la deriva con respecto a la tasa de bits deseada.
En varias realizaciones, se puede forzar al control de tasa de VBV causal a omitir tramas e insertar relleno para respetar el modelo de VBV. Si una trama comprimida contiene inesperadamente demasiados o demasiado pocos bits, entonces esta se puede omitir o rellenarse.
3.5.5.3.2. Control de tasa de VBV de N-ésima pasada
Se puede usar un control de tasa de VBV de N-ésima pasada junto con una técnica de control de tasa de múltiples pasadas y esta usa información obtenida durante el análisis previo de la secuencia de vídeo. Los codificadores de acuerdo con varias realizaciones de la presente invención realizan un control de tasa de VBV de N-ésima pasada de acuerdo con el proceso ilustrado en la figura 3.9. El proceso 600 comienza con la primera pasada, durante la cual se realiza un análisis (602). Se realiza una generación de correlación (604) y se genera una estrategia (606). Entonces se realiza el control de tasa de n-ésima pasada (608).
3.5.5.3.3. Análisis
En una realización, la primera pasada usa alguna forma de control de tasa causal y se registran datos para cada trama con respecto a cosas tales como la duración de la trama, el tipo de codificación de la trama, el cuantificador usado, los bits de movimiento producidos y los bits de textura producidos. Además, también se puede registrar información global tal como los ajustes de escala de tiempo, de resolución y de códec.
3.5.5.3.4. Generación de correlación
Se usa información a partir del análisis para generar una correlación la secuencia de vídeo. La correlación puede especificar el tipo de codificación usado para cada trama (I/B/P) y puede incluir datos para cada trama con respecto a la duración de la trama, la complejidad de movimiento y la complejidad de textura. En otras realizaciones, la correlación también puede contener información que posibilita una predicción mejor de la influencia del cuantificador y otros parámetros sobre el tamaño de trama comprimida y la distorsión perceptual. En varias realizaciones, se realiza una generación de correlación después de que se haya completado la N - 1-ésima pasada.
3.5.5.3.5. Generación de estrategia
La correlación se puede usar para planear una estrategia en lo que respecta a cómo funcionará el control de tasa de N-ésima pasada. Se puede planear el nivel ideal de la memoria intermedia de VBV después de que se haya codificado cada trama. En una realización, la generación de estrategia da como resultado una información para cada trama que incluye el tamaño de trama comprimida deseado, un cuantificador de trama estimado. En varias realizaciones, la generación de estrategia se realiza después de la generación de correlación y antes de la N-ésima pasada.
En una realización, el proceso de generación de estrategia implica el uso de un proceso iterativo para simular el codificador y determinar los valores de cuantificador deseados para cada trama al intentar mantener el cuantificador tan cerca como es posible de la mediana del valor de cuantificador. Se puede usar una búsqueda binaria para generar un cuantificador de base para la totalidad de la secuencia de vídeo. El cuantificador de base es el valor constante que da lugar a que el simulador logre la tasa de bits objetivo deseada. Una vez que se ha hallado el cuantificador de base, el proceso de generación de estrategia implica la consideración de las restricciones de VBV. En una realización, se usa un cuantificador constante si este no modifica las restricciones de VBV. En otras realizaciones, el cuantificador se modula basándose en la complejidad de movimiento en las tramas de vídeo. Esto se puede ampliar adicionalmente para incorporar un enmascaramiento a partir de cambios de escenas y otros efectos temporales.
3.5.5.3.6. Control de tasa de N-ésima pasada dentro de lazo
En una realización, el control de tasa de N-ésima pasada dentro de lazo usa la estrategia y usa la correlación para realizar la mejor predicción posible de la influencia del cuantificador y otros parámetros sobre el tamaño de trama comprimida y la distorsión perceptual. Puede existir una facultad discrecional limitada para apartarse de la estrategia para adoptar una estrategia correctiva a corto plazo. Por lo general, seguir la estrategia evitará el quebrantamiento del modelo de VBV. En una realización, el control de tasa de N-ésima pasada dentro de lazo usa un lazo de control PID. La realimentación en el lazo de control es la deriva acumulada con respecto a la tasa de bits ideal.
Aunque la generación de estrategia no implica omitir tramas, el control de tasa N-ésimo dentro de lazo puede omitir tramas si, de lo contrario, la memoria intermedia de VBV se subdesbordara. De forma similar, el control de tasa de N-ésima pasada dentro de lazo puede solicitar que se inserte relleno de vídeo para evitar el desbordamiento de VBV.
3.5.6. Predicciones
En una realización, la predicción de CA/CC se realiza de una forma que es conforme con la norma a la que se hace referencia como ISO/IEC 14496-2:2001 (E), sección 7.4.3. (predicción de CC y de CA) y 7.7.1. (predicción de CC y de CA de campo).
3.5.7. Codificación de textura
Un codificador de acuerdo con una realización de la presente invención puede realizar una codificación de textura de una forma que es conforme con la norma a la que se hace referencia como ISO/IEC 14496-2:2001(E), anexo B (códigos de longitud variable) y 7.4.1. (descodificación de longitud variable).
3.5.8. Codificación de movimiento
Un codificador de acuerdo con una realización de la presente invención puede realizar una codificación de movimiento de una forma que es conforme con la norma a la que se hace referencia como ISO/IEC 14496-2:2001(E), anexo B (códigos de longitud variable) y 7.6.3. (descodificación de vector de movimiento).
3.5.9. Generación de fragmentos de 'vídeo'
La pista de vídeo se puede considerar una secuencia de tramas 1 a N. Algunos sistemas de acuerdo con algunas realizaciones de la presente invención son capaces de codificar la secuencia para generar una secuencia de bits comprimida. Se da formato a la secuencia de bits mediante la segmentación de la misma en los fragmentos 1 a N. Cada trama de vídeo n tiene un fragmento n correspondiente.
Los fragmentos se generan al adjuntar bits de la secuencia de bits al fragmento n hasta que este, junto con los fragmentos 1 a n -1, contienen una información suficiente para que un descodificador de acuerdo con una realización de la presente invención descodifique la trama de vídeo n. En los casos en los que una información suficiente se contiene en los fragmentos 1 a n - 1 para generar una trama de vídeo n, un codificador de acuerdo con algunas realizaciones de la presente invención puede incluir un fragmento marcador. En una realización, el fragmento marcador es una trama P no codificada con una información de temporización idéntica a la de la trama previa.
3.6. Generación de fragmentos de 'subtítulo'
Un codificador de acuerdo con una realización de la presente invención puede tomar subtítulos en uno de una serie de formatos convencionales y, entonces, convierte los subtítulos en mapas de bits. Entonces, la información en los mapas de bits se comprime usando una codificación por longitud de ejecución. Entonces se da formato a los mapas de bits codificados por longitud de ejecución para dar un fragmento, que también incluye información con respecto al tiempo de inicio y el tiempo de parada para el subtítulo particular contenido dentro del fragmento. En varias realizaciones, también se puede incluir, en el fragmento, información con respecto al color, el tamaño y la posición del subtítulo en la pantalla. En la pista de subtítulo se pueden incluir fragmentos que establecen la paleta para los subtítulos y que indican que la paleta ha cambiado. Se puede usar cualquier aplicación capaz de generar un subtítulo en un formato de subtítulo convencional para generar el texto de los subtítulos. Como alternativa, se puede usar software para convertir el texto introducido por un usuario directamente en información de subtítulo.
3.7. Intercalación
Una vez que el intercalador ha recibido la totalidad de los fragmentos descritos anteriormente, el intercalador construye un archivo multimedia. La construcción del archivo multimedia puede implicar la creación de un fragmento de 'CSET', un fragmento de lista de 'INFO', un fragmento de 'hdrl', un fragmento de lista de 'película' y un fragmento de idxl. Algunos métodos de acuerdo con algunas realizaciones de la presente invención para crear estos fragmentos y para generar archivos multimedia se describen posteriormente.
3.7.1. Generación de un fragmento de 'CSET'
Como se ha descrito anteriormente, el fragmento de 'CSET' es opcional y puede ser generado por el intercalador de acuerdo con la Especificación de Formato de Contenedor de AVI.
3.7.2. Generación de un fragmento de lista de 'INFO'
Como se ha descrito anteriormente, el fragmento de lista de 'INFO' es opcional y puede ser generado por el intercalador de acuerdo con la Especificación de Formato de Contenedor de AVI.
3.7.3. Generación del fragmento de lista de 'hdrl'
El fragmento de lista de 'hdrl' es generado por el intercalador basándose en la información en los diversos fragmentos proporcionados al intercalador. El fragmento de lista de 'hdrl' hace referencia a la ubicación dentro del archivo de los fragmentos a los que se hace referencia. En una realización, el fragmento de lista de 'hdrl' usa desplazamientos de archivo con el fin de establecer referencias.
3.7.4. Generación del fragmento de lista de 'película'
Como se ha descrito anteriormente, el fragmento de lista de 'película' se crea mediante la codificación de pistas de audio, de vídeo y de subtítulo para crear fragmentos de 'audio', de 'vídeo' y de 'subtítulo' y, entonces, la intercalación de estos fragmentos. En varias realizaciones, el fragmento de lista de 'película' también puede incluir información de gestión de derechos digitales.
3.7.4.1. Intercalación del vídeo/el audio/los subtítulos
Se puede usar diversas reglas para intercalar los fragmentos de audio, de vídeo y de subtítulo. Por lo general, el intercalador establece un número de colas para cada una de las pistas de vídeo y de audio. El intercalador determina qué cola se debería escribir en el archivo de salida. La selección de cola se puede basar en el periodo de intercalación al escribir desde la cola que tiene el número más bajo de periodos de intercalación escritos. El intercalador puede tener que aguardar la totalidad de un periodo de intercalación para estar presente en la cola antes de que se pueda escribir el fragmento en el archivo.
En una realización, los fragmentos de 'audio', de 'vídeo' y de 'subtítulo' generados se intercalan de tal modo que los fragmentos de 'audio' y de 'subtítulo' se encuentran dentro del archivo antes de los fragmentos de 'vídeo' que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos. En otras realizaciones, los fragmentos de 'audio' y de 'subtítulo' se pueden ubicar después de los fragmentos de 'vídeo' con los que se corresponden los mismos. Las diferencias de tiempo entre la ubicación de los fragmentos de 'audio', de 'vídeo' y de 'subtítulo' depende en gran medida de las capacidades de almacenamiento en memoria intermedia de reproductores que se usan para hacer funcionar los dispositivos. En algunas realizaciones en las que el almacenamiento en memoria intermedia es limitado o desconocido, el intercalador intercala los fragmentos de 'audio', de 'vídeo' y de 'subtítulo' de tal modo que los fragmentos de 'audio' y de 'subtítulo' se encuentran entre fragmentos de 'vídeo', en donde el fragmento de 'vídeo' que inmediatamente sigue al fragmento de 'audio' y de 'subtítulo' contiene la primera trama de vídeo que se corresponde con el audio o el subtítulo.
3.7.4.2. Generación de información de DRM
En algunas realizaciones en las que se usa una DRM para proteger el contenido de vídeo de un archivo multimedia, la información de DRM se puede generar de forma concurrente con la codificación de los fragmentos de vídeo. A medida que se genera cada fragmento, el fragmento se puede cifrar, y generarse un fragmento de DRM que contiene información con respecto al cifrado del fragmento de vídeo.
3.7.4.3. Intercalación de la información de DRM
Un intercalador de acuerdo con una realización de la presente invención intercala un fragmento de DRM que contiene información con respecto al cifrado de un fragmento de vídeo antes del fragmento de vídeo. En una realización, el fragmento de DRM para el fragmento de vídeo n se ubica entre el fragmento de vídeo n -1 y el fragmento de vídeo n. En otras realizaciones, la separación de la DRM antes y después del fragmento de vídeo n depende de la cantidad de almacenamiento en memoria intermedia proporcionado dentro del dispositivo que descodifica el archivo multimedia.
3.7.5. Generación del fragmento de 'idx1'
Una vez que se ha generado el fragmento de lista de 'película', la generación del fragmento de 'idxl' es un proceso simple. El fragmento de 'idx1' se crea mediante la lectura de la ubicación dentro del fragmento de lista de 'película' de cada fragmento de 'datos'. Esta información se combina con información leída a partir del fragmento de 'datos' con respecto a la pista a la que pertenece el fragmento de 'datos' y el contenido del fragmento de 'datos'. Entonces, la totalidad de esta información se inserta en el fragmento de 'idx1' de una forma apropiada para cualquiera de los formatos descritos anteriormente que sea el que se está usando para representar la información.
4. Transmisión y distribución de archivo multimedia
Una vez que se ha generado un archivo multimedia, el archivo se puede distribuir a lo largo de cualquiera de diversas redes. El hecho de que, en muchas realizaciones, los elementos requeridos para generar una presentación multimedia y menús, entre otras cosas, están contenidos dentro de un único archivo simplifica la transferencia de la información. En varias realizaciones, el archivo multimedia se puede distribuir por separado de la información requerida para descifrar los contenidos del archivo multimedia.
En una realización, se proporciona contenido multimedia a un primer servidor y se codifica para crear un archivo multimedia de acuerdo con la presente invención. Entonces, el archivo multimedia se puede ubicar o bien en el primer servidor o bien en un segundo servidor. En otras realizaciones, la información de DRM se puede ubicar en el primer servidor, el segundo servidor o un tercer servidor. En una realización, se puede consultar el primer servidor para determinar la ubicación del archivo multimedia codificado y/o para determinar la ubicación de la información de DRM.
5. Descodificación de archivo multimedia
Se puede acceder a la información a partir de un archivo multimedia de acuerdo con una realización de la presente invención mediante un ordenador configurado usando software apropiado, un reproductor dedicado que tiene cableado físico para acceder a información a partir del archivo multimedia o cualquier otro dispositivo capaz de analizar un archivo AVI. En varias realizaciones, los dispositivos pueden acceder a la totalidad de la información en el archivo multimedia. En otras realizaciones, un dispositivo puede ser incapaz de acceder a la totalidad de la información en un archivo multimedia de acuerdo con una realización de la presente invención. En una realización particular, un dispositivo no es capaz de acceder a parte alguna de la información descrita anteriormente que se almacena en fragmentos que no se especifican en el formato de archivo AVI. En algunas realizaciones en las que no se puede acceder a toda la información, por lo general el dispositivo descartará aquellos fragmentos que no son reconocidos por el dispositivo.
Por lo general, un dispositivo que es capaz de acceder a la información contenida en un archivo multimedia de acuerdo con una realización de la presente invención es capaz de realizar un número de funciones. El dispositivo puede visualizar una presentación multimedia que implica la visualización de vídeo en un visualizador visual, generar audio a partir de una de potencialmente un número de pistas de audio en un sistema de audio y visualizar subtítulos a partir de potencialmente una de un número de pistas de subtítulo. Varias realizaciones también pueden visualizar menús en un visualizador visual al tiempo que se reproduce el audio y/o vídeo acompañante. Estos menús de visualización son interactivos, con características tales como botones seleccionables, menús desplegables y submenús. En algunas realizaciones, los artículos de menú pueden apuntar a un contenido de audio/vídeo fuera del archivo multimedia al que se está accediendo en la actualidad. El contenido exterior o bien se puede ubicar de forma local con respecto al dispositivo que accede al archivo multimedia, o bien este se puede ubicar de forma remota, tal como a lo largo de una red de área local, de área extensa o pública. Muchas realizaciones también pueden buscar uno o más archivos multimedia de acuerdo con 'metadatos' incluidos dentro del archivo o archivos multimedia o 'metadatos' a los que se hace referencia mediante uno o más de los archivos multimedia.
5.1. Visualización de presentación multimedia
Dada la capacidad de los archivos multimedia de acuerdo con algunas realizaciones de la presente invención para soportar múltiples pistas de audio, múltiples pistas de vídeo y múltiples pistas de subtítulo, la visualización de una presentación multimedia usando un archivo multimedia de este tipo que combina vídeo, audio y/o subtítulos puede requerir la selección de una pista de audio, pista de vídeo y/o pista de subtítulo particular o bien a través de un sistema de menú visual o un sistema de menú desplegable (el funcionamiento de los cuales se analiza posteriormente) o bien por medio de los ajustes por defecto del dispositivo usado para generar la presentación multimedia. Una vez que se han seleccionado una pista de audio, una pista de vídeo y, potencialmente, una pista de subtítulo, puede proseguir la visualización de la presentación multimedia.
Un proceso para localizar la información multimedia requerida a partir de un archivo multimedia que incluye DRM y visualizar la información multimedia de acuerdo con una realización de la presente invención se ilustra en la figura 4.0. El proceso 620 incluye obtener la clave de cifrado requerida para descifrar el encabezamiento de DRM (622). Entonces, se usa la clave de cifrado para descifrar (624) el encabezamiento de DRM y el primer fragmento de DRM se ubica (626) dentro del fragmento de lista de 'película' del archivo multimedia. La clave de cifrado requerida para descifrar el fragmento de 'DRM' se obtiene (628) a partir de la tabla en el encabezamiento de 'DRM' y se usa la clave de cifrado para descifrar un fragmento de vídeo cifrado. Entonces, el fragmento de audio requerido y cualquier fragmento de subtítulo requerido acompañan al fragmento de vídeo se descodifican (630) y la información de audio, de vídeo y cualquiera información de subtítulo se presentan (632) por medio del visualizador y el sistema de sonido.
En varias realizaciones, la pista de audio elegida puede incluir múltiples canales para proporcionar un audio de sonido estéreo o envolvente. Cuando se elije una pista de subtítulo para su visualización, se puede realizar una determinación en lo que respecta a si la trama de vídeo previa incluía un subtítulo (esta determinación se puede realizar en cualquiera de diversas formas que logra el resultado de identificar un fragmento de 'subtítulo' previo que contenía información de subtítulo que se debería visualizar a lo largo de la trama de vídeo actualmente descodificada). Si el subtítulo previo incluía un subtítulo y la información de temporización para el subtítulo indica que el subtítulo se debería visualizar con la trama actual, entonces el subtítulo se superpone sobre la trama de vídeo descodificada. Si la trama previa no incluía un subtítulo o la información de temporización para el subtítulo en la trama previa indica que el subtítulo no se debería visualizar junto con la trama actualmente descodificada, entonces se busca un fragmento de 'subtítulo' para la pista de subtítulo seleccionada. Si se localiza un fragmento de 'subtítulo', entonces el subtítulo se superpone sobre el vídeo descodificado. El vídeo (incluyendo cualquier subtítulo superpuesto) se visualiza entonces con el audio acompañante.
Volviendo al análisis de la figura 4.0., el proceso determina (634) si hay fragmento de DRM adicional alguno. Si lo hay, entonces se localiza (626) el siguiente fragmento de DRM y el proceso continúa hasta que no queda fragmento de DRM adicional alguno. Punto en el que se ha completado la presentación de las pistas de audio, de vídeo y/o de subtítulo (636),
En varias realizaciones, un dispositivo puede buscar una porción particular de la información multimedia (por ejemplo, una escena particular de una película con una pista de audio acompañante particular y, de forma opcional, una pista de subtítulo acompañante particular) usando información contenida dentro del fragmento de 'hdrl' de un archivo multimedia de acuerdo con la presente invención. En muchas realizaciones, la descodificación del fragmento de 'vídeo', el fragmento de 'audio' y/o el fragmento de 'subtítulo' se puede realizar en paralelo con otras tareas.
Un ejemplo de un dispositivo capaz de acceder a información a partir del archivo multimedia y visualizar vídeo junto con una pista de audio particular y/o una pista de subtítulo particular es un ordenador configurado de la forma descrita anteriormente usando software. Otro ejemplo es un reproductor de DVD equipado con un códec que incluye estas capacidades. En otras realizaciones, cualquier dispositivo configurado para ubicar o seleccionar (ya sea de forma deliberada o arbitraria) fragmentos de 'datos' que se corresponden con pistas de medios particulares y descodificar esas pistas para la presentación es capaz de generar una presentación multimedia usando un archivo multimedia de acuerdo con la práctica de la presente invención.
En varias realizaciones, un dispositivo puede reproducir información multimedia a partir de un archivo multimedia en combinación con información multimedia a partir de un archivo externo. Por lo general, un dispositivo de este tipo lo haría al abastecer una pista de audio o pista de subtítulo desde un archivo local al que se hace referencia en un archivo multimedia del tipo descrito anteriormente. Si el archivo al que se hace referencia no se almacena de forma local y el dispositivo se interconecta en red con la ubicación en la que se almacena el dispositivo, entonces el dispositivo puede obtener una copia local del archivo. El dispositivo accedería entonces a ambos archivos, estableciendo una canalización de vídeo, una canalización de audio y una canalización de subtítulo (si así se requiere) en las que las diversas pistas de multimedia se alimentan a partir de las diferentes fuentes de archivos.
5.2. Generación de menús
Un descodificador de acuerdo con una realización de la presente invención se ilustra en la figura 4.1. El descodificador 650 procesa un archivo multimedia 652 de acuerdo con una realización de la presente invención al proporcionar el archivo a un desmultiplexor 654. El desmultiplexor extrae el fragmento de 'DMNU' a partir del archivo multimedia y extrae la totalidad de los fragmentos de 'MenusIdioma' a partir del fragmento de 'DMNU' y los proporciona a un analizador de menú 656. El desmultiplexor también extrae la totalidad de los fragmentos de 'Medios' a partir del fragmento de 'DMNU' y los proporciona a un representador de medios 658. El analizador de menú 656 analiza información a partir de los fragmentos de 'MenuIdioma' para construir una máquina de estados que representa la estructura de menú definida en el fragmento de 'MenuIdioma'. La máquina de estados que representa la estructura de menú se puede usar para proporcionar visualizaciones al usuario y para responder a órdenes de usuario. La máquina de estados se proporciona a un controlador de estado de menú 660. El controlador de estado de menú realiza un seguimiento del estado actual de la máquina de estados de menú y recibe órdenes procedentes del usuario. Las órdenes procedentes del usuario pueden dar lugar a una transición de estado. La visualización inicial proporcionada a un usuario y cualquier actualización a la visualización que acompaña a una transición de estado de menú se pueden controlar usando una interfaz de reproductor de menú 662. La interfaz de reproductor de menú 662 se puede conectar al controlador de estado de menú y el representador de medios. La interfaz de reproductor de menú da instrucciones al representador de medios acerca de qué medios se deberían extraer a partir de los fragmentos de medios y proporcionarse al usuario por medio del reproductor 664 conectado al representador de medios. El usuario puede dotar de instrucciones al reproductor usando un dispositivo de entrada tal como un teclado, ratón o control remoto. En general, el archivo multimedia dicta el menú inicialmente visualizado al usuario y las instrucciones del usuario dictan el audio y el vídeo visualizado a continuación de la generación del menú inicial. El sistema ilustrado en la figura 4.1. se puede implementar usando un ordenador y software. En otras realizaciones, el sistema se puede implementar usando circuitos integrados para funciones específicas o una combinación de software y firmware.
Un ejemplo de un menú de acuerdo con una realización de la presente invención se ilustra en la figura 4.2. La visualización de menú 670 incluye cuatro áreas de botón 672, un vídeo de segundo plano 674, incluyendo un título 676 y un puntero 678. El menú también incluye un audio de segundo plano (no mostrado). El efecto visual creado por la visualización puede ser engañoso. Por lo general, la apariencia visual de los botones es parte del vídeo de segundo plano y los propios botones son regiones definidas simplemente del vídeo de segundo plano que tienen acciones particulares asociadas con los mismos, cuando la región es activada por el puntero. Por lo general, el puntero es una superposición.
La figura 4.3. ilustra conceptualmente la fuente de la totalidad de la información en la visualización mostrada en la figura 4.2. El vídeo de segundo plano 674 puede incluir un título de menú, la apariencia visual de los botones y el segundo plano de la visualización. La totalidad de estos elementos, y elementos adicionales, pueden parecer estáticos o animados. El vídeo de segundo plano se extrae mediante el uso de información contenida en un fragmento de 'PistaMedios' 700 que indica la ubicación del vídeo de segundo plano dentro de una pista de vídeo 702. El audio de segundo plano 706 que puede acompañar al menú se puede ubicar usando un fragmento de 'PistaMedios' 708 que indica la ubicación del audio de segundo plano dentro de una pista de audio 710. Como se ha descrito anteriormente, el puntero 678 es parte de una superposición 713. La superposición 713 también puede incluir gráficos que parecen resaltar la porción del vídeo de segundo plano que aparece como un botón. En una realización, la superposición 713 se obtiene usando un fragmento de 'PistaMedios' 712 que indica la ubicación de la superposición dentro de una pista de superposición 714. La forma en la que el menú interacciona con un usuario es definida por los fragmentos de 'Acción' (no mostrados) asociados con cada uno de los botones. En la realización ilustrada, se ilustra un fragmento de 'AccionReproduccion' 716. El fragmento de 'AccionReproduccion' hace indirectamente referencia (no se muestran los otros fragmentos a los que se hace referencia mediante el fragmento de 'AccionReproduccion') a una escena dentro de una presentación multimedia contenida dentro del archivo multimedia (es decir, una pista de audio, de vídeo y, posiblemente, una de subtítulo). El fragmento de 'AccionReproduccion' 716 hace referencia en última instancia a la escena usando un fragmento de 'PistaMedios' 718, que indica la escena dentro de la pista de características. También se hace referencia a un punto en una pista de audio seleccionada o por defecto y, potencialmente, una pista de subtítulo.
A medida que el usuario introduce órdenes usando el dispositivo de entrada, la visualización se puede actualizar no solo en respuesta a la selección de áreas de botón, sino también simplemente debido a que el puntero se ubica dentro de un área de botón. Como se ha analizado anteriormente, por lo general, la totalidad de la información de medios usada para generar los menús se ubica dentro del archivo multimedia y, más concretamente, dentro de un fragmento de 'DMNU'. Aunque, en otras realizaciones, la información se puede ubicar en cualquier otra parte dentro del archivo y/o en otros archivos.
5.3. Acceso a los Metadatos
Los 'metadatos' son un método normalizado de representar información. La naturaleza normalizada de 'Metadatos' posibilita que a los datos accedan, y que estos sean entendidos por, procesos automáticos. En una realización, los 'metadatos' se extraen y se proporcionan a un usuario para su visionado. Varias realizaciones posibilitan que se inspeccionen los archivos multimedia en un servidor para proporcionar información con respecto a los hábitos de visionado y a las preferencias de visionado de un usuario. Tal información podría ser usada por aplicaciones de software para recomendar otros archivos multimedia cuyo visionado puede disfrutar un usuario. En una realización, las recomendaciones se pueden basar en los archivos multimedia contenidos en servidores de otros usuarios. En otras realizaciones, un usuario puede solicitar un archivo multimedia y el archivo se puede ubicar mediante un motor de búsqueda y/o agentes inteligentes que inspeccionan los 'metadatos' de archivos multimedia en diversas ubicaciones. Además, el usuario puede elegir entre diversos archivos multimedia que contienen una presentación multimedia particular basándose en 'metadatos' con respecto a la forma en la que se codificó cada una de las diferentes versiones de la presentación.
En varias realizaciones, se puede acceder a los 'metadatos' de archivos multimedia de acuerdo con algunas realizaciones de la presente invención para fines de catálogo o para crear un menú simple para acceder al contenido del archivo.
Aunque la descripción anterior contiene muchas realizaciones específicas de la invención, estas no se deberían interpretar como limitaciones al alcance de la invención, sino más bien como un ejemplo de una realización de la misma. Por ejemplo, un archivo multimedia de acuerdo con una realización de la presente invención puede incluir una única presentación multimedia o múltiples presentaciones multimedia. Además, un archivo de este tipo puede incluir uno o más menús y cualquier diversidad de tipos diferentes de 'metadatos'. Por consiguiente, el alcance de la invención no debería ser determinado por las realizaciones ilustradas, sino por las reivindicaciones adjuntas.

Claims (13)

REIVINDICACIONES
1. Un sistema de descodificación para descodificar archivos multimedia (30, 30'), comprendiendo el sistema de descodificación:
un procesador configurado y al que se le dan instrucciones por software para extraer información a partir de un archivo multimedia, en donde:
el archivo multimedia incluye una pluralidad de fragmentos para portar información, incluyendo dichos fragmentos una pluralidad de fragmentos de vídeo (262) y una pluralidad de fragmentos de audio (264);
los fragmentos de vídeo (262) son porciones de al menos una pista de vídeo, comprendiendo dicha al menos una pista de vídeo una serie de tramas de vídeo codificadas que incluye al menos unas tramas de vídeo codificadas 1 a N, incluyendo dichos fragmentos de vídeo (262) al menos unos fragmentos de vídeo 1 a N, en donde cada una de dichas tramas de vídeo codificadas 1 a N se corresponde con un fragmento a partir de los fragmentos de vídeo 1 a N, en donde los fragmentos de vídeo (262) incluyen un fragmento de vídeo marcador N en donde una información suficiente está contenida en los fragmentos 1 a N -1 para generar una trama de vídeo N, en donde el fragmento de vídeo marcador N incluye una trama P no codificada con una información de temporización idéntica a una trama de vídeo codificada previa en la serie de tramas de vídeo codificadas; y
los fragmentos de audio (264) son porciones de al menos una pista de audio;
y el procesador adicionalmente se configura y se le dan instrucciones por software para acceder a información a partir del archivo multimedia al:
descodificar la trama N usando un fragmento de vídeo marcador N correspondiente junto con los fragmentos de vídeo 1 a N - 1.
2. El sistema de descodificación de la reivindicación 1, en donde dichos fragmentos de audio y dichos fragmentos de vídeo se intercalan de tal modo que los fragmentos de audio se encuentran dentro del archivo antes de los fragmentos de vídeo que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos.
3. El sistema de descodificación de la reivindicación 2, en donde el archivo multimedia incluye adicionalmente una pluralidad de fragmentos de subtítulo (266), y en donde dichos fragmentos de audio, dichos fragmentos de subtítulo y dichos fragmentos de vídeo se intercalan de tal modo que los fragmentos de audio y de subtítulo se encuentran dentro del archivo antes de los fragmentos de vídeo que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos.
4. El sistema de descodificación de la reivindicación 3, en donde el procesador adicionalmente se configura y se le dan instrucciones por software para acceder a información a partir del archivo multimedia al:
identificar un fragmento de subtítulo previo que contiene información de subtítulo para un fragmento de vídeo descodificado para construir una trama de vídeo para su visualización mediante la superposición del subtítulo del fragmento de subtítulo identificado sobre la trama de vídeo descodificada;
realizar una determinación acerca de si la trama de vídeo previa incluía un subtítulo;
si la información de temporización para el subtítulo indica que el subtítulo se debería visualizar con la trama actual, entonces la superposición del subtítulo se hace sobre la trama de vídeo descodificada; y
si la trama previa no incluía un subtítulo o la información de temporización para el subtítulo en la trama previa indica que el subtítulo no se debería visualizar junto con la trama actualmente descodificada, entonces buscar un fragmento de subtítulo para una pista de subtítulo seleccionada y, si se localiza un fragmento de subtítulo, entonces la superposición del subtítulo se hace sobre el vídeo descodificado.
5. El sistema de descodificación para descodificar archivos multimedia de la reivindicación 1, en donde el archivo multimedia incluye adicionalmente una pluralidad de fragmentos de subtítulo (266) y en donde:
el subtítulo se codifica como un mapa de bits codificado por longitud de ejecución y comprimido; y
el procesador adicionalmente se configura y se le dan instrucciones para descomprimir el mapa de bits codificado por longitud de ejecución usando software.
6. El sistema de descodificación de una cualquiera de las reivindicaciones anteriores, en donde la pista de audio codificada se proporciona en fragmentos que no contienen información de audio que se corresponde con los contenidos de un fragmento de vídeo correspondiente, y codificar la al menos una pista de audio codificada, codificada como fragmentos de audio, implica identificar la información de audio en la pista de audio codificada que acompaña al fragmento de vídeo y extraer la información de audio a partir de los fragmentos de audio existentes para crear un nuevo fragmento de audio.
7. El sistema de descodificación de una cualquiera de las reivindicaciones anteriores, en donde los fragmentos de audio (264, 266) se intercalan entre los fragmentos de vídeo (262) de tal modo que cada fragmento de audio particular se coloca en relación con un fragmento de vídeo correspondiente basándose en una cantidad de vídeo que puede ser almacenado en memoria intermedia por un dispositivo capaz de visualizar el archivo multimedia.
8. Un archivo multimedia (30, 30') que incluye:
una pluralidad de fragmentos para portar información, incluyendo dichos fragmentos una pluralidad de fragmentos de vídeo (262) y una pluralidad de fragmentos de audio (264);
siendo dichos fragmentos de audio (264) porciones de al menos una pista de audio; y
siendo dichos fragmentos de vídeo (262) porciones de al menos una pista de vídeo, comprendiendo dicha pista de vídeo una serie de tramas de vídeo codificadas que incluye al menos unas tramas de vídeo codificadas 1 a N, incluyendo dichos fragmentos de vídeo (262) al menos unos fragmentos de vídeo 1 a N, en donde cada una de dichas tramas de vídeo codificadas 1 a N se corresponde con un fragmento a partir de los fragmentos de vídeo 1 a N, en donde los fragmentos de vídeo (262) incluyen un fragmento de vídeo marcador N en donde una información suficiente está contenida en los fragmentos 1 a N -1 para descodificar una trama de vídeo N, en donde el fragmento de vídeo marcador N incluye una trama P no codificada con una información de temporización idéntica a una trama de vídeo codificada previa en la serie de tramas de vídeo codificadas.
9. El archivo multimedia de la reivindicación 8, en donde dichos fragmentos de audio y dichos fragmentos de vídeo se intercalan de tal modo que los fragmentos de audio se encuentran dentro del archivo antes de los fragmentos de vídeo que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos.
10. El archivo multimedia de la reivindicación 8, en donde el archivo multimedia incluye adicionalmente una pluralidad de fragmentos de subtítulo (266), y en donde dichos fragmentos de audio, dichos fragmentos de subtítulo y dichos fragmentos de vídeo se intercalan de tal modo que los fragmentos de audio y de subtítulo se encuentran dentro del archivo antes de los fragmentos de vídeo que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos.
11. Un sistema para codificar un archivo multimedia, caracterizado por un procesador configurado para: codificar al menos una pista de vídeo como una pluralidad de fragmentos de vídeo (262), en donde:
la al menos una pista de vídeo comprende una serie de tramas de vídeo codificadas que incluye al menos unas tramas de vídeo codificadas 1 a N;
los fragmentos de vídeo (262) son porciones de la al menos una pista de vídeo y los fragmentos de vídeo (262) incluyen al menos unos fragmentos de vídeo 1 a N, en donde los fragmentos de vídeo (262) incluyen un fragmento de vídeo marcador N en donde una información suficiente está contenida en los fragmentos 1 a N -1 para generar una trama de vídeo N, en donde el fragmento de vídeo marcador N incluye una trama P no codificada con una información de temporización idéntica a una trama de vídeo codificada previa en la serie de tramas de vídeo codificadas;
la trama N se puede descodificar usando un fragmento de vídeo marcador N junto con los fragmentos de vídeo 1 a N - 1, en donde cada una de dichas tramas de vídeo codificadas 1 a N se corresponde con un fragmento a partir de los fragmentos de vídeo 1 a N;
codificar al menos una pista de audio como fragmentos de audio (264); y
escribir los fragmentos de vídeo y los fragmentos de audio en un único archivo.
12. El sistema de la reivindicación 11, en donde dichos fragmentos de audio y dichos fragmentos de vídeo se intercalan de tal modo que los fragmentos de audio se encuentran dentro del archivo antes de los fragmentos de vídeo que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos.
13. El sistema de la reivindicación 11, en donde el único archivo incluye adicionalmente una pluralidad de fragmentos de subtítulo (266), y en donde dichos fragmentos de audio, dichos fragmentos de subtítulo y dichos fragmentos de vídeo se intercalan de tal modo que los fragmentos de audio y de subtítulo se encuentran dentro del archivo antes de los fragmentos de vídeo que contienen información con respecto a las tramas de vídeo con las que se corresponden los mismos.
ES15162562T 2003-12-08 2004-12-08 Sistema de descodificación para descodificar archivos multimedia, sistema para codificar un archivo multimedia, y archivo multimedia Active ES2784837T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/731,809 US7519274B2 (en) 2003-12-08 2003-12-08 File format for multiple track digital data

Publications (1)

Publication Number Publication Date
ES2784837T3 true ES2784837T3 (es) 2020-10-01

Family

ID=34634434

Family Applications (2)

Application Number Title Priority Date Filing Date
ES15162562T Active ES2784837T3 (es) 2003-12-08 2004-12-08 Sistema de descodificación para descodificar archivos multimedia, sistema para codificar un archivo multimedia, y archivo multimedia
ES19214057T Active ES2927630T3 (es) 2003-12-08 2004-12-08 Gestión de derechos digitales

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES19214057T Active ES2927630T3 (es) 2003-12-08 2004-12-08 Gestión de derechos digitales

Country Status (9)

Country Link
US (12) US7519274B2 (es)
EP (3) EP1692859B1 (es)
JP (4) JP2007532044A (es)
KR (4) KR20130105908A (es)
CN (1) CN101124561B (es)
BR (1) BRPI0416738B1 (es)
ES (2) ES2784837T3 (es)
HK (1) HK1215889A1 (es)
WO (1) WO2005057906A2 (es)

Families Citing this family (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100406630B1 (ko) * 2001-03-13 2003-11-20 엘지전자 주식회사 데모용 데이터의 기록 및 재생방법과, 그에 따른 기록매체
KR20020072934A (ko) * 2001-03-13 2002-09-19 엘지전자 주식회사 데모용 데이터가 기록된 재생전용 광디스크와, 그 재생방법
US7215770B2 (en) * 2002-01-02 2007-05-08 Sony Corporation System and method for partially encrypted multimedia stream
KR20040000290A (ko) * 2002-06-24 2004-01-03 엘지전자 주식회사 고밀도 광디스크의 멀티 경로 데이터 스트림 관리방법
US7116716B2 (en) 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
US7260261B2 (en) * 2003-02-20 2007-08-21 Microsoft Corporation Systems and methods for enhanced image adaptation
US20070206682A1 (en) * 2003-09-29 2007-09-06 Eric Hamilton Method And Apparatus For Coding Information
US20060200744A1 (en) * 2003-12-08 2006-09-07 Adrian Bourke Distributing and displaying still photos in a multimedia distribution system
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US7649539B2 (en) * 2004-03-10 2010-01-19 Microsoft Corporation Image formats for video capture, processing and display
RU2378722C2 (ru) * 2004-03-26 2010-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
ES2336223T3 (es) * 2004-03-26 2010-04-09 Lg Electronics, Inc. Medio de grabacion o registro y metodo y aparato para reproducir un flujo o corriente de subtitulos de texto grabados en el medio de grabacion.
US7624021B2 (en) * 2004-07-02 2009-11-24 Apple Inc. Universal container for audio data
US9053754B2 (en) 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
US7986372B2 (en) * 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
KR100628655B1 (ko) * 2004-10-20 2006-09-26 한국전자통신연구원 상이한 디지털 저작권 관리 도메인간의 콘텐츠 교환을 위한방법 및 시스템
TWI237806B (en) * 2004-11-03 2005-08-11 Sunplus Technology Co Ltd Audio decoding system with ring buffer and method thereof
US20060123063A1 (en) * 2004-12-08 2006-06-08 Ryan William J Audio and video data processing in portable multimedia devices
KR100703738B1 (ko) * 2005-01-19 2007-04-05 삼성전자주식회사 컨텐츠 재생시 화면 보호기의 동작을 제어하는 방법 및 장치
GB2424534B (en) * 2005-03-24 2007-09-05 Zootech Ltd Authoring audiovisual content
US20060222073A1 (en) * 2005-03-29 2006-10-05 Guillaume Mercier Authoring running marks in compressed data
US7876819B2 (en) 2005-09-22 2011-01-25 Qualcomm Incorporated Two pass rate control techniques for video coding using rate-distortion characteristics
US8379721B2 (en) * 2005-09-22 2013-02-19 Qualcomm Incorported Two pass rate control techniques for video coding using a min-max approach
WO2007043831A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
US20090160862A1 (en) * 2005-10-13 2009-06-25 Tae Hyeon Kim Method and Apparatus for Encoding/Decoding
US20070112811A1 (en) * 2005-10-20 2007-05-17 Microsoft Corporation Architecture for scalable video coding applications
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US7773813B2 (en) 2005-10-31 2010-08-10 Microsoft Corporation Capture-intention detection for video content analysis
US8196032B2 (en) * 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
KR100667840B1 (ko) * 2005-11-30 2007-01-11 삼성전자주식회사 멀티미디어 파일을 생성 방법, 재생 방법, 재생 장치 및멀티미디어 파일이 기록된 정보저장매체
US7949131B2 (en) * 2005-12-19 2011-05-24 Sigmatel, Inc. Digital security system
US20070162855A1 (en) * 2006-01-06 2007-07-12 Kelly Hawk Movie authoring
US20070162857A1 (en) * 2006-01-06 2007-07-12 Ralf Weber Automated multimedia authoring
US7636889B2 (en) * 2006-01-06 2009-12-22 Apple Inc. Controlling behavior of elements in a display environment
WO2007106844A2 (en) 2006-03-14 2007-09-20 Divx, Inc. Federated digital rights management scheme including trusted systems
US7962933B2 (en) * 2006-04-06 2011-06-14 Velti USA, Inc. Mid-roll insertion of digital media
US20080040215A1 (en) * 2006-04-06 2008-02-14 Ad Infuse, Inc. Mid-Roll Insertion of Digital Media
US8880571B2 (en) * 2006-05-05 2014-11-04 Microsoft Corporation High dynamic range data format conversions for digital media
US20080005175A1 (en) * 2006-06-01 2008-01-03 Adrian Bourke Content description system
US20070283158A1 (en) * 2006-06-02 2007-12-06 Microsoft Corporation Microsoft Patent Group System and method for generating a forensic file
US8275814B2 (en) * 2006-07-12 2012-09-25 Lg Electronics Inc. Method and apparatus for encoding/decoding signal
KR100903958B1 (ko) * 2006-08-02 2009-06-25 엠텍비젼 주식회사 디지털 오디오 데이터의 복호화 방법, 디지털 오디오데이터의 복호화 장치 및 디지털 오디오 데이터의 복호화방법을 수행하는 기록매체
US20080066107A1 (en) 2006-09-12 2008-03-13 Google Inc. Using Viewing Signals in Targeted Video Advertising
WO2008048068A1 (en) * 2006-10-19 2008-04-24 Lg Electronics Inc. Encoding method and apparatus and decoding method and apparatus
EP4184341A1 (en) 2007-01-05 2023-05-24 DivX, LLC Video distribution system including progressive playback
US8054886B2 (en) * 2007-02-21 2011-11-08 Microsoft Corporation Signaling and use of chroma sample positioning information
US8667532B2 (en) 2007-04-18 2014-03-04 Google Inc. Content recognition for targeting video advertisements
US20080276266A1 (en) * 2007-04-18 2008-11-06 Google Inc. Characterizing content for identification of advertising
US20080294691A1 (en) * 2007-05-22 2008-11-27 Sunplus Technology Co., Ltd. Methods for generating and playing multimedia file and recording medium storing multimedia file
US8433611B2 (en) * 2007-06-27 2013-04-30 Google Inc. Selection of advertisements for placement with content
US8249451B2 (en) * 2007-08-16 2012-08-21 Futurewei Technologies, Inc. Methods for characterizing optical switches and multiplexers/demultiplexers
US9064024B2 (en) 2007-08-21 2015-06-23 Google Inc. Bundle generation
KR101482099B1 (ko) * 2007-10-08 2015-01-13 엘지전자 주식회사 멀티 미디어 데이터의 부호화/복호화 방법 및 장치
US8230125B2 (en) * 2007-10-30 2012-07-24 Mediatek Inc. Methods for reserving index memory space in AVI recording apparatus
US20090119332A1 (en) * 2007-11-01 2009-05-07 Lection David B Method And System For Providing A Media Transition Having A Temporal Link To Presentable Media Available From A Remote Content Provider
KR20100106327A (ko) 2007-11-16 2010-10-01 디브이엑스, 인크. 멀티미디어 파일을 위한 계층적 및 감소된 인덱스 구조
US8301793B2 (en) 2007-11-16 2012-10-30 Divx, Llc Chunk header incorporating binary flags and correlated variable-length fields
US7836107B2 (en) * 2007-12-20 2010-11-16 Microsoft Corporation Disk seek optimized file system
US8997161B2 (en) 2008-01-02 2015-03-31 Sonic Ip, Inc. Application enhancement tracks
KR20090076689A (ko) * 2008-01-09 2009-07-13 삼성전자주식회사 디지털 비디오 방송 시스템에서 전자 서비스 가이드를송/수신하는 장치 및 방법
US9824372B1 (en) 2008-02-11 2017-11-21 Google Llc Associating advertisements with videos
EP2107811A1 (en) * 2008-03-31 2009-10-07 British Telecmmunications public limited campany Encoder
US20090257484A1 (en) * 2008-04-15 2009-10-15 Winbond Electronics Corp. Method for audio-video encoding and apparatus for multimedia storage
US20100037149A1 (en) * 2008-08-05 2010-02-11 Google Inc. Annotating Media Content Items
CN102171670A (zh) * 2008-09-30 2011-08-31 惠普开发有限公司 基于nas的多媒体文件分发服务
KR100989079B1 (ko) * 2008-10-28 2010-10-25 한국전자통신연구원 오케스트라 미디어 서비스 시스템 및 방법
WO2010051545A1 (en) * 2008-10-31 2010-05-06 Divx, Inc. System and method for playing content on certified devices
JP5681641B2 (ja) 2009-01-07 2015-03-11 ソニック アイピー, インコーポレイテッド オンラインコンテンツのためのメディアガイドの特異的、収集的および自動的な生成
FR2946820B1 (fr) * 2009-06-16 2012-05-11 Canon Kk Procede de transmission de donnees et dispositif associe.
US8355433B2 (en) * 2009-08-18 2013-01-15 Netflix, Inc. Encoding video streams for adaptive video streaming
KR101246596B1 (ko) * 2009-08-26 2013-03-25 에스케이플래닛 주식회사 서비스 영상 전송 시스템, 서버 및 방법
US20110066488A1 (en) * 2009-09-17 2011-03-17 Ad Infuse, Inc. Mobile ad routing
CA2782825C (en) 2009-12-04 2016-04-26 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
US9152708B1 (en) 2009-12-14 2015-10-06 Google Inc. Target-video specific co-watched video clusters
US20110153337A1 (en) * 2009-12-17 2011-06-23 Electronics And Telecommunications Research Institute Encoding apparatus and method and decoding apparatus and method of audio/voice signal processing apparatus
JP2011253589A (ja) 2010-06-02 2011-12-15 Funai Electric Co Ltd 画像音声再生装置
EP2596633B1 (en) * 2010-07-20 2016-11-23 Nokia Technologies Oy A media streaming apparatus
CN102387121B (zh) * 2010-08-30 2014-07-23 株式会社日立制作所 管理服务器、影像分发控制系统及影像分发控制方法
WO2012075180A1 (en) * 2010-11-30 2012-06-07 Rovi Technologies Corporation Systems and methods for downloading by different processes
US8914534B2 (en) 2011-01-05 2014-12-16 Sonic Ip, Inc. Systems and methods for adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
US9860293B2 (en) 2011-03-16 2018-01-02 Electronics And Telecommunications Research Institute Apparatus and method for providing streaming content using representations
JP5857449B2 (ja) * 2011-05-27 2016-02-10 ソニー株式会社 画像処理装置及び録画装置
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
CN108989847B (zh) 2011-08-30 2021-03-09 帝威视有限公司 用于编码和流处理视频的系统和方法
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US8799647B2 (en) 2011-08-31 2014-08-05 Sonic Ip, Inc. Systems and methods for application identification
US8787570B2 (en) 2011-08-31 2014-07-22 Sonic Ip, Inc. Systems and methods for automatically genenrating top level index files
US8964977B2 (en) * 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US9918115B2 (en) 2011-10-04 2018-03-13 Google Llc System and method for obtaining video streams
US8976814B2 (en) * 2011-12-09 2015-03-10 General Electric Company Method of transporting data from sending node to destination node
US20130179199A1 (en) 2012-01-06 2013-07-11 Rovi Corp. Systems and methods for granting access to digital content using electronic tickets and ticket tokens
US10616782B2 (en) 2012-03-29 2020-04-07 Mgage, Llc Cross-channel user tracking systems, methods and devices
US20130329808A1 (en) * 2012-06-12 2013-12-12 Jorg-Ulrich Mohnen Streaming portions of a quilted image representation along with content control data
US9197685B2 (en) 2012-06-28 2015-11-24 Sonic Ip, Inc. Systems and methods for fast video startup using trick play streams
US9143812B2 (en) 2012-06-29 2015-09-22 Sonic Ip, Inc. Adaptive streaming of multimedia
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
US9436300B2 (en) * 2012-07-10 2016-09-06 Nokia Technologies Oy Method and apparatus for providing a multimodal user interface track
WO2014015110A1 (en) 2012-07-18 2014-01-23 Verimatrix, Inc. Systems and methods for rapid content switching to provide a linear tv experience using streaming content distribution
US8997254B2 (en) 2012-09-28 2015-03-31 Sonic Ip, Inc. Systems and methods for fast startup streaming of encrypted multimedia content
US8914836B2 (en) 2012-09-28 2014-12-16 Sonic Ip, Inc. Systems, methods, and computer program products for load adaptive streaming
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US9264475B2 (en) 2012-12-31 2016-02-16 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
US8943068B2 (en) * 2013-02-26 2015-01-27 Cray Inc Dynamic graph system for a semantic database
SG11201509078PA (en) * 2013-03-04 2015-12-30 Yimwai Yau Communication terminal product supporting interactive association system
US9372531B2 (en) * 2013-03-12 2016-06-21 Gracenote, Inc. Detecting an event within interactive media including spatialized multi-channel audio content
US9680901B2 (en) * 2013-03-14 2017-06-13 Openwave Mobility, Inc. Method, apparatus and non-transitory computer medium for encoding data of a media file
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US9344517B2 (en) 2013-03-28 2016-05-17 Sonic Ip, Inc. Downloading and adaptive streaming of multimedia content to a device with cache assist
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9247317B2 (en) 2013-05-30 2016-01-26 Sonic Ip, Inc. Content streaming with client device trick play index
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
CN105051724B (zh) 2013-08-19 2018-09-28 华为技术有限公司 一种数据对象处理方法与装置
CN103491416B (zh) * 2013-09-29 2018-09-04 深圳Tcl新技术有限公司 字幕数据的单图层显示方法和装置
JP6336058B2 (ja) 2013-10-14 2018-06-06 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオ及び画像符号化及び復号のためのベースカラーインデックスマップモードの機能
US9343112B2 (en) 2013-10-31 2016-05-17 Sonic Ip, Inc. Systems and methods for supplementing content from a server
US9621613B1 (en) * 2013-11-05 2017-04-11 Visualon, Inc. Bitrate adaptation transitioning using key frames
GB201321851D0 (en) * 2013-12-10 2014-01-22 Canon Kk Run length parameters coding for palette mode
KR20160074671A (ko) * 2013-12-19 2016-06-28 엘지전자 주식회사 방송 전송 장치, 방송 전송 장치의 동작 방법. 방송 수신 장치 및 방송 수신 장치의 동작 방법
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
US10063912B2 (en) * 2014-02-28 2018-08-28 Avago Technologies General Ip (Singapore) Pte. Ltd. Adaptive transcoding bypass system
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
JP6331670B2 (ja) * 2014-05-12 2018-05-30 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法
RU2019122989A (ru) * 2014-05-30 2019-09-16 Сони Корпорейшн Устройство обработки информации и способ обработки информации
CN105338394B (zh) 2014-06-19 2018-11-30 阿里巴巴集团控股有限公司 字幕数据的处理方法及系统
EP3160154B1 (en) * 2014-06-20 2019-05-01 Sony Corporation Information processing apparatus and information processing method
EP3917146A1 (en) 2014-09-30 2021-12-01 Microsoft Technology Licensing, LLC Rules for intra-picture prediction modes when wavefront parallel processing is enabled
WO2016112112A1 (en) 2015-01-06 2016-07-14 Sonic Ip, Inc. Systems and methods for encoding and sharing content between devices
WO2016125691A1 (ja) * 2015-02-03 2016-08-11 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10659783B2 (en) * 2015-06-09 2020-05-19 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
US10341561B2 (en) 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
US10499070B2 (en) 2015-09-11 2019-12-03 Facebook, Inc. Key frame placement for distributed video encoding
US10506235B2 (en) 2015-09-11 2019-12-10 Facebook, Inc. Distributed control of video encoding speeds
US10602157B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Variable bitrate control for distributed video encoding
US10602153B2 (en) * 2015-09-11 2020-03-24 Facebook, Inc. Ultra-high video compression
US10063872B2 (en) 2015-09-11 2018-08-28 Facebook, Inc. Segment based encoding of video
US10375156B2 (en) 2015-09-11 2019-08-06 Facebook, Inc. Using worker nodes in a distributed video encoding system
CN105592368B (zh) * 2015-12-18 2019-05-03 中星技术股份有限公司 一种视频码流中版本标识的方法
TWI728061B (zh) * 2016-03-15 2021-05-21 日商新力股份有限公司 送訊裝置及收訊裝置
US10075292B2 (en) 2016-03-30 2018-09-11 Divx, Llc Systems and methods for quick start-up of playback
US9619588B1 (en) 2016-03-31 2017-04-11 Ca, Inc. Detecting and displaying cumulative lossy transformation
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
CN107526742B (zh) 2016-06-21 2021-10-08 伊姆西Ip控股有限责任公司 用于处理多语言文本的方法和设备
CN106231222B (zh) * 2016-08-23 2019-05-14 深圳亿维锐创科技股份有限公司 基于多码流可交互的示教录像文件格式的存储播放方法
CN107919943B (zh) 2016-10-11 2020-08-04 阿里巴巴集团控股有限公司 二进制数据的编码、解码方法和装置
TWI640195B (zh) * 2016-12-14 2018-11-01 日商夏普股份有限公司 具有統一資源識別符訊息浮水印有效負載之廣播系統
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
US11588872B2 (en) 2017-06-12 2023-02-21 C-Hear, Inc. System and method for codec for combining disparate content
US10187443B2 (en) * 2017-06-12 2019-01-22 C-Hear, Inc. System and method for encoding image data and other data types into one data format and decoding of same
US11146608B2 (en) * 2017-07-20 2021-10-12 Disney Enterprises, Inc. Frame-accurate video seeking via web browsers
KR102343958B1 (ko) * 2017-11-03 2021-12-27 현대자동차주식회사 멀티미디어 장치 및 멀티미디어 장치에 의한 오류 표시 검출 방법
CN111147896A (zh) * 2018-11-05 2020-05-12 中兴通讯股份有限公司 一种字幕数据处理方法、装置、设备和计算机存储介质
CN110197177B (zh) * 2019-04-22 2024-03-19 平安科技(深圳)有限公司 提取视频字幕的方法、装置、计算机设备及存储介质
CN110334705B (zh) * 2019-06-25 2021-08-03 华中科技大学 一种结合全局和局部信息的场景文本图像的语种识别方法
CN111565330A (zh) * 2020-07-13 2020-08-21 北京美摄网络科技有限公司 一种同步字幕的添加方法及装置、电子设备、存储介质
CN111901538B (zh) * 2020-07-23 2023-02-17 北京字节跳动网络技术有限公司 一种字幕生成方法、装置、设备及存储介质
CN112055262B (zh) * 2020-08-11 2022-10-21 视若飞信息科技(上海)有限公司 一种网络流媒体字幕的显示方法及系统
CN112000308B (zh) * 2020-09-10 2023-04-18 成都拟合未来科技有限公司 一种双音轨音频播放控制方法、系统、终端及介质
CN113886612A (zh) * 2020-11-18 2022-01-04 北京字跳网络技术有限公司 一种多媒体浏览方法、装置、设备及介质
US20230059035A1 (en) * 2021-08-23 2023-02-23 Netflix, Inc. Efficient encoding of film grain noise
WO2023026065A1 (en) 2021-08-27 2023-03-02 Blackbird Plc Methods of encrypting a multimedia file, methods of decrypting an encrypted multimedia file; computer program products and apparatus
TWI777771B (zh) * 2021-09-15 2022-09-11 英業達股份有限公司 行動影音裝置及影音播放控制方法
CN114238524B (zh) * 2021-12-21 2022-05-31 军事科学院系统工程研究院网络信息研究所 基于增强样本模型的卫星频轨数据信息抽取方法
US12105812B2 (en) 2022-04-19 2024-10-01 Bank Of America Corporation System and method for providing complex data encryption
US12095754B2 (en) 2022-04-20 2024-09-17 Bank Of America Corporation System and method for establishing a secure session to authenticate DNS requests via dynamically configurable trusted network interface controllers
CN115103222A (zh) * 2022-06-24 2022-09-23 湖南快乐阳光互动娱乐传媒有限公司 一种视频音轨处理方法及相关设备
WO2024123744A1 (en) * 2022-12-06 2024-06-13 Ceruleant Systems, Llc Data encryption and decryption using screens and process object-based logic blocks

Family Cites Families (652)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3609227A (en) 1968-09-09 1971-09-28 Ampex Random access audio/video information retrieval system
US4009331A (en) * 1974-12-24 1977-02-22 Goldmark Communications Corporation Still picture program video recording composing and playback method and system
JPS5343143A (en) 1976-09-30 1978-04-19 Tokai Trw & Co Ignition plug
US4694491A (en) 1985-03-11 1987-09-15 General Instrument Corp. Cryptographic system using interchangeable key blocks and selectable key fragments
US4694357A (en) * 1985-04-24 1987-09-15 Thomson-Csf Broadcast, Inc. Apparatus and method for video signal processing
US4802170A (en) * 1987-04-29 1989-01-31 Matrox Electronics Systems Limited Error disbursing format for digital information and method for organizing same
US4964069A (en) * 1987-05-12 1990-10-16 International Business Machines Corporation Self adjusting video interface
US5119474A (en) 1989-06-16 1992-06-02 International Business Machines Corp. Computer-based, audio/visual creation and presentation system and method
US5274758A (en) * 1989-06-16 1993-12-28 International Business Machines Computer-based, audio/visual creation and presentation system and method
US5470631A (en) * 1990-04-03 1995-11-28 Masonite Corporation Flat oriented strand board-fiberboard composite structure and method of making the same
US5428529A (en) 1990-06-29 1995-06-27 International Business Machines Corporation Structured document tags invoking specialized functions
JP3236015B2 (ja) 1990-10-09 2001-12-04 キヤノン株式会社 情報処理装置及び方法
US5132992A (en) 1991-01-07 1992-07-21 Paul Yurt Audio and video transmission and receiving system
US5253275A (en) 1991-01-07 1993-10-12 H. Lee Browne Audio and video transmission and receiving system
US5412773A (en) 1991-11-19 1995-05-02 Sony Electronics Inc. Computerized interactive menu-driven video signal processing apparatus and method
US5404436A (en) 1991-11-27 1995-04-04 Digital Equipment Corporation Computer method and apparatus for converting compressed characters for display in full size
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
CA2084575C (en) * 1991-12-31 1996-12-03 Chris A. Dinallo Personal computer with generalized data streaming apparatus for multimedia devices
US5341474A (en) 1992-05-15 1994-08-23 Bell Communications Research, Inc. Communications architecture and buffer for distributing information services
US5420974A (en) * 1992-10-15 1995-05-30 International Business Machines Corporation Multimedia complex form creation, display and editing method apparatus
US5400401A (en) 1992-10-30 1995-03-21 Scientific Atlanta, Inc. System and method for transmitting a plurality of digital services
US5420801A (en) * 1992-11-13 1995-05-30 International Business Machines Corporation System and method for synchronization of multimedia streams
US5471576A (en) * 1992-11-16 1995-11-28 International Business Machines Corporation Audio/video synchronization for application programs
US5539908A (en) * 1992-11-24 1996-07-23 International Business Machines Corporation Dynamically linked and shared compression/decompression
US5493339A (en) * 1993-01-21 1996-02-20 Scientific-Atlanta, Inc. System and method for transmitting a plurality of digital services including compressed imaging services and associated ancillary data services
US5719786A (en) * 1993-02-03 1998-02-17 Novell, Inc. Digital media data stream network management system
US5396497A (en) * 1993-02-26 1995-03-07 Sony Corporation Synchronization of audio/video information
US5544318A (en) 1993-04-16 1996-08-06 Accom, Inc., Asynchronous media server request processing system for servicing reprioritizing request from a client determines whether or not to delay executing said reprioritizing request
JP4334614B2 (ja) 1993-06-23 2009-09-30 ウエラ アクチェンゲゼルシャフト 高粘性の、噴霧可能な、ゲル状の、整髪用水性薬剤
JP2707950B2 (ja) * 1993-07-30 1998-02-04 ソニー株式会社 ディジタル画像情報処理装置
EP0790739B1 (en) 1993-09-16 2001-03-14 Kabushiki Kaisha Toshiba Digital video signal
US5596564A (en) 1993-10-08 1997-01-21 Matsushita Electric Industrial Co., Ltd. Information recording medium and apparatus and method for recording and reproducing information
EP0651391A3 (en) * 1993-10-29 1997-02-05 Tokyo Shibaura Electric Co Threaded fastener.
US5574934A (en) * 1993-11-24 1996-11-12 Intel Corporation Preemptive priority-based transmission of signals using virtual channels
US5684542A (en) * 1993-12-21 1997-11-04 Sony Corporation Video subtitle processing system
US6473860B1 (en) 1994-04-07 2002-10-29 Hark C. Chan Information distribution and processing system
JP2945842B2 (ja) 1994-04-13 1999-09-06 株式会社東芝 データ記録方法、データ再生装置及びデータ再生方法
US5583652A (en) * 1994-04-28 1996-12-10 International Business Machines Corporation Synchronized, variable-speed playback of digitally recorded audio and video
US5477263A (en) 1994-05-26 1995-12-19 Bell Atlantic Network Services, Inc. Method and apparatus for video on demand with fast forward, reverse and channel pause
JPH07327029A (ja) * 1994-05-31 1995-12-12 Fujitsu Ltd 暗号化通信システム
US5642171A (en) * 1994-06-08 1997-06-24 Dell Usa, L.P. Method and apparatus for synchronizing audio and video data streams in a multimedia system
US5633472A (en) * 1994-06-21 1997-05-27 Microsoft Corporation Method and system using pathnames to specify and access audio data at fidelity levels other than the level at which the data is stored
US5907597A (en) * 1994-08-05 1999-05-25 Smart Tone Authentication, Inc. Method and system for the secure communication of data
JPH0856356A (ja) 1994-08-10 1996-02-27 Fujitsu Ltd 符号化装置および復号化装置
US5761417A (en) 1994-09-08 1998-06-02 International Business Machines Corporation Video data streamer having scheduler for scheduling read request for individual data buffers associated with output ports of communication node to one storage node
US5796829A (en) 1994-09-09 1998-08-18 The Titan Corporation Conditional access system
US5541662A (en) * 1994-09-30 1996-07-30 Intel Corporation Content programmer control of video and data display using associated data
US5614940A (en) 1994-10-21 1997-03-25 Intel Corporation Method and apparatus for providing broadcast information with indexing
WO1996017313A1 (en) * 1994-11-18 1996-06-06 Oracle Corporation Method and apparatus for indexing multimedia information streams
US5793980A (en) 1994-11-30 1998-08-11 Realnetworks, Inc. Audio-on-demand communication system
US7349976B1 (en) 1994-11-30 2008-03-25 Realnetworks, Inc. Audio-on-demand communication system
JP2842796B2 (ja) 1994-12-06 1999-01-06 富士通株式会社 動画像の暗号化処理方法及び装置及び暗号化された動画像の復号化処理方法及び装置
JPH08163488A (ja) 1994-12-12 1996-06-21 Matsushita Electric Ind Co Ltd 動画像ダイジェスト生成方法及び動画像ダイジェスト生成装置
US5721720A (en) * 1994-12-28 1998-02-24 Kabushiki Kaisha Toshiba Optical recording medium recording pixel data as a compressed unit data block
US5485611A (en) 1994-12-30 1996-01-16 Intel Corporation Video database indexing and method of presenting video database index to a user
CA2168641C (en) * 1995-02-03 2000-03-28 Tetsuya Kitamura Image information encoding/decoding system
US5533021A (en) * 1995-02-03 1996-07-02 International Business Machines Corporation Apparatus and method for segmentation and time synchronization of the transmission of multimedia data
EP1526472A3 (en) 1995-02-13 2006-07-26 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
DE727780T1 (de) 1995-02-16 1997-02-13 Toshiba Kawasaki Kk Ausgabesteuerungssystem für umschaltbare Torkanäle
JP3602635B2 (ja) 1995-02-16 2004-12-15 株式会社東芝 音声切換方法および再生装置
US6009237A (en) 1995-02-24 1999-12-28 Hitachi Ltd. Optical disk and optical disk reproduction apparatus
US6002834A (en) 1995-02-24 1999-12-14 Hitachi, Ltd. Optical disk having table relating sector address and time and optical disk reproducing apparatus
US6937729B2 (en) 1995-04-03 2005-08-30 Scientific-Atlanta, Inc. Representing entitlements to service in a conditional access system
US5745643A (en) * 1995-04-06 1998-04-28 Kabushiki Kaisha Toshiba System for and method of reproducing playback data appropriately by the use of attribute information on the playback data
US5813010A (en) 1995-04-14 1998-09-22 Kabushiki Kaisha Toshiba Information storage and information transmission media with parental control
TW430785B (en) 1995-04-14 2001-04-21 Toshiba Corp Interactively broadcasting recording-media and its regeneration system
US5809173A (en) 1995-04-18 1998-09-15 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression using previous frame DCT coefficients
US6026232A (en) * 1995-07-13 2000-02-15 Kabushiki Kaisha Toshiba Method and system to replace sections of an encoded video bitstream
US5852664A (en) 1995-07-10 1998-12-22 Intel Corporation Decode access control for encoded multimedia signals
US5822524A (en) * 1995-07-21 1998-10-13 Infovalue Computing, Inc. System for just-in-time retrieval of multimedia files over computer networks by transmitting data packets at transmission rate determined by frame size
US6516064B1 (en) 1995-07-25 2003-02-04 Sony Corporation Signal recording apparatus, signal record medium and signal reproducing apparatus
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
US5763800A (en) * 1995-08-14 1998-06-09 Creative Labs, Inc. Method and apparatus for formatting digital audio data
KR100371429B1 (ko) 1995-08-21 2003-03-15 마츠시타 덴끼 산교 가부시키가이샤 대화제어에기초하여의외성넘치는장면전개를실현할수있는멀티미디어광디스크및그재생장치와재생방법
US5978482A (en) 1995-08-21 1999-11-02 International Business Machines Corporation Method and system for protection of digital information
TW305043B (es) * 1995-09-29 1997-05-11 Matsushita Electric Ind Co Ltd
TW436777B (en) 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
TW385431B (en) 1995-09-29 2000-03-21 Matsushita Electric Ind Co Ltd A method and an apparatus for encoding a bitstream with plural possible searching reproduction paths information useful in multimedia optical disk
US5751280A (en) 1995-12-11 1998-05-12 Silicon Graphics, Inc. System and method for media stream synchronization with a base atom index file and an auxiliary atom index file
US5765164A (en) * 1995-12-21 1998-06-09 Intel Corporation Apparatus and method for management of discontinuous segments of multiple audio, video, and data streams
US5675511A (en) * 1995-12-21 1997-10-07 Intel Corporation Apparatus and method for event tagging for multiple audio, video, and data streams
US5627936A (en) * 1995-12-21 1997-05-06 Intel Corporation Apparatus and method for temporal indexing of multiple audio, video and data streams
CA2237293A1 (en) 1995-12-29 1997-07-10 Scientific-Atlanta, Inc. Method and apparatus for providing conditional access in connection-oriented, interactive networks with a multiplicity of service providers
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5959690A (en) * 1996-02-20 1999-09-28 Sas Institute, Inc. Method and apparatus for transitions and other special effects in digital motion video
US5630005A (en) 1996-03-22 1997-05-13 Cirrus Logic, Inc Method for seeking to a requested location within variable data rate recorded information
US5675382A (en) * 1996-04-08 1997-10-07 Connectix Corporation Spatial compression and decompression for video
US6031622A (en) 1996-05-16 2000-02-29 Agfa Corporation Method and apparatus for font compression and decompression
US6065050A (en) * 1996-06-05 2000-05-16 Sun Microsystems, Inc. System and method for indexing between trick play and normal play video streams in a video delivery system
US5903261A (en) * 1996-06-20 1999-05-11 Data Translation, Inc. Computer based video system
US5874986A (en) 1996-06-26 1999-02-23 At&T Corp Method for communicating audiovisual programs over a communications network
US5844575A (en) 1996-06-27 1998-12-01 Intel Corporation Video compression interface
JP3093678B2 (ja) 1996-06-28 2000-10-03 株式会社東芝 暗号化方法、復号方法、記録再生装置、復号装置、復号化ユニット装置及び記録媒体の製造方法
US5828370A (en) * 1996-07-01 1998-10-27 Thompson Consumer Electronics Inc. Video delivery system and method for displaying indexing slider bar on the subscriber video screen
US5956729A (en) * 1996-09-06 1999-09-21 Motorola, Inc. Multimedia file, supporting multiple instances of media types, and method for forming same
US5805700A (en) * 1996-10-15 1998-09-08 Intel Corporation Policy based selective encryption of compressed video data
US6578200B1 (en) 1996-10-31 2003-06-10 Matsushita Electric Industrial Co., Ltd. Data transmission/reception apparatus for use in a two-way digital broadcasting system
JPH10145773A (ja) * 1996-11-14 1998-05-29 Toshiba Corp 動画像データの暗号化方法およびその方法が適用されるコンピュータシステム並びに動画像データ符号化/復号化装置
US5878135A (en) 1996-11-27 1999-03-02 Thomson Consumer Electronics, Inc. Decoding system for processing encrypted broadcast, cable or satellite video data
US6038000A (en) * 1997-05-28 2000-03-14 Sarnoff Corporation Information stream syntax for indicating the presence of a splice point
EP0956702A1 (en) 1997-01-30 1999-11-17 Microsoft Corporation Vcr-like functions rendering video on demand
FI106071B (fi) 1997-03-13 2000-11-15 Nokia Mobile Phones Ltd Mukautuva suodatin
US6128653A (en) 1997-03-17 2000-10-03 Microsoft Corporation Method and apparatus for communication media commands and media data using the HTTP protocol
US6282320B1 (en) 1997-03-19 2001-08-28 Sony Corporation Video data decoding apparatus and method and video signal reproduction apparatus and method
US6654933B1 (en) 1999-09-21 2003-11-25 Kasenna, Inc. System and method for media stream indexing
EP0914636A4 (en) * 1997-04-07 2008-07-30 At & T Corp SYSTEM AND METHOD FOR PROCESSING AUDIOVISUAL INFORMATION OBJECT-ORIENTED
US5963202A (en) 1997-04-14 1999-10-05 Instant Video Technologies, Inc. System and method for distributing and managing digital video information in a video distribution network
US5892915A (en) 1997-04-25 1999-04-06 Emc Corporation System having client sending edit commands to server during transmission of continuous media from one clip in play list for editing the play list
US6535878B1 (en) 1997-05-02 2003-03-18 Roxio, Inc. Method and system for providing on-line interactivity over a server-client network
US6611537B1 (en) * 1997-05-30 2003-08-26 Centillium Communications, Inc. Synchronous network for digital media streams
JP3791720B2 (ja) 1997-06-11 2006-06-28 ソニー株式会社 伝送装置及び伝送方法
US6970564B1 (en) 1998-07-13 2005-11-29 Sony Corporation Data multiplexing device, program distribution system, program transmission system, pay broadcast system, program transmission method, conditional access system, and data reception device
FI103003B1 (fi) 1997-06-13 1999-03-31 Nokia Mobile Phones Ltd Suodatusmenetelmä, suodatin ja matkaviestinpääte
KR100242448B1 (ko) 1997-06-28 2000-02-01 윤종용 디지털 비디오 디스크 고속 재생 제어장치 및 방법
US6573907B1 (en) 1997-07-03 2003-06-03 Obvious Technology Network distribution and management of interactive video and multi-media containers
US5860292A (en) * 1997-08-26 1999-01-19 Augustine Medical, Inc. Inflatable thermal blanket for convectively cooling a body
JPH1175178A (ja) 1997-08-28 1999-03-16 Sanyo Electric Co Ltd 画像符号化装置及び画像符号化方法
US5970147A (en) 1997-09-30 1999-10-19 Intel Corporation System and method for configuring and registering a cryptographic device
US6594699B1 (en) 1997-10-10 2003-07-15 Kasenna, Inc. System for capability based multimedia streaming over a network
EP0910087B1 (en) * 1997-10-17 2011-11-30 Sony Corporation Recording apparatus and method, reproducing apparatus and method, recording/reproducing apparatus and method, recording medium and distribution medium
US6046778A (en) * 1997-10-29 2000-04-04 Matsushita Electric Industrial Co., Ltd. Apparatus for generating sub-picture units for subtitles and storage medium storing sub-picture unit generation program
KR19990042668A (ko) 1997-11-27 1999-06-15 정선종 다중 비디오 전송을 위한 비디오 부호화 장치 및 방법
US6057832A (en) 1997-12-02 2000-05-02 V Soft Ltd. Method and apparatus for video-on-demand with fast play capability
KR100252108B1 (ko) * 1997-12-20 2000-04-15 윤종용 Mpeg 압축부호화 및 복호화기를 채용한 디지털 기록 재생장치 및 그 방법
US6665835B1 (en) * 1997-12-23 2003-12-16 Verizon Laboratories, Inc. Real time media journaler with a timing event coordinator
JP4186242B2 (ja) 1997-12-26 2008-11-26 ソニー株式会社 画像信号処理装置及び画像信号処理方法
US6453355B1 (en) * 1998-01-15 2002-09-17 Apple Computer, Inc. Method and apparatus for media data transmission
US6453459B1 (en) * 1998-01-21 2002-09-17 Apple Computer, Inc. Menu authoring system and method for automatically performing low-level DVD configuration functions and thereby ease an author's job
JP3394899B2 (ja) 1998-01-23 2003-04-07 株式会社東芝 オーディオ用データ記録媒体とデータ処理装置及び方法
US6751623B1 (en) 1998-01-26 2004-06-15 At&T Corp. Flexible interchange of coded multimedia facilitating access and streaming
US7809138B2 (en) 1999-03-16 2010-10-05 Intertrust Technologies Corporation Methods and apparatus for persistent control and protection of content
US7233948B1 (en) 1998-03-16 2007-06-19 Intertrust Technologies Corp. Methods and apparatus for persistent control and protection of content
IL123819A (en) 1998-03-24 2001-09-13 Geo Interactive Media Group Lt Network media streaming
JP3120773B2 (ja) * 1998-04-06 2000-12-25 日本電気株式会社 画像処理装置
JP3997367B2 (ja) * 1998-04-30 2007-10-24 ソニー株式会社 記録再生装置および方法、並びに記録媒体
JP3383580B2 (ja) 1998-05-15 2003-03-04 株式会社東芝 情報記憶媒体と情報記録再生装置と方法
US6859496B1 (en) 1998-05-29 2005-02-22 International Business Machines Corporation Adaptively encoding multiple streams of video data in parallel for multiplexing onto a constant bit rate channel
WO1999065239A2 (en) 1998-06-11 1999-12-16 Koninklijke Philips Electronics N.V. Trick play signal generation for a digital video recorder
JP3383587B2 (ja) * 1998-07-07 2003-03-04 株式会社東芝 静止画像連続情報記録方法と光ディスクと光ディスクの情報再生装置と情報再生方法
US6320905B1 (en) 1998-07-08 2001-11-20 Stream Machine Company Postprocessing system for removing blocking artifacts in block-based codecs
US6199107B1 (en) 1998-07-22 2001-03-06 Microsoft Corporation Partial file caching and read range resume system and method
US6973090B2 (en) * 1998-07-22 2005-12-06 Synchrodyne Networks, Inc. Switching with multiple time references
US8380041B2 (en) 1998-07-30 2013-02-19 Tivo Inc. Transportable digital video recorder system
US7457415B2 (en) 1998-08-20 2008-11-25 Akikaze Technologies, Llc Secure information distribution system utilizing information segment scrambling
US6931531B1 (en) 1998-09-02 2005-08-16 Matsushita Electric Industrial Co., Ltd. Image object recording, compression, and encryption method and system
JP2000090644A (ja) * 1998-09-08 2000-03-31 Sharp Corp 画像管理方法及び画像管理装置
JP4093722B2 (ja) * 1998-09-08 2008-06-04 シャープ株式会社 動画像編集方法、動画像編集装置および動画像再生装置
US6351538B1 (en) 1998-10-06 2002-02-26 Lsi Logic Corporation Conditional access and copy protection scheme for MPEG encoded video data
CN1169150C (zh) 1998-10-12 2004-09-29 松下电器产业株式会社 用于记录或再现信息记录介质中的数据的装置和方法
EP1001419B1 (en) 1998-11-09 2004-03-03 Matsushita Electric Industrial Co., Ltd. Data conversion apparatus and method in copyright protecting system
CA2289958C (en) 1998-11-19 2003-01-21 Tomoyuki Okada Information recording medium, apparatus and method for recording or reproducing data thereof
SE513356C2 (sv) * 1998-11-20 2000-08-28 Ericsson Telefon Ab L M Förfarande och anordning för kryptering av bilder
US6236764B1 (en) 1998-11-30 2001-05-22 Equator Technologies, Inc. Image processing circuit and method for reducing a difference between pixel values across an image boundary
US6414996B1 (en) * 1998-12-08 2002-07-02 Stmicroelectronics, Inc. System, method and apparatus for an instruction driven digital video processor
US6374144B1 (en) * 1998-12-22 2002-04-16 Varian Semiconductor Equipment Associates, Inc. Method and apparatus for controlling a system using hierarchical state machines
US7209892B1 (en) * 1998-12-24 2007-04-24 Universal Music Group, Inc. Electronic music/media distribution system
EP1021048A3 (en) 1999-01-14 2002-10-02 Kabushiki Kaisha Toshiba Digital video recording system and its recording medium
WO2000044119A1 (en) 1999-01-26 2000-07-27 Infolio, Inc. Universal mobile id system and method for digital rights management
JP3433125B2 (ja) * 1999-01-27 2003-08-04 三洋電機株式会社 動画像再生装置
US6169242B1 (en) * 1999-02-02 2001-01-02 Microsoft Corporation Track-based music performance architecture
WO2000046803A1 (fr) 1999-02-05 2000-08-10 Kabushiki Kaisha Toshiba Procede permettant de creer des trains de donnees et procede permettant d'effectuer des suppressions partielles
CN100477735C (zh) * 1999-02-08 2009-04-08 三洋电机株式会社 移动图像记录装置与数码照相机
US6498865B1 (en) * 1999-02-11 2002-12-24 Packetvideo Corp,. Method and device for control and compatible delivery of digitally compressed visual data in a heterogeneous communication network
DE19906450C1 (de) 1999-02-16 2000-08-17 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Erzeugen eines verschlüsselten Nutzdatenstroms und Verfahren und Vorrichtung zum Entschlüsseln eines verschlüsselten Nutzdatenstroms
DE19906449C1 (de) 1999-02-16 2000-08-10 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Erzeugen eines verschlüsselten Nutzdatenstroms und Verfahren und Vorrichtung zum Abspielen eines verschlüsselten Nutzdatenstroms
JP3805985B2 (ja) 1999-02-18 2006-08-09 株式会社東芝 ストリームデータの情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
US6415031B1 (en) 1999-03-12 2002-07-02 Diva Systems Corporation Selective and renewable encryption for secure distribution of video on-demand
TR200102784T2 (tr) 1999-03-17 2002-04-22 Solvay Pharmaceuticals Gmbh Diyabet tedavisi için ilaç
WO2000055854A1 (fr) 1999-03-17 2000-09-21 Kabushiki Kaisha Toshiba Procede d'enregistrement de donnees en fluxet de leur structure
EP1039468A3 (en) 1999-03-19 2000-10-04 Deutsche Thomson-Brandt Gmbh Method for implementing trickplay modes in a data stream recorder
US8689265B2 (en) 1999-03-30 2014-04-01 Tivo Inc. Multimedia mobile personalization system
US6658056B1 (en) 1999-03-30 2003-12-02 Sony Corporation Digital video decoding, buffering and frame-rate converting method and apparatus
US6865747B1 (en) * 1999-04-01 2005-03-08 Digital Video Express, L.P. High definition media storage structure and playback mechanism
US6721794B2 (en) 1999-04-01 2004-04-13 Diva Systems Corp. Method of data management for efficiently storing and retrieving data to respond to user access requests
US6748481B1 (en) 1999-04-06 2004-06-08 Microsoft Corporation Streaming information appliance with circular buffer for receiving and selectively reading blocks of streaming information
US6535920B1 (en) 1999-04-06 2003-03-18 Microsoft Corporation Analyzing, indexing and seeking of streaming information
US6453420B1 (en) 1999-04-21 2002-09-17 Research Investment Network, Inc. System, method and article of manufacture for authorizing the use of electronic content utilizing a laser-centric medium
US20050182828A1 (en) 1999-04-21 2005-08-18 Interactual Technologies, Inc. Platform specific execution
JP2003529118A (ja) 1999-04-21 2003-09-30 リサーチ・インベストメント・ネットワーク・インコーポレーテッド 携帯式蓄積媒体上に蓄積されたコンテンツをアップデートするためのシステム、方法及び製造物
US7493018B2 (en) 1999-05-19 2009-02-17 Kwang Su Kim Method for creating caption-based search information of moving picture data, searching and repeating playback of moving picture data based on said search information, and reproduction apparatus using said method
US6807306B1 (en) 1999-05-28 2004-10-19 Xerox Corporation Time-constrained keyframe selection method
US6330286B1 (en) 1999-06-09 2001-12-11 Sarnoff Corporation Flow control, latency control, and bitrate conversions in a timing correction and frame synchronization apparatus
US6725281B1 (en) * 1999-06-11 2004-04-20 Microsoft Corporation Synchronization of controlled device state using state table and eventing in data-driven remote device control model
US7330875B1 (en) * 1999-06-15 2008-02-12 Microsoft Corporation System and method for recording a presentation for on-demand viewing over a computer network
GB9916181D0 (en) 1999-07-09 1999-09-08 Simoco Int Ltd Method and apparatus for transmitting data
JP2001043668A (ja) 1999-08-02 2001-02-16 Nippon Columbia Co Ltd 光ディスク装置
US7133598B1 (en) 1999-08-20 2006-11-07 Thomson Licensing Method for converting packetized video data and corresponding navigation data into a second data format
US6731758B1 (en) 1999-08-29 2004-05-04 Intel Corporation Digital video content transmission ciphering and deciphering method and apparatus
BR0014954A (pt) 1999-10-22 2002-07-30 Activesky Inc Sistema de vìdeo baseado em objetos
CA2388606C (en) 1999-10-27 2009-12-29 Diva Systems Corporation Picture-in-picture and multiple video streams using slice-based encoding
US6912513B1 (en) 1999-10-29 2005-06-28 Sony Corporation Copy-protecting management using a user scrambling key
US7151832B1 (en) 1999-11-18 2006-12-19 International Business Machines Corporation Dynamic encryption and decryption of a stream of data
US6988144B1 (en) * 1999-11-18 2006-01-17 International Business Machines Corporation Packet scheduling system and method for multimedia data
US6996720B1 (en) 1999-12-17 2006-02-07 Microsoft Corporation System and method for accessing protected content in a rights-management architecture
US7051110B2 (en) 1999-12-20 2006-05-23 Matsushita Electric Industrial Co., Ltd. Data reception/playback method and apparatus and data transmission method and apparatus for providing playback control functions
US20010030710A1 (en) * 1999-12-22 2001-10-18 Werner William B. System and method for associating subtitle data with cinematic material
CN1159918C (zh) * 1999-12-29 2004-07-28 上海龙林通信技术有限公司 Ip网上压缩多媒体源信号的装置
US7110542B1 (en) 1999-12-30 2006-09-19 Intel Corporation Protecting audio/video content during storage and playback on a processor-based system
US6871008B1 (en) * 2000-01-03 2005-03-22 Genesis Microchip Inc. Subpicture decoding architecture and method
US6810131B2 (en) 2000-01-05 2004-10-26 Canon Kabushiki Kaisha Information processing method and apparatus
KR100320476B1 (ko) * 2000-01-12 2002-01-15 구자홍 비디오 디코더 및 디코딩 방법
CN100423041C (zh) 2000-01-21 2008-10-01 索尼公司 数据处理设备和数据处理方法
JP2001209583A (ja) 2000-01-26 2001-08-03 Sony Corp データ記録再生器およびセーブデータ処理方法、並びにプログラム提供媒体
PT1262068E (pt) * 2000-01-28 2015-12-28 Opentv Inc Sistema de televisão interativa e método para a transmissão e processamento em simultâneo de múltiplos fluxos de vídeo codificados
US6693959B1 (en) 2000-03-03 2004-02-17 Ati International Srl Method and apparatus for indexing and locating key frames in streaming and variable-frame-length data
EP1143658A1 (en) 2000-04-03 2001-10-10 Canal+ Technologies Société Anonyme Authentication of data transmitted in a digital transmission system
AU2001251353A1 (en) 2000-04-08 2001-10-23 Sun Microsystems, Inc. Streaming a single media track to multiple clients
JP4599740B2 (ja) 2000-04-21 2010-12-15 ソニー株式会社 情報処理装置および方法、記録媒体、プログラム、並びに記録媒体
US7302490B1 (en) 2000-05-03 2007-11-27 Microsoft Corporation Media file format to support switching between multiple timeline-altered media streams
US6609548B2 (en) 2000-05-11 2003-08-26 Michelin Recherche Et Technique S.A. Asymmetrical vehicle tire with balanced wet and dry performance
GB2362532B (en) 2000-05-15 2004-05-05 Nokia Mobile Phones Ltd Video coding
EP1158799A1 (en) 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Method and receiver for providing subtitle data in several languages on demand
KR100448452B1 (ko) 2000-06-09 2004-09-13 엘지전자 주식회사 고밀도 광 기록매체의 메뉴 지원방법
JP2001359070A (ja) 2000-06-14 2001-12-26 Canon Inc データ処理装置、データ処理方法及びコンピュータ可読記憶媒体
US8091106B1 (en) * 2000-06-26 2012-01-03 Thomson Licensing Method and apparatus for using DVD subpicture information in a television receiver
US7647340B2 (en) * 2000-06-28 2010-01-12 Sharp Laboratories Of America, Inc. Metadata in JPEG 2000 file format
US6965646B1 (en) 2000-06-28 2005-11-15 Cisco Technology, Inc. MPEG file format optimization for streaming
US6871006B1 (en) 2000-06-30 2005-03-22 Emc Corporation Processing of MPEG encoded video for trick mode operation
FI109393B (fi) * 2000-07-14 2002-07-15 Nokia Corp Menetelmä mediavirran enkoodaamiseksi skaalautuvasti, skaalautuva enkooderi ja päätelaite
US7548565B2 (en) 2000-07-24 2009-06-16 Vmark, Inc. Method and apparatus for fast metadata generation, delivery and access for live broadcast program
US7624337B2 (en) 2000-07-24 2009-11-24 Vmark, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
US6395969B1 (en) * 2000-07-28 2002-05-28 Mxworks, Inc. System and method for artistically integrating music and visual effects
US7051080B1 (en) 2000-08-04 2006-05-23 Oracle International Corporation Techniques for navigating in mobile applications
JP4810752B2 (ja) 2000-08-04 2011-11-09 ソニー株式会社 データ記録媒体、データ記録方法及び装置、データ再生方法及び装置、データ送信方法及び装置、並びに、データ受信方法及び装置
US6704024B2 (en) 2000-08-07 2004-03-09 Zframe, Inc. Visual content browsing using rasterized representations
KR20020013664A (ko) * 2000-08-14 2002-02-21 민홍기 청각장애인을 위한 인터넷 자막방송용 서버, 클라이언트구현
AU2001288265A1 (en) 2000-08-21 2002-03-04 University Of Utah Research Foundation Human cytidine monophosphate (cmp) kinase cdna
WO2002017637A1 (fr) 2000-08-25 2002-02-28 Matsushita Electric Industrial Co., Ltd. Procede de transmission de donnees et procede de relais de donnees
JP4552294B2 (ja) 2000-08-31 2010-09-29 ソニー株式会社 コンテンツ配信システム、コンテンツ配信方法、および情報処理装置、並びにプログラム提供媒体
US6453115B1 (en) 2000-08-31 2002-09-17 Keen Personal Media, Inc. Digital video recording system which generates an index data structure for displaying a video stream in trickplay mode
US7242772B1 (en) 2000-09-07 2007-07-10 Eastman Kodak Company Encryption apparatus and method for synchronizing multiple encryption keys with a data stream
WO2002023315A2 (en) 2000-09-12 2002-03-21 Aladdin Knowledge Systems, Ltd. System for managing rights and permitting on-line playback of digital content
US7212726B2 (en) 2000-09-15 2007-05-01 International Business Machines Corporation System and method of processing MPEG streams for file index insertion
US7103906B1 (en) 2000-09-29 2006-09-05 International Business Machines Corporation User controlled multi-device media-on-demand system
US6934334B2 (en) * 2000-10-02 2005-08-23 Kabushiki Kaisha Toshiba Method of transcoding encoded video data and apparatus which transcodes encoded video data
US20030079222A1 (en) 2000-10-06 2003-04-24 Boykin Patrick Oscar System and method for distributing perceptually encrypted encoded files of music and movies
US7231132B1 (en) 2000-10-16 2007-06-12 Seachange International, Inc. Trick-mode processing for digital video
US7031393B2 (en) 2000-10-20 2006-04-18 Matsushita Electric Industrial Co., Ltd. Block distortion detection method, block distortion detection apparatus, block distortion removal method, and block distortion removal apparatus
KR20020032803A (ko) * 2000-10-27 2002-05-04 구자홍 스트리밍 서비스를 위한 파일 구조
US6985588B1 (en) * 2000-10-30 2006-01-10 Geocodex Llc System and method for using location identity to control access to digital information
US7143289B2 (en) 2000-10-30 2006-11-28 Geocodex Llc System and method for delivering encrypted information in a communication network using location identity and key tables
US7058177B1 (en) 2000-11-28 2006-06-06 Xilinx, Inc. Partially encrypted bitstream method
US6931543B1 (en) 2000-11-28 2005-08-16 Xilinx, Inc. Programmable logic device with decryption algorithm and decryption key
US20020107802A1 (en) 2000-12-06 2002-08-08 Ashwin Philips Secure file downloading
US7117231B2 (en) 2000-12-07 2006-10-03 International Business Machines Corporation Method and system for the automatic generation of multi-lingual synchronized sub-titles for audiovisual data
EP2357651A3 (en) 2000-12-07 2013-06-26 SanDisk Technologies Inc. System, method, and device for playing back recorded audio, video or other content from non-volatile memory cards, compact disks or other media
KR100433516B1 (ko) * 2000-12-08 2004-05-31 삼성전자주식회사 트랜스코딩 방법
US20030002578A1 (en) 2000-12-11 2003-01-02 Ikuo Tsukagoshi System and method for timeshifting the encoding/decoding of audio/visual signals in real-time
CN1240223C (zh) 2000-12-13 2006-02-01 香港中文大学 经由网络递送媒体的方法与系统
US7401351B2 (en) 2000-12-14 2008-07-15 Fuji Xerox Co., Ltd. System and method for video navigation and client side indexing
US6798912B2 (en) 2000-12-18 2004-09-28 Koninklijke Philips Electronics N.V. Apparatus and method of program classification based on syntax of transcript information
US6920175B2 (en) 2001-01-03 2005-07-19 Nokia Corporation Video coding architecture and methods for using same
WO2002056598A2 (en) * 2001-01-12 2002-07-18 Koninklijke Philips Electronics N.V. Method and device for scalable video transcoding
JP4048407B2 (ja) 2001-01-18 2008-02-20 富士フイルム株式会社 デジタルカメラ
US7665115B2 (en) 2001-02-02 2010-02-16 Microsoft Corporation Integration of media playback components with an independent timing specification
GB0103245D0 (en) * 2001-02-09 2001-03-28 Radioscape Ltd Method of inserting additional data into a compressed signal
US7401037B2 (en) 2001-02-20 2008-07-15 The Prudential Insurance Company Of America System, method, and computer program product for providing stabilized annuity payments and control of investments in a variable annuity
US20030012287A1 (en) * 2001-03-05 2003-01-16 Ioannis Katsavounidis Systems and methods for decoding of systematic forward error correction (FEC) codes of selected data in a video bitstream
US7162314B2 (en) * 2001-03-05 2007-01-09 Microsoft Corporation Scripting solution for interactive audio generation
US6970822B2 (en) * 2001-03-07 2005-11-29 Microsoft Corporation Accessing audio processing components in an audio generation system
US7305273B2 (en) * 2001-03-07 2007-12-04 Microsoft Corporation Audio generation system manager
JP3889233B2 (ja) 2001-03-08 2007-03-07 株式会社モノリス 画像符号化方法と装置および画像復号方法と装置
WO2002073437A1 (en) 2001-03-12 2002-09-19 Edgestream, Inc. Seek architecture for media streaming
EP1244310A1 (en) 2001-03-21 2002-09-25 Canal+ Technologies Société Anonyme Data referencing system
JP2002278996A (ja) 2001-03-22 2002-09-27 Sony Corp 記録装置および記録方法、並びに記録媒体
US7450641B2 (en) 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
US8060906B2 (en) * 2001-04-06 2011-11-15 At&T Intellectual Property Ii, L.P. Method and apparatus for interactively retrieving content related to previous query results
JP3788260B2 (ja) * 2001-04-09 2006-06-21 日本電気株式会社 配信システムとその配信方法、及び配信プログラム
WO2002087241A1 (en) 2001-04-18 2002-10-31 Koninklijke Philips Electronics N.V. Audio coding with partial encryption
US20020176418A1 (en) 2001-04-19 2002-11-28 Russell Hunt Systems and methods for producing files for streaming from a content file
US7110664B2 (en) 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US7121666B2 (en) * 2001-04-25 2006-10-17 Tseng Scheffer C G Apparatus and method for the kinetic analysis of tear stability
US7035335B1 (en) * 2001-05-11 2006-04-25 Advanced Micro Devices, Inc. Transport stream parser
US7243346B1 (en) 2001-05-21 2007-07-10 Microsoft Corporation Customized library management system
EP1479016A2 (en) 2001-05-29 2004-11-24 Matsushita Electric Industrial Co., Ltd. Rights management unit
US8275716B2 (en) * 2001-05-31 2012-09-25 Contentguard Holdings, Inc. Method and system for subscription digital rights management
US6973445B2 (en) * 2001-05-31 2005-12-06 Contentguard Holdings, Inc. Demarcated digital content and method for creating and processing demarcated digital works
US7103261B2 (en) * 2001-06-04 2006-09-05 William Grecia Consumer friendly error correcting formating method for white book 2.0 video compact disc with CD-DA red book audio tracks
US7151831B2 (en) 2001-06-06 2006-12-19 Sony Corporation Partial encryption and PID mapping
US7747853B2 (en) * 2001-06-06 2010-06-29 Sony Corporation IP delivery of secure digital content
US7895616B2 (en) * 2001-06-06 2011-02-22 Sony Corporation Reconstitution of program streams split across multiple packet identifiers
US6742082B1 (en) 2001-06-12 2004-05-25 Network Appliance Pre-computing streaming media payload method and apparatus
FR2825877B1 (fr) 2001-06-12 2003-09-19 Canal Plus Technologies Procede de controle d'acces a un programme crypte
US20020194606A1 (en) * 2001-06-14 2002-12-19 Michael Tucker System and method of communication between videoconferencing systems and computer systems
US6948073B2 (en) 2001-06-27 2005-09-20 Microsoft Corporation Protecting decrypted compressed content and decrypted decompressed content at a digital rights management client
JP2003087785A (ja) * 2001-06-29 2003-03-20 Toshiba Corp 動画像符号化データの形式変換方法及び装置
US7065213B2 (en) 2001-06-29 2006-06-20 Scientific-Atlanta, Inc. In a subscriber network receiving digital packets and transmitting digital packets below a predetermined maximum bit rate
US7356245B2 (en) * 2001-06-29 2008-04-08 International Business Machines Corporation Methods to facilitate efficient transmission and playback of digital information
CA2452419A1 (en) 2001-07-05 2003-01-16 Vladimir Vladimirovich Nasypny Method for an integrated protection system of data distributed processing in computer networks and system for carrying out said method
JP2003023607A (ja) * 2001-07-06 2003-01-24 Kenwood Corp 再生装置
KR100895559B1 (ko) 2001-07-23 2009-04-29 파나소닉 주식회사 정보기록매체, 정보기록매체에 정보를 기록하는 장치 및방법
JP4145586B2 (ja) 2001-07-24 2008-09-03 セイコーエプソン株式会社 画像処理装置及び画像処理プログラム、並びに画像処理方法
US7139470B2 (en) 2001-08-17 2006-11-21 Intel Corporation Navigation for MPEG streams
EP1286349A1 (en) * 2001-08-21 2003-02-26 Canal+ Technologies Société Anonyme File and content management
US7218635B2 (en) 2001-08-31 2007-05-15 Stmicroelectronics, Inc. Apparatus and method for indexing MPEG video data to perform special mode playback in a digital video recorder and indexed signal associated therewith
AU2002323591A1 (en) 2001-09-05 2003-03-18 Emblaze Systems Ltd. Method for reducing blocking artifacts
KR100424762B1 (ko) 2001-09-06 2004-03-30 삼성전자주식회사 영상 데이터 제공 시스템 및 방법
JP3593075B2 (ja) * 2001-09-10 2004-11-24 株式会社東芝 情報記憶媒体とその情報記録方法及び装置と情報再生方法及び装置
MY141618A (en) 2001-09-12 2010-05-31 Nagravision Sa Data transmission method between a local server and local peripherals
US6983079B2 (en) 2001-09-20 2006-01-03 Seiko Epson Corporation Reducing blocking and ringing artifacts in low-bit-rate coding
FI20011871A (fi) 2001-09-24 2003-03-25 Nokia Corp Multimediadatan prosessointi
US7457359B2 (en) * 2001-09-26 2008-11-25 Mabey Danny L Systems, devices and methods for securely distributing highly-compressed multimedia content
US20030077071A1 (en) 2001-10-23 2003-04-24 Shu Lin Fast forward trick mode and reverse trick mode using an information file
US7148908B2 (en) * 2001-10-31 2006-12-12 Eastman Kodak Company Method and apparatus for generating image transitions
US20030093799A1 (en) * 2001-11-14 2003-05-15 Kauffman Marc W. Streamed content Delivery
JP2003152698A (ja) 2001-11-15 2003-05-23 Nippon Hoso Kyokai <Nhk> コンテンツ利用制御送信方法、コンテンツ利用制御受信方法およびコンテンツ利用制御送信装置、コンテンツ利用制御受信装置ならびにコンテンツ利用制御送信プログラム、コンテンツ利用制御受信プログラム
US20030099364A1 (en) 2001-11-28 2003-05-29 Thompson Mark R. Playback manipulation of HTTP streamed content objects
CA2435757C (en) 2001-11-29 2013-03-19 Matsushita Electric Industrial Co., Ltd. Video coding distortion removal method and apparatus using a filter
EP3282699B1 (en) 2001-11-29 2019-10-23 Godo Kaisha IP Bridge 1 Coding distortion removal method
US7380120B1 (en) * 2001-12-12 2008-05-27 Guardian Data Storage, Llc Secured data format for access control
US20040037421A1 (en) 2001-12-17 2004-02-26 Truman Michael Mead Parital encryption of assembled bitstreams
DE10164135A1 (de) 2001-12-30 2003-07-17 Juergen K Lang System und Verfahren zur kopier- und nutzungsgeschützten Ver- und Entschlüsselung, Übertragung und Speicherung elektronischer Ton- und Bildmedien
EP1486071A4 (en) 2002-01-02 2009-09-30 Sony Electronics Inc ELEMENTAL POWER PARTIALVERSCHLÜSSELUNG
US7292691B2 (en) * 2002-01-02 2007-11-06 Sony Corporation Progressive video refresh slice detection
US7233669B2 (en) 2002-01-02 2007-06-19 Sony Corporation Selective encryption to enable multiple decryption keys
US7242773B2 (en) 2002-09-09 2007-07-10 Sony Corporation Multiple partial encryption using retuning
US7302059B2 (en) * 2002-01-02 2007-11-27 Sony Corporation Star pattern partial encryption
US7215770B2 (en) 2002-01-02 2007-05-08 Sony Corporation System and method for partially encrypted multimedia stream
US7376233B2 (en) * 2002-01-02 2008-05-20 Sony Corporation Video slice and active region based multiple partial encryption
US8027470B2 (en) 2002-01-02 2011-09-27 Sony Corporation Video slice and active region based multiple partial encryption
US7292690B2 (en) 2002-01-02 2007-11-06 Sony Corporation Video scene change detection
US20030135633A1 (en) 2002-01-04 2003-07-17 International Business Machines Corporation Streaming and managing complex media content on Web servers
US7075587B2 (en) 2002-01-04 2006-07-11 Industry-Academic Cooperation Foundation Yonsei University Video display apparatus with separate display means for textual information
EP1470497A1 (en) * 2002-01-12 2004-10-27 Coretrust, Inc. Method and system for the information protection of digital content
US7065651B2 (en) 2002-01-16 2006-06-20 Microsoft Corporation Secure video card methods and systems
JP2003230089A (ja) 2002-01-31 2003-08-15 Toshiba Corp 情報記憶媒体及び情報記録装置
JP2003250113A (ja) 2002-02-22 2003-09-05 Fuji Photo Film Co Ltd 画像音声記録再生装置
US20030236836A1 (en) 2002-03-21 2003-12-25 Borthwick Ernest Mark System and method for the design and sharing of rich media productions via a computer network
US7170936B2 (en) * 2002-03-28 2007-01-30 Intel Corporation Transcoding apparatus, system, and method
US8214655B2 (en) * 2002-03-29 2012-07-03 Kabushiki Kaisha Toshiba Data structure of multimedia file format, encrypting method and device thereof, and decrypting method and device thereof
US20030185302A1 (en) * 2002-04-02 2003-10-02 Abrams Thomas Algie Camera and/or camera converter
US7231516B1 (en) 2002-04-11 2007-06-12 General Instrument Corporation Networked digital video recording system with copy protection and random access playback
US20040006701A1 (en) * 2002-04-13 2004-01-08 Advanced Decisions Inc. Method and apparatus for authentication of recorded audio
US8155498B2 (en) 2002-04-26 2012-04-10 The Directv Group, Inc. System and method for indexing commercials in a video presentation
EP1500002A1 (en) 2002-04-29 2005-01-26 Sony Electronics Inc. Supporting advanced coding formats in media files
US20030212993A1 (en) 2002-05-07 2003-11-13 Pere Obrador System and method for efficiently managing video files
US7363647B1 (en) 2002-05-07 2008-04-22 Unisys Corporation Mapping process for use in sending trick-mode video streams with a high performance
JP4581685B2 (ja) 2002-05-10 2010-11-17 ソニー株式会社 暗号化装置及び復号化装置
US7054804B2 (en) 2002-05-20 2006-05-30 International Buisness Machines Corporation Method and apparatus for performing real-time subtitles translation
JP4186512B2 (ja) 2002-05-20 2008-11-26 ソニー株式会社 サービス提供システム、機器端末およびその処理方法、認証装置および方法、サービス提供装置および方法、並びにプログラム
US7155109B2 (en) 2002-06-14 2006-12-26 Microsoft Corporation Programmable video recorder having flexible trick play
US7206940B2 (en) 2002-06-24 2007-04-17 Microsoft Corporation Methods and systems providing per pixel security and functionality
US7644172B2 (en) 2002-06-24 2010-01-05 Microsoft Corporation Communicating via a connection between a streaming server and a client without breaking the connection
US7174021B2 (en) 2002-06-28 2007-02-06 Microsoft Corporation Systems and methods for providing secure server key operations
WO2004006579A1 (en) 2002-07-09 2004-01-15 Kaleidescape, Inc. Content and key distribution system for digital content representing media streams
US9445133B2 (en) * 2002-07-10 2016-09-13 Arris Enterprises, Inc. DVD conversion for on demand
FR2842690B1 (fr) 2002-07-17 2004-10-08 Thomson Licensing Sa Procede et dispositif de transmission de donnees video pour la mise en oeuvre de modes speciaux
US20040021684A1 (en) * 2002-07-23 2004-02-05 Dominick B. Millner Method and system for an interactive video system
US7627229B2 (en) 2002-07-26 2009-12-01 Fujifilm Corporation Moving image recording apparatus and method of recording moving image
US20040022391A1 (en) 2002-07-30 2004-02-05 O'brien Royal Digital content security system and method
AU2003268037A1 (en) 2002-07-30 2004-02-16 Digital Interactive Streams, Inc. Digital content security system and method
US7167560B2 (en) 2002-08-08 2007-01-23 Matsushita Electric Industrial Co., Ltd. Partial encryption of stream-formatted media
US7418190B2 (en) * 2002-08-22 2008-08-26 Microsoft Corporation Accelerated access to frames from a compressed digital video stream without keyframes
CN1578984B (zh) 2002-09-05 2010-08-25 Lg电子株式会社 一种记录和再现方法及装置
AU2003260975B8 (en) 2002-09-06 2009-08-13 Lg Electronics Inc. Recording medium having data structure for managing reproduction of still images recorded thereon and recording and reproducing methods and apparatuses
US8818896B2 (en) * 2002-09-09 2014-08-26 Sony Corporation Selective encryption with coverage encryption
US20040052501A1 (en) * 2002-09-12 2004-03-18 Tam Eddy C. Video event capturing system and method
US20050144468A1 (en) 2003-01-13 2005-06-30 Northcutt J. D. Method and apparatus for content protection in a personal digital network environment
US8064508B1 (en) 2002-09-19 2011-11-22 Silicon Image, Inc. Equalizer with controllably weighted parallel high pass and low pass filters and receiver including such an equalizer
WO2004029959A1 (en) * 2002-09-26 2004-04-08 Koninklijke Philips Electronics N.V. Apparatus for recording a main file and auxiliary files in a track on a record carrier
US7020287B2 (en) 2002-09-30 2006-03-28 Sony Corporation Method and system for key insertion for stored encrypted content
KR100910974B1 (ko) * 2002-10-02 2009-08-05 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법
US20040071453A1 (en) * 2002-10-08 2004-04-15 Valderas Harold M. Method and system for producing interactive DVD video slides
US7596298B2 (en) * 2002-10-10 2009-09-29 Koninklijke Philips Electronics N.V. Synchronizing interactive applications during trick-play
US7295673B2 (en) 2002-10-23 2007-11-13 Divx, Inc. Method and system for securing compressed digital video
US8572408B2 (en) 2002-11-05 2013-10-29 Sony Corporation Digital rights management of a digital device
KR20040039852A (ko) 2002-11-05 2004-05-12 주식회사 디지털앤디지털 프레임 인덱스를 이용한 트릭 플레이 구현방법
JP2004164731A (ja) * 2002-11-12 2004-06-10 Sony Corp 記録装置および方法、記録媒体、並びにプログラム
WO2004045213A2 (en) * 2002-11-13 2004-05-27 General Instrument Corporation Efficient distribution of encrypted content for multiple content access systems
EP1420580A1 (en) 2002-11-18 2004-05-19 Deutsche Thomson-Brandt GmbH Method and apparatus for coding/decoding items of subtitling data
AU2003282415B2 (en) 2002-11-20 2007-10-18 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data recorded thereon and recording and reproducing methods and apparatuses
US7227901B2 (en) 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
KR20050088414A (ko) 2002-12-09 2005-09-06 코닌클리케 필립스 일렉트로닉스 엔.브이. 부분 문자 세트 생성기를 구비한 상호동작 텔레비전 시스템
US8054880B2 (en) 2004-12-10 2011-11-08 Tut Systems, Inc. Parallel rate control for digital video encoder with multi-processor architecture and picture-based look-ahead window
US8195714B2 (en) 2002-12-11 2012-06-05 Leaper Technologies, Inc. Context instantiated application protocol
US8631451B2 (en) 2002-12-11 2014-01-14 Broadcom Corporation Server architecture supporting adaptive delivery to a variety of media players
TWI349204B (en) 2003-01-10 2011-09-21 Panasonic Corp Group admission system and server and client therefor
US7581255B2 (en) * 2003-01-21 2009-08-25 Microsoft Corporation Systems and methods for licensing one or more data streams from an encoded digital media file
GB2398210A (en) 2003-02-05 2004-08-11 Sony Uk Ltd Encryption using a binary tree structure
TWI256614B (en) * 2003-02-12 2006-06-11 Quanta Storage Inc Laser beam selection method of CD driver
US20060210245A1 (en) 2003-02-21 2006-09-21 Mccrossan Joseph Apparatus and method for simultaneously utilizing audio visual data
JP2006519565A (ja) 2003-03-03 2006-08-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ符号化
KR100553885B1 (ko) 2003-03-13 2006-02-24 삼성전자주식회사 Smil을 사용하여 제작된 멀티미디어 컨텐츠를관리하는 방법 및 그 파일 시스템
US7007170B2 (en) 2003-03-18 2006-02-28 Widevine Technologies, Inc. System, method, and apparatus for securely providing content viewable on a secure device
US20080008455A1 (en) 2003-03-20 2008-01-10 Koninklijke Philips Electronics N.V. Cpi data for steam buffer channels
JP4170808B2 (ja) 2003-03-31 2008-10-22 株式会社東芝 情報表示装置、情報表示方法及びプログラム
US7406176B2 (en) * 2003-04-01 2008-07-29 Microsoft Corporation Fully scalable encryption for scalable multimedia
KR100985243B1 (ko) 2003-04-10 2010-10-04 파나소닉 주식회사 정보기록매체, 정보기록매체에 정보를 기록하는 장치 및 방법
US7055039B2 (en) 2003-04-14 2006-05-30 Sony Corporation Protection of digital content using block cipher crytography
US7237061B1 (en) * 2003-04-17 2007-06-26 Realnetworks, Inc. Systems and methods for the efficient reading of data in a server system
JP3918766B2 (ja) 2003-04-22 2007-05-23 日本電気株式会社 媒体自動交換機
CN1777945B (zh) * 2003-04-23 2012-10-31 Lg电子株式会社 对记录在交互记录介质上的主内容以及其附加内容进行同步再现的方法和设备
BRPI0409832A (pt) * 2003-04-29 2006-04-25 Lg Electronics Inc meio de gravação tendo uma estrutura de dados para gerenciar reprodução de dados gráficos e métodos e aparelhos de gravação e reprodução
US7616865B2 (en) * 2003-04-30 2009-11-10 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing
KR20040096718A (ko) 2003-05-10 2004-11-17 삼성전자주식회사 멀티미디어 데이터 재생장치, 오디오 데이터 수신방법 및오디오 데이터 구조
KR100492567B1 (ko) 2003-05-13 2005-06-03 엘지전자 주식회사 이동통신 시스템의 http 기반 비디오 스트리밍 장치및 방법
EP1629502A1 (en) 2003-05-16 2006-03-01 Koninklijke Philips Electronics N.V. Method of recording and of replaying and video recording and replay systems
US7409454B2 (en) 2003-06-02 2008-08-05 Microsoft Corporation Automatic detection of intermediate network device capabilities
US7739715B2 (en) 2003-06-24 2010-06-15 Microsoft Corporation Variable play speed control for media streams
US7424501B2 (en) 2003-06-30 2008-09-09 Intel Corporation Nonlinear filtering and deblocking applications utilizing SIMD sign and absolute value operations
JP4411879B2 (ja) 2003-07-01 2010-02-10 株式会社ニコン 信号処理装置、信号処理プログラム、および電子カメラ
JP4047237B2 (ja) 2003-07-04 2008-02-13 株式会社リコー インデックスデータ作成装置、映像再生装置
US20050005025A1 (en) 2003-07-04 2005-01-06 Michael Harville Method for managing a streaming media service
US8055910B2 (en) 2003-07-07 2011-11-08 Rovi Solutions Corporation Reprogrammable security for controlling piracy and enabling interactive content
US9615061B2 (en) 2003-07-11 2017-04-04 Tvworks, Llc System and method for creating and presenting composite video-on-demand content
US20070168287A1 (en) * 2003-07-16 2007-07-19 Digital Networks North America, Inc. Method and apparatus for distributing media in a pay per play architecture with remote playback
US20050013494A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation In-loop deblocking filter
US7907833B2 (en) 2003-07-21 2011-03-15 Thomson Licensing Apparatus and method for communicating stop and pause commands in a video recording and playback system
US7382879B1 (en) 2003-07-23 2008-06-03 Sprint Communications Company, L.P. Digital rights management negotiation for streaming media over a network
JP2005057435A (ja) 2003-08-01 2005-03-03 Sony Corp クライアント機器及びクライアント機器におけるコンテンツ処理方法、並びにコンテンツ提供システム
US7941554B2 (en) 2003-08-01 2011-05-10 Microsoft Corporation Sparse caching for streaming media
DE602004031625D1 (de) 2003-08-07 2011-04-14 Pervenio Ltd Server zum bestimmen und speichern von mobilgerät-leistungsmerkmalen
US7681035B1 (en) * 2003-09-10 2010-03-16 Realnetworks, Inc. Digital rights management handler and related methods
US7467202B2 (en) * 2003-09-10 2008-12-16 Fidelis Security Systems High-performance network content analysis platform
ES2470976T3 (es) 2003-09-12 2014-06-24 Open Tv, Inc. Método y sistema para controlar la grabación y reproducción de aplicaciones interactivas
US20050227773A1 (en) 2003-09-24 2005-10-13 Lu Priscilla M Portable video storage and playback device
US20070206682A1 (en) * 2003-09-29 2007-09-06 Eric Hamilton Method And Apparatus For Coding Information
KR20050035678A (ko) * 2003-10-14 2005-04-19 엘지전자 주식회사 광디스크 장치의 부가 데이터 재생방법 및 장치와, 이를위한 광디스크
US7979886B2 (en) 2003-10-17 2011-07-12 Telefonaktiebolaget Lm Ericsson (Publ) Container format for multimedia presentations
US7346163B2 (en) 2003-10-31 2008-03-18 Sony Corporation Dynamic composition of pre-encrypted video on demand content
US7853980B2 (en) 2003-10-31 2010-12-14 Sony Corporation Bi-directional indices for trick mode video-on-demand
US20050102371A1 (en) 2003-11-07 2005-05-12 Emre Aksu Streaming from a server to a client
DE10353564A1 (de) 2003-11-14 2005-06-16 Deutsche Thomson-Brandt Gmbh Verfahren zur abschnittsweisen, diskontinuierlichen Übertragung von Daten in einem Netzwerk verteilter Stationen sowie Netzwerkteilnehmerstation als Anforderungsgerät bei der Durchführung eines solchen Verfahrens als auch Netzwerkteilnehmerstation als Quellgerät bei der Durchführung eines solchen Verfahrens
US7882034B2 (en) 2003-11-21 2011-02-01 Realnetworks, Inc. Digital rights management for content rendering on playback devices
US7398327B2 (en) 2003-11-25 2008-07-08 Robert Bosch Gmbh Apparatus, method and system for providing automated services to heterogenous devices across multiple platforms
DE60334913D1 (de) 2003-11-26 2010-12-23 Packet Video Network Solutions Verfahren für garantierte Ablieferung von Multimediainhalten, basiert auf den Terminalfähigkeiten
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
KR101244308B1 (ko) * 2003-12-08 2013-03-18 삼성전자주식회사 동영상 파일의 암호화 방법 및 그를 이용한 디지털 저작권관리방법
JP4155185B2 (ja) 2003-12-11 2008-09-24 日本ビクター株式会社 コンテンツ配信方法、コンテンツ配信サーバ、およびコンテンツ受信装置
EP1693999A4 (en) 2003-12-11 2011-09-14 Panasonic Corp PACK STATION DEVICE
JP4118232B2 (ja) 2003-12-19 2008-07-16 三菱電機株式会社 映像データ処理方法および映像データ処理装置
FR2864407B1 (fr) 2003-12-22 2006-03-10 Canon Kk Procede et dispositif de transmission continue d'une video dans un reseau de communication
US7602908B2 (en) 2003-12-22 2009-10-13 Aol Llc System and method for using a streaming protocol
US20050138655A1 (en) 2003-12-22 2005-06-23 Randy Zimler Methods, systems and storage medium for managing digital rights of segmented content
JP4537083B2 (ja) 2004-01-28 2010-09-01 キヤノン株式会社 データ処理装置及びその制御方法
US20050180641A1 (en) 2004-02-02 2005-08-18 Clark Adam L. System and method for transmitting live audio/video information
US9094699B2 (en) 2004-02-05 2015-07-28 Broadcom Corporation System and method for security key transmission with strong pairing to destination client
WO2005076601A1 (en) 2004-02-10 2005-08-18 Lg Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
JP2005229395A (ja) * 2004-02-13 2005-08-25 Canon Inc 再生装置
US7546641B2 (en) 2004-02-13 2009-06-09 Microsoft Corporation Conditional access to digital rights management conversion
US8832434B2 (en) 2004-02-13 2014-09-09 Hewlett-Packard Development Company, L.P. Methods for generating data for describing scalable media
JP5119566B2 (ja) 2004-02-16 2013-01-16 ソニー株式会社 再生装置および再生方法、プログラム記録媒体、並びにプログラム
US7512658B2 (en) 2004-02-26 2009-03-31 International Business Machines Corporation Providing a portion of an electronic mail message based upon a transfer rate, a message size, and a file format
US20050216752A1 (en) 2004-03-26 2005-09-29 Microsoft Corporation Common scrambling
JP4550809B2 (ja) 2004-03-29 2010-09-22 パナソニック株式会社 蓄積表示装置及び連動表示方法並びにシステム
JP2005284041A (ja) 2004-03-30 2005-10-13 Victor Co Of Japan Ltd コンテンツ配信方法、コンテンツ配信サーバ、およびコンテンツ受信装置
EP1746825B1 (en) 2004-04-16 2011-06-08 Panasonic Corporation Recording medium, reproduction device, program
US7397853B2 (en) 2004-04-29 2008-07-08 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
US7539248B2 (en) 2004-04-29 2009-05-26 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
US7400679B2 (en) 2004-04-29 2008-07-15 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
US8868772B2 (en) 2004-04-30 2014-10-21 Echostar Technologies L.L.C. Apparatus, system, and method for adaptive-rate shifting of streaming content
US7477749B2 (en) 2004-05-12 2009-01-13 Nokia Corporation Integrity protection of streamed content
US20060037057A1 (en) 2004-05-24 2006-02-16 Sharp Laboratories Of America, Inc. Method and system of enabling trick play modes using HTTP GET
US7299406B2 (en) 2004-06-02 2007-11-20 Research In Motion Limited Representing spreadsheet document content
US7885405B1 (en) 2004-06-04 2011-02-08 GlobalFoundries, Inc. Multi-gigabit per second concurrent encryption in block cipher modes
KR101011134B1 (ko) 2004-06-07 2011-01-26 슬링 미디어 인코퍼레이티드 퍼스널 미디어 브로드캐스팅 시스템
JP2005351994A (ja) 2004-06-08 2005-12-22 Sony Corp コンテンツ配信サーバ,コンテンツ配信方法,プログラム
US20070288715A1 (en) 2004-06-14 2007-12-13 Rok Productions Limited Media Player
US7756271B2 (en) 2004-06-15 2010-07-13 Microsoft Corporation Scalable layered access control for multimedia
GB0413261D0 (en) 2004-06-15 2004-07-14 Ibm Method and arrangement for front building
WO2005124779A1 (ja) 2004-06-18 2005-12-29 Matsushita Electric Industrial Co., Ltd. 再生装置、プログラム、再生方法
US8600217B2 (en) 2004-07-14 2013-12-03 Arturo A. Rodriguez System and method for improving quality of displayed picture during trick modes
KR100611985B1 (ko) 2004-07-27 2006-08-11 삼성전자주식회사 실시간 컨텐츠 관리 방법, 소오스 장치 및 싱크 장치
US8406607B2 (en) 2004-08-12 2013-03-26 Gracenote, Inc. Selection of content from a stream of video or audio data
KR100825548B1 (ko) 2004-08-17 2008-04-28 마쯔시다덴기산교 가부시키가이샤 정보 기록 매체, 데이터 분별 장치, 및 데이터 재생 장치
US20070250536A1 (en) 2004-08-26 2007-10-25 Akihiro Tanaka Content Start Control Device
US7675891B2 (en) * 2004-09-23 2010-03-09 Telefonakiebolaget L M Ericsson (Publ) Multimedia reception in communication networks
KR20060030164A (ko) 2004-10-05 2006-04-10 전문석 동영상 데이터 보호를 위한 공유키 풀 기반의 drm 시스템
JP2007065928A (ja) 2005-08-30 2007-03-15 Toshiba Corp 情報記憶媒体、情報処理方法、情報転送方法、情報再生方法、情報再生装置、情報記録方法、情報記録装置、及びプログラム
US7797720B2 (en) 2004-10-22 2010-09-14 Microsoft Corporation Advanced trick mode
US7412149B2 (en) 2004-10-28 2008-08-12 Bitband Technologies, Ltd. Trick mode generation in video streaming
ES2353877T3 (es) 2004-10-28 2011-03-07 Telecom Italia S.P.A. Procedimiento para configurar un terminal de radio mediante una red de comunicación por radio, red asociada y programa informático a este efecto.
US20060093320A1 (en) * 2004-10-29 2006-05-04 Hallberg Bryan S Operation modes for a personal video recorder using dynamically generated time stamps
KR101123550B1 (ko) 2004-11-08 2012-03-13 텔레폰악티에볼라겟엘엠에릭슨(펍) 디바이스에 권리 발행자 시스템을 등록하는 기술
US8218439B2 (en) 2004-11-24 2012-07-10 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive buffering
WO2006062553A1 (en) 2004-12-06 2006-06-15 Thomson Licensing Multiple closed captioning flows and customer access in digital networks
JP2006174309A (ja) 2004-12-17 2006-06-29 Ricoh Co Ltd 動画再生装置、プログラム、及び記録媒体
FR2879878B1 (fr) 2004-12-22 2007-05-25 Thales Sa Procede de chiffrement selectif compatible pour flux video
GB0428155D0 (en) 2004-12-22 2005-01-26 British Telecomm Buffer underflow prevention
WO2006074093A2 (en) 2005-01-05 2006-07-13 Divx, Inc. Media transfer protocol
WO2006077850A1 (ja) 2005-01-18 2006-07-27 Matsushita Electric Industrial Co., Ltd. データ格納方法、データ再生方法、データ記録装置、データ再生装置および記録媒体
US9219917B2 (en) 2005-01-19 2015-12-22 Thomson Licensing Method and apparatus for real time parallel encoding
DE102005004941B4 (de) 2005-02-02 2006-12-21 Avt Audio Vision Technology Gmbh Konvertierung von Daten, insbesondere zur Wiedergabe von Audio- und/oder Videoinformationen
US20070166000A1 (en) 2005-03-01 2007-07-19 Ramesh Nallur System and method for generating trick mode streams
US7627888B2 (en) 2005-03-09 2009-12-01 Vudu, Inc. Method and system for keeping a library of titles updated
US20060218251A1 (en) 2005-03-14 2006-09-28 Matsushita Electric Industrial Co., Ltd. AV server, AV contents reproducing apparatus, AV contents transmitting method, program and recording medium
US7349886B2 (en) 2005-03-25 2008-03-25 Widevine Technologies, Inc. Securely relaying content using key chains
US20080120330A1 (en) 2005-04-07 2008-05-22 Iofy Corporation System and Method for Linking User Generated Data Pertaining to Sequential Content
US20080120342A1 (en) 2005-04-07 2008-05-22 Iofy Corporation System and Method for Providing Data to be Used in a Presentation on a Device
KR100677026B1 (ko) 2005-04-07 2007-02-01 (주)아이티너스 코리아 영상 신호 송수신 시스템 및 이에 사용되는 보안 모듈
US7676495B2 (en) 2005-04-14 2010-03-09 Microsoft Corporation Advanced streaming format table of contents object
US20060235883A1 (en) 2005-04-18 2006-10-19 Krebs Mark S Multimedia system for mobile client platforms
US20060259588A1 (en) 2005-04-20 2006-11-16 Lerman David R Browser enabled video manipulation
US7478325B2 (en) 2005-04-22 2009-01-13 Microsoft Corporation Methods for providing an accurate visual rendition of a text element formatted with an unavailable font
US8683066B2 (en) 2007-08-06 2014-03-25 DISH Digital L.L.C. Apparatus, system, and method for multi-bitrate content streaming
JP4356645B2 (ja) 2005-04-28 2009-11-04 ソニー株式会社 字幕生成装置及び方法
KR100716900B1 (ko) 2005-05-12 2007-05-10 에스케이 텔레콤주식회사 방송 컨텐츠 보호 시스템 및 그 방법
JP4293160B2 (ja) 2005-05-19 2009-07-08 ソニー株式会社 コンテンツ再生装置及びコンテンツ再生方法
KR100717008B1 (ko) 2005-05-31 2007-05-10 삼성전자주식회사 부분폰트 파일 송신 및 수신하는 방법 및 장치
US20070005333A1 (en) * 2005-06-30 2007-01-04 Benard Setiohardjo Analog tape emulation
CA2513016A1 (en) 2005-07-22 2007-01-22 Research In Motion Limited A secure method of synchronizing cache contents of a mobile browser with a proxy server
KR20070020727A (ko) 2005-08-16 2007-02-22 주식회사 팬택 순차 조각 다운로드 방식을 이용한 의사 스트리밍 다운로드기능을 가지는 단말기 및 그 방법
KR101364939B1 (ko) 2005-08-31 2014-02-19 소니 주식회사 파일 처리 장치, 파일 처리 방법 및 기록 매체
JP4321550B2 (ja) 2005-08-31 2009-08-26 ソニー株式会社 情報処理装置、情報記録媒体製造装置、情報記録媒体、および方法、並びにコンピュータ・プログラム
US20070055982A1 (en) 2005-09-02 2007-03-08 Netgear Inc. System and method for digital content media distribution
JP2007074608A (ja) 2005-09-09 2007-03-22 Hitachi Ltd 再生装置および再生方法
US8504597B2 (en) 2005-09-09 2013-08-06 William M. Pitts Distributed file system consistency mechanism extension for enabling internet video broadcasting
US20070067472A1 (en) 2005-09-20 2007-03-22 Lsi Logic Corporation Accurate and error resilient time stamping method and/or apparatus for the audio-video interleaved (AVI) format
US8522290B2 (en) 2005-10-07 2013-08-27 Infosys Technologies, Ltd. Video on demand system and methods thereof
US20070083467A1 (en) 2005-10-10 2007-04-12 Apple Computer, Inc. Partial encryption techniques for media data
US20070086528A1 (en) 2005-10-18 2007-04-19 Mauchly J W Video encoder with multiple processors
FR2892885B1 (fr) 2005-11-02 2008-01-25 Streamezzo Sa Procede de gestion de polices de caractere a l'interieur de scenes multimedia, programme d'ordinateur et terminal correspondants.
FR2895545B1 (fr) 2005-12-23 2008-05-30 Trusted Logic Sa Procede d'authentification d'applications d'un systeme informatique
ATE516666T1 (de) 2005-12-23 2011-07-15 Koninkl Philips Electronics Nv Einrichtung und verfahren zum verarbeiten eines datenstroms
EP1806919A1 (en) 2006-01-05 2007-07-11 Alcatel Lucent Media delivery system with content-based trick play mode
US8214516B2 (en) 2006-01-06 2012-07-03 Google Inc. Dynamic media serving infrastructure
US7577980B2 (en) 2006-01-19 2009-08-18 International Business Machines Corporation Bit-rate constrained trick play through stream switching and adaptive streaming
US7991891B2 (en) 2006-02-02 2011-08-02 Microsoft Corporation Version-specific content searching
US20070239839A1 (en) 2006-04-06 2007-10-11 Buday Michael E Method for multimedia review synchronization
US7992175B2 (en) 2006-05-15 2011-08-02 The Directv Group, Inc. Methods and apparatus to provide content on demand in content broadcast systems
US8775319B2 (en) 2006-05-15 2014-07-08 The Directv Group, Inc. Secure content transfer systems and methods to operate the same
CN1873820A (zh) 2006-05-18 2006-12-06 北京中星微电子有限公司 视频文件处理方法、视频索引方法和视频索引装置
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
KR101013686B1 (ko) 2006-06-29 2011-02-10 엘지전자 주식회사 Drm에서 유저 도메인 내의 장치 관리 방법 및 시스템
US8224041B2 (en) 2006-07-19 2012-07-17 Panasonic Corporation Media data processing apparatus and media data processing method
US7783773B2 (en) 2006-07-24 2010-08-24 Microsoft Corporation Glitch-free media streaming
US8082442B2 (en) 2006-08-10 2011-12-20 Microsoft Corporation Securely sharing applications installed by unprivileged users
US20080077592A1 (en) 2006-09-27 2008-03-27 Shane Brodie method and apparatus for device authentication
US7743161B2 (en) 2006-10-10 2010-06-22 Ortiva Wireless, Inc. Digital content buffer for adaptive streaming
TW200820783A (en) 2006-10-25 2008-05-01 Realtek Semiconductor Corp Apparatus and method for deblock filtering
US8270819B2 (en) 2006-10-31 2012-09-18 Tivo Inc. Performing trick play functions in a digital video recorder with efficient use of resources
US8711929B2 (en) 2006-11-01 2014-04-29 Skyfire Labs, Inc. Network-based dynamic encoding
JP4609773B2 (ja) 2006-11-28 2011-01-12 コニカミノルタビジネステクノロジーズ株式会社 文書データ作成装置及び文書データ作成方法並びに制御プログラム
AR064274A1 (es) 2006-12-14 2009-03-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, dispositivo de codificacion de imagenes en movimiento, metodo de grabacion de imagenes en movimiento, medio de grabacion, metodo de reproduccion de imagenes en movimiento, dispositivo de reproduccion de imagenes en movimiento, y sistema de reproducci
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
WO2008090469A2 (en) 2007-01-22 2008-07-31 Min Tnetap I Göteborg Ab Method and apparatus for obtaining digital objects in a communication network
US20080192818A1 (en) 2007-02-09 2008-08-14 Dipietro Donald Vincent Systems and methods for securing media
US20080201705A1 (en) 2007-02-15 2008-08-21 Sun Microsystems, Inc. Apparatus and method for generating a software dependency map
US20080279535A1 (en) 2007-05-10 2008-11-13 Microsoft Corporation Subtitle data customization and exposure
US20080294691A1 (en) 2007-05-22 2008-11-27 Sunplus Technology Co., Ltd. Methods for generating and playing multimedia file and recording medium storing multimedia file
US7558760B2 (en) 2007-06-12 2009-07-07 Microsoft Corporation Real-time key frame generation
US8243924B2 (en) 2007-06-29 2012-08-14 Google Inc. Progressive download or streaming of digital media securely through a localized container and communication protocol proxy
KR20090004659A (ko) 2007-07-02 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
US8321556B1 (en) 2007-07-09 2012-11-27 The Nielsen Company (Us), Llc Method and system for collecting data on a wireless device
US9602757B2 (en) 2007-09-04 2017-03-21 Apple Inc. Display of video subtitles
KR101058042B1 (ko) 2007-09-06 2011-08-19 삼성전자주식회사 멀티스트림 재생장치 및 재생방법
US8023562B2 (en) 2007-09-07 2011-09-20 Vanguard Software Solutions, Inc. Real-time video coding/decoding
US8046453B2 (en) 2007-09-20 2011-10-25 Qurio Holdings, Inc. Illustration supported P2P media content streaming
US10277956B2 (en) 2007-10-01 2019-04-30 Cabot Communications Method and apparatus for streaming digital media content and a communication system
US20090106082A1 (en) 2007-10-23 2009-04-23 Senti Thad E System and method to facilitate targeted advertising
US8301793B2 (en) 2007-11-16 2012-10-30 Divx, Llc Chunk header incorporating binary flags and correlated variable-length fields
KR20100106327A (ko) 2007-11-16 2010-10-01 디브이엑스, 인크. 멀티미디어 파일을 위한 계층적 및 감소된 인덱스 구조
US8169916B1 (en) 2007-11-23 2012-05-01 Media Melon, Inc. Multi-platform video delivery configuration
US8131875B1 (en) 2007-11-26 2012-03-06 Adobe Systems Incorporated Device profile assignment based on device capabilities
US8543720B2 (en) 2007-12-05 2013-09-24 Google Inc. Dynamic bit rate scaling
US8997161B2 (en) 2008-01-02 2015-03-31 Sonic Ip, Inc. Application enhancement tracks
US8776161B2 (en) 2008-02-12 2014-07-08 Ciena Corporation Systems and methods for video processing in network edge devices
US8341715B2 (en) 2008-02-29 2012-12-25 Research In Motion Limited System and method for shared resource owner based access control
WO2009109976A2 (en) 2008-03-05 2009-09-11 Webtview Ltd. Distributing internet channels to a media viewer
CN101540645A (zh) 2008-03-21 2009-09-23 华为技术有限公司 动态内容分发方法和装置
US20090249081A1 (en) 2008-03-31 2009-10-01 Kabushiki Kaisha Toshiba-1 Shibaura 1-Chomominatoku Storage device encryption and method
US8379851B2 (en) 2008-05-12 2013-02-19 Microsoft Corporation Optimized client side rate control and indexed file layout for streaming media
US8456380B2 (en) 2008-05-15 2013-06-04 International Business Machines Corporation Processing computer graphics generated by a remote computer for streaming to a client computer
US8423889B1 (en) 2008-06-05 2013-04-16 Amazon Technologies, Inc. Device specific presentation control for electronic book reader devices
WO2009149364A2 (en) 2008-06-06 2009-12-10 Deluxe Digital Studios, Inc. Methods and systems for use in providing playback of variable length content in a fixed length framework
KR20110014995A (ko) 2008-06-06 2011-02-14 디브이엑스, 인크. 멀티미디어 파일용의 폰트 파일 최적화 시스템 및 방법
US7991801B2 (en) 2008-06-10 2011-08-02 International Business Machines Corporation Real-time dynamic and synchronized captioning system and method for use in the streaming of multimedia data
US8527876B2 (en) 2008-06-12 2013-09-03 Apple Inc. System and methods for adjusting graphical representations of media files based on previous usage
US20090313564A1 (en) 2008-06-12 2009-12-17 Apple Inc. Systems and methods for adjusting playback of media files based on previous usage
US8775566B2 (en) 2008-06-21 2014-07-08 Microsoft Corporation File format for media distribution and presentation
US8352996B2 (en) 2008-06-27 2013-01-08 Microsoft Corporation Adaptive video switching for variable network conditions
US20110055585A1 (en) 2008-07-25 2011-03-03 Kok-Wah Lee Methods and Systems to Create Big Memorizable Secrets and Their Applications in Information Engineering
CN101426179A (zh) 2008-09-22 2009-05-06 深圳华为通信技术有限公司 业务激活的方法和业务提供的方法以及终端设备和服务器
US8051287B2 (en) 2008-10-15 2011-11-01 Adobe Systems Incorporated Imparting real-time priority-based network communications in an encrypted communication session
US8949449B2 (en) 2008-10-15 2015-02-03 Aster Risk Management Llc Methods and systems for controlling fragment load on shared links
EP2180664A1 (en) 2008-10-22 2010-04-28 Vivendi Mobile Entertainment System and method for accessing multi-media content via a mobile terminal
US8249168B2 (en) 2008-11-06 2012-08-21 Advanced Micro Devices, Inc. Multi-instance video encoder
EP2359536B1 (en) 2008-11-24 2016-03-16 Ankeena Networks, Inc., Adaptive network content delivery system
US9015209B2 (en) 2008-12-16 2015-04-21 Sandisk Il Ltd. Download management of discardable files
US8311115B2 (en) 2009-01-29 2012-11-13 Microsoft Corporation Video encoding using previously calculated motion information
US8396114B2 (en) 2009-01-29 2013-03-12 Microsoft Corporation Multiple bit rate video encoding using variable bit rate and dynamic resolution for adaptive video streaming
US20100218208A1 (en) 2009-02-26 2010-08-26 Comcast Cable Communications, Llc Method and Apparatus for Generating Alternative Commercials
WO2010108053A1 (en) 2009-03-19 2010-09-23 Azuki Systems, Inc. Method for scalable live streaming delivery for mobile audiences
CA2759880C (en) 2009-03-23 2013-09-24 Azuki Systems, Inc. Method and system for efficient streaming video dynamic rate adaptation
EP2422514A1 (en) 2009-04-20 2012-02-29 Koninklijke Philips Electronics N.V. Verification and synchronization of files obtained separately from a video content
US8270473B2 (en) 2009-06-12 2012-09-18 Microsoft Corporation Motion based dynamic resolution multiple bit rate video encoding
US8225061B2 (en) 2009-07-02 2012-07-17 Apple Inc. Method and apparatus for protected content data processing
US9537967B2 (en) 2009-08-17 2017-01-03 Akamai Technologies, Inc. Method and system for HTTP-based stream delivery
US8355433B2 (en) 2009-08-18 2013-01-15 Netflix, Inc. Encoding video streams for adaptive video streaming
US9203816B2 (en) 2009-09-04 2015-12-01 Echostar Technologies L.L.C. Controlling access to copies of media content by a client device
US8473558B2 (en) 2009-09-22 2013-06-25 Thwapr, Inc. Progressive registration for mobile media sharing
US20110096828A1 (en) 2009-09-22 2011-04-28 Qualcomm Incorporated Enhanced block-request streaming using scalable encoding
CN102577309A (zh) 2009-09-29 2012-07-11 诺基亚公司 用于动态媒体文件流送的系统、方法和装置
US9237387B2 (en) 2009-10-06 2016-01-12 Microsoft Technology Licensing, Llc Low latency cacheable media streaming
US10264029B2 (en) 2009-10-30 2019-04-16 Time Warner Cable Enterprises Llc Methods and apparatus for packetized content delivery over a content delivery network
US8930991B2 (en) 2009-11-19 2015-01-06 Gregory Philpott System and method for delivering content to mobile devices
US9164967B2 (en) 2009-11-25 2015-10-20 Red Hat, Inc. Extracting font metadata from font files into searchable metadata for package distribution
US8767825B1 (en) 2009-11-30 2014-07-01 Google Inc. Content-based adaptive video transcoding framework
US8625667B2 (en) 2009-11-30 2014-01-07 Alcatel Lucent Method of opportunity-based transmission of wireless video
CA2782825C (en) 2009-12-04 2016-04-26 Divx, Llc Elementary bitstream cryptographic material transport systems and methods
KR20110066578A (ko) 2009-12-11 2011-06-17 삼성전자주식회사 디지털 컨텐츠와 이를 위한 재생장치 및 방법
US9344735B2 (en) 2009-12-21 2016-05-17 Tmm, Inc. Progressive shape based encoding of video content within a swarm environment
US9038116B1 (en) 2009-12-28 2015-05-19 Akamai Technologies, Inc. Method and system for recording streams
US20110296048A1 (en) 2009-12-28 2011-12-01 Akamai Technologies, Inc. Method and system for stream handling using an intermediate format
WO2011087449A1 (en) 2010-01-18 2011-07-21 Telefonaktiebolaget L M Ericsson (Publ) Methods and arrangements for http media stream distribution
EP2360924A1 (en) 2010-01-18 2011-08-24 Alcatel-Lucent España, S.A. A digital multimedia data transmission device and method
US20110179185A1 (en) 2010-01-20 2011-07-21 Futurewei Technologies, Inc. System and Method for Adaptive Differentiated Streaming
WO2011094869A1 (en) 2010-02-05 2011-08-11 Lipso Systèmes Inc. Secure authentication system and method
EP3333741B1 (en) 2010-02-17 2019-07-31 Verimatrix, Inc. Systems and methods for securing content delivered using a playlist
EP2362651A1 (en) 2010-02-19 2011-08-31 Thomson Licensing Multipath delivery for adaptive streaming
EP2360923A1 (en) 2010-02-24 2011-08-24 Thomson Licensing Method for selectively requesting adaptive streaming content and a device implementing the method
US8819116B1 (en) 2010-03-08 2014-08-26 Amazon Technologies, Inc. Providing services using a device capabilities service
US8386621B2 (en) 2010-03-12 2013-02-26 Netflix, Inc. Parallel streaming
EP2375680A1 (en) 2010-04-01 2011-10-12 Thomson Licensing A method for recovering content streamed into chunk
US9043484B2 (en) 2010-04-02 2015-05-26 Disney Enterprises, Inc. Streaming playback and dynamic ad insertion
US9137278B2 (en) 2010-04-08 2015-09-15 Vasona Networks Inc. Managing streaming bandwidth for multiple clients
WO2011139305A1 (en) 2010-05-04 2011-11-10 Azuki Systems, Inc. Method and apparatus for carrier controlled dynamic rate adaptation and client playout rate reduction
KR101837687B1 (ko) 2010-06-04 2018-03-12 삼성전자주식회사 콘텐트의 품질을 결정하는 복수의 인자에 기초한 적응적인 스트리밍 방법 및 장치
US8407753B2 (en) 2010-06-10 2013-03-26 Sony Corporation Content list tailoring for capability of IPTV device
US8705616B2 (en) 2010-06-11 2014-04-22 Microsoft Corporation Parallel multiple bitrate video encoding to reduce latency and dependences between groups of pictures
US9049497B2 (en) 2010-06-29 2015-06-02 Qualcomm Incorporated Signaling random access points for streaming video data
AU2010202741B1 (en) 2010-06-30 2010-12-23 Adeia Media Holdings Llc Dynamic chunking for media streaming
US20130080267A1 (en) 2011-09-26 2013-03-28 Unicorn Media, Inc. Single-url content delivery
CN103003821B (zh) 2010-07-19 2016-05-18 三星电子株式会社 用于提供drm服务的方法和装置
US8782268B2 (en) 2010-07-20 2014-07-15 Microsoft Corporation Dynamic composition of media
US9456015B2 (en) 2010-08-10 2016-09-27 Qualcomm Incorporated Representation groups for network streaming of coded multimedia data
US8677428B2 (en) 2010-08-20 2014-03-18 Disney Enterprises, Inc. System and method for rule based dynamic server side streaming manifest files
US9998749B2 (en) 2010-10-19 2018-06-12 Otoy, Inc. Composite video streaming using stateless compression
MY168733A (en) 2010-11-02 2018-11-29 Ericsson Telefon Ab L M Methods and devices for media description delivery
US9264750B2 (en) 2010-12-23 2016-02-16 Verizon Patent And Licensing Inc. Advertising insertion for playback of video streams on user devices
WO2012094171A1 (en) 2011-01-05 2012-07-12 Divx, Llc. Adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
US8914534B2 (en) 2011-01-05 2014-12-16 Sonic Ip, Inc. Systems and methods for adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
US9253178B2 (en) 2011-01-17 2016-02-02 Telefonaktiebolaget L M Ericsson Method and apparatus for authenticating a communication device
US9215466B2 (en) 2011-01-31 2015-12-15 Apple Inc. Joint frame rate and resolution adaptation
US8849950B2 (en) 2011-04-07 2014-09-30 Qualcomm Incorporated Network streaming of video data using byte range requests
US8516144B2 (en) 2011-04-29 2013-08-20 Cbs Interactive Inc. Startup bitrate in adaptive bitrate streaming
US9646141B2 (en) 2011-06-22 2017-05-09 Netflix, Inc. Fast start of streaming digital media playback with deferred license retrieval
WO2012177202A1 (en) 2011-06-23 2012-12-27 Saab Ab Best quality given a maximum bit rate
MX2013015115A (es) 2011-06-28 2014-02-11 Ericsson Telefon Ab L M Tecnica para manejar trafico de medios de transmision en una entidad de red.
EP2730072B1 (en) 2011-07-07 2016-09-07 Telefonaktiebolaget LM Ericsson (publ) Network-capacity optimized adaptive streaming
BR112014003030B1 (pt) 2011-08-11 2021-09-08 Apple Inc Método para comutar de um download de mbms para um fornecimento com base em http de conteúdo formatado dash, método para comutar de um fornecimento com base em http de conteúdo formatado dash para um download de mbms e dispositivo móvel
WO2013028565A1 (en) 2011-08-19 2013-02-28 General Instrument Corporation Encoder-aided segmentation for adaptive streaming
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8856218B1 (en) 2011-12-13 2014-10-07 Google Inc. Modified media download with index adjustment
US20130196292A1 (en) 2012-01-30 2013-08-01 Sharp Kabushiki Kaisha Method and system for multimedia-based language-learning, and computer program therefor
US9813740B2 (en) 2012-08-24 2017-11-07 Google Inc. Method and apparatus for streaming multimedia data with access point positioning information
WO2014126677A1 (en) 2013-02-12 2014-08-21 Azuki Systems, Inc. Personal over-the-top network video recorder
US9479805B2 (en) 2013-02-15 2016-10-25 Cox Communications, Inc. Entitlement validation and quality control of content in a cloud-enabled network-based digital video recorder
US9549000B2 (en) 2013-03-15 2017-01-17 Arris Enterprises, Inc. Streaming media from a server delivering individualized content streams to clients
WO2018169571A1 (en) * 2017-03-15 2018-09-20 Google Llc Segmentation-based parameterized motion models
US11330296B2 (en) * 2020-09-14 2022-05-10 Apple Inc. Systems and methods for encoding image data

Also Published As

Publication number Publication date
US20220408032A1 (en) 2022-12-22
US20190289226A1 (en) 2019-09-19
EP1692859A2 (en) 2006-08-23
WO2005057906A2 (en) 2005-06-23
CN101124561B (zh) 2013-11-27
CN101124561A (zh) 2008-02-13
HK1215889A1 (zh) 2016-09-23
US11012641B2 (en) 2021-05-18
US7519274B2 (en) 2009-04-14
KR101127407B1 (ko) 2012-03-23
US20200288069A1 (en) 2020-09-10
US20220256102A1 (en) 2022-08-11
US10708521B2 (en) 2020-07-07
BRPI0416738B1 (pt) 2018-12-26
JP2014233086A (ja) 2014-12-11
US10257443B2 (en) 2019-04-09
JP2007532044A (ja) 2007-11-08
KR101380262B1 (ko) 2014-04-01
KR20130105908A (ko) 2013-09-26
US11297263B2 (en) 2022-04-05
US11159746B2 (en) 2021-10-26
JP5589043B2 (ja) 2014-09-10
US20050123283A1 (en) 2005-06-09
JP2012019548A (ja) 2012-01-26
KR20130006717A (ko) 2013-01-17
WO2005057906A3 (en) 2007-09-07
US20220046188A1 (en) 2022-02-10
JP2013013146A (ja) 2013-01-17
EP2927816B1 (en) 2020-01-22
EP2927816A1 (en) 2015-10-07
EP1692859B1 (en) 2015-04-08
USRE45052E1 (en) 2014-07-29
US20220345643A1 (en) 2022-10-27
US20050207442A1 (en) 2005-09-22
US8731369B2 (en) 2014-05-20
US9369687B2 (en) 2016-06-14
EP3641317B1 (en) 2022-06-15
US20150104153A1 (en) 2015-04-16
US20160360123A1 (en) 2016-12-08
US11509839B2 (en) 2022-11-22
EP3641317A1 (en) 2020-04-22
ES2927630T3 (es) 2022-11-08
US20210258514A1 (en) 2021-08-19
KR20060122893A (ko) 2006-11-30
KR101380265B1 (ko) 2014-04-01
EP1692859A4 (en) 2013-01-23
KR20110124325A (ko) 2011-11-16
BRPI0416738A (pt) 2007-01-16

Similar Documents

Publication Publication Date Title
ES2784837T3 (es) Sistema de descodificación para descodificar archivos multimedia, sistema para codificar un archivo multimedia, y archivo multimedia
US11735228B2 (en) Multimedia distribution system