ES2329235T3 - Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. - Google Patents

Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. Download PDF

Info

Publication number
ES2329235T3
ES2329235T3 ES03722670T ES03722670T ES2329235T3 ES 2329235 T3 ES2329235 T3 ES 2329235T3 ES 03722670 T ES03722670 T ES 03722670T ES 03722670 T ES03722670 T ES 03722670T ES 2329235 T3 ES2329235 T3 ES 2329235T3
Authority
ES
Spain
Prior art keywords
subtitles
computer
data
video
subtitle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03722670T
Other languages
English (en)
Inventor
Laurent Maupeu
Michel Plu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Application granted granted Critical
Publication of ES2329235T3 publication Critical patent/ES2329235T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)

Abstract

Procedimiento de tratamiento informático de un contenido audiovisual digital que comprende vídeo y subtítulos, comprendiendo dicho procedimiento una etapa previa (E11) de generación, a partir del contenido audiovisual digital, de primeros datos (202) de subtítulos que incluyen los subtítulos y unas informaciones de sincronización de los subtítulos con el vídeo, estando caracterizado dicho procedimiento porque comprende además las siguientes etapas: - análisis (E12) de dichos primeros datos de subtítulos para determinar una estructura de los subtítulos; - generación (E13) de medios informáticos de navegación hipermedia adaptados a dicha estructura de los subtítulos, incluyendo dichos medios de navegación hipermedia unos datos de navegación interactiva adaptados para permitir la relectura interactiva de los subtítulos, e incorporación (E14) de dichos medios de navegación al contenido audiovisual, estando dichos medios de navegación hipermedia operativos durante la lectura del contenido audiovisual por un lector informático adaptado.

Description

Procedimiento y dispositivo de tratamiento informático de un contenido audiovisual con subtítulos.
La presente invención se refiere al tratamiento informático de un contenido audiovisual digital que comprende el vídeo y los subtítulos.
La invención pretende en particular el tratamiento de documentos audiovisuales subtitulados con el fin de permitir la lectura interactiva con un usuario a través de herramientas informáticas existentes, con el objeto de facilitar el aprendizaje de las lenguas extranjeras.
Actualmente existen herramientas informáticas de edición de contenidos audiovisuales que permiten la creación de cursos multimedia que integran el vídeo. Estas herramientas permiten el desencadenamiento de acontecimientos en el transcurso de la lectura de tal contenido. Permiten por ejemplo indizar las diferentes secuencias de un vídeo, de forma que se crea un menú, similar a los menús que se encuentran en los vídeodiscos digitales (DVD), gracias al cual se puede acceder directamente a diferentes partes del vídeo.
Tales herramientas son propuestas, por ejemplo, por la empresa Oratrix con el nombre de GriNS®, o bien por la empresa Microsoft con el nombre Windows Media Advanced Script Indexer® que forma parte del entorno Windows Media 7 Resource®.
En el caso del vídeo subtitulado, las herramientas tales como las citadas anteriormente permiten colocar enlaces en el subtitulado que proporcionarán ya sea un acceso a una página web vía un navegador web, ya sea un comando en el vídeo (de tipo lectura, pausa, parada, o colocación en un lugar preciso), o incluso que permitirán desencadenar un acontecimiento en un navegador web.
Sin embargo, todas las herramientas informáticas tales como las citadas como ejemplo no son más que "cajas de herramientas" que permiten a un usuario instruido integrar "manualmente" las funcionalidades interactivas en documentos multimedia.
Por otro lado, existen en el mercado herramientas informáticas que permiten separar automáticamente los subtítulos del vídeo, a partir de un contenido audiovisual digital, de manera que se permite el tratamiento separado posterior. Tal herramienta es suministrada, por ejemplo, por la empresa Softni con el nombre de Softni Caption Retriever®.
El documento patente WO0205542 describe un procedimiento y un sistema para insertar un contenido interactivo en una señal TV a partir de los subtítulos contenidos en la señal. Según este documento, los subtítulos son tratados por un decodificador y después comparados con un índice de términos o de frases y, según el resultado de la comparación, se obtienen unos datos ITV (Interactive Television) y después se codifican con la señal TV, antes de su difusión.
Sin embargo, en lo que se refiere a los contenidos audiovisuales digitales subtitulados, no existe actualmente ninguna herramienta informática que permita integrar automáticamente en estos contenidos funcionalidades de navegación interactiva relativas a los subtítulos.
Hay por tanto una necesidad real de tal herramienta informática que, combinando las nuevas posibilidades ofertadas por las tecnologías relativas al vídeo digital y la riqueza de los contenidos audiovisuales existentes -que sean difundidos en las cadenas de televisión o bien accesibles por Internet- permitiría la creación automática de funcionalidades de navegación interactiva relativas a los subtítulos. Tales funcionalidades serían en particular muy útiles como herramientas de ayuda en la comprensión de las lenguas.
La invención tiene como objetivo responder a esta necesidad y, por lo tanto, resolver los inconvenientes precitados de la técnica anterior.
A tal efecto, la invención se refiere, según un primer aspecto, a un procedimiento de tratamiento informático de un contenido audiovisual digital que comprende el vídeo y los subtítulos, tal como se define en la reivindicación 1.
El término "hipermedia" debe ser entendido como que designa una extensión del hipertexto con datos multimedia, permitiendo incluir unos enlaces entre elementos textuales, visuales y sonoros.
Así, gracias a estas disposiciones, ahora es posible, a partir de un contenido audiovisual digital, según un proceso automático, incorporar a este contenido audiovisual funcionalidades de navegación interactiva relativas a los subtítulos, que están íntimamente unidas a la estructura de los subtítulos.
Según un primer modo de realización, la etapa de análisis de la estructura de los subtítulos incluye las sub-etapas siguientes:
(A1) - análisis de los primeros datos de subtítulos con el fin de determinar la estructura de los subtítulos según al menos una unidad predefinida de segmentación de los subtítulos;
(A2) - generación de segundos datos de subtítulos que incluyen informaciones de segmentación de los subtítulos determinados en la etapa (A1), estando asociados los segundos datos a informaciones de sincronización de los subtítulos con el vídeo.
\vskip1.000000\baselineskip
Por otra parte, en este modo de realización, la etapa de generación de medios informáticos de navegación hipermedia incluye la sub-etapa de:
(A3) - generación, a partir de los segundos datos de subtítulos, de datos de navegación en los subtítulos, incluyendo los datos de navegación, para cada unidad de segmentación de los subtítulos, un comando, interpretable por un lector informático de contenidos audiovisuales adaptado, desencadenando la ejecución del comando por el lector informático la relectura de la unidad de segmentación de los subtítulos, en sincronización con la secuencia de vídeo correspondiente.
\vskip1.000000\baselineskip
Gracias a estas disposiciones, se incorporan automáticamente unas funcionalidades de navegación interactiva en los subtítulos en el contenido audiovisual tratado. Estas funcionalidades son particularmente ventajosas en el marco de la enseñanza de las lenguas extranjeras, ya que un usuario podrá tener la ocasión de volver a escuchar una porción elegida de los subtítulos en sincronización con el vídeo correspondiente.
Según un segundo modo de realización que puede ser combinado con el primer modo de realización, la etapa de análisis de la estructura de los subtítulos incluye las sub-etapas siguientes:
(B1) - análisis sintáctico y léxico de los subtítulos;
(B2) - generación de datos de descomposición analítica de los subtítulos, incluyendo los datos de descomposición analítica, para cada frase identificada de subtítulos, unas informaciones de sincronización con el vídeo y, para al menos una parte de las palabras que constituyen la frase considerada, la forma léxica de base de cada palabra.
Por otra parte, en este modo de realización, la etapa de generación de medios informáticos de navegación hipermedia incluye las sub-etapas siguientes:
(B3) - determinación, a partir de los datos de descomposición analítica de los subtítulos, para cada palabra entre al menos una parte de las palabras que constituyen los subtítulos, de un enlace informático que apunta hacia una entrada léxica de un diccionario lingüístico electrónico, siendo determinada esta entrada léxica del diccionario al menos en función de la forma léxica de base de la palabra considerada;
(B4) - generación de terceros datos de subtítulos, incluyendo los subtítulos, los enlaces informáticos determinados en la etapa (B3), y unas informaciones de sincronización de los subtítulos con el vídeo; provocando la lectura de estos terceros datos por un lector informático de contenidos audiovisuales adaptado la visualización de los subtítulos con posibilidad de resolución de cada enlace informático, con el fin de buscar para la palabra considerada la entrada léxica correspondiente del diccionario.
\vskip1.000000\baselineskip
Gracias a estas disposiciones, unas funcionalidades de navegación interactiva, a partir de las palabras de subtítulos hacia un diccionario en línea, se incorporan automáticamente en el contenido audiovisual tratado. Estas funcionalidades son también particularmente ventajosas en el marco de la enseñanza de las lenguas extranjeras ya que un usuario podrá, por ejemplo pinchando sobre una palabra de subtítulos, obtener en la pantalla, a tiempo real, la definición de la palabra en un diccionario.
Según una característica preferida del segundo modo de realización, el enlace informático asociado a una palabra de subtítulo es una dirección web (URL). Por otra parte, un comando informático relativo a una palabra visualizada en una pantalla de ordenador y ejecutada por un usuario del lector informático, por ejemplo vía un dispositivo informático de punteo, provoca la lectura de la dirección web por un navegador web.
Según una característica particular de la invención, un contenido audiovisual tratado según la invención es almacenado en un formato de lectura en flujo continuo (streaming).
Así, un contenido audiovisual tratado según la invención está particularmente adaptado para una utilización a través de la red Internet, por medio de herramientas multimedia unidas a Internet.
Según un segundo aspecto, la invención se refiere a un sistema informático que comprende unos medios informáticos adaptados para la puesta en práctica de un procedimiento de tratamiento de un contenido audiovisual tal como se expuso de manera sucinta anteriormente.
La invención se refiere también a un programa de ordenador en un soporte de informaciones, comprendiendo este programa unas instrucciones de programa adaptadas para la puesta en práctica de un procedimiento de tratamiento de un contenido audiovisual, cuando este programa se carga y se ejecuta en un ordenador.
Las ventajas de este sistema informático y de este programa de ordenador son idénticas a las del procedimiento de tratamiento de un contenido audiovisual, tales como las expuestas de manera breve anteriormente.
Otras particularidades y ventajas de la invención aparecerán también en la descripción posterior de modos preferidos de realización, descritos con el apoyo de los dibujos adjuntos, en los que:
- la figura 1 es un diagrama de bloques de un sistema informático de tratamiento de un contenido audiovisual digital, según la invención;
- la figura 2 es un organigrama que ilustra el principio general de un procedimiento de tratamiento informático de un contenido audiovisual digital, según la invención;
- la figura 3 es un organigrama que ilustra un procedimiento de tratamiento de un contenido audiovisual según un modo de realización preferido de la invención;
- la figura 4 es un diagrama de bloques de un ordenador adaptado para la puesta en práctica de un procedimiento de tratamiento de un contenido audiovisual digital según la invención.
En referencia a la figura 1, se va a describir un sistema informático (1) de tratamiento de un contenido audiovisual digital, según la invención.
Como se representa en la figura 1, el sistema informático 1 comprende un módulo 10 de separación de vídeo/subtítulos, destinado a extraer del contenido audiovisual digital 20 los subtítulos, asociados a unas informaciones de sincronización de los subtítulos con el vídeo. Se obtiene entonces en la salida del módulo 10 unos datos de subtítulos que incluyen los subtítulos y las informaciones de sincronización precitadas.
Según el modo de realización preferido de la invención, el módulo 10 está constituido por la plataforma lógica/física conocida con el nombre de Softni Caption Retriever® y comercializada por la empresa Softni. Se podrá remitir a la dirección web: http://www.softni.com para obtener más información sobre este producto.
El sistema 1 de tratamiento de un contenido audiovisual según la invención comprende además un módulo 12 de análisis de los subtítulos, destinado a analizar la estructura de los subtítulos a partir de los datos de subtítulos generados por el módulo 10 de separación.
El sistema 1 comprende además dos módulos 14, 16 que permiten generar unos medios de navegación hipermedia adaptados a la estructura de los subtítulos analizada previamente por el módulo 12 de análisis. Los módulos 14, 16 incorporan además estos medios hipermedia al contenido audiovisual inicial de manera que constituyen un contenido audiovisual 30 que posee unas funcionalidades de navegación hipermedia.
El término "hipermedia" debe ser entendido aquí como que designa una extensión del hipertexto a unos datos multimedia, permitiendo incluir unos enlaces entre elementos textuales, visuales y sonoros.
El módulo 14 está especializado en la generación de enlaces informáticos entre al menos una parte de las palabras que constituyen los subtítulos y unas entradas léxicas de un diccionario lingüístico electrónico.
El módulo 16, por su parte, está especializado en la generación de medios de navegación interactiva en los subtítulos.
En el modo de realización preferido de la invención, cada uno de los módulos 10, 12, 14, 16, cuya agrupación constituye un sistema informático 1 de tratamiento de un contenido audiovisual según la invención, está principalmente constituido por componentes lógicos (es decir, por los programas de ordenador). Sin embargo, cada uno de estos módulos puede también incluir unos medios físicos, tales como una tarjeta de vídeo o una tarjeta decodificadora de subtítulos, como es el caso por ejemplo de la plataforma Softni Caption Retriever®.
Por otro lado, los diferentes módulos (10, 12, 14, 16) que componen el sistema informático 1 según la invención pueden ser repartidos en diferentes ordenadores unidos a una red de comunicación, por ejemplo Internet.
El procedimiento de tratamiento de un contenido audiovisual puesto en práctica por el sistema informático 1 según la invención va a ser descrito ahora en relación con la figura 2.
En referencia a la figura 2, se va a describir el principio general de un procedimiento de tratamiento informático de un contenido audiovisual digital, según la invención.
Como se ilustra en la figura 2, el procedimiento de tratamiento de un contenido audiovisual según la invención comprende una primera etapa E10 de obtención de un contenido audiovisual digital que comprende el vídeo y los subtítulos (captions en inglés). Se puede tratar por ejemplo de una película de cine en versión original subtitulada en la lengua original, destinada entre otras cosas a ser vista por personas sordas o que oyen mal.
Este contenido audiovisual puede ser por ejemplo obtenido a partir de una fuente de emisiones televisuales difundidas por satélite. En este caso, la adquisición de las emisiones es efectuada por una caja decodificadora (set top box), por ejemplo una grabadora de vídeos de tipo TiVo® comercializada por la empresa TiVo Inc., que permite en particular programar la hora de grabación de las emisiones.
El contenido audiovisual así obtenido es entonces grabado, y después suministrado a un sistema informático, típicamente un microordenador (o una estación de trabajo), en el que es digitalizado.
El contenido audiovisual digital así obtenido sufre entonces un proceso de separación del vídeo y de los subtítulos en el módulo (10) de separación de vídeo/subtítulos, como se ilustra mediante la etapa E11.
En el marco del modo de realización descrito, los procesos de digitalización y de separación de vídeo/subtítulos son efectuados por una misma plataforma lógica/física, por ejemplo la plataforma Softni Caption Retriever®.
El tratamiento del contenido audiovisual por una herramienta tal como la plataforma Softni Caption Retriever permite la generación, en uno o varios ficheros, de datos (202) de subtítulos asociados a unas informaciones de sincronización de los subtítulos con el vídeo. Las informaciones de sincronización de los subtítulos con el vídeo, comúnmente llamadas "código temporal" (time code en inglés) son extraídas a partir de la fuente de vídeo o son recreadas en la base del reloj del ordenador en el que se instala la plataforma.
Por otro lado, al final del tratamiento del contenido visual por la plataforma de separación de vídeo/subtítulos, se obtienen unos datos (201) de vídeo sin subtítulos. Estos datos de vídeo incluyen las señales de audio asociadas a las señales de vídeo.
En la etapa siguiente E12 (figura 2), se suministran los datos 202 de subtítulos al módulo 12 de análisis de los subtítulos, que efectúa el análisis de la estructura. Como se expondrá más adelante en la descripción, este análisis puede comprender un análisis de la estructura de los subtítulos frente a una unidad de segmentación predefinida, por ejemplo una línea de visualización o bien una frase gramatical.
Este análisis puede también comprender un análisis gramatical y léxico en profundidad. En el modo de realización preferido de la invención, se efectúan los dos tipos de análisis precitados.
Después de la etapa de análisis de los subtítulos, se generan unos medios lógicos de navegación hipermedia, en la etapa E13, por los módulos 14, 16 (figura 1). Estos medios de navegación se adaptan específicamente a la estructura analizada de los subtítulos. Se obtienen entonces unos datos 300 que contienen los subtítulos, unos códigos temporales y los medios de navegación hipermedia precitados.
Según el modo de realización preferido de la invención, estos medios de navegación hipermedia incluyen unos medios interactivos de navegación interna en los subtítulos, generados por el módulo 16, y unos medios de navegación externa a los subtítulos (enlaces informáticos hacia un diccionario electrónico), generados por el módulo 14.
Se generan entonces unos datos 300 de subtítulos que incorporan estos medios de navegación hipermedia y unas informaciones de sincronización con el vídeo. En la etapa E14, se incorporan las informaciones de navegación hipermedia al contenido visual inicial asociando de nuevo los datos (201) de vídeo sin subtítulos y los nuevos datos (300) de subtítulos.
Finalmente, en la etapa E15, se publica el contenido audiovisual tratado, es decir se pone a disposición de los usuarios, por ejemplo siendo depositado en un ordenador servidor de documentos audiovisuales accesible vía una red de comunicaciones tal como Internet.
Las funcionalidades de navegación hipermedia incorporadas en el documento audiovisual podrán entonces ser puestas en práctica cuando el contenido visual sea leído por un lector informático capaz de leer tales documentos. En la práctica, tales lectores informáticos se conocen con la expresión "lector multimedia" (media player).
En relación con la figura 3, se va a describir ahora un modo de realización preferido del procedimiento de tratamiento de un contenido audiovisual según la invención.
En la figura 3, los datos 201 de vídeo sin subtítulos y los datos 202 de subtítulos que incluyen unos códigos temporales ya han sido extraídos del contenido visual por el módulo 10 de separación de vídeo/subtítulos, y almacenados en unos ficheros separados.
En la práctica, el módulo 10 está constituido por la plataforma Softni Caption Retriever. Los datos (201) de vídeo (imágenes y sonido) sin subtítulos se obtienen entonces en un fichero en formato AVI (Audio Video Interlaced).
El formato AVI es un formato de fichero utilizado por el sistema operativo Windows® para el almacenamiento de las imágenes de vídeo y del sonido, en el que los datos de vídeo alternan con los datos de audio. En este fichero AVI, el vídeo está codificado en el formato VCR2 (códec de vídeo conocido).
Los datos (202) de subtítulos con códigos temporales son, por su parte, almacenados en un fichero de tipo texto. Se da después, de ejemplo, una porción de un fichero de subtítulos con códigos temporales suministrados por la plataforma de separación de vídeo/subtítulos.
Ejemplo 1 Fichero de subtítulos con códigos temporales
1
Como se puede ver en el fichero dado de ejemplo anteriormente, los subtítulos contenidos en el fichero comprenden dos frases:
"Since we're ... earth" y "Lying ... Fahrenheit".
\vskip1.000000\baselineskip
Cada línea de subtítulos (por ejemplo, "that can drop to minus 126") corresponde a una línea de visualización de los subtítulos en una pantalla de visualización.
Cada línea de subtítulos va seguida de un código temporal que define el inicio y el fin de la visualización de la línea considerada, en sincronización con las imágenes de vídeo correspondientes. Así, la visualización de la línea de subtítulos "Lying at the bottom of the" empieza en el instante "00:01:29.09" después del comienzo de la secuencia de vídeo, y se termina en el instante "00:01:31.12".
Conforme a la invención, en la etapa E121, los datos 202 de subtítulos con códigos temporales son suministrados en la entrada al módulo 12 de análisis de los subtítulos para sufrir un análisis sintáctico y léxico.
En el marco de la presente invención, este análisis sintáctico y léxico tiene como objetivo determinar particularmente:
- la estructura de texto de los subtítulos en frases gramaticales, lo que implica, por ejemplo, poder hacer la distinción entre un punto de final de frase o un punto que separa dos caracteres en una sigla;
\newpage
- la forma léxica de base para todas o parte de las palabras que constituyen cada una de las frases identificadas, esta forma léxica de base también se designa "raíz" o también "lema" de la palabra considerada;
- la función de cada palabra en una frase dada.
Este tipo de componente lógico que permite efectuar tal análisis sintáctico y léxico de un texto es conocido del estado de la técnica.
Para obtener más informaciones sobre este tipo de herramientas, se podrá consultar el sitio web de la Asociación para el Tratamiento Automático de las Lenguas (ATALA) en la URL siguiente: http://www.atala.org/.
En el marco de la etapa de análisis sintáctico y léxico, la primera parte del tratamiento de un texto (de subtítulos) consiste en identificar y tipificar las series de caracteres lingüísticamente pertinentes de este texto. Estas series, llamadas aquí "segmento", no corresponden obligatoriamente a unas palabras, se puede tratar de números (por ejemplo, "-3, 14"), o de fechas (por ejemplo, "25/02/2002"), etc. Estas series pertinentes difieren según las lenguas, así, por ejemplo, la escritura de los números y las fechas varían en francés y en inglés.
En la etapa siguiente, E122, se procede a la determinación de la estructura de los subtítulos según al menos una unidad predefinida de segmentación de los subtítulos.
En el marco del modo de realización elegido y representado, la información de segmentación de los subtítulos en frases ya se obtiene durante la etapa (E121) de análisis sintáctico de los subtítulos. En la etapa E122, esta segmentación podrá entonces tratar de una unidad de segmentación que corresponde a una línea de visualización de los subtítulos, a un párrafo de subtítulos o, incluso, a cada palabra de tipo, por ejemplo, "verbo" o "sustantivo".
En la etapa siguiente E123, se generan unos datos de segmentación de los subtítulos. Estos datos incluyen las informaciones de segmentación, obtenidas en las etapas E121 y E122, asociadas a unas informaciones de sincronización de los subtítulos con el vídeo, basadas en los códigos temporales iniciales. Las informaciones de segmentación serán utilizadas más tarde en los procesos, para la generación de los datos de navegación en los subtítulos (etapa E132).
En la etapa E124, se generan unos datos de descomposición analítica de los subtítulos que contienen los resultados del análisis sintáctico y léxico que han sido obtenidos en la etapa E121. Estos datos de descomposición analítica incluyen, para cada frase identificada de subtítulos, unas informaciones de sincronización con el vídeo basadas en los códigos temporales iniciales y, para al menos una parte de las palabras que constituyen la frase considerada, la forma léxica de base (lema).
En el modo de realización preferido descrito aquí, los datos de segmentación de los subtítulos se incluyen en los datos de descomposición analítica de los subtítulos. En la etapa E124, los datos de descomposición analítica de los subtítulos se almacenan en un fichero informático 110.
En el modo de realización preferido de la invención, el fichero 110 de descomposición analítica de los subtítulos es un fichero cuyo contenido se expresa en el lenguaje de etiquetado conocido XML (eXtended Markup Language).
Se da a continuación un extracto de un fichero XML de descomposición analítica de los subtítulos, obtenido a partir del fichero de subtítulos del ejemplo 1 dado anteriormente.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Esquema pasa a página siguiente)
\newpage
Ejemplo 2 Fichero XML de descomposición analítica de los subtítulos
2
Como se puede ver en el ejemplo 2 anterior, en el fichero XML de descomposición de los subtítulos, se encuentran cada una de las frases del texto inicial de los subtítulos con los códigos temporales correspondientes, reagrupados en la etiqueta <PHR TXT="...">.
Después, a cada segmento elemental de subtítulos, que corresponde a una palabra (por ejemplo "only") o no (por ejemplo, un código temporal "00:00:00.00\\00:00:00.00"), corresponden unos datos de descomposición analítica que están contenidos en una etiqueta de segmento: <TER SEG=...>.
En cada una de las etiquetas de segmento, el campo definido por LEM="..." contiene el lema del segmento considerado, si este segmento es una palabra.
Así por ejemplo, en la etiqueta <TER SEG="ONLY"...>, del ejemplo 2, que corresponde a la palabra "ONLY", el lema correspondiente es "only".
De vuelta a la figura 3, el fichero XML 110 es suministrado en la entrada, por una parte, al módulo 14 de generación de enlaces hacia un diccionario, por medio del cual se ejecutan las etapas E131 y E134, y, por otra parte, al módulo 16 de generación de datos de navegación en los subtítulos, por medio del cual se ejecutan las etapas E132 y E133.
\global\parskip0.950000\baselineskip
En la etapa E131, se determina, a partir de los datos de descomposición analítica de los subtítulos, resultantes del fichero XML 110, para cada palabra entre al menos una parte de las palabras que constituyen los subtítulos, un enlace informático que apunta hacia una entrada léxica de un diccionario lingüístico electrónico.
En el modo de realización preferido de la invención, el enlace informático asociado a una palabra de subtítulo es una dirección web (URL).
El módulo 14 de generación de enlaces hacia un diccionario es en la práctica un programa de análisis (parser en inglés) de un fichero XML. Este programa efectúa un tratamiento línea por línea de los subtítulos contenidos en el fichero XML 110. Para cada línea de subtítulo, en el interior del fichero XML, el código temporal asociado es extraído y después, para cada palabra de la línea de subtítulos considerada, se extrae la forma léxica de base (lema).
Después, la entrada léxica de base de la palabra es concatenada, de manera apropiada, con la dirección web predefinida de un diccionario lingüístico en línea correspondiente a la lengua utilizada (aquí el inglés) en los subtítulos. Esta "concatenación" para la palabra de subtítulos considerada produce así el enlace informático correspondiente a esta palabra, que apunta hacia la entrada léxica apropiada del diccionario en línea.
La entrada léxica del diccionario apropiada para una palabra dada es, por consiguiente, determinada al menos en función de la forma léxica de base de la palabra considerada.
Sin embargo, en el modo de realización preferido de la invención, la entrada léxica del diccionario es determinada además en función de la categoría gramatical de pertenencia de la palabra. Esta información de categoría gramatical (verbo, sustantivo, adjetivo, etc.) está disponible en el fichero XML 110, para cada palabra de subtítulos. De esta forma, la determinación de la entrada léxica apropiada del diccionario se vuelve más precisa.
En el ejemplo 2 del fichero XML expuesto anteriormente, un enlace hacia la entrada léxica apropiada de un diccionario en línea, para la palabra "only", es por ejemplo la URL siguiente.
3
En esta URL, "va=only" precisa la raíz (lema) de la palabra "only", y "fl=adjective" precisa su categoría gramatical (adjetivo).
Así, cuando el contenido audiovisual resultante del tratamiento según la invención sea leído por un lector multimedia, esta URL -que constituye así un comando informático relativo a la palabra de subtítulo visualizada en una pantalla de ordenador- podrá ser ejecutada por el lector multimedia.
La resolución del enlace informático, es decir la ejecución de la URL, podrá ser desencadenada por un usuario humano del lector multimedia, por ejemplo pinchando con un ratón en la palabra considerada. Un navegador web se arrancará entonces automáticamente, que cargará y visualizará el contenido de la dirección URL, es decir la definición del diccionario correspondiente a la palabra.
De vuelta a la figura 3, en la etapa E134, el módulo 14 de generación de enlaces hacia un diccionario genera un fichero 130 de subtítulos que contiene los subtítulos, los códigos temporales correspondientes, y los enlaces informáticos (dirección web-URL) que corresponden a las palabras de los subtítulos para las que los enlaces han sido creados en la etapa precedente (E131).
En el modo de realización preferido de la invención, el fichero 130 de subtítulos es un fichero cuyo formato se adapta a la lectura en flujo continuo (streaming en inglés) de los subtítulos con el vídeo correspondiente.
En la práctica, el formato utilizado es el formato RealText®. El formato RealText es el formato de texto adaptado para la lectura en flujo continuo propuesto por la empresa Real Networks.
La lectura en flujo continuo (a veces designada "lectura en tránsito") es una técnica de lectura de fichero multimedia que permite a un usuario de Internet (internauta) leer el fichero en tiempo real, sin tener que esperar su teledescarga completa.
Igualmente, en el modo de realización preferido de la invención, los datos (201) de vídeo sin subtítulos, suministrados por el módulo (10) de separación de vídeo/subtítulos, son codificados después (etapa E30) en un formato de lectura de vídeo en flujo continuo (streaming) y almacenados en un fichero informático 100.
En la práctica, el formato utilizado de lectura de vídeo en flujo continuo es el formato RealMedia® desarrollado por la empresa Real Networks.
La lectura simultanea del fichero de vídeo RealMedia 100 y del fichero RealText 130, por un lector informático de contenido multimedia (streaming media player), tal como el lector RealPlayer® desarrollado por la empresa Real Networks, permite entonces visualizar de manera sincronizada, en una pantalla de ordenador, el vídeo y los subtítulos.
\global\parskip1.000000\baselineskip
Se da a continuación un extracto de un fichero RealText® 130, obtenido a partir del fichero XML 110 del ejemplo 2 dado anteriormente.
Ejemplo 3 Fichero RealText® de subtítulos con enlaces hacia un diccionario
4
Como se puede ver en el ejemplo 3 anterior, un fichero RealText (130) según la invención, comprende:
- los subtítulos (por ejemplo, las palabras "Since we"),
- unas informaciones de sincronización de los subtítulos con el vídeo, presentes en cada etiqueta <time begin="">, y que corresponden cada una al instante de visualización de una línea de subtítulos, y
- un enlace (URL) hacia una entrada de un diccionario en línea para ciertas palabras de los subtítulos, codificado en la etiqueta <a href="..."> que precede a la palabra correspondiente de subtítulo.
De vuelta a la figura 3, en la etapa E132, se generan, a partir de los datos de segmentación de los subtítulos contenidos en el fichero XML (110), unos datos de navegación en los subtítulos. Estos datos de navegación incluyen, para cada unidad de segmentación considerada de subtítulos, un comando informático, interpretable por un lector informático multimedia, y cuya ejecución desencadena la relectura de la unidad de segmentación considerada en sincronización con la secuencia de vídeo correspondiente.
En el modo de realización preferido de la invención, los datos de navegación en los subtítulos se almacenan en un fichero informático 120, en el que estos datos se expresan en el lenguaje de etiquetado SMIL (Syinchronized Multimedia Integration Language).
El lenguaje SMIL es un lenguaje de etiquetado que permite sincronizar unos ficheros de naturaleza diferente para hacer unos objetos multimedia capaces de ser integrados en una página web.
El lenguaje SMIL ha sido desarrollado por el grupo de trabajo SYMM. Su sintaxis y su presentación retoman los del lenguaje HTML. Permite definir las diferentes características de gestión del fichero multimedia.
En el modo de realización preferido de la invención, el fichero SMIL 120, que contiene los datos de navegación en los subtítulos, incluye además una referencia informática al fichero de vídeo RealMedia 100 y al fichero de subtítulos RealText 130.
De esta forma, la lectura del fichero SMIL 120 por un lector de contenido multimedia, tal como el lector RealPlayer, provocará la visualización sincronizada del vídeo y de los subtítulos.
Se da a continuación un extracto de un fichero SMIL 120, obtenido a partir del fichero XML 110 del ejemplo 2 dado anteriormente.
Ejemplo 3 Fichero SMIL de navegación en los subtítulos
5
Como se puede ver en el ejemplo 3 de fichero SMIL anterior, el fichero de vídeo RealMedia 100 y el fichero de subtítulos RealText 130 son referenciados en el fichero SMIL en las etiquetas respectivas: <vídeo src="..." .../> y <text src="..." .../>. "rtsp" designa en este ejemplo el protocolo de streaming utilizado.
Por otra parte, en el modo de realización descrito aquí, existe en el este fichero SMIL un comando informático ejecutable durante la duración de visualización de una línea de subtítulos, y cuya ejecución desencadena la relectura de los subtítulos desde el inicio de la frase en la que se inscribe la línea de subtítulos considerada. Así, en el modo de realización descrito, la unidad de segmentación considerada para la navegación interactiva en los subtítulos corresponde a una frase de subtítulos. Sin embargo, se puede prever desencadenar la relectura según una unidad diferente de segmentación de los subtítulos, por ejemplo una palabra, una línea o un párrafo de subtítulos.
En el fichero SMIL dado de ejemplo anteriormente, para cada línea de subtítulos, existe un comando codificado según la sintaxis command:seek(Td) en donde Td designa el instante de visualización del inicio de la frase de subtítulos.
Así la instrucción siguiente, extraída del fichero SMIL anterior,
6
es aplicable a la primera línea de visualización de duración dur="0:0:1.980s" a partir del instante inicial de visualización de los subtítulos: "0:0:0.00", que corresponde también al instante de inicio de visualización de la primera frase de los subtítulos, en sincronización con el vídeo correspondiente.
Por consiguiente, la ejecución del comando command:seek(0:0:0.00) que es aplicable durante toda la duración (dur="0:0:1.980s") de visualización de la línea de subtítulos en curso, desencadena la relectura de los subtítulos a partir del instante "0:0:0.00", es decir a partir del inicio de la primera frase de subtítulos.
Cuando el fichero SMIL es leído por un lector de contenido multimedia, cada uno de los comandos de relectura está materializado en la interfaz de usuario del lector durante la visualización de la línea de subtítulos en curso, por ejemplo por un botón en el que podrá pinchar un usuario para desencadenar la revisualización de la frase de subtítulos que contiene la línea en curso, en sincronización con los datos de audio y de vídeo correspondientes.
Siempre en la figura 3, en la etapa E15, se procede a la publicación del contenido visual expresado en un formato de lectura en flujo continuo (streaming).
En la práctica, los tres ficheros Realtext 130, RealMedia 100 y SMIL 120 se almacenan en un mismo directorio de un ordenador servidor conectado a Internet al que se podrá acceder por unos puestos de usuario conectados a Internet, por ejemplo a través de un sitio web dedicado al suministro de contenidos audiovisuales.
Ahora, en referencia a la figura 4, se va a describir brevemente un ordenador (40) adaptado para la puesta en práctica de un procedimiento de tratamiento de un contenido audiovisual digital según la invención y descrito precedentemente en relación con las figuras 2 y 3. Hay que señalar que el ordenador ilustrado en la figura 4 es un modo de realización particular del sistema general descrito anteriormente en relación con la figura 1.
En este modo de realización, el procedimiento de tratamiento de un contenido audiovisual según la invención es puesto en práctica esencialmente mediante la ejecución de programas de ordenador.
En la figura 4, el ordenador 40, que puede ser típicamente un microordenador o una estación de trabajo, se conecta a diferentes periféricos, por ejemplo una cámara digital 411 o cualquier otro dispositivo de adquisición o de almacenamiento de contenidos audiovisuales, que suministran informaciones (vídeos, subtitulado) para tratamiento en el ordenador 40. Estos contenidos audiovisuales pueden ser almacenados en los medios de almacenamiento de los que dispone el ordenador tales como un disco duro 406.
El ordenador 40 comprende igualmente una interfaz 408 de comunicación unida a una red 50 de comunicación, por ejemplo Internet. Esta interfaz 408 es capaz de recibir de la red 50 documentos audiovisuales a tratar según el procedimiento de la invención.
El ordenador 40 comprende unos medios de almacenamiento de datos tales como el disco duro 406, pero igualmente un lector 407 de discos compactos (CDROM) en los que pueden ser almacenados contenidos audiovi-
suales.
Según un modo preferido de realización de la invención, el código ejecutable de los programas que permiten poner en práctica el procedimiento de tratamiento de un contenido audiovisual según la invención está memorizado en el disco duro 406. Según una variante de realización, el código ejecutable de estos programas puede ser almacenado en una memoria ROM 401 del ordenador. Según otra variante de realización, este código puede ser almacenado en un disco compacto (CD) 410.
Según todavía otra variante de realización, el código ejecutable del o de los programas puede ser telecargado a partir de la red 50 de comunicación vía la interfaz 408 de comunicación para ser memorizado en el disco duro 406.
El ordenador 40 comprende además una pantalla 403 que permite visualizar los contenidos visuales a tratar y servir de interfaz gráfica con un usuario para comprobar los contenidos audiovisuales tratados según la invención, con la ayuda de un dispositivo de punteo, tal como un ratón 405, y un teclado 404.
El ordenador comprende por supuesto una unidad central 400 de tratamiento (CPU), por ejemplo un microprocesador, que gobierna y dirige la ejecución de las instrucciones del programa o programas de la invención, almacenadas en la memoria ROM 401, en el disco duro 406 o en un disco compacto 410.
El ordenador comprende igualmente una memoria RAM 402 que comprende unas grabaciones destinadas a memorizar particularmente las variables creadas y modificadas durante la ejecución del o de los programas según la invención.
Finalmente, el ordenador 40 comprende clásicamente un bus 409 de comunicación para permitir la comunicación y la interoperabilidad entre las diferentes unidades precitadas que componen el ordenador.
En resumen, la invención descrita aquí se refiere a un procedimiento y a un dispositivo de tratamiento informático de un contenido audiovisual digital que comprende el vídeo y los subtítulos. Según una implantación preferida, las etapas del procedimiento son determinadas por las instrucciones de un programa de tratamiento de contenido audiovisual según la invención, y el procedimiento es puesto en práctica cuando este programa se carga en un ordenador cuyo funcionamiento es entonces gobernado por la ejecución del programa.
En consecuencia, la invención se aplica igualmente a un programa de ordenador, particularmente a un programa de ordenador sobre o en un soporte de informaciones, adaptado para poner en práctica la invención. Este programa puede utilizar cualquier lenguaje de programación, y estar en forma de código fuente, código objeto, o de código intermedio entre código fuente y código objeto tal como en una forma compilada parcialmente, o en cualquier otra forma deseable para implantar un procedimiento según la invención. El soporte de informaciones puede ser cualquier entidad o dispositivo capaz de almacenar el programa.
Por ejemplo, el soporte puede comprender un medio de almacenamiento, tal como una ROM, por ejemplo un CD ROM o una ROM de semiconductor, o un medio de grabación magnética, por ejemplo un disquete (floppy disc) o un disco duro. Por otra parte, el soporte puede ser un soporte transmisible tal como una señal eléctrica u óptica, que puede ser encaminada vía un cable eléctrico u óptico, o incluso por radio o por otros medios.
Cuando el programa es incorporado en una señal que puede ser encaminada directamente por un cable u otro dispositivo o medio, el soporte puede estar constituido por tal cable, dispositivo o medio.
Alternativamente, el soporte de informaciones puede ser un circuito integrado en el que está incorporado el programa, estando adaptado el circuito para ejecutar o para ser utilizado en la ejecución del procedimiento en cuestión.
La invención se aplica igualmente a un entorno cliente-servidor en el que todos o parte de los elementos que componen un sistema informático según la invención están repartidos en diferentes ordenadores conectados a una red de comunicación, y que se comunican entre ellos según un protocolo de tipo cliente-servidor.

Claims (15)

1. Procedimiento de tratamiento informático de un contenido audiovisual digital que comprende vídeo y subtítulos, comprendiendo dicho procedimiento una etapa previa (E11) de generación, a partir del contenido audiovisual digital, de primeros datos (202) de subtítulos que incluyen los subtítulos y unas informaciones de sincronización de los subtítulos con el vídeo, estando caracterizado dicho procedimiento porque comprende además las siguientes etapas:
- análisis (E12) de dichos primeros datos de subtítulos para determinar una estructura de los subtítulos;
- generación (E13) de medios informáticos de navegación hipermedia adaptados a dicha estructura de los subtítulos, incluyendo dichos medios de navegación hipermedia unos datos de navegación interactiva adaptados para permitir la relectura interactiva de los subtítulos, e incorporación (E14) de dichos medios de navegación al contenido audiovisual, estando dichos medios de navegación hipermedia operativos durante la lectura del contenido audiovisual por un lector informático adaptado.
2. Procedimiento según la reivindicación 1, caracterizado porque:
- la etapa (E12) de análisis de dichos primeros datos de subtítulos incluye las siguientes sub-etapas:
(A1) - determinación (E121, E122), a partir de dichos primeros datos de subtítulos, de la estructura de los subtítulos según al menos una unidad predefinida de segmentación de los subtítulos;
(A2) - generación (E123) de datos de segmentación de los subtítulos que incluyen unas informaciones de segmentación determinadas en la etapa (A1 y asociadas a unas informaciones de sincronización de los subtítulos con el vídeo; y,
- la etapa (E13) de generación de medios informáticos de navegación hipermedia incluye la sub-etapa de:
(A3) - generación (E132), a partir de dichos datos de segmentación de los subtítulos, de dichos datos (120) de navegación interactiva en los subtítulos, incluyendo dichos datos de navegación, para cada unidad de segmentación de los subtítulos, un comando, interpretable por un lector informático de contenidos audiovisuales adaptado, desencadenando la ejecución de dicho comando por dicho lector informático la relectura de la unidad de segmentación de subtítulos, en sincronización con la secuencia de vídeo correspondiente.
3.- Procedimiento según la reivindicación 1 ó 2, caracterizado porque:
- la etapa (E12) de análisis de la estructura de los subtítulos incluye las siguientes sub-etapas:
(B1) - análisis sintáctico y léxico (E121) de los subtítulos;
(B2) - generación (E124) de datos (110) de descomposición analítica de los subtítulos, incluyendo dichos datos de descomposición analítica, para cada frase identificada de subtítulos, unas informaciones de sincronización con el vídeo y, para al menos una parte de las palabras que constituyen la frase considerada, la forma léxica de base de cada palabra; y,
- la etapa (E13) de generación de medios informáticos de navegación hipermedia incluye las siguientes sub-etapas:
(B3)-determinación (E131), a partir de dichos datos de descomposición analítica de los subtítulos, para cada palabra entre al menos una parte de las palabras que constituyen los subtítulos, de un enlace informático que apunta hacia una entrada léxica de un diccionario lingüístico electrónico, siendo determinada dicha entrada léxica del diccionario al menos en función de la forma léxica de base de la palabra considerada;
(B4) - generación (E134) de terceros datos (130) de subtítulos que incluyen los subtítulos, los enlaces informáticos determinados en la etapa (B3), y unas informaciones de sincronización de los subtítulos con el vídeo;
provocando la lectura de dichos terceros datos por un lector informático de contenidos audiovisuales adaptado la visualización de los subtítulos con posibilidad de resolución de cada enlace informático, con el fin de buscar para la palabra considerada la entrada léxica correspondiente del diccionario.
4. Procedimiento según la reivindicación 3, caracterizado porque, para una palabra considerada de los subtítulos, una entrada léxica del diccionario es determinada además en función de la categoría gramatical de pertenencia de la palabra.
5. Procedimiento según la reivindicación 3 ó 4, caracterizado porque el enlace informático asociado a una palabra de subtítulo es una dirección web (URL), provocando un comando informático relativo a una palabra visualizada en una pantalla de ordenador y ejecutado por un usuario de dicho lector informático, por ejemplo vía un dispositivo informático de punteo, la lectura de dicha dirección web por un navegador web.
6. Procedimiento según una cualquiera de las reivindicaciones 3 a 5, estando combinada la reivindicación 3 con la reivindicación 2, caracterizado porque dichos datos de segmentación de los subtítulos se incluyen en dichos datos (110) de descomposición analítica de los subtítulos.
7. Procedimiento según una cualquiera de las reivindicaciones 3 a 6, caracterizado porque:
- la etapa previa de generación de primeros datos de subtítulos incluye la generación de datos (201) de vídeo sin subtítulos, siendo codificados dichos datos de vídeo sin subtítulos en un formato predeterminado de lectura de vídeo en flujo continuo, por ejemplo el formato RealMedia®, y almacenados en un primer fichero informático (100);
- dichos terceros datos de subtítulos son codificados en un formato predeterminado de lectura de subtítulos en flujo continuo, por ejemplo el formato RealText®, y almacenados en un segundo fichero informático (130);
provocando la lectura de los ficheros primero y segundo por un lector informático de contenidos audiovisuales en flujo continuo, por ejemplo el lector RealPlayer®, la visualización sincronizada del vídeo y de los subtítulos.
8. Procedimiento según la reivindicación 7, caracterizado porque dichos datos de navegación en los subtítulos son almacenados en un tercer fichero informático (120) en el que son expresados en un lenguaje de etiquetado de tipo SMIL, incluyendo dichos datos de navegación además una referencia informática a dichos ficheros informáticos primero y segundo (100, 130); provocando la lectura de dicho tercer fichero por un lector informático de contenidos audiovisuales en flujo continuo, por ejemplo el lector RealPlayer®, la visualización sincronizada del vídeo y de los subtítulos.
9. Procedimiento según una cualquiera de las reivindicaciones 2 a 8, caracterizado porque dicha al menos una unidad predefinida de segmentación de los subtítulos está constituida por una línea de visualización de los subtítulos, y/o por una frase de subtítulos, y/o por un párrafo de subtítulos.
10.- Sistema informático, por ejemplo un microordenador (40), caracterizado porque comprende unos medios informáticos (1) para poner en práctica un procedimiento de tratamiento de un contenido audiovisual según una cualquiera de las reivindicaciones 1 a 9.
11. Sistema informático según la reivindicación 10, caracterizado porque comprende:
- un módulo (10) de separación de vídeo/subtítulos, para generar unos primeros datos (202) de subtítulos que incluyen los subtítulos y unas informaciones de sincronización de los subtítulos con el vídeo;
- un módulo (12) de análisis de los subtítulos, para determinar la estructura de los subtítulos a partir de dichos primeros datos (202) de subtítulos; y
- un módulo (14, 16) de generación de medios de navegación hipermedia, para generar unos medios de navegación hipermedia adaptados a la estructura de los subtítulos, e incorporar dichos medios de navegación hipermedia al contenido audiovisual.
12. Sistema informático según la reivindicación 11, caracterizado porque dicho módulo (14, 16) de generación de medios de navegación hipermedia incluye un módulo (14) de generación de enlaces hacia un diccionario, para generar unos enlaces informáticos entre al menos una parte de las palabras que constituyen los subtítulos y unas entradas léxicas de un diccionario lingüístico electrónico.
13. Sistema informático según la reivindicación 11 ó 12, caracterizado porque dicho módulo (14, 16) de generación de medios de navegación hipermedia incluye un módulo (16) de generación de medios de navegación interactiva en los subtítulos.
14. Sistema informático según una cualquiera de las reivindicaciones 11 a 13, caracterizado porque los diferentes módulos (10, 12, 14, 16) que componen dichos medios informáticos (1) están repartidos en diferentes ordenadores unidos a una red de comunicación, por ejemplo Internet.
15. Programa de ordenador en un soporte de informaciones, comprendiendo dicho programa unas instrucciones de programa adaptadas para la puesta en práctica de un procedimiento según una cualquiera de las reivindicaciones 1 a 9, cuando dicho programa se carga y se ejecuta en un ordenador.
ES03722670T 2002-03-01 2003-02-21 Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. Expired - Lifetime ES2329235T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0202673A FR2836733B1 (fr) 2002-03-01 2002-03-01 Procede et dispositif de traitement informatique d'un contenu audiovisuel avec sous-titres
FR0202673 2002-03-01

Publications (1)

Publication Number Publication Date
ES2329235T3 true ES2329235T3 (es) 2009-11-24

Family

ID=27741393

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03722670T Expired - Lifetime ES2329235T3 (es) 2002-03-01 2003-02-21 Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos.

Country Status (7)

Country Link
EP (1) EP1481339B1 (es)
AT (1) ATE437412T1 (es)
AU (1) AU2003229838A1 (es)
DE (1) DE60328463D1 (es)
ES (1) ES2329235T3 (es)
FR (1) FR2836733B1 (es)
WO (1) WO2003075175A2 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100654455B1 (ko) 2005-05-26 2006-12-06 삼성전자주식회사 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5543851A (en) * 1995-03-13 1996-08-06 Chang; Wen F. Method and apparatus for translating closed caption data
US20010003214A1 (en) * 1999-07-15 2001-06-07 Vijnan Shastri Method and apparatus for utilizing closed captioned (CC) text keywords or phrases for the purpose of automated searching of network-based resources for interactive links to universal resource locators (URL's)
AU2001273226A1 (en) * 2000-07-12 2002-01-21 Mixed Signals Technologies, Inc. System and method for dynamically inserting interactive content into a tv signalbased on program content

Also Published As

Publication number Publication date
EP1481339B1 (fr) 2009-07-22
WO2003075175A3 (fr) 2004-03-04
FR2836733A1 (fr) 2003-09-05
EP1481339A2 (fr) 2004-12-01
DE60328463D1 (de) 2009-09-03
ATE437412T1 (de) 2009-08-15
AU2003229838A1 (en) 2003-09-16
WO2003075175A2 (fr) 2003-09-12
FR2836733B1 (fr) 2004-05-28

Similar Documents

Publication Publication Date Title
US20170345461A1 (en) System and method for content-based navigation of live and recorded tv and video programs
JP2005504395A (ja) マルチリンガルトランスクリプションシステム
US8223152B2 (en) Apparatus and method of authoring animation through storyboard
CN110035326A (zh) 字幕生成、基于字幕的视频检索方法、装置和电子设备
US9576581B2 (en) Metatagging of captions
Jiménez et al. Multisemiotic and multimodal corpus analysis in audio description: TRACCE
CN1975732A (zh) 视频观看支持系统及方法
EP1692629A2 (en) System &amp; method for integrative analysis of intrinsic and extrinsic audio-visual data
CN110781328A (zh) 基于语音识别的视频生成方法、系统、装置和存储介质
CN103984772A (zh) 文本检索字幕库生成方法和装置、视频检索方法和装置
EP1758383A2 (en) A system and method for content-based navigation of live and recorded TV and video programs
Schöning et al. Providing video annotations in multimedia containers for visualization and research
KR101412722B1 (ko) 자막 관리방법 및 자막 검색방법
ES2329235T3 (es) Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos.
Nagao et al. Annotation-based multimedia summarization and translation
KR100314591B1 (ko) 캡션데이타가저장된외국어학습용비디오씨디
Shamma et al. Network arts: exposing cultural reality
CN115878867A (zh) 一种基于元宇宙的ai自动虚拟场景构建体验系统及方法
JP2007519321A (ja) 視聴覚データストリームのマルチメディア要約を作成する方法及び回路
KR20050017571A (ko) Av 데이터를 enav 모드로 재생하는 방법, 그 장치및 그 정보저장매체
Jhala Exploiting structure and conventions of movie scripts for information retrieval and text mining
KR100372891B1 (ko) 인터넷상에서 동영상 컨텐츠의 대사 제공을 위한 캡션처리 방법
CN112313726A (zh) 通过多媒体教学语言的方法和系统
CN111800668B (zh) 弹幕的处理方法、装置、设备及存储介质
Lee PRESTIGE: MOBILIZING AN ORALLY ANNOTATED LANGUAGE DOCUMENTATION CORPUS