ES2329235T3 - Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. - Google Patents
Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. Download PDFInfo
- Publication number
- ES2329235T3 ES2329235T3 ES03722670T ES03722670T ES2329235T3 ES 2329235 T3 ES2329235 T3 ES 2329235T3 ES 03722670 T ES03722670 T ES 03722670T ES 03722670 T ES03722670 T ES 03722670T ES 2329235 T3 ES2329235 T3 ES 2329235T3
- Authority
- ES
- Spain
- Prior art keywords
- subtitles
- computer
- data
- video
- subtitle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/745—Browsing; Visualisation therefor the internal structure of a single video sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Circuits (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
Abstract
Procedimiento de tratamiento informático de un contenido audiovisual digital que comprende vídeo y subtítulos, comprendiendo dicho procedimiento una etapa previa (E11) de generación, a partir del contenido audiovisual digital, de primeros datos (202) de subtítulos que incluyen los subtítulos y unas informaciones de sincronización de los subtítulos con el vídeo, estando caracterizado dicho procedimiento porque comprende además las siguientes etapas: - análisis (E12) de dichos primeros datos de subtítulos para determinar una estructura de los subtítulos; - generación (E13) de medios informáticos de navegación hipermedia adaptados a dicha estructura de los subtítulos, incluyendo dichos medios de navegación hipermedia unos datos de navegación interactiva adaptados para permitir la relectura interactiva de los subtítulos, e incorporación (E14) de dichos medios de navegación al contenido audiovisual, estando dichos medios de navegación hipermedia operativos durante la lectura del contenido audiovisual por un lector informático adaptado.
Description
Procedimiento y dispositivo de tratamiento
informático de un contenido audiovisual con subtítulos.
La presente invención se refiere al tratamiento
informático de un contenido audiovisual digital que comprende el
vídeo y los subtítulos.
La invención pretende en particular el
tratamiento de documentos audiovisuales subtitulados con el fin de
permitir la lectura interactiva con un usuario a través de
herramientas informáticas existentes, con el objeto de facilitar el
aprendizaje de las lenguas extranjeras.
Actualmente existen herramientas informáticas de
edición de contenidos audiovisuales que permiten la creación de
cursos multimedia que integran el vídeo. Estas herramientas
permiten el desencadenamiento de acontecimientos en el transcurso
de la lectura de tal contenido. Permiten por ejemplo indizar las
diferentes secuencias de un vídeo, de forma que se crea un menú,
similar a los menús que se encuentran en los vídeodiscos digitales
(DVD), gracias al cual se puede acceder directamente a diferentes
partes del vídeo.
Tales herramientas son propuestas, por ejemplo,
por la empresa Oratrix con el nombre de GriNS®, o bien por la
empresa Microsoft con el nombre Windows Media Advanced Script
Indexer® que forma parte del entorno Windows Media 7 Resource®.
En el caso del vídeo subtitulado, las
herramientas tales como las citadas anteriormente permiten colocar
enlaces en el subtitulado que proporcionarán ya sea un acceso a una
página web vía un navegador web, ya sea un comando en el vídeo (de
tipo lectura, pausa, parada, o colocación en un lugar preciso), o
incluso que permitirán desencadenar un acontecimiento en un
navegador web.
Sin embargo, todas las herramientas informáticas
tales como las citadas como ejemplo no son más que "cajas de
herramientas" que permiten a un usuario instruido integrar
"manualmente" las funcionalidades interactivas en documentos
multimedia.
Por otro lado, existen en el mercado
herramientas informáticas que permiten separar automáticamente los
subtítulos del vídeo, a partir de un contenido audiovisual digital,
de manera que se permite el tratamiento separado posterior. Tal
herramienta es suministrada, por ejemplo, por la empresa Softni con
el nombre de Softni Caption Retriever®.
El documento patente WO0205542 describe un
procedimiento y un sistema para insertar un contenido interactivo
en una señal TV a partir de los subtítulos contenidos en la señal.
Según este documento, los subtítulos son tratados por un
decodificador y después comparados con un índice de términos o de
frases y, según el resultado de la comparación, se obtienen unos
datos ITV (Interactive Television) y después se codifican con la
señal TV, antes de su difusión.
Sin embargo, en lo que se refiere a los
contenidos audiovisuales digitales subtitulados, no existe
actualmente ninguna herramienta informática que permita integrar
automáticamente en estos contenidos funcionalidades de navegación
interactiva relativas a los subtítulos.
Hay por tanto una necesidad real de tal
herramienta informática que, combinando las nuevas posibilidades
ofertadas por las tecnologías relativas al vídeo digital y la
riqueza de los contenidos audiovisuales existentes -que sean
difundidos en las cadenas de televisión o bien accesibles por
Internet- permitiría la creación automática de funcionalidades de
navegación interactiva relativas a los subtítulos. Tales
funcionalidades serían en particular muy útiles como herramientas
de ayuda en la comprensión de las lenguas.
La invención tiene como objetivo responder a
esta necesidad y, por lo tanto, resolver los inconvenientes
precitados de la técnica anterior.
A tal efecto, la invención se refiere, según un
primer aspecto, a un procedimiento de tratamiento informático de un
contenido audiovisual digital que comprende el vídeo y los
subtítulos, tal como se define en la reivindicación 1.
El término "hipermedia" debe ser entendido
como que designa una extensión del hipertexto con datos multimedia,
permitiendo incluir unos enlaces entre elementos textuales,
visuales y sonoros.
Así, gracias a estas disposiciones, ahora es
posible, a partir de un contenido audiovisual digital, según un
proceso automático, incorporar a este contenido audiovisual
funcionalidades de navegación interactiva relativas a los
subtítulos, que están íntimamente unidas a la estructura de los
subtítulos.
Según un primer modo de realización, la etapa de
análisis de la estructura de los subtítulos incluye las
sub-etapas siguientes:
(A1) - análisis de los primeros datos de
subtítulos con el fin de determinar la estructura de los subtítulos
según al menos una unidad predefinida de segmentación de los
subtítulos;
(A2) - generación de segundos datos de
subtítulos que incluyen informaciones de segmentación de los
subtítulos determinados en la etapa (A1), estando asociados los
segundos datos a informaciones de sincronización de los subtítulos
con el vídeo.
\vskip1.000000\baselineskip
Por otra parte, en este modo de realización, la
etapa de generación de medios informáticos de navegación
hipermedia incluye la sub-etapa de:
(A3) - generación, a partir de los segundos
datos de subtítulos, de datos de navegación en los subtítulos,
incluyendo los datos de navegación, para cada unidad de
segmentación de los subtítulos, un comando, interpretable por un
lector informático de contenidos audiovisuales adaptado,
desencadenando la ejecución del comando por el lector informático
la relectura de la unidad de segmentación de los subtítulos, en
sincronización con la secuencia de vídeo correspondiente.
\vskip1.000000\baselineskip
Gracias a estas disposiciones, se incorporan
automáticamente unas funcionalidades de navegación interactiva en
los subtítulos en el contenido audiovisual tratado. Estas
funcionalidades son particularmente ventajosas en el marco de la
enseñanza de las lenguas extranjeras, ya que un usuario podrá tener
la ocasión de volver a escuchar una porción elegida de los
subtítulos en sincronización con el vídeo correspondiente.
Según un segundo modo de realización que puede
ser combinado con el primer modo de realización, la etapa de
análisis de la estructura de los subtítulos incluye las
sub-etapas siguientes:
(B1) - análisis sintáctico y léxico de los
subtítulos;
(B2) - generación de datos de descomposición
analítica de los subtítulos, incluyendo los datos de descomposición
analítica, para cada frase identificada de subtítulos, unas
informaciones de sincronización con el vídeo y, para al menos una
parte de las palabras que constituyen la frase considerada, la
forma léxica de base de cada palabra.
Por otra parte, en este modo de realización, la
etapa de generación de medios informáticos de navegación
hipermedia incluye las sub-etapas siguientes:
(B3) - determinación, a partir de los datos de
descomposición analítica de los subtítulos, para cada palabra entre
al menos una parte de las palabras que constituyen los subtítulos,
de un enlace informático que apunta hacia una entrada léxica de un
diccionario lingüístico electrónico, siendo determinada esta
entrada léxica del diccionario al menos en función de la forma
léxica de base de la palabra considerada;
(B4) - generación de terceros datos de
subtítulos, incluyendo los subtítulos, los enlaces informáticos
determinados en la etapa (B3), y unas informaciones de
sincronización de los subtítulos con el vídeo; provocando la
lectura de estos terceros datos por un lector informático de
contenidos audiovisuales adaptado la visualización de los
subtítulos con posibilidad de resolución de cada enlace
informático, con el fin de buscar para la palabra considerada la
entrada léxica correspondiente del diccionario.
\vskip1.000000\baselineskip
Gracias a estas disposiciones, unas
funcionalidades de navegación interactiva, a partir de las palabras
de subtítulos hacia un diccionario en línea, se incorporan
automáticamente en el contenido audiovisual tratado. Estas
funcionalidades son también particularmente ventajosas en el marco
de la enseñanza de las lenguas extranjeras ya que un usuario podrá,
por ejemplo pinchando sobre una palabra de subtítulos, obtener en
la pantalla, a tiempo real, la definición de la palabra en un
diccionario.
Según una característica preferida del segundo
modo de realización, el enlace informático asociado a una palabra
de subtítulo es una dirección web (URL). Por otra parte, un comando
informático relativo a una palabra visualizada en una pantalla de
ordenador y ejecutada por un usuario del lector informático, por
ejemplo vía un dispositivo informático de punteo, provoca la
lectura de la dirección web por un navegador web.
Según una característica particular de la
invención, un contenido audiovisual tratado según la invención es
almacenado en un formato de lectura en flujo continuo
(streaming).
Así, un contenido audiovisual tratado según la
invención está particularmente adaptado para una utilización a
través de la red Internet, por medio de herramientas multimedia
unidas a Internet.
Según un segundo aspecto, la invención se
refiere a un sistema informático que comprende unos medios
informáticos adaptados para la puesta en práctica de un
procedimiento de tratamiento de un contenido audiovisual tal como
se expuso de manera sucinta anteriormente.
La invención se refiere también a un programa de
ordenador en un soporte de informaciones, comprendiendo este
programa unas instrucciones de programa adaptadas para la puesta en
práctica de un procedimiento de tratamiento de un contenido
audiovisual, cuando este programa se carga y se ejecuta en un
ordenador.
Las ventajas de este sistema informático y de
este programa de ordenador son idénticas a las del procedimiento
de tratamiento de un contenido audiovisual, tales como las
expuestas de manera breve anteriormente.
Otras particularidades y ventajas de la
invención aparecerán también en la descripción posterior de modos
preferidos de realización, descritos con el apoyo de los dibujos
adjuntos, en los que:
- la figura 1 es un diagrama de bloques de un
sistema informático de tratamiento de un contenido audiovisual
digital, según la invención;
- la figura 2 es un organigrama que ilustra el
principio general de un procedimiento de tratamiento informático de
un contenido audiovisual digital, según la invención;
- la figura 3 es un organigrama que ilustra un
procedimiento de tratamiento de un contenido audiovisual según un
modo de realización preferido de la invención;
- la figura 4 es un diagrama de bloques de un
ordenador adaptado para la puesta en práctica de un procedimiento
de tratamiento de un contenido audiovisual digital según la
invención.
En referencia a la figura 1, se va a describir
un sistema informático (1) de tratamiento de un contenido
audiovisual digital, según la invención.
Como se representa en la figura 1, el sistema
informático 1 comprende un módulo 10 de separación de
vídeo/subtítulos, destinado a extraer del contenido audiovisual
digital 20 los subtítulos, asociados a unas informaciones de
sincronización de los subtítulos con el vídeo. Se obtiene entonces
en la salida del módulo 10 unos datos de subtítulos que incluyen
los subtítulos y las informaciones de sincronización
precitadas.
Según el modo de realización preferido de la
invención, el módulo 10 está constituido por la plataforma
lógica/física conocida con el nombre de Softni Caption Retriever® y
comercializada por la empresa Softni. Se podrá remitir a la
dirección web: http://www.softni.com para obtener más información
sobre este producto.
El sistema 1 de tratamiento de un contenido
audiovisual según la invención comprende además un módulo 12 de
análisis de los subtítulos, destinado a analizar la estructura de
los subtítulos a partir de los datos de subtítulos generados por el
módulo 10 de separación.
El sistema 1 comprende además dos módulos 14, 16
que permiten generar unos medios de navegación hipermedia
adaptados a la estructura de los subtítulos analizada previamente
por el módulo 12 de análisis. Los módulos 14, 16 incorporan además
estos medios hipermedia al contenido audiovisual inicial de manera
que constituyen un contenido audiovisual 30 que posee unas
funcionalidades de navegación hipermedia.
El término "hipermedia" debe ser entendido
aquí como que designa una extensión del hipertexto a unos datos
multimedia, permitiendo incluir unos enlaces entre elementos
textuales, visuales y sonoros.
El módulo 14 está especializado en la generación
de enlaces informáticos entre al menos una parte de las palabras
que constituyen los subtítulos y unas entradas léxicas de un
diccionario lingüístico electrónico.
El módulo 16, por su parte, está especializado
en la generación de medios de navegación interactiva en los
subtítulos.
En el modo de realización preferido de la
invención, cada uno de los módulos 10, 12, 14, 16, cuya agrupación
constituye un sistema informático 1 de tratamiento de un contenido
audiovisual según la invención, está principalmente constituido por
componentes lógicos (es decir, por los programas de ordenador). Sin
embargo, cada uno de estos módulos puede también incluir unos
medios físicos, tales como una tarjeta de vídeo o una tarjeta
decodificadora de subtítulos, como es el caso por ejemplo de la
plataforma Softni Caption Retriever®.
Por otro lado, los diferentes módulos (10, 12,
14, 16) que componen el sistema informático 1 según la invención
pueden ser repartidos en diferentes ordenadores unidos a una red de
comunicación, por ejemplo Internet.
El procedimiento de tratamiento de un contenido
audiovisual puesto en práctica por el sistema informático 1 según
la invención va a ser descrito ahora en relación con la figura
2.
En referencia a la figura 2, se va a describir
el principio general de un procedimiento de tratamiento
informático de un contenido audiovisual digital, según la
invención.
Como se ilustra en la figura 2, el procedimiento
de tratamiento de un contenido audiovisual según la invención
comprende una primera etapa E10 de obtención de un contenido
audiovisual digital que comprende el vídeo y los subtítulos
(captions en inglés). Se puede tratar por ejemplo de una película
de cine en versión original subtitulada en la lengua original,
destinada entre otras cosas a ser vista por personas sordas o que
oyen mal.
Este contenido audiovisual puede ser por ejemplo
obtenido a partir de una fuente de emisiones televisuales
difundidas por satélite. En este caso, la adquisición de las
emisiones es efectuada por una caja decodificadora (set top box),
por ejemplo una grabadora de vídeos de tipo TiVo® comercializada por
la empresa TiVo Inc., que permite en particular programar la hora
de grabación de las emisiones.
El contenido audiovisual así obtenido es
entonces grabado, y después suministrado a un sistema informático,
típicamente un microordenador (o una estación de trabajo), en el
que es digitalizado.
El contenido audiovisual digital así obtenido
sufre entonces un proceso de separación del vídeo y de los
subtítulos en el módulo (10) de separación de vídeo/subtítulos,
como se ilustra mediante la etapa E11.
En el marco del modo de realización descrito,
los procesos de digitalización y de separación de vídeo/subtítulos
son efectuados por una misma plataforma lógica/física, por ejemplo
la plataforma Softni Caption Retriever®.
El tratamiento del contenido audiovisual por una
herramienta tal como la plataforma Softni Caption Retriever
permite la generación, en uno o varios ficheros, de datos (202) de
subtítulos asociados a unas informaciones de sincronización de los
subtítulos con el vídeo. Las informaciones de sincronización de los
subtítulos con el vídeo, comúnmente llamadas "código temporal"
(time code en inglés) son extraídas a partir de la fuente de vídeo
o son recreadas en la base del reloj del ordenador en el que se
instala la plataforma.
Por otro lado, al final del tratamiento del
contenido visual por la plataforma de separación de
vídeo/subtítulos, se obtienen unos datos (201) de vídeo sin
subtítulos. Estos datos de vídeo incluyen las señales de audio
asociadas a las señales de vídeo.
En la etapa siguiente E12 (figura 2), se
suministran los datos 202 de subtítulos al módulo 12 de análisis de
los subtítulos, que efectúa el análisis de la estructura. Como se
expondrá más adelante en la descripción, este análisis puede
comprender un análisis de la estructura de los subtítulos frente a
una unidad de segmentación predefinida, por ejemplo una línea de
visualización o bien una frase gramatical.
Este análisis puede también comprender un
análisis gramatical y léxico en profundidad. En el modo de
realización preferido de la invención, se efectúan los dos tipos de
análisis precitados.
Después de la etapa de análisis de los
subtítulos, se generan unos medios lógicos de navegación
hipermedia, en la etapa E13, por los módulos 14, 16 (figura 1).
Estos medios de navegación se adaptan específicamente a la
estructura analizada de los subtítulos. Se obtienen entonces unos
datos 300 que contienen los subtítulos, unos códigos temporales y
los medios de navegación hipermedia precitados.
Según el modo de realización preferido de la
invención, estos medios de navegación hipermedia incluyen unos
medios interactivos de navegación interna en los subtítulos,
generados por el módulo 16, y unos medios de navegación externa a
los subtítulos (enlaces informáticos hacia un diccionario
electrónico), generados por el módulo 14.
Se generan entonces unos datos 300 de subtítulos
que incorporan estos medios de navegación hipermedia y unas
informaciones de sincronización con el vídeo. En la etapa E14, se
incorporan las informaciones de navegación hipermedia al contenido
visual inicial asociando de nuevo los datos (201) de vídeo sin
subtítulos y los nuevos datos (300) de subtítulos.
Finalmente, en la etapa E15, se publica el
contenido audiovisual tratado, es decir se pone a disposición de
los usuarios, por ejemplo siendo depositado en un ordenador
servidor de documentos audiovisuales accesible vía una red de
comunicaciones tal como Internet.
Las funcionalidades de navegación hipermedia
incorporadas en el documento audiovisual podrán entonces ser
puestas en práctica cuando el contenido visual sea leído por un
lector informático capaz de leer tales documentos. En la práctica,
tales lectores informáticos se conocen con la expresión "lector
multimedia" (media player).
En relación con la figura 3, se va a describir
ahora un modo de realización preferido del procedimiento de
tratamiento de un contenido audiovisual según la invención.
En la figura 3, los datos 201 de vídeo sin
subtítulos y los datos 202 de subtítulos que incluyen unos códigos
temporales ya han sido extraídos del contenido visual por el módulo
10 de separación de vídeo/subtítulos, y almacenados en unos
ficheros separados.
En la práctica, el módulo 10 está constituido
por la plataforma Softni Caption Retriever. Los datos (201) de
vídeo (imágenes y sonido) sin subtítulos se obtienen entonces en un
fichero en formato AVI (Audio Video Interlaced).
El formato AVI es un formato de fichero
utilizado por el sistema operativo Windows® para el almacenamiento
de las imágenes de vídeo y del sonido, en el que los datos de
vídeo alternan con los datos de audio. En este fichero AVI, el
vídeo está codificado en el formato VCR2 (códec de vídeo
conocido).
Los datos (202) de subtítulos con códigos
temporales son, por su parte, almacenados en un fichero de tipo
texto. Se da después, de ejemplo, una porción de un fichero de
subtítulos con códigos temporales suministrados por la plataforma
de separación de vídeo/subtítulos.
Como se puede ver en el fichero dado de ejemplo
anteriormente, los subtítulos contenidos en el fichero comprenden
dos frases:
"Since we're ... earth" y "Lying ...
Fahrenheit".
\vskip1.000000\baselineskip
Cada línea de subtítulos (por ejemplo, "that
can drop to minus 126") corresponde a una línea de visualización
de los subtítulos en una pantalla de visualización.
Cada línea de subtítulos va seguida de un código
temporal que define el inicio y el fin de la visualización de la
línea considerada, en sincronización con las imágenes de vídeo
correspondientes. Así, la visualización de la línea de subtítulos
"Lying at the bottom of the" empieza en el instante
"00:01:29.09" después del comienzo de la secuencia de vídeo, y
se termina en el instante "00:01:31.12".
Conforme a la invención, en la etapa E121, los
datos 202 de subtítulos con códigos temporales son suministrados
en la entrada al módulo 12 de análisis de los subtítulos para
sufrir un análisis sintáctico y léxico.
En el marco de la presente invención, este
análisis sintáctico y léxico tiene como objetivo determinar
particularmente:
- la estructura de texto de los subtítulos en
frases gramaticales, lo que implica, por ejemplo, poder hacer la
distinción entre un punto de final de frase o un punto que separa
dos caracteres en una sigla;
\newpage
- la forma léxica de base para todas o parte de
las palabras que constituyen cada una de las frases identificadas,
esta forma léxica de base también se designa "raíz" o también
"lema" de la palabra considerada;
- la función de cada palabra en una frase
dada.
Este tipo de componente lógico que permite
efectuar tal análisis sintáctico y léxico de un texto es conocido
del estado de la técnica.
Para obtener más informaciones sobre este tipo
de herramientas, se podrá consultar el sitio web de la Asociación
para el Tratamiento Automático de las Lenguas (ATALA) en la URL
siguiente: http://www.atala.org/.
En el marco de la etapa de análisis sintáctico y
léxico, la primera parte del tratamiento de un texto (de
subtítulos) consiste en identificar y tipificar las series de
caracteres lingüísticamente pertinentes de este texto. Estas
series, llamadas aquí "segmento", no corresponden
obligatoriamente a unas palabras, se puede tratar de números (por
ejemplo, "-3, 14"), o de fechas (por ejemplo,
"25/02/2002"), etc. Estas series pertinentes difieren según
las lenguas, así, por ejemplo, la escritura de los números y las
fechas varían en francés y en inglés.
En la etapa siguiente, E122, se procede a la
determinación de la estructura de los subtítulos según al menos una
unidad predefinida de segmentación de los subtítulos.
En el marco del modo de realización elegido y
representado, la información de segmentación de los subtítulos en
frases ya se obtiene durante la etapa (E121) de análisis sintáctico
de los subtítulos. En la etapa E122, esta segmentación podrá
entonces tratar de una unidad de segmentación que corresponde a una
línea de visualización de los subtítulos, a un párrafo de
subtítulos o, incluso, a cada palabra de tipo, por ejemplo,
"verbo" o "sustantivo".
En la etapa siguiente E123, se generan unos
datos de segmentación de los subtítulos. Estos datos incluyen las
informaciones de segmentación, obtenidas en las etapas E121 y E122,
asociadas a unas informaciones de sincronización de los subtítulos
con el vídeo, basadas en los códigos temporales iniciales. Las
informaciones de segmentación serán utilizadas más tarde en los
procesos, para la generación de los datos de navegación en los
subtítulos (etapa E132).
En la etapa E124, se generan unos datos de
descomposición analítica de los subtítulos que contienen los
resultados del análisis sintáctico y léxico que han sido obtenidos
en la etapa E121. Estos datos de descomposición analítica incluyen,
para cada frase identificada de subtítulos, unas informaciones de
sincronización con el vídeo basadas en los códigos temporales
iniciales y, para al menos una parte de las palabras que
constituyen la frase considerada, la forma léxica de base
(lema).
En el modo de realización preferido descrito
aquí, los datos de segmentación de los subtítulos se incluyen en
los datos de descomposición analítica de los subtítulos. En la
etapa E124, los datos de descomposición analítica de los subtítulos
se almacenan en un fichero informático 110.
En el modo de realización preferido de la
invención, el fichero 110 de descomposición analítica de los
subtítulos es un fichero cuyo contenido se expresa en el lenguaje
de etiquetado conocido XML (eXtended Markup Language).
Se da a continuación un extracto de un fichero
XML de descomposición analítica de los subtítulos, obtenido a
partir del fichero de subtítulos del ejemplo 1 dado
anteriormente.
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
(Esquema pasa a página
siguiente)
\newpage
Como se puede ver en el ejemplo 2 anterior, en
el fichero XML de descomposición de los subtítulos, se encuentran
cada una de las frases del texto inicial de los subtítulos con los
códigos temporales correspondientes, reagrupados en la etiqueta
<PHR TXT="...">.
Después, a cada segmento elemental de
subtítulos, que corresponde a una palabra (por ejemplo "only")
o no (por ejemplo, un código temporal
"00:00:00.00\\00:00:00.00"), corresponden unos datos de
descomposición analítica que están contenidos en una etiqueta de
segmento: <TER SEG=...>.
En cada una de las etiquetas de segmento, el
campo definido por LEM="..." contiene el lema del segmento
considerado, si este segmento es una palabra.
Así por ejemplo, en la etiqueta <TER
SEG="ONLY"...>, del ejemplo 2, que corresponde a la palabra
"ONLY", el lema correspondiente es "only".
De vuelta a la figura 3, el fichero XML 110 es
suministrado en la entrada, por una parte, al módulo 14 de
generación de enlaces hacia un diccionario, por medio del cual se
ejecutan las etapas E131 y E134, y, por otra parte, al módulo 16 de
generación de datos de navegación en los subtítulos, por medio del
cual se ejecutan las etapas E132 y E133.
\global\parskip0.950000\baselineskip
En la etapa E131, se determina, a partir de los
datos de descomposición analítica de los subtítulos, resultantes
del fichero XML 110, para cada palabra entre al menos una parte de
las palabras que constituyen los subtítulos, un enlace informático
que apunta hacia una entrada léxica de un diccionario lingüístico
electrónico.
En el modo de realización preferido de la
invención, el enlace informático asociado a una palabra de
subtítulo es una dirección web (URL).
El módulo 14 de generación de enlaces hacia un
diccionario es en la práctica un programa de análisis (parser en
inglés) de un fichero XML. Este programa efectúa un tratamiento
línea por línea de los subtítulos contenidos en el fichero XML 110.
Para cada línea de subtítulo, en el interior del fichero XML, el
código temporal asociado es extraído y después, para cada palabra
de la línea de subtítulos considerada, se extrae la forma léxica de
base (lema).
Después, la entrada léxica de base de la palabra
es concatenada, de manera apropiada, con la dirección web
predefinida de un diccionario lingüístico en línea correspondiente a
la lengua utilizada (aquí el inglés) en los subtítulos. Esta
"concatenación" para la palabra de subtítulos considerada
produce así el enlace informático correspondiente a esta palabra,
que apunta hacia la entrada léxica apropiada del diccionario en
línea.
La entrada léxica del diccionario apropiada para
una palabra dada es, por consiguiente, determinada al menos en
función de la forma léxica de base de la palabra considerada.
Sin embargo, en el modo de realización preferido
de la invención, la entrada léxica del diccionario es determinada
además en función de la categoría gramatical de pertenencia de la
palabra. Esta información de categoría gramatical (verbo,
sustantivo, adjetivo, etc.) está disponible en el fichero XML 110,
para cada palabra de subtítulos. De esta forma, la determinación de
la entrada léxica apropiada del diccionario se vuelve más
precisa.
En el ejemplo 2 del fichero XML expuesto
anteriormente, un enlace hacia la entrada léxica apropiada de un
diccionario en línea, para la palabra "only", es por ejemplo
la URL siguiente.
En esta URL, "va=only" precisa la raíz
(lema) de la palabra "only", y "fl=adjective" precisa su
categoría gramatical (adjetivo).
Así, cuando el contenido audiovisual resultante
del tratamiento según la invención sea leído por un lector
multimedia, esta URL -que constituye así un comando informático
relativo a la palabra de subtítulo visualizada en una pantalla de
ordenador- podrá ser ejecutada por el lector multimedia.
La resolución del enlace informático, es decir
la ejecución de la URL, podrá ser desencadenada por un usuario
humano del lector multimedia, por ejemplo pinchando con un ratón en
la palabra considerada. Un navegador web se arrancará entonces
automáticamente, que cargará y visualizará el contenido de la
dirección URL, es decir la definición del diccionario
correspondiente a la palabra.
De vuelta a la figura 3, en la etapa E134, el
módulo 14 de generación de enlaces hacia un diccionario genera un
fichero 130 de subtítulos que contiene los subtítulos, los códigos
temporales correspondientes, y los enlaces informáticos (dirección
web-URL) que corresponden a las palabras de los
subtítulos para las que los enlaces han sido creados en la etapa
precedente (E131).
En el modo de realización preferido de la
invención, el fichero 130 de subtítulos es un fichero cuyo formato
se adapta a la lectura en flujo continuo (streaming en inglés) de
los subtítulos con el vídeo correspondiente.
En la práctica, el formato utilizado es el
formato RealText®. El formato RealText es el formato de texto
adaptado para la lectura en flujo continuo propuesto por la empresa
Real Networks.
La lectura en flujo continuo (a veces designada
"lectura en tránsito") es una técnica de lectura de fichero
multimedia que permite a un usuario de Internet (internauta) leer
el fichero en tiempo real, sin tener que esperar su teledescarga
completa.
Igualmente, en el modo de realización preferido
de la invención, los datos (201) de vídeo sin subtítulos,
suministrados por el módulo (10) de separación de vídeo/subtítulos,
son codificados después (etapa E30) en un formato de lectura de
vídeo en flujo continuo (streaming) y almacenados en un fichero
informático 100.
En la práctica, el formato utilizado de lectura
de vídeo en flujo continuo es el formato RealMedia® desarrollado
por la empresa Real Networks.
La lectura simultanea del fichero de vídeo
RealMedia 100 y del fichero RealText 130, por un lector informático
de contenido multimedia (streaming media player), tal como el
lector RealPlayer® desarrollado por la empresa Real Networks,
permite entonces visualizar de manera sincronizada, en una pantalla
de ordenador, el vídeo y los subtítulos.
\global\parskip1.000000\baselineskip
Se da a continuación un extracto de un fichero
RealText® 130, obtenido a partir del fichero XML 110 del ejemplo 2
dado anteriormente.
Como se puede ver en el ejemplo 3 anterior, un
fichero RealText (130) según la invención, comprende:
- los subtítulos (por ejemplo, las palabras
"Since we"),
- unas informaciones de sincronización de los
subtítulos con el vídeo, presentes en cada etiqueta <time
begin="">, y que corresponden cada una al instante de
visualización de una línea de subtítulos, y
- un enlace (URL) hacia una entrada de un
diccionario en línea para ciertas palabras de los subtítulos,
codificado en la etiqueta <a href="..."> que precede a la
palabra correspondiente de subtítulo.
De vuelta a la figura 3, en la etapa E132, se
generan, a partir de los datos de segmentación de los subtítulos
contenidos en el fichero XML (110), unos datos de navegación en los
subtítulos. Estos datos de navegación incluyen, para cada unidad de
segmentación considerada de subtítulos, un comando informático,
interpretable por un lector informático multimedia, y cuya
ejecución desencadena la relectura de la unidad de segmentación
considerada en sincronización con la secuencia de vídeo
correspondiente.
En el modo de realización preferido de la
invención, los datos de navegación en los subtítulos se almacenan
en un fichero informático 120, en el que estos datos se expresan
en el lenguaje de etiquetado SMIL (Syinchronized Multimedia
Integration Language).
El lenguaje SMIL es un lenguaje de etiquetado
que permite sincronizar unos ficheros de naturaleza diferente para
hacer unos objetos multimedia capaces de ser integrados en una
página web.
El lenguaje SMIL ha sido desarrollado por el
grupo de trabajo SYMM. Su sintaxis y su presentación retoman los
del lenguaje HTML. Permite definir las diferentes características
de gestión del fichero multimedia.
En el modo de realización preferido de la
invención, el fichero SMIL 120, que contiene los datos de
navegación en los subtítulos, incluye además una referencia
informática al fichero de vídeo RealMedia 100 y al fichero de
subtítulos RealText 130.
De esta forma, la lectura del fichero SMIL 120
por un lector de contenido multimedia, tal como el lector
RealPlayer, provocará la visualización sincronizada del vídeo y de
los subtítulos.
Se da a continuación un extracto de un fichero
SMIL 120, obtenido a partir del fichero XML 110 del ejemplo 2 dado
anteriormente.
Como se puede ver en el ejemplo 3 de fichero
SMIL anterior, el fichero de vídeo RealMedia 100 y el fichero de
subtítulos RealText 130 son referenciados en el fichero SMIL en las
etiquetas respectivas: <vídeo src="..." .../> y <text
src="..." .../>. "rtsp" designa en este ejemplo el
protocolo de streaming utilizado.
Por otra parte, en el modo de realización
descrito aquí, existe en el este fichero SMIL un comando
informático ejecutable durante la duración de visualización de una
línea de subtítulos, y cuya ejecución desencadena la relectura de
los subtítulos desde el inicio de la frase en la que se inscribe la
línea de subtítulos considerada. Así, en el modo de realización
descrito, la unidad de segmentación considerada para la navegación
interactiva en los subtítulos corresponde a una frase de
subtítulos. Sin embargo, se puede prever desencadenar la relectura
según una unidad diferente de segmentación de los subtítulos, por
ejemplo una palabra, una línea o un párrafo de subtítulos.
En el fichero SMIL dado de ejemplo
anteriormente, para cada línea de subtítulos, existe un comando
codificado según la sintaxis command:seek(Td) en donde Td
designa el instante de visualización del inicio de la frase de
subtítulos.
Así la instrucción siguiente, extraída del
fichero SMIL anterior,
es aplicable a la primera línea de
visualización de duración dur="0:0:1.980s" a partir del
instante inicial de visualización de los subtítulos:
"0:0:0.00", que corresponde también al instante de inicio de
visualización de la primera frase de los subtítulos, en
sincronización con el vídeo
correspondiente.
Por consiguiente, la ejecución del comando
command:seek(0:0:0.00) que es aplicable durante toda la
duración (dur="0:0:1.980s") de visualización de la línea de
subtítulos en curso, desencadena la relectura de los subtítulos a
partir del instante "0:0:0.00", es decir a partir del inicio
de la primera frase de subtítulos.
Cuando el fichero SMIL es leído por un lector de
contenido multimedia, cada uno de los comandos de relectura está
materializado en la interfaz de usuario del lector durante la
visualización de la línea de subtítulos en curso, por ejemplo por
un botón en el que podrá pinchar un usuario para desencadenar la
revisualización de la frase de subtítulos que contiene la línea en
curso, en sincronización con los datos de audio y de vídeo
correspondientes.
Siempre en la figura 3, en la etapa E15, se
procede a la publicación del contenido visual expresado en un
formato de lectura en flujo continuo (streaming).
En la práctica, los tres ficheros Realtext 130,
RealMedia 100 y SMIL 120 se almacenan en un mismo directorio de un
ordenador servidor conectado a Internet al que se podrá acceder por
unos puestos de usuario conectados a Internet, por ejemplo a través
de un sitio web dedicado al suministro de contenidos
audiovisuales.
Ahora, en referencia a la figura 4, se va a
describir brevemente un ordenador (40) adaptado para la puesta en
práctica de un procedimiento de tratamiento de un contenido
audiovisual digital según la invención y descrito precedentemente
en relación con las figuras 2 y 3. Hay que señalar que el ordenador
ilustrado en la figura 4 es un modo de realización particular del
sistema general descrito anteriormente en relación con la figura
1.
En este modo de realización, el procedimiento de
tratamiento de un contenido audiovisual según la invención es
puesto en práctica esencialmente mediante la ejecución de programas
de ordenador.
En la figura 4, el ordenador 40, que puede ser
típicamente un microordenador o una estación de trabajo, se conecta
a diferentes periféricos, por ejemplo una cámara digital 411 o
cualquier otro dispositivo de adquisición o de almacenamiento de
contenidos audiovisuales, que suministran informaciones (vídeos,
subtitulado) para tratamiento en el ordenador 40. Estos contenidos
audiovisuales pueden ser almacenados en los medios de
almacenamiento de los que dispone el ordenador tales como un disco
duro 406.
El ordenador 40 comprende igualmente una
interfaz 408 de comunicación unida a una red 50 de comunicación,
por ejemplo Internet. Esta interfaz 408 es capaz de recibir de la
red 50 documentos audiovisuales a tratar según el procedimiento de
la invención.
El ordenador 40 comprende unos medios de
almacenamiento de datos tales como el disco duro 406, pero
igualmente un lector 407 de discos compactos (CDROM) en los que
pueden ser almacenados contenidos audiovi-
suales.
suales.
Según un modo preferido de realización de la
invención, el código ejecutable de los programas que permiten poner
en práctica el procedimiento de tratamiento de un contenido
audiovisual según la invención está memorizado en el disco duro
406. Según una variante de realización, el código ejecutable de
estos programas puede ser almacenado en una memoria ROM 401 del
ordenador. Según otra variante de realización, este código puede
ser almacenado en un disco compacto (CD) 410.
Según todavía otra variante de realización, el
código ejecutable del o de los programas puede ser telecargado a
partir de la red 50 de comunicación vía la interfaz 408 de
comunicación para ser memorizado en el disco duro 406.
El ordenador 40 comprende además una pantalla
403 que permite visualizar los contenidos visuales a tratar y
servir de interfaz gráfica con un usuario para comprobar los
contenidos audiovisuales tratados según la invención, con la ayuda
de un dispositivo de punteo, tal como un ratón 405, y un teclado
404.
El ordenador comprende por supuesto una unidad
central 400 de tratamiento (CPU), por ejemplo un microprocesador,
que gobierna y dirige la ejecución de las instrucciones del
programa o programas de la invención, almacenadas en la memoria ROM
401, en el disco duro 406 o en un disco compacto 410.
El ordenador comprende igualmente una memoria
RAM 402 que comprende unas grabaciones destinadas a memorizar
particularmente las variables creadas y modificadas durante la
ejecución del o de los programas según la invención.
Finalmente, el ordenador 40 comprende
clásicamente un bus 409 de comunicación para permitir la
comunicación y la interoperabilidad entre las diferentes unidades
precitadas que componen el ordenador.
En resumen, la invención descrita aquí se
refiere a un procedimiento y a un dispositivo de tratamiento
informático de un contenido audiovisual digital que comprende el
vídeo y los subtítulos. Según una implantación preferida, las
etapas del procedimiento son determinadas por las instrucciones de
un programa de tratamiento de contenido audiovisual según la
invención, y el procedimiento es puesto en práctica cuando este
programa se carga en un ordenador cuyo funcionamiento es entonces
gobernado por la ejecución del programa.
En consecuencia, la invención se aplica
igualmente a un programa de ordenador, particularmente a un
programa de ordenador sobre o en un soporte de informaciones,
adaptado para poner en práctica la invención. Este programa puede
utilizar cualquier lenguaje de programación, y estar en forma de
código fuente, código objeto, o de código intermedio entre código
fuente y código objeto tal como en una forma compilada parcialmente,
o en cualquier otra forma deseable para implantar un procedimiento
según la invención. El soporte de informaciones puede ser cualquier
entidad o dispositivo capaz de almacenar el programa.
Por ejemplo, el soporte puede comprender un
medio de almacenamiento, tal como una ROM, por ejemplo un CD ROM o
una ROM de semiconductor, o un medio de grabación magnética, por
ejemplo un disquete (floppy disc) o un disco duro. Por otra parte,
el soporte puede ser un soporte transmisible tal como una señal
eléctrica u óptica, que puede ser encaminada vía un cable eléctrico
u óptico, o incluso por radio o por otros medios.
Cuando el programa es incorporado en una señal
que puede ser encaminada directamente por un cable u otro
dispositivo o medio, el soporte puede estar constituido por tal
cable, dispositivo o medio.
Alternativamente, el soporte de informaciones
puede ser un circuito integrado en el que está incorporado el
programa, estando adaptado el circuito para ejecutar o para ser
utilizado en la ejecución del procedimiento en cuestión.
La invención se aplica igualmente a un entorno
cliente-servidor en el que todos o parte de los
elementos que componen un sistema informático según la invención
están repartidos en diferentes ordenadores conectados a una red de
comunicación, y que se comunican entre ellos según un protocolo de
tipo cliente-servidor.
Claims (15)
1. Procedimiento de tratamiento informático de
un contenido audiovisual digital que comprende vídeo y subtítulos,
comprendiendo dicho procedimiento una etapa previa (E11) de
generación, a partir del contenido audiovisual digital, de primeros
datos (202) de subtítulos que incluyen los subtítulos y unas
informaciones de sincronización de los subtítulos con el vídeo,
estando caracterizado dicho procedimiento porque comprende
además las siguientes etapas:
- análisis (E12) de dichos primeros datos de
subtítulos para determinar una estructura de los subtítulos;
- generación (E13) de medios informáticos de
navegación hipermedia adaptados a dicha estructura de los
subtítulos, incluyendo dichos medios de navegación hipermedia unos
datos de navegación interactiva adaptados para permitir la
relectura interactiva de los subtítulos, e incorporación (E14) de
dichos medios de navegación al contenido audiovisual, estando
dichos medios de navegación hipermedia operativos durante la
lectura del contenido audiovisual por un lector informático
adaptado.
2. Procedimiento según la reivindicación 1,
caracterizado porque:
- la etapa (E12) de análisis de dichos primeros
datos de subtítulos incluye las siguientes
sub-etapas:
(A1) - determinación (E121, E122), a partir de
dichos primeros datos de subtítulos, de la estructura de los
subtítulos según al menos una unidad predefinida de segmentación de
los subtítulos;
(A2) - generación (E123) de datos de
segmentación de los subtítulos que incluyen unas informaciones de
segmentación determinadas en la etapa (A1 y asociadas a unas
informaciones de sincronización de los subtítulos con el vídeo;
y,
- la etapa (E13) de generación de medios
informáticos de navegación hipermedia incluye la
sub-etapa de:
(A3) - generación (E132), a partir de dichos
datos de segmentación de los subtítulos, de dichos datos (120) de
navegación interactiva en los subtítulos, incluyendo dichos datos
de navegación, para cada unidad de segmentación de los subtítulos,
un comando, interpretable por un lector informático de contenidos
audiovisuales adaptado, desencadenando la ejecución de dicho
comando por dicho lector informático la relectura de la unidad de
segmentación de subtítulos, en sincronización con la secuencia de
vídeo correspondiente.
3.- Procedimiento según la reivindicación 1 ó 2,
caracterizado porque:
- la etapa (E12) de análisis de la estructura de
los subtítulos incluye las siguientes
sub-etapas:
(B1) - análisis sintáctico y léxico (E121) de
los subtítulos;
(B2) - generación (E124) de datos (110) de
descomposición analítica de los subtítulos, incluyendo dichos datos
de descomposición analítica, para cada frase identificada de
subtítulos, unas informaciones de sincronización con el vídeo y,
para al menos una parte de las palabras que constituyen la frase
considerada, la forma léxica de base de cada palabra; y,
- la etapa (E13) de generación de medios
informáticos de navegación hipermedia incluye las siguientes
sub-etapas:
(B3)-determinación (E131), a
partir de dichos datos de descomposición analítica de los
subtítulos, para cada palabra entre al menos una parte de las
palabras que constituyen los subtítulos, de un enlace informático
que apunta hacia una entrada léxica de un diccionario lingüístico
electrónico, siendo determinada dicha entrada léxica del diccionario
al menos en función de la forma léxica de base de la palabra
considerada;
(B4) - generación (E134) de terceros datos (130)
de subtítulos que incluyen los subtítulos, los enlaces
informáticos determinados en la etapa (B3), y unas informaciones de
sincronización de los subtítulos con el vídeo;
provocando la lectura de dichos terceros datos
por un lector informático de contenidos audiovisuales adaptado la
visualización de los subtítulos con posibilidad de resolución de
cada enlace informático, con el fin de buscar para la palabra
considerada la entrada léxica correspondiente del diccionario.
4. Procedimiento según la reivindicación 3,
caracterizado porque, para una palabra considerada de los
subtítulos, una entrada léxica del diccionario es determinada
además en función de la categoría gramatical de pertenencia de la
palabra.
5. Procedimiento según la reivindicación 3 ó 4,
caracterizado porque el enlace informático asociado a una
palabra de subtítulo es una dirección web (URL), provocando un
comando informático relativo a una palabra visualizada en una
pantalla de ordenador y ejecutado por un usuario de dicho lector
informático, por ejemplo vía un dispositivo informático de punteo,
la lectura de dicha dirección web por un navegador web.
6. Procedimiento según una cualquiera de las
reivindicaciones 3 a 5, estando combinada la reivindicación 3 con
la reivindicación 2, caracterizado porque dichos datos de
segmentación de los subtítulos se incluyen en dichos datos (110) de
descomposición analítica de los subtítulos.
7. Procedimiento según una cualquiera de las
reivindicaciones 3 a 6, caracterizado porque:
- la etapa previa de generación de primeros
datos de subtítulos incluye la generación de datos (201) de vídeo
sin subtítulos, siendo codificados dichos datos de vídeo sin
subtítulos en un formato predeterminado de lectura de vídeo en
flujo continuo, por ejemplo el formato RealMedia®, y almacenados en
un primer fichero informático (100);
- dichos terceros datos de subtítulos son
codificados en un formato predeterminado de lectura de subtítulos
en flujo continuo, por ejemplo el formato RealText®, y almacenados
en un segundo fichero informático (130);
provocando la lectura de los ficheros primero y
segundo por un lector informático de contenidos audiovisuales en
flujo continuo, por ejemplo el lector RealPlayer®, la visualización
sincronizada del vídeo y de los subtítulos.
8. Procedimiento según la reivindicación 7,
caracterizado porque dichos datos de navegación en los
subtítulos son almacenados en un tercer fichero informático (120)
en el que son expresados en un lenguaje de etiquetado de tipo SMIL,
incluyendo dichos datos de navegación además una referencia
informática a dichos ficheros informáticos primero y segundo (100,
130); provocando la lectura de dicho tercer fichero por un lector
informático de contenidos audiovisuales en flujo continuo, por
ejemplo el lector RealPlayer®, la visualización sincronizada del
vídeo y de los subtítulos.
9. Procedimiento según una cualquiera de las
reivindicaciones 2 a 8, caracterizado porque dicha al menos
una unidad predefinida de segmentación de los subtítulos está
constituida por una línea de visualización de los subtítulos, y/o
por una frase de subtítulos, y/o por un párrafo de subtítulos.
10.- Sistema informático, por ejemplo un
microordenador (40), caracterizado porque comprende unos
medios informáticos (1) para poner en práctica un procedimiento de
tratamiento de un contenido audiovisual según una cualquiera de las
reivindicaciones 1 a 9.
11. Sistema informático según la reivindicación
10, caracterizado porque comprende:
- un módulo (10) de separación de
vídeo/subtítulos, para generar unos primeros datos (202) de
subtítulos que incluyen los subtítulos y unas informaciones de
sincronización de los subtítulos con el vídeo;
- un módulo (12) de análisis de los subtítulos,
para determinar la estructura de los subtítulos a partir de dichos
primeros datos (202) de subtítulos; y
- un módulo (14, 16) de generación de medios de
navegación hipermedia, para generar unos medios de navegación
hipermedia adaptados a la estructura de los subtítulos, e
incorporar dichos medios de navegación hipermedia al contenido
audiovisual.
12. Sistema informático según la reivindicación
11, caracterizado porque dicho módulo (14, 16) de generación
de medios de navegación hipermedia incluye un módulo (14) de
generación de enlaces hacia un diccionario, para generar unos
enlaces informáticos entre al menos una parte de las palabras que
constituyen los subtítulos y unas entradas léxicas de un
diccionario lingüístico electrónico.
13. Sistema informático según la reivindicación
11 ó 12, caracterizado porque dicho módulo (14, 16) de
generación de medios de navegación hipermedia incluye un módulo
(16) de generación de medios de navegación interactiva en los
subtítulos.
14. Sistema informático según una cualquiera de
las reivindicaciones 11 a 13, caracterizado porque los
diferentes módulos (10, 12, 14, 16) que componen dichos medios
informáticos (1) están repartidos en diferentes ordenadores unidos
a una red de comunicación, por ejemplo Internet.
15. Programa de ordenador en un soporte de
informaciones, comprendiendo dicho programa unas instrucciones de
programa adaptadas para la puesta en práctica de un procedimiento
según una cualquiera de las reivindicaciones 1 a 9, cuando dicho
programa se carga y se ejecuta en un ordenador.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0202673A FR2836733B1 (fr) | 2002-03-01 | 2002-03-01 | Procede et dispositif de traitement informatique d'un contenu audiovisuel avec sous-titres |
FR0202673 | 2002-03-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2329235T3 true ES2329235T3 (es) | 2009-11-24 |
Family
ID=27741393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03722670T Expired - Lifetime ES2329235T3 (es) | 2002-03-01 | 2003-02-21 | Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. |
Country Status (7)
Country | Link |
---|---|
EP (1) | EP1481339B1 (es) |
AT (1) | ATE437412T1 (es) |
AU (1) | AU2003229838A1 (es) |
DE (1) | DE60328463D1 (es) |
ES (1) | ES2329235T3 (es) |
FR (1) | FR2836733B1 (es) |
WO (1) | WO2003075175A2 (es) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100654455B1 (ko) | 2005-05-26 | 2006-12-06 | 삼성전자주식회사 | 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5543851A (en) * | 1995-03-13 | 1996-08-06 | Chang; Wen F. | Method and apparatus for translating closed caption data |
US20010003214A1 (en) * | 1999-07-15 | 2001-06-07 | Vijnan Shastri | Method and apparatus for utilizing closed captioned (CC) text keywords or phrases for the purpose of automated searching of network-based resources for interactive links to universal resource locators (URL's) |
AU2001273226A1 (en) * | 2000-07-12 | 2002-01-21 | Mixed Signals Technologies, Inc. | System and method for dynamically inserting interactive content into a tv signalbased on program content |
-
2002
- 2002-03-01 FR FR0202673A patent/FR2836733B1/fr not_active Expired - Fee Related
-
2003
- 2003-02-21 AU AU2003229838A patent/AU2003229838A1/en not_active Abandoned
- 2003-02-21 WO PCT/FR2003/000599 patent/WO2003075175A2/fr not_active Application Discontinuation
- 2003-02-21 DE DE60328463T patent/DE60328463D1/de not_active Expired - Fee Related
- 2003-02-21 ES ES03722670T patent/ES2329235T3/es not_active Expired - Lifetime
- 2003-02-21 EP EP03722670A patent/EP1481339B1/fr not_active Expired - Lifetime
- 2003-02-21 AT AT03722670T patent/ATE437412T1/de not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
EP1481339B1 (fr) | 2009-07-22 |
WO2003075175A3 (fr) | 2004-03-04 |
FR2836733A1 (fr) | 2003-09-05 |
EP1481339A2 (fr) | 2004-12-01 |
DE60328463D1 (de) | 2009-09-03 |
ATE437412T1 (de) | 2009-08-15 |
AU2003229838A1 (en) | 2003-09-16 |
WO2003075175A2 (fr) | 2003-09-12 |
FR2836733B1 (fr) | 2004-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170345461A1 (en) | System and method for content-based navigation of live and recorded tv and video programs | |
JP2005504395A (ja) | マルチリンガルトランスクリプションシステム | |
US8223152B2 (en) | Apparatus and method of authoring animation through storyboard | |
CN110035326A (zh) | 字幕生成、基于字幕的视频检索方法、装置和电子设备 | |
US9576581B2 (en) | Metatagging of captions | |
Jiménez et al. | Multisemiotic and multimodal corpus analysis in audio description: TRACCE | |
CN1975732A (zh) | 视频观看支持系统及方法 | |
EP1692629A2 (en) | System & method for integrative analysis of intrinsic and extrinsic audio-visual data | |
CN110781328A (zh) | 基于语音识别的视频生成方法、系统、装置和存储介质 | |
CN103984772A (zh) | 文本检索字幕库生成方法和装置、视频检索方法和装置 | |
EP1758383A2 (en) | A system and method for content-based navigation of live and recorded TV and video programs | |
Schöning et al. | Providing video annotations in multimedia containers for visualization and research | |
KR101412722B1 (ko) | 자막 관리방법 및 자막 검색방법 | |
ES2329235T3 (es) | Procedimiento y dispositivo de tratamiento informatico de un contenido audiovisual con subtitulos. | |
Nagao et al. | Annotation-based multimedia summarization and translation | |
KR100314591B1 (ko) | 캡션데이타가저장된외국어학습용비디오씨디 | |
Shamma et al. | Network arts: exposing cultural reality | |
CN115878867A (zh) | 一种基于元宇宙的ai自动虚拟场景构建体验系统及方法 | |
JP2007519321A (ja) | 視聴覚データストリームのマルチメディア要約を作成する方法及び回路 | |
KR20050017571A (ko) | Av 데이터를 enav 모드로 재생하는 방법, 그 장치및 그 정보저장매체 | |
Jhala | Exploiting structure and conventions of movie scripts for information retrieval and text mining | |
KR100372891B1 (ko) | 인터넷상에서 동영상 컨텐츠의 대사 제공을 위한 캡션처리 방법 | |
CN112313726A (zh) | 通过多媒体教学语言的方法和系统 | |
CN111800668B (zh) | 弹幕的处理方法、装置、设备及存储介质 | |
Lee | PRESTIGE: MOBILIZING AN ORALLY ANNOTATED LANGUAGE DOCUMENTATION CORPUS |