ES2370893T3 - Sistema y procedimiento para el seguimiento de un objetivo en un video e información relacionada con el mismo. - Google Patents

Sistema y procedimiento para el seguimiento de un objetivo en un video e información relacionada con el mismo. Download PDF

Info

Publication number
ES2370893T3
ES2370893T3 ES01975637T ES01975637T ES2370893T3 ES 2370893 T3 ES2370893 T3 ES 2370893T3 ES 01975637 T ES01975637 T ES 01975637T ES 01975637 T ES01975637 T ES 01975637T ES 2370893 T3 ES2370893 T3 ES 2370893T3
Authority
ES
Spain
Prior art keywords
video
pixel
frame
color
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES01975637T
Other languages
English (en)
Inventor
Daniel Bates
Jorge Geaga
Glenn Christopher Arnold
Thach Cam Lee
Ann Marie Kaesman
Thomas Jaroszewicz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creative Frontier Inc
Original Assignee
Creative Frontier Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Creative Frontier Inc filed Critical Creative Frontier Inc
Application granted granted Critical
Publication of ES2370893T3 publication Critical patent/ES2370893T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/748Hypervideo
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8583Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

Procedimiento implementado por ordenador para el seguimiento automático de un objeto de píxeles o vídeo en una serie de fotogramas de vídeo en un modo de desarrollo, que incluye las siguientes etapas: determinar una posición de un objeto de píxeles seleccionado en un fotograma de la serie de fotogramas de vídeo que tiene un contenido de vídeo; determinar un valor de color para dicho objeto de píxeles; y seguir automáticamente el objeto de píxeles seleccionado en la serie de fotogramas de vídeo, caracterizo por definir en cada fotograma de la serie de fotogramas de vídeo una caja delimitadora que rodea el objeto de píxeles seleccionado, que incluye las etapas: (a) determinar una gama de color variable inicial de dicho objeto de píxeles seleccionado; (b) tomar muestras de los píxeles en un primer radio predeterminado respecto a dicho objeto de píxeles seleccionado; (c) localizar los píxeles en la muestra de la etapa (b) dentro de dicha gama de color variable inicial que define los píxeles localizados; (d) determinar una segunda gama de color variable a partir de dichos píxeles localizados, para compensar las variaciones en las variables de color; (e) tomar muestras de píxeles en un segundo radio de píxeles predeterminado en relación con dicho objeto de píxeles seleccionado, mayor que dicho primer radio de píxeles determinado; (f) localizar los píxeles en la muestra de la etapa (e) de dicho segunda gama de color variable; (g) determinar una tercera gama de color a partir de dicho píxeles localizados en la etapa (f), para compensar también las variaciones en las variables de color; (h) localizar los píxeles en la muestra de la etapa (e) en dicho tercer rango de color; (i) determinar el centroide y las coordenadas de una caja delimitadora alrededor de los píxeles localizados en la etapa (h); (j) almacenar el centroide y las coordenadas determinadas en la etapa (i), y (k) repetir las etapas (b) - (j) empezando en el centroide de la caja delimitadora del fotograma anterior usando la gama de color variable anterior hasta que todos los fotogramas de la secuencia de vídeo han sido procesados; y también caracterizado por la etapa: generar un archivo de vídeo enlazado que está separado de dicho contenido de vídeo, comprendiendo dicho archivo de vídeo enlazado (i) un archivo de píxeles que identifica las coordenadas de la caja delimitadora en cada fotograma y los fotogramas posteriores; y (ii) un archivo de objetos de datos que enlaza las coordenadas de la caja delimitadora con los objetos de datos.

Description

Sistema y procedimiento para el seguimiento de un objetivo en un vídeo e información relacionada con el mismo
Antecedentes de la invención
1. Campo de la invención
La presente invención se refiere a un sistema de vídeo interactivo y más particularmente a un sistema y a un procedimiento para la creación y reproducción de vídeo interactivo. En un modo de desarrollo de operación, el sistema sigue de manera automática un objeto de píxeles en una secuencia de vídeo que ha sido seleccionado en un fotograma del vídeo y genera uno o más archivos de vídeo enlazados representativos de la posición del objeto seleccionado en todos los fotogramas en la secuencia, junto con enlaces a objetos de datos para su uso en combinación con un sistema de vídeo interactivo. En un modo de reproducción de operación, el sistema permite que los objetos de píxeles se seleccionen durante la reproducción posterior de los fotogramas de vídeo con un dispositivo señalador, tal como un ratón, proporcionando acceso a datos de objetos enlazados.
2. Descripción de la técnica anterior
Hay una tendencia hacia el vídeo interactivo para diversos fines comerciales, educativos y de entretenimiento. Para proporcionar esta interactividad, los productores de contenido de vídeo necesitan vincular varios objetos de vídeo o de píxeles deseados en cada uno de los fotogramas del vídeo del contenido del vídeo con objetos de datos, tales como páginas web. Con el fin de proporcionar enlaces para los objetos de píxeles seleccionados en los diferentes fotogramas de vídeo, es conocido que los productores de contenido de vídeo implementen técnicas de procesamiento de imágenes para vincular los objetos de píxeles seleccionados en cada uno de los diferentes fotogramas de vídeo a otras plataformas. Ambas técnicas de procesamiento de imágenes manual y automático son conocidas.
Ejemplos de sistemas en los que los enlaces se “realizan” de forma manual se describen en las patentes US Nº 5.774.666, 6.076.104 y 5.929.849. En general, las técnicas manuales de procesamiento de imágenes incluyen la edición de cada fotograma de vídeo en una secuencia de vídeo y la incorporación manual de enlaces o puntos calientes en cada uno de los fotogramas de los objetos de píxeles deseados. Dicha tarea requiere mucha mano de obra y, por lo tanto, es muy costosa de implementar. Por ejemplo, un programa de televisión de 30 minutos se sabe que incluye 22 minutos de contenido de vídeo y 8 minutos de inserciones publicitarias. Con una tasa de reproducción de 30 fotogramas por segundo, los 22 minutos de contenido de vídeo se componen de (30 fotogramas/segundo x 60 segundos/minuto x 22 minutos) 39.600 fotogramas. Con el fin de proporcionar la capacidad para la interactividad, un productor de contenido de vídeo, por lo tanto, tendría que editar 39.600 fotogramas para una emisión de 22 minutos e incluir enlaces en cada uno de los fotogramas de uno o más objetos diferentes. Como se mencionó anteriormente, esta tarea requiere mucha mano de obra y, por lo tanto, es relativamente cara.
Con el fin de mejorar el procesamiento de imágenes de contenido de vídeo para proporcionar interactividad al proporcionar enlaces a diversos objetos en los fotogramas de vídeo, han sido desarrollados sistemas automáticos de procesamiento de imágenes que son capaces de rastrear automáticamente un objeto en una secuencia de fotogramas de vídeo y vincular los objetos de píxeles a otras plataformas. Ejemplos de tales sistemas de creación automática se describen en las patentes US Nº 6.205.231, 6.169.573 y 5.867.584.
La patente US Nº 6.169.573 se refiere a un sistema de seguimiento de objetos en una secuencia de fotogramas de vídeo que sigue los objetos en un formato comprimido con variables codificadas en contenido de vídeo comprimido MPEG. Desafortunadamente, el sistema descrito en la patente '573 sólo es útil para el seguimiento de objetos en formato MPEG y no es adecuado para su uso con contenido de vídeo en un formato sin compresión o formato de vídeo, tal como. .mov.
La patente US Nº 6.205.231 describe un sistema de procesamiento de imágenes que es capaz de seguir automáticamente un objeto en una secuencia de fotogramas de vídeo. El sistema descrito en la patente ‘231 incorpora técnicas conocidas de procesamiento de imágenes para el seguimiento de un borde de un objeto en función de su color o las características de luminosidad. El sistema descrito en la patente ‘231 “marca” los objetos seleccionados en la secuencia de fotogramas de vídeo que permite que las etiquetas y, por lo tanto, el objeto seleccionado se vinculen a otras plataformas, tales como sitios web.
Hay varios problemas con el sistema tal como se describe en la patente '205, tal como el seguimiento inexacto del objeto de píxeles. En particular, los sistemas de procesamiento de imágenes, tal como se describe en la patente '231 localizan objetos de píxeles en una imagen de vídeo mediante la localización de los píxeles que tienen un valor variable de un color determinado. Por desgracia, los valores de la variable del color de un objeto pueden cambiar de una escena a otra debido a los efectos de iluminación o debido a los efectos de la descompresión. El sistema descrito en la patente '205 no compensa estos cambios y, por lo tanto, no es capaz de seguir con precisión los objetos de píxeles en una secuencia de fotogramas de vídeo. Además, la incorporación de marcas en el contenido del vídeo original es intensivo en recursos, que requieren plataformas de un nivel relativamente alto de computación.
45 E01975637 04-08-2011
La patente US Nº 5.867.584 se refiere también a un sistema de procesamiento de imágenes para el seguimiento de forma automática de objetos en una secuencia de fotogramas de vídeo. Este sistema trata de anticipar la posición del objeto seleccionado en las siguientes imágenes, generando una serie de fotogramas conectados virtuales a lo largo de una trayectoria predeterminada anticipada del objeto de píxeles en las siguientes imágenes y la comparación de las variables de los píxeles dentro de las ventanas de la trayectoria anticipada con la ventana de prueba original. Como tal, el sistema descrito en la patente '584 es intensivo en recursos. Además, el sistema utiliza técnicas de procesamiento de imágenes conocidas sobre la base de la característica de la intensidad de los píxeles dentro de las ventanas. Como tal, el sistema descrito en la patente '584 no tiene en cuenta los cambios en el brillo y los cambios en el color debidos a los efectos de iluminación dentro de la imagen y, por lo tanto, es incapaz de hacer un seguimiento preciso de un objeto en una secuencia de fotogramas de vídeo. Por lo tanto, hay una necesidad de un sistema de procesamiento de imágenes para el seguimiento de forma automática de un objeto seleccionado en una secuencia de fotogramas de vídeo que sea capaz de un seguimiento bastante preciso del objeto y que no consuma muchos recursos.
Descripción de la invención
La presente invención se refiere a un sistema de procesamiento de imágenes para su uso en el desarrollo y la reproducción de vídeo interactivo. En un modo de desarrollo de la operación, los objetos de píxeles o de vídeo se seleccionan en un fotograma mediante una interfaz gráfica de usuario de desarrollo. El sistema de seguimiento automático de los objetos de píxeles seleccionados en los fotogramas de vídeo anterior y posterior mediante la determinación de los límites del rango para las diferentes variables de color del objeto de píxeles seleccionado para compensar los efectos de los cambios de iluminación y los efectos de la descompresión. El sistema localiza automáticamente los objetos de píxeles dentro de los límites del rango calculado en los fotogramas de vídeo anterior y posterior y genera un archivo de objetos de píxeles que identifica las coordenadas del objeto de píxeles seleccionado en cada fotograma. El archivo de objetos de píxeles está enlazado a un archivo de objetos de datos que conecta los objetos de píxeles seleccionado con objetos de datos. El archivo de objetos de píxeles y el archivo de objetos de datos, de manera colectiva “archivos de vídeo enlazados”, se crean durante un modo de desarrollo de operación. En un modo de reproducción de operación, los archivos de vídeo enlazados se importan a una plataforma de alojamiento de vídeo que incluye una aplicación de reproducción de vídeo y un reproductor de medios comunes de aplicación interfaz de programación (API) para la reproducción de los contenidos de vídeo. La aplicación de reproducción de vídeo es compatible con el procesamiento de los archivos de vídeo enlazados para permitir que los objetos de píxeles sean seleccionados por un dispositivo de señalización y relacionados con los objetos de datos a través de una interfaz gráfica de usuario del lado del cliente.
Descripción de los dibujos
Estas y otras ventajas de la presente invención se comprenderán fácilmente con referencia a la siguiente memoria y al dibujo adjunto, en el que:
La figura 1 es un diagrama de bloques de un sistema de vídeo interactivo de acuerdo con la presente invención.
La figura 2 es una captura de pantalla de una interfaz gráfica de usuario de desarrollo para su uso en un modo de desarrollo en el sistema de vídeo interactivo de acuerdo con la presente invención.
La figura 3 es una captura de pantalla de una interfaz gráfica de usuario del lado del cliente para su uso en un modo de reproducción del sistema de vídeo interactivo de acuerdo con la presente invención.
La figura 4 es un diagrama de nivel de sistema de software de una porción de procesamiento de imágenes de la invención.
La figura 5 es un diagrama de flujo de software de una aplicación de extracción de fotogramas, de conformidad con la presente invención.
Las figuras 6A y 6B son diagramas de flujo de la porción de captura de objetos de píxeles del sistema de procesamiento de imágenes de acuerdo con la presente invención.
La figura 7 es un diagrama de flujo de la porción de seguimiento automático del sistema de procesamiento de imágenes, de acuerdo con la presente invención.
La figura 8 ilustra el seguimiento automático de un fotograma de ejemplo de color rojo sobre un fondo azul para dos fotogramas sucesivos.
La figura 9 es un diagrama de flujo que muestra cómo asociar el color de un objeto con un evento de acuerdo con una realización de la presente invención.
La figura 10 es un diagrama de flujo que muestra la forma de definir las características de color de un objeto según una realización de la presente invención.
La figura 11 es un diagrama de flujo que muestra la forma de definir las características de color de un objeto de 3
55 E01975637 04-08-2011
acuerdo con otra realización de la presente invención.
La figura 12 es un diagrama de flujo que muestra la forma de definir las características de color de un objeto de acuerdo con otra realización de la presente invención.
La figura 13 es un diagrama de flujo que muestra cómo asociar el color de un objeto con un evento mediante una tabla de acuerdo con una realización de la presente invención.
La figura 14 es un entorno de ejecución de ordenador en el que una o más realizaciones de la presente invención pueden ser implementadas.
La figura 15 muestra una realización de la presente invención, donde se utiliza la memoria intermedia de fotogramas.
La figura 16 muestra una realización de la presente invención en la se utilizan gamas de colores.
Descripción detallada de la invención
La presente invención se refiere a un sistema y a un procedimiento para proporcionar interactividad a distintos tipos de contenido de vídeo, tales como contenido de vídeo streaming y contenido de vídeo bajo demanda, por ejemplo, de un reproductor de DVD. En un modo de desarrollo de operación, la presente invención incluye un sistema de procesamiento de imágenes para el seguimiento automático de un objeto de píxeles, seleccionado en un fotograma de una secuencia de fotogramas de vídeo, en los fotogramas de vídeo anterior y posterior con el propósito de vincular el objeto seleccionado a uno o más datos de objetos, tal como un localizador uniforme de recursos, información de superposición fija, un enlace de vídeo streaming, un enlace de interacción de bases de datos o la plataforma de otros recursos (en adelante “objeto de datos”). De acuerdo con un importante aspecto de la invención, el sistema de procesamiento de imágenes compensa los cambios en el brillo y los cambios de tono en una base de fotograma a fotograma, debido a los efectos de iluminación y los efectos de la descompresión mediante la determinación de los límites del rango de diferentes valores variables del color, tales como el tono (H), rojo - verde (R-G), verde - azul (G-B) y el valor de saturación2 (SV2) para proporcionar un seguimiento relativamente preciso de un objeto de píxeles. Además, a diferencia de algunos sistemas de procesamiento de imágenes conocidos, el sistema de procesamiento de imágenes que forma parte de la presente invención no incrusta etiquetas en el contenido de vídeo. En lugar del sistema, de acuerdo con la presente invención, se generan archivos de vídeo relacionados, que identifican las coordenadas en píxeles del objeto de píxeles seleccionado en cada fotograma de vídeo, así como enlaces de datos de objetos asociados a cada objeto de píxeles. Los archivos de vídeo enlazados se exportan a una plataforma de reproducción que incluye una aplicación de visualización de vídeo que soporta la reproducción de contenido de los esquemas de compresión diferentes, tales como los utilizados por los diferentes reproductores de medios comúnmente conocidos, tales como Real Player, Windows Media Player y Quick Time, y permite que los objetos de píxeles sean seleccionados durante la reproducción con un dispositivo señalador tal como un ratón, que permite el acceso a los objetos de datos enlazados. La aplicación de reproducción de vídeo puede ser alojada en una plataforma de alojamiento de vídeo o residir directamente en una plataforma de reproducción.
Interfaces gráficas de usuario (GUI) se pueden proporcionar para facilitar el desarrollo de archivos de vídeo enlazados en un modo de desarrollo de la operación, así como para facilitar la reproducción en un modo de reproducción de la operación. En particular, una GUI de desarrollo, por ejemplo, tal como se ilustra en la figura 2, se puede utilizar para facilitar el procesamiento del contenido de vídeo original, ya sea un proveedor de contenido de vídeo o un proveedor de servicios de aplicaciones, el desarrollo de los archivos de vídeo enlazados tal como se mencionó anteriormente. Un lado de cliente o interfaz gráfica de usuario de reproducción, por ejemplo, tal como se ilustra en la figura 3, se pueden proporcionar para facilitar la reproducción.
Varias realizaciones de la invención se contemplan. Por ejemplo, con referencia a la figura 1, la invención puede ser implementada a través de una plataforma de recursos, que se muestra en la caja de líneas discontinuas 20, formada por uno o más servidores o estaciones de trabajo, que pueden constituir un proveedor de servicios de aplicaciones o puede ser parte de la productora de contenido de vídeo. En esta implementación, una fuente de contenido de vídeo 22, por ejemplo, una fuente bajo demanda de, por ejemplo, un reproductor de DVD o fuente de vídeo streaming de un productor de contenido de vídeo, se transfiere a la plataforma de recursos 20, la cual, a su vez, procesa los contenidos de vídeo 22 y enlaza los objetos de píxeles seleccionados del contenido de vídeo 22 con objetos de datos y genera archivos de vídeo relacionados 24.
La plataforma de recursos 20 se utiliza para soportar un modelo de desarrollo de operación en el que los archivos de vídeo enlazados 24 se crean a partir del contenido de vídeo original 22. Tal como se muestra en la figura 1, la plataforma de recursos 20 puede incluir una plataforma de recursos de computación de ejemplo 26 y una plataforma de computación de soporte de procesamiento de vídeo 28. La plataforma de computación de recursos 26 incluye una aplicación de objetos de captura de píxeles 30, una aplicación de enlace de vídeo 32 y genera los archivos de vídeo enlazados 24 tal como se mencionó anteriormente. La aplicación de captura de objetos de píxeles 30 se utiliza para capturar un objeto de píxeles seleccionado en un fotograma de contenido de vídeo 22. La aplicación de enlace de vídeo 32 sigue de forma automática el objeto de píxeles seleccionado en los fotogramas anteriores y sucesivos de la secuencia de vídeo y los enlaza con los objetos de píxeles para los objetos de datos a través de un archivo de
55 E01975637 04-08-2011
objeto de píxeles y el archivo de datos de objetos, denominados colectivamente como archivos de vídeo enlazados
24.
La plataforma de computación de recursos 22 puede estar configurada como una estación de trabajo con dos procesadores de 1,5 GHz, 512 megabits de memoria DRAM, un disco duro de 60 gigabits, una unidad DVD-RAM, una pantalla, por ejemplo, una pantalla de 21 pulgadas; una tarjeta Ethernet de 100 megabits, un dispositivo de hardware para la codificación de vídeo y varios dispositivos de entrada estándar, tal como una tableta, el ratón y el teclado. La plataforma de computación de recursos 26 preferentemente se proporciona con software de terceros para el hardware.
La plataforma de computación de soporte de procesamiento de vídeo 28 incluye una base de datos de información mostrada 34 y una base de datos de colocación de productos 36. La base de datos de información mostrada 34 incluye la identificación relativa al contenido de vídeo, tales como nombre del programa, el número de episodio y otros similares. La base de datos de la colocación de los productos 36 incluye los datos relativos a los diferentes objetos de datos, tales como direcciones de sitios web, que estarán conectados a los objetos de píxeles seleccionados. La base de datos de información mostrada 34, así como la base de datos de la colocación de los productos 36 puede alojarse en la plataforma de computación de soporte de procesamiento de vídeo 28 o puede ser parte de la plataforma de computación de recursos 26.
De acuerdo con un importante aspecto de la invención, los archivos de vídeo enlazados 24 se crean por separado a partir del contenido del vídeo original 22 y son susceptibles de ser exportados a una plataforma de alojamiento de vídeo 38 para su uso durante un modo de reproducción de la operación. La plataforma de alojamiento de vídeo 38 incluye una interfaz de programación de aplicación de reproductores de medios comunes (API) 40 y una aplicación de reproducción 42 para permitir la reproducción de contenido de vídeo, ya sea streaming o bajo demanda con interactividad. En particular, la aplicación de reproducción de vídeo 42 permite que los objetos de píxeles que se seleccionen durante la reproducción del contenido de vídeo de un dispositivo de entrada estándar, tal como un ratón, y enlazado a los objetos de datos, por ejemplo, las plataformas de otros recursos.
Tal como se muestra en la figura 1, la plataforma de alojamiento de vídeo 38 se muestra independiente de la plataforma de reproducción 43, que puede ser una plataforma de computación personal o incluso un módulo de conexión. Por otra parte, la plataforma de alojamiento de vídeo 38 puede estar incluida dentro de la plataforma de reproducción 43. La plataforma de alojamiento de vídeo 38 puede ser, por ejemplo, una plataforma de computación personal.
Modo de desarrollo de la operación
El modo de desarrollo de la operación se explica con referencia a las figuras 4 a 8. Volviendo a la figura 4, una fuente de vídeo, tal como por ejemplo, una fuente de vídeo streaming, por ejemplo, de Internet o de una fuente de vídeo bajo demanda, tal como un reproductor de DVD, es importada mediante la aplicación de captura de objetos de píxeles 30 (figura 1) que captura, por ejemplo, 12 fotogramas por segundo del contenido de vídeo 20 y lo convierte en un archivo de mapa de bits 44. En particular, el contenido del vídeo 22, por ejemplo, en el formato MPEG, se descomprime usando un software de dominio público decodificador, disponible en el sitio web de MPEG (www.mpeg.org) desarrollado por el grupo de software de simulación de MPEG, por ejemplo, MPEG 2 DEC, una aplicación ejecutable decodificadora MPEG 2. Como es sabido en la técnica, el software decodificador MPEG decodifica un archivo MPEG antes de proporcionar toda la información global sobre el propio archivo. Dado que el contenido de vídeo debe ser identificado por el fotograma para el uso de la aplicación de captura de los objetos de píxeles 30 y la aplicación de enlace de vídeo 32, la información sobre el fotograma se puede leer desde el archivo MPEG decodificado una vez que todos los fotogramas han sido decodificados o, alternativamente, determinado mediante una aplicación de extracción de fotogramas que almacena la información sobre el fotograma de un búfer de memoria cuando el archivo MPEG se está cargando en la aplicación de captura de píxeles 30, tal como se ilustra en la figura 5 y se describe a continuación.
Aplicación de extracción de fotogramas
La aplicación de extracción de fotogramas se ilustra en la figura 5 y se describe a continuación. Con referencia a la figura 5, el archivo MPEG se importa en la aplicación de captura de los objetos de píxeles 30 en formato comprimido en la etapa 46. En esta realización, la aplicación de captura del objeto de píxeles 30 trabaja en conjunto con el software decodificador MPEG estándar, tal como se ilustra en la figura 5 para evitar tener que esperar hasta que todo el archivo se decodifique antes de obtener la información sobre el fotograma. Mientras que el archivo MPEG se está importando, la aplicación de captura de objetos de píxeles 30 lee los archivos de cabecera de los datos MPEG en la etapa 48 y almacena los datos en relación con el tipo de fotograma individual y la localización en un búfer de memoria en la etapa 50. Como tal, el sistema de captura de objetos de píxeles 30 es capaz de decodificar imágenes seleccionadas del archivo MPEG comprimido, sin necesidad de decodificar todos los fotogramas previos en la etapa
52. Basándose en la información almacenada en el fotograma de memoria intermedia en la etapa 50, los archivos MPEG decodificados luego se pueden convertir en un archivo de mapa de bits 44 (figura 4), tal como se mencionó anteriormente en la etapa 54.
55 E01975637 04-08-2011
Aplicación de salto de sección
La aplicación de captura de objeto de píxeles 30 opcionalmente puede estar provista de una aplicación de salto de sección 55 (figura 4) para facilitar el procesamiento posterior y ayudar en partición de los contenidos entre varios usuarios. La aplicación de salto de sección 55 analiza el contenido de vídeo durante la carga. Los datos de salto de sección se almacenan en un búfer temporal 56 (figura 4) y se utiliza para el análisis del objeto de píxeles de una imagen seleccionada y procedimiento y los fotogramas exitosos mediante la aplicación de captura de objetos píxeles 30 y aplicación de enlace de vídeo 32.
La aplicación de salto de sección 55 analiza automáticamente el contenido de vídeo para determinar cómo los cambios de luz afectan a los valores RGB creando grandes cambios en estos valores. En particular, se calcula el promedio de la mediana de los valores de píxeles de una serie de fotogramas. La aplicación de salto de sección 55 compara los cambios en los valores de los píxeles con la media de la mediana. Un salto de sección se puede determinar que es un cambio de aproximadamente 5 veces más en los valores de los píxeles de la media de la mediana. Estos saltos de sección se almacenan en un búfer 56, tal como una serie de números que representan el fotograma secuencial (fotograma de inicio, fotograma final), donde cada fotograma de inicio es igual al fotograma de procedimiento, más un fotograma hasta el final del vídeo. Esta información puede ser editada a través de la interfaz gráfica de usuario 60 (figura 2), descrita a continuación. Si se realizan cambios en los números de fotograma correspondiente a los saltos de sección, la nueva información se envía a la memoria búfer de salto de sección 56 (figura 4), donde se sustituye la información original.
Tal como se describirá en detalle más adelante, los fotogramas en el contenido de vídeo se analizan para un objeto de píxeles seleccionado durante una sesión con la aplicación captura de objetos de píxeles 30 (figura 1). Un objeto de píxeles se puede seleccionar en cualquier fotograma de una secuencia de vídeo 57 (figura 4). La aplicación de enlace de vídeo 32 procesa los fotogramas anterior y posterior 59 mediante el seguimiento de forma automática del objeto de píxeles seleccionado y la generación de archivos de vídeo enlazados 24 para todo un segmento definido por la aplicación de salto de segmento, o para una longitud de fotogramas determinados por el operador. El segmento puede ser tan pequeño como una sola imagen o puede incluir todos los fotogramas en el contenido.
Interfaz gráfica de usuario de desarrollo
Con el fin de facilitar el desarrollo, una interfaz gráfica de usuario de desarrollo 60 puede proporcionarse, tal como se ilustra en la figura 2. Como se muestra, la interfaz gráfica de usuario de desarrollo 60 incluye una ventana de visualización 61 para la visualización de un fotograma de contenido de vídeo y un número de campos de datos de ejemplo para asociar la información con el contenido de vídeo.
Una ventana de visualización de ejemplo de la lista de colocación de productos 62 se utiliza para proporcionar una lista gráfica de todos los objetos de datos asociados con una secuencia de fotogramas de vídeo en particular. La ventana de visualización de la lista de la colocación de los productos 62 está poblada por la base de datos de la colocación de los productos 36 (figura 1). La lista de los objetos de datos se propaga en cualquier momento que se crea la interfaz gráfica de usuario de desarrollo 60 o se abre una interfaz gráfica de usuario existente 60.
Tal como se muestra en la figura 2, los objetos de datos disponibles se muestran en la ventana de visualización de la lista de colocación de los productos 62 como texto y/o iconos. Con el fin de facilitar la vinculación de los objetos de datos con los objetos de píxeles diferentes dentro de la secuencia de fotogramas de vídeo, los objetos de datos que se muestran en la ventana de visualización de la colocación de los productos 62 se pueden mostrar en diferentes colores. Por ejemplo, un color puede ser utilizado para objetos de datos que se han enlazado a los objetos de píxeles, mientras que un color diferente puede ser utilizado para objetos de datos que no han sido asignados a los objetos de píxeles. Dicha tecnología está dentro de los conocimientos ordinarios en la técnica, por ejemplo, según se describe en la patente US Nº 5.953.244, que se incorporan aquí por referencia.
Un campo de datos “Mostrar información” 64 también se puede proporcionar en la interfaz de usuario gráfica de desarrollo 60. El campo de datos de información que se muestra 64 está poblada por la base de datos de información que se muestra 34 y puede incluir diversos datos relacionados con la secuencia de fotogramas de vídeo, tal como el nombre de la compañía de producción, nombre del programa, el número/nombre del episodio, la fecha de emisión inicial y audiencias propuestas.
Un campo de datos “Información de colocación del producto” 65 y una pantalla asociada 66 también pueden proporcionarse. El área de la pantalla 66 es una imagen de tamaño reducido de la imagen que aparece en la pantalla 61. La campo de datos de la información de la colocación de los productos 65 son diversas informaciones sobre los objetos de datos almacenados en la base de datos de la colocación del producto 36 (figura 1) para un objeto de datos seleccionado. Por ejemplo, estos campos de objetos de datos de información de la colocación de los productos pueden incluir los siguientes campos: nombre del producto, descripción de la colocación, acción, por ejemplo, redirigir a otro servidor, dirección del servidor alternativo, un identificador del producto, un descriptor de localización, así como una pluralidad de campos de datos 70, 71 y 72 que indican las posiciones de los fotogramas de los objetos de datos en la pantalla de la lista de colocación de los productos 62 que se han enlazado a los objetos de píxeles. En particular, el campo de datos 70 indica el primer fotograma de la secuencia de fotogramas de vídeo
55 E01975637 04-08-2011
en el que el objeto de datos, identificado en el campo de datos de información de la colocación de los productos 65 enlazados a un objeto de píxeles. Del mismo modo, el campo de datos 71 identifica el último fotograma de la secuencia de fotogramas de vídeo en el que ha el objeto de datos se ha enlazado a un objeto de píxeles. Por último, el campo de datos 72 identifica el número total de fotogramas de la secuencia de fotogramas de vídeo en el que el objeto de datos seleccionado ha sido enlazado a objetos de píxeles.
Con el fin de facilitar la creación automática de la secuencia de fotogramas de vídeo, la interfaz gráfica de usuario de desarrollo 60 puede estar provista de un número de botones de control 73 a 80. Estos botones de control 73 a 80 son seleccionados por un dispositivo señalador como un ratón, y se conocen colectivamente como “herramientas de habilitación”. Un botón de control de “Alcance de ajuste” 73, cuando se selecciona, permite al usuario seleccionar un objeto de píxeles en la pantalla 61 mediante un dispositivo indicador. Una pantalla x, y 92 identifica la coordenadas X e Y dentro de la ventana de visualización 61 que corresponden a un clic del ratón realizado por el usuario en relación con la selección del objeto de píxeles en la pantalla de visualización 61.
Un botón de control de “ajustar primer fotograma” 76 permite que el primer fotograma de la secuencia de fotogramas de vídeo sea seleccionado por el usuario. Una vez que el botón “Ajustar primer fotograma” 76 se ha seleccionado, una serie de botones de control 82, 84 y 86, así como una barra de desplazamiento 88 se puede utilizar para avanzar o retroceder el fotograma que se muestra en la pantalla 61. Se proporciona una pantalla de contador 90 que identifica el fotograma seleccionado.
Una vez que el primer fotograma es seleccionado por el usuario, tal como se mencionó anteriormente, un botón “objeto unido” 75 puede ser seleccionado. El botón de objeto unido 75 hace que el sistema extraiga automáticamente un límite alrededor del objeto de píxeles seleccionado en base a técnicas del límite del borde de procesamiento imágenes como veremos a continuación. El límite puede tomar la forma de un objeto geométrico, como por ejemplo un cuadrado, un rectángulo o un círculo como se explica en más detalle a continuación en relación con la aplicación de captura de objetos de píxeles 30. Después de que un objeto inicial haya sido capturado, el botón de seguimiento de objeto 74 se puede seleccionar para iniciar el seguimiento automático o la creación del objeto de píxeles seleccionado en ambos fotogramas de procedimiento y exitoso. Como se verá en más detalle a continuación, los fotogramas de vídeo de las posiciones de los objetos de píxeles se utilizan para crear los archivos de vídeo enlazados 24.
Con el fin de facilitar el desarrollo del archivo de vídeo enlazado 24 pueden ser usados marcadores bajo el control de los botones de control 77 a 80. Los marcadores se utilizan para identificar el primer fotograma asociado con un marcador. Por ejemplo, se proporciona una ventana de la pantalla de marcador 94. El botón “Insertar Marcador” 77 se selecciona para marcar el primer fotograma enlazado a un objeto de píxeles específico. Los marcadores se pueden mostrar en texto e incluir una versión de tamaño reducido del fotograma marcado.
Los marcadores se pueden cambiar y borrar. El botón de “Cambiar Marcador” 78 permite cambiar un marcador. En particular, seleccionando el botón de “Cambiar Marcador” 78, el fotograma asociado con ese marcador se puede cambiar. Esto se puede hacer mediante el avance o la copia de seguridad de la secuencia de fotogramas de vídeo hasta el fotograma deseado en la pantalla 61. El marcador actual y la ventana de visualización de marcadores 94 podría cambiarse para referirse a una número de fotograma diferente, simplemente seleccionando el botón “Cambiar marcador” 78.
Un botón “Borrar marcador” 79 permite borrar los marcadores en la ventana de visualización de marcadores 94. Con el fin de eliminar un marcador, el marcador simplemente se destaca en la pantalla de marcador 94 y se selecciona el botón "borrar marcador" 79.
Un botón "mostrar marcador" 80 también se puede proporcionar. El botón “mostrar marcador” 80 controla la visualización de los marcadores en la ventana de visualización de marcadores 94. El botón "mostrar marcador” 80 puede estar provisto de una función de activación del tipo en el que un solo clic muestra los marcadores en la ventana de visualización de marcadores 94 y un clic posterior borra la ventana de visualización de marcadores 94.
Cada uno de los marcadores se muestra en una ventana de visualización del contenido del mapa 96. La ventana de visualización del mapa de contenido 96 muestra una representación lineal de todo el contenido con todos los marcadores que se muestran junto con los números de fotograma en el que aparecen los marcadores.
Aplicación de captura de objetos de píxeles
La aplicación de captura del objeto de píxeles 30 se inicia después de que la primera imagen es seleccionada por el usuario a través de la interfaz gráfica de usuario de desarrollo 60. En particular, después de los saltos de sección se determinan, el primer fotograma calculado del contenido se muestra en una ventana de visualización 61 en la interfaz gráfica de usuario 60. Una vez que este fotograma se ha cargado en la ventana de visualización 61, el usuario puede optar por especificar otro fotograma que se indique como primer fotograma. Esto se hace para asegurar que los fotogramas adicionales capturados con el contenido que en realidad no pertenecen al principio del contenido se pueden omitir. El usuario puede seleccionar un fotograma determinado como el primer fotograma tal como se mencionó anteriormente. El fotograma de vídeo seleccionado se cargará en la ventana de visualización para el análisis del fotograma 61 tal como veremos a continuación. El proceso de elección del primer fotograma sólo
60 E01975637 04-08-2011
se realiza una vez al principio del contenido del programa, no es necesario hacer esto al comienzo de cada sección.
Cuando la ventana de visualización 61 se carga con el contenido, la plataforma de computación de recursos 26 accede a la base de datos de información mostrada 34 y la base de datos de colocación del producto 36 (figura 1) para rellenar los diferentes campos de datos en la interfaz de usuario gráfica de desarrollo 60 (figura 2) tal como se mencionó anteriormente.
Una vez que el fotograma se ha cargado en la ventana de visualización 61 (figura 2) en la interfaz de usuario gráfica del desarrollo 60, los objetos de píxeles son seleccionados y capturados durante una sesión con la aplicación de captura de objetos de píxeles 30 (figura 1). La aplicación de vinculación de vídeo 32 sigue automáticamente los objetos de píxeles seleccionados en el fotograma anterior y posterior y genera archivos de vídeo relacionados 24, que vinculan los objetos de píxeles seleccionados con objetos de datos, almacenados en la base de datos de colocación de productos 38.
La selección y la captura de un objeto de píxeles se muestran en relación con la figura 6. En general, un objeto de píxeles está visualmente situado en la ventana de visualización 61 (figura 2) durante una sesión con la aplicación de captura de objetos de píxeles 30 mediante la selección de un píxel en una sola imagen que corresponde al objeto de píxeles deseado mediante un dispositivo señalador, junto a la plataforma de computación de recursos 26 (figura 1) y son procesados tal como se ilustra en la figura 6. El píxel seleccionado es capturado en la etapa 100. El píxel capturado se analiza en la etapa 102, ya sea para los valores RGB (rojo, verde, azul) o Tono. En la etapa 104, el sistema determina si se define el valor de matiz. Si es así, los límites del rango para el valor de matiz se determinan en la etapa 106. Alternativamente, el componente de valor variable de color RGB para el píxel seleccionado se puede calcular a lo largo de sus límites de rango en la etapa 108. La determinación inicial de los límites del rango de color o las variables de color RGB se determina, por ejemplo, ± 10 de la tonalidad o el valor de color variable RGB. Después de que se han determinado los límites del rango, ya sea para el color o las variables de color RGB, el sistema analiza los píxeles en un radio de 10 píxeles alrededor del píxel seleccionado para píxeles con los componentes de tono/valor dentro de los límites primer rango calculado en la etapa 110. Los píxeles que caen dentro de estos límites de rango son capturados para su posterior análisis. Los valores de rango para los píxeles capturados en la etapa 110 se calculan en la etapa 112. Por ejemplo, los límites del rango para las variables de color: tono (H), rojo - verde (R - G), verde - azul (G - B) y el valor de saturación2 (SV2) se determinan para cada una de las variables. Los límites del rango se determina en primer lugar mediante la determinación de la media de la variable del color de la muestra y para cada variable, se calculan los límites del rango para ser, por ejemplo, 3 veces la desviación sigma de la media para establecer el límite de rango alto y bajo para cada variable. Una vez que se determina el límite de rango para las variables, se pueden utilizar conocidas técnicas de procesamiento de imágenes, por ejemplo, técnicas de última generación de procesamiento, por ejemplo, tal como se describen en las páginas 1355-1357 de Hu et al. “Feature Extraction and Matching as Signal Detection”, International Journal of Pattern Recognition and Artificial Inteligence, vol. 8, No. 6, 1994, páginas 1343-1.379, que se incorporan por referencia, para determinar los límites del color dentro de un fotograma, tal como se indica en la etapa 114. Todos los píxeles en el área de delimitación son capturados que caen dentro de los límites del rango para las variables, el matiz, R - G, G - V, SV2 en la etapa 116. A continuación, en la etapa 118, se calcula un centroide para el área de delimitación y se calculan de nuevo los límites del rango para las variables de color en la etapa 118. Calcular los límites del rango definidos en la etapa 118 se utiliza para la determinación de los bordes del área de delimitación en la etapa 120 para definir un área de delimitación concluida en la etapa 122 para el objeto. En la etapa 124, la posición del área de delimitación del objeto seleccionado se determina mediante la captura de las coordenadas (x, y), las coordenadas de la esquina superior izquierda y la esquina inferior derecha, así como las coordenadas del baricentro de la zona delimitada. Hasta ahora, se ha descrito la selección de un objeto en un fotograma único de los contenidos de vídeo.
Seguimiento automático de objetos de píxeles
El seguimiento automático del objeto de píxeles seleccionado se describe en relación con las figuras 7 y 8. En particular, la figura 7 representa un diagrama de flujo para el sistema de seguimiento automático, mientras que la figura 8 representa una ilustración visual de la operación del sistema de seguimiento automático. Refiriéndose en primer lugar a la figura 8, se ilustra un fotograma de ejemplo 126, que, por simplicidad, se muestra un objeto de color rojo 128 sobre un fondo azul. Como se ve, el objeto de píxeles 128 tiene un centroide en el punto X0 a lo largo del X1 eje 130. Tal como se muestra, el fotograma 2 se identifica con el número de referencia 129, el ejemplo supone que el objeto de píxeles 128 se ha desplazado a lo largo del eje x 130 de modo que su centroide se encuentra en la posición X1 a lo largo del eje x 130.
Con referencia a la figura 7, la aplicación de enlace de vídeo 36 (figura 1) inicia el seguimiento automático empezando en el centroide del fotograma anterior en la etapa 132. De este modo, la aplicación de enlace de vídeo 36 muestrea un radio 133 de 10 píxeles en relación con el centroide del fotograma anterior en la etapa 134, tal como se ilustra en la figura 8. Utilizando los límites del rango para las variables de color previamente determinados, la aplicación de enlace de vídeo 36 localiza los píxeles en la muestra dentro del rango de color variable anterior en la etapa 136. Como se muestra en la figura 8, esto se relaciona con la porción rayada 138 en el fotograma 126. Con el fin de compensar las variaciones en las variables de color debido a los efectos de iluminación y efectos de la descompresión, la aplicación de enlace de vídeo 36 a continuación determina un rango de color variable aproximado
45 E01975637 04-08-2011
de los píxeles dentro del área rayada 135 en la etapa 140 utilizando las técnicas descritas anteriormente. Después de calcular la gama de color variable aproximada, la aplicación de enlace de vídeo 36 muestrea de un radio mayor, por ejemplo, un radio de 80 píxeles, con base en el centroide del fotograma anterior en la etapa 142. Tal como se muestra en la figura 8, este ejemplo supone que una parte sustancial de los objetos de píxeles 128 está dentro del rango de la segunda muestra. En la etapa 145, se encuentran los píxeles de la nueva muestra que caen dentro del rango de color variable aproximado y son indicados por el área rayada 138 en la figura 8. A fin de compensar también las variaciones en las variables de color, la aplicación de enlace de vídeo 36 vuelve a calcular los rangos de variables de color para las muestras ubicadas en la etapa 146. Una vez que el rango de color variable refinado ha sido determinado, los píxeles dentro de la gama de colores calculan variables que se encuentran en la etapa 148. Tal como se muestra en la zona rayada doble 139 en la figura 8, los píxeles de la gama de colores variables calculados se ilustran en la figura 8. Tal como se puede observar en la figura 8, los píxeles dentro del rango de color en bruto, en el ejemplo, se muestran para cubrir un área mayor que el objeto de píxeles 128. Una vez que los valores de la gama de colores se vuelven a calcular en la etapa 146 en los píxeles dentro de la gama de colores variables calculados se determinan en la etapa 148, el objeto de píxeles 128 se encuentra en los filtros de esencia fuera de los píxeles que quedan fuera del objeto de píxeles 128, tal como se muestra en la figura 8. Una vez que los píxeles se encuentran con la gama de colores variables calculados en la etapa 148, se determina un nuevo centroide en la etapa 150. Además de calcular el centroide, la aplicación de enlace de vídeo 36 también determina las coordenadas de la nueva caja delimitadora, por ejemplo, tal como se mencionó anteriormente en relación con las etapas 120 a 124. En la etapa 152, el sistema almacena las coordenadas del centroide en las coordenadas (x, y) de la caja delimitadora en la memoria. El sistema controla en la etapa 154 para determinar si el último fotograma ha sido procesado. Si no, el sistema vuelve de nuevo a la etapa 132 y procesa el fotograma siguiente repitiendo las etapas 134 a 154. Tal como se mencionó anteriormente, los datos del fotograma se extraen de los contenidos de vídeo y se utilizan para definir los fotogramas dentro de un segmento. Por lo tanto, este proceso se puede repetir para todos los fotogramas señalados en el primer fotograma encontrado y los campos del último fotograma se encuentran en la interfaz gráfica de usuario de desarrollo 60. Alternativamente, la aplicación de enlace de vídeo puede configurarse para procesar más fotogramas de los que se encuentran dentro del segmento. Sin embargo, al descomponer el proceso en términos de segmentos, el seguimiento de los objetos de píxeles será relativamente más preciso debido a las diferencias en los valores de color variables que se esperan durante el cambio de segmento.
Archivos de vídeo enlazados
Con el fin de optimizar también el procesamiento de imágenes de la aplicación de enlace de vídeo 32, la plataforma de computación de recursos 26 puede procesar todos o parte de los fotogramas de vídeo y almacenar las coordenadas en la etapa 152 (figura 7). Suponiendo que el tiempo de reacción del ser humano más rápido posible es de 1/3 de segundo, se deduce que una tasa de extracción de 10 fotogramas por segundo proporcionará una información de seguimiento adecuada. Así, los archivos de vídeo enlazados 24 almacenan las coordenadas del centroide de las coordenadas de la parte superior izquierda e inferior derecha de los objetos seleccionados dentro de los intervalos de 1/3 de segundo se conocen como clústeres. A 30 FPS, un clúster se define como un segmento de diez fotogramas de vídeo. La información del archivo que ilustra el movimiento de objetos contenidos en el segmento de diez fotogramas está representada por las coordenadas utilizadas (arriba a la izquierda, e inferior derecha) para dibujar las cajas delimitadoras del objeto. Por lo tanto, diez fotogramas de información se comprimen en uno. El número de fotogramas por clúster depende de la velocidad de los fotogramas. Usando clústeres de velocidad de fotogramas estándar se definen como sigue:
Estándar (FPS = fotogramas/segundo)
Fotogramas/Clúster
NTSC (29,97 FPS)
10
30 FPS
10
PAL (25 FPS)
8, 8, 9/sección vídeo
15 FPS
5
12 FPS
4
Puesto que los archivos de vídeo enlazados 24 se basan en una frecuencia de tres (3) fotogramas por segundo, los archivos de vídeo enlazados 21 se podrán utilizar a cualquier velocidad de reproducción del contenido original. Por otra parte, mediante la limitación de la velocidad de muestreo de tres (3) fotogramas por segundo, los archivos de vídeo enlazados 21 son adecuados para la transmisión de banda estrecha, por ejemplo, con un módem de 56 K bits, así como aplicaciones de transmisión de banda ancha, tales como RDSI, ADSL, cable y aplicaciones T1. Archivos
de vídeo enlazados 24 de ejemplo se describen e ilustran a continuación. Archivo de vídeo enlazado de ejemplo
Línea 1:
569 0 2172 30 0
Línea 2:
129 0 0 0 0
Línea 3:
001 001 010 4 132
002 011 025 4 137
003 026 040 4 142
004 041 055 4 147
005 056 070 4 152
....
128 2.136 2150 2 -564
Línea 131:
129 2151 2172 2 567
Línea 132:
001 001 010 4 132
6 125 276 199 1
138 75 179 119 2
213 60 246 83 3
207 92 241 117 4
Línea 137:
002 011 025 4 137
9 123 278 199 1
133 52 177 119 2
212 56 250 83 3
208 89 243 118 4
Línea 142:
003 026 040 4 142
E01975637 04-08-2011
Línea 1
Línea 1:
569 0 2172 30 0
El primer número de la Línea 1 (569) identifica el número total de líneas en el archivo de vídeo enlazado 24. Los dos números siguientes en la Línea 1 (0,2172) son los números del primer y último fotogramas para el clip de película asociado con el archivo de vídeo enlazado 24. El próximo número en la Línea 1 (30) indica la reproducción del clip de película en fotogramas por segundo.
Línea 2
Línea 2:
129 0 0 0 0
La línea 2 sólo utiliza el primer espacio, y el número en este espacio indica el número total de “clústeres” de 10 fotogramas de vídeo en el contenido de vídeo.
Línea 3
Línea 3:
001 001 010 4 132
En este ejemplo, las Líneas 3-131 contienen información sobre los ciento veintinueve (129) clústeres de vídeo. Cada línea como sigue un formato similar. El primer número, 001 en este ejemplo, es el número de clúster. Los siguientes
15 dos números (001, 010) son los fotogramas de inicio y final del segmento de vídeo. El siguiente número (4) indica que este grupo tiene cuatro áreas de vídeo para poder hacer clic u objetos en el mismo. El número final (132) indica la línea del archivo de vídeo enlazado 24, donde se puede obtener se puede encontrar una descripción detallada del clúster de vídeo.
Línea 132
Línea 132:
001 001 010 4 132
Línea 133:
6 125 276 199 1
138 75 179 119 2
213 60 246 83 3
207 92 241 117 4
En este ejemplo, las descripciones detalladas de los clústeres de vídeo comienzan en la línea 132 para el clúster de vídeo # 1. La primera línea repite la información del clúster de vídeo general antes del archivo de vídeo enlazado 24. Cada una de las siguientes cuatro líneas proporcionan información sobre un área seleccionable separada. Los primeros cuatro números son las coordenadas (x, y) para la esquina superior izquierda y la esquina inferior derecha,
25 respectivamente. En la línea 133, por ejemplo, (6, 125) son las coordenadas (x, y) para la esquina superior izquierda y (276, 199) son las coordenadas (x, y) de la esquina inferior derecha de ese clúster de vídeo. El último número de la línea ("1" en la línea 133) es el "índice de enlace". El "índice de enlace" enlaza las coordenadas del objeto de píxeles con las coordenadas del objeto de datos a partir de la base de datos de la colocación de los producto 36 (figura 1).
Modo de reproducción de operación
30 La reproducción de los contenidos de vídeo y los archivos de vídeo enlazados 24 es a través de una plataforma de alojamiento de vídeo 38 y una plataforma de reproducción 43. Tal como se muestra en la figura 1, la plataforma de
55 E01975637 04-08-2011
alojamiento de vídeo 38 se muestra separada de la plataforma de reproducción 42 y conectada a la misma, ya sea mediante un enlace de transmisión de banda estrecha o de banda ancha. La plataforma de alojamiento de vídeo 38 puede situarse alternativamente en la plataforma de reproducción 43.
La plataforma de alojamiento de vídeo 38 incluye una aplicación de reproducción de vídeo 42 que soporta un reproductor API multimedia común 40 para la reproducción de los contenidos de vídeo y proporciona los recursos para acceder a los archivos de vídeo enlazados 24 para permitir que los objetos de píxeles se seleccionen con un dispositivo estándar de señalización, tal como un ratón, y enlazado a uno o más objetos de datos.
En particular, la aplicación de reproducción de vídeo 42 lee los archivos de datos enlazados 24 y almacena estos archivos en dos matrices. La primera matriz puede ser unidimensional y puede contener información sobre el contenido del vídeo y, en particular los segmentos. La segunda matriz se puede utilizar para proporcionar información sobre la posición de los objetos de píxeles de zonas seleccionables para cada fragmento de la película. Un código de ejemplo para almacenar los archivos de datos enlazados en una primera matriz y en una segunda matriz se presenta en un apéndice.
La aplicación de reproducción de vídeo 42 soporta objetos de píxeles en el contenido de vídeo 22 que se seleccionan con un dispositivo estándar de señalización, tal como un ratón. Las coordenadas (x, y) de la posición seleccionada mediante el dispositivo de señalización y el tiempo del fotograma donde la posición fue seleccionada se capturan y se comparan con la información en los archivos de vídeo enlazados 24 para determinar si la posición seleccionada se corresponde con un objeto de píxeles seleccionado. En particular, las coordenadas (x, y) y la información del tiempo del fotograma del dispositivo de señalización se comparan con los archivos de objetos de píxeles para determinar si la posición seleccionada en el área de visualización 155 corresponde a un objeto de píxeles. Esto se determina mediante la determinación del tiempo transcurrido desde el inicio del contenido de vídeo, y multiplicando el tiempo transcurrido por la velocidad de reproducción. Por ejemplo, un clic del ratón en 2,5 segundos en la reproducción, el fotograma aproximado será 30 sobre la base de una velocidad de reproducción de 12 fotogramas por segundo. Una vez que se determina el fotograma aproximado, la aplicación de reproducción de vídeo 42 determina la sección de la aplicación de salto de sección 55. Al determinar la sección, todas las áreas seleccionables en la sección se analizan para determinar el área seleccionable o el objeto de píxeles que contiene las coordenadas x, y asociadas con el clic del ratón, en su caso. Si es así, el sistema muestra el objeto de datos que se ha enlazado con el objeto de píxeles a través del índice de enlace en el archivo de objeto en una ventana de la pantalla de inventario 156. En particular, se muestra un objeto de datos, que está enlazado con el objeto de píxeles. Un código de ejemplo para devolver un índice de enlace se proporciona en el Apéndice.
La aplicación de reproducción de vídeo 42 también puede ser utilizada para soportar una interfaz gráfica 153 tal como se ilustra en la figura 3. La interfaz gráfica de usuario 153 puede incluir un área de visualización 151 para la visualización de los contenidos de vídeo a través de un API común reproductor de medios.
La aplicación de reproducción 42 también puede prever una capacidad adicional. Por ejemplo, la interfaz gráfica de usuario 153 puede estar provista de botones para la categorización de los diferentes objetos de datos que se han enlazado con el contenido del vídeo. Tal como se muestra en la figura 3, la interfaz gráfica de usuario 153 puede incluir botones de categorías, como entretenimiento, comercio y botones de educación 157, 159 y 161 para mostrar los objetos de datos en cada una de las categorías de ejemplo. Estos títulos de las categorías se pueden personalizar para cada programa, y de forma dinámica para reflejar por escrito el contenido del programa que se muestra. En esta configuración, los archivos de objetos de datos se configuran con la información categórica. Por lo tanto, cuando uno de los botones categóricos es seleccionado, todos los enlaces seleccionados en esa categoría se recuperan de la base de datos de la posición del producto 36 (figura 1) y se muestra en la pantalla de inventario 156.
Los botones de "Pausa en clic en" y "Click y Conectar" o casillas 165 y 167 se pueden proporcionar. El botón "Pausa en clic" 165, una vez seleccionado, detiene el contenido de vídeo en el área de visualización 151 para dejar un tiempo para decidir si el usuario se conecta a una plataforma de recursos alternativos en la actualidad después de que un objeto de píxeles seleccionado se ha enlazado con un objeto de datos o se ha recuperado el objeto de datos de la ventana de la pantalla de inventario 156 en un momento posterior. El botón "Clic y conectar" 167 se puede utilizar para mostrar el objeto de datos enlazado, por ejemplo, una página web en segundo plano en el área de visualización de la plataforma de reproducción 43 fuera de la interfaz gráfica de usuario 153, mientras que el contenido de vídeo continúa visualizándose en la pantalla 151.
También se pueden proporcionar funcionalidades adicionales, como por ejemplo los botones "Mostrar todos los enlaces en un fotograma" y "Mostrar todos los enlaces en el programa" 168 y 169. El botón "Mostrar todos los enlaces en un fotograma" 168 muestra todos los enlaces en un fotograma dado en la pantalla de inventario 156 cuando se selecciona. Esta función permite al usuario desplazarse por el contenido de acceso, por ejemplo, a través de unos botones de desplazamiento 171 para localizar la escena o el fotograma en el que aparezca el elemento deseado. Una vez que el fotograma ha sido localizado, el usuario puede hacer clic en el fotograma visualizado y todos los elementos disponibles que figuran en el fotograma de la pantalla se ordenan y se muestran en la pantalla de inventario 155. El botón "Mostrar todos los enlaces" 169, cuando se selecciona, muestra todos los enlaces de objetos de datos con el contenido de vídeo. Los objetos de datos se muestran en la pantalla de inventario 155.
55 E01975637 04-08-2011
Un botón de vídeo de reanudación 172 puede proporcionarse. El botón de vídeo de reanudación 172 se utiliza después de seleccionar un objeto desde la ventana de la pantalla de inventario 155. En particular, tal como se mencionó anteriormente, los objetos seleccionados en la ventana de la pantalla de inventario 155 enlazan la aplicación a otra plataforma de recursos, tal como por ejemplo un sitio web. Como se mencionó anteriormente, en un modo de funcionamiento de clic y conectar, el contenido de vídeo se sigue mostrando en la pantalla 151 en el reproductor, mientras que la página web se muestra en el fondo de la pantalla de la plataforma de reproducción 42. El botón de vídeo de reanudación 172 simplemente permite la reproducción del vídeo desde el punto en el que la aplicación de reproducción de vídeo 42 fue enlazada a otra plataforma de recursos.
Botones de "Ocultar/Mostrar lista", "Iniciar sesión", "Borrar lista" y "Abrir enlace" 176, 178, 180 y 182 también se pueden proporcionar. El botón "Ocultar/Mostrar lista" 176 se puede utilizar para ocultar o mostrar las funciones de la interfaz gráfica de usuario 153. En particular, cuando se selecciona el botón ocultar/mostrar lista 176, se activa un estado de encendido/apagado y se almacena en la memoria.
El botón de Iniciar sesión 178 se puede utilizar para prevenir o limitar el acceso a la plataforma de reproducción 43. La capacidad de inicio de sesión puede ser usada para capturar datos valiosos sobre el hábito de los usuarios y la información solicitada. En esta aplicación, un servidor web (no mostrado) puede utilizarse para alojar una base de datos de información de usuario y contraseña comúnmente conocida en la industria. Cuando el botón Iniciar sesión 178 se selecciona, se envía una petición desde la plataforma de reproducción 43 a un servidor web de inicio de sesión para la autenticación. Un mensaje de autenticación puede regresar a la plataforma de alojamiento de vídeo 38 para permitir la reproducción de los contenidos de vídeo enlazados.
El botón Borrar lista 180 se puede proporcionar para borrar todos los objetos de datos en la pantalla de inventario
155. Cuando el botón Borrar lista 180 es seleccionado, la aplicación de reproducción 38 borra todos los objetos de datos en una memoria temporal que se utiliza para la ventana de la pantalla de inventario 155.
Un botón Abrir enlace 182 permite que la información adicional para objetos de datos seleccionados sea visitada. En particular, una vez que un objeto de datos es seleccionado desde la ventana de la pantalla de inventario 155, la selección del botón de abrir enlace 182 se puede utilizar para proporcionar cualquier información adicional disponible para el objeto de datos seleccionado.
Un área de visualización "miniatura" 184 puede proporcionarse para mostrar una imagen de un objeto de píxeles seleccionado en un tamaño reducido, o en el fotograma del cual fue seleccionado, u otra imagen representativa o anuncio. La aplicación de reproducción de vídeo 38 también puede soportar una caja de diálogo de sala de chat 186. La caja de diálogo de la sala de chat 186 se puede implementar usando software estándar convencional y provisto de una funcionalidad adicional. Por ejemplo, las imágenes para obtener una lista de objetos dentro del área de la pantalla de inventario 155 pueden ser arrastradas en caja de diálogo del área de chat 186. En respuesta a esta acción, la aplicación de reproducción de vídeo 38 muestra el hiperenlace de espacio de texto interactivo en la caja de diálogo de chat 186. Al hacer clic en las funciones del hiperenlace, se transmite la imagen en miniatura a la dirección generada.
Realización alternativa
Una realización alternativa de la invención se ilustra en las figuras 9 a 16. Más particularmente, esta realización de la invención es un procedimiento y un aparato para asociar el color de un objeto con un evento. En la siguiente descripción, numerosos detalles específicos se establecen para proporcionar una descripción más detallada de las realizaciones de la invención. Es evidente, sin embargo, para los expertos en la materia, que la invención puede realizarse sin estos detalles específicos. En otros casos, características bien conocidas no se han descrito en detalle para que no dificulte la invención.
Una o más realizaciones de la presente invención se dirigen a mejorar la capacidad del usuario para interactuar con un módulo de conexión de ordenador, televisión interactiva, o un dispositivo de procesamiento. De acuerdo con realizaciones de la presente invención, el usuario proporciona información sobre alguna zona del dispositivo de visualización, por ejemplo presionando un botón del ratón en un lugar determinado. La invención determina que el usuario ha presionado el botón del ratón y qué valor del color aparece en el dispositivo de pantalla en el momento que el usuario ha presionado el botón del ratón. A continuación, la invención inicia un evento que corresponde a un valor de color.
Procesamiento de eventos
En una o más realizaciones, la invención toma un medio de streaming o estático y asocia un objeto activo, dinámico
o estático con un evento mediante su color determinado. El evento puede ser, por ejemplo, la recuperación de un documento en una URL especificada en un navegador web o la recuperación de otra información en implementaciones de navegador no web. Otras implementaciones incluyen, por ejemplo, la visualización de medios, a través de un televisor, DVD u otro reproductor de medios, dispositivos de conexión, web TV, TV interactiva, y videojuegos.
Se toma, por ejemplo, una página web que implementa vídeo streaming. En el ejemplo, un presentador de televisión
55 E01975637 04-08-2011
lleva una camisa verde. Si un usuario proporciona una entrada en la pantalla pulsando un ratón con el cursor en un lugar donde se encuentra la camisa verde, la invención la enlaza con una LIRL asociada con la camisa verde. Por lo tanto, el color en movimiento puede sustituirse por un enlace convencional de texto estático. En otra realización, el presentador de televisión con la camisa verde puede estar en un programa de televisión. En esta realización, al proporcionar una entrada sobre la camisa verde en movimiento se puede iniciar un evento diferente, tal como proporcionar información acerca de la camisa o del presentador del juego.
Una realización de la presente invención se muestra en la figura 9. En la etapa 150, se produce una acción. En la etapa 152, se determina la posición de la acción (una región de interés). La localización de una región de interés es bien conocida en la técnica.
Un procedimiento para localizar una región de interés es la obtención de un par ordenado que corresponde a la posición del cursor en el momento de la acción. Por ejemplo, una pantalla de ordenador puede representarse como un gráfico de dos dimensiones en el que el eje de la gráfica se encuentra en la esquina inferior izquierda de la pantalla del ordenador. Por lo tanto, todos los pares ordenados corresponderán a los valores positivos de pares x, y en el gráfico.
Después de definir la región de interés, el valor asociado con un color en la región de interés se determina en la etapa 154. A continuación, en la etapa 156, se inicia un evento asociado con ese color.
Características del color
En una realización, la invención define el color mediante sus propiedades matemáticas. Por ejemplo, una realización utiliza el estándar RGB, que separa las propiedades del rojo, verde y azul del color como valores numéricos. Otra realización también utiliza las características HSV del color, que define el tono, la saturación y el valor como componentes del color. Las características HSV definen con más detalle las propiedades de un color, por ejemplo, V representa un análogo de la intensidad de un color o la luminosidad del color. Otra realización de la presente invención utiliza características RGB y HSV.
Una realización define las características de color, tal como se muestra en la figura 10. En la etapa 200, se determina si una acción se ha producido. Si la acción no se produjo, la etapa 200 se repite hasta que se produce una acción. Si la acción se ha producido, se determina que la acción se ha producido en la etapa 210.
El lugar se muestra aquí con respecto a un solo píxel, "píxel A". En la etapa 220, se determina un componente rojo de un color del píxel A. Luego, en la etapa 230, se determina un componente verde del color para el píxel A. A continuación, en la etapa 240, se determina un componente azul del color para el píxel A. A continuación, en la etapa 250, las características del color se combinan para formar un valor del color para el píxel A.
Después de la etapa 250, se determina si algún evento está asociado con el valor del color en la etapa 255. Si no hay ningún evento asociado a ese valor de color, ningún evento se inicia y el proceso se repite en la etapa 200. Si un evento está asociado con el valor del color, entonces en la etapa 260 se inicia un evento asociado con el valor del color.
Una realización define las características del color, tal como se muestra en la figura 11. En la etapa 300, se determina si se ha producido una acción. Si la acción no se produjo, la etapa 300 se repite hasta que se produce una acción. Si la acción se ha producido, se determina que la acción se ha producido en la etapa 310. El lugar se muestra aquí con respecto a un solo píxel, "pixel B". En la etapa 320, se determina un componente de tono de un color para el píxel B. Luego, en la etapa 330, se determina un componente de saturación del color para el píxel B. A continuación, en la etapa 340, se determina un componente de valor del color para el píxel B.
A continuación, en la etapa 350, las características de color se combinan para formar un valor de color para el píxel
B. Después de la etapa 350, se determina si algún evento está asociado con el valor del color en la etapa 355. Si no hay ningún evento asociado a ese valor de color, no se inicia ningún evento y el proceso se repite en la etapa 300. Si un evento está asociado con el valor del color, entonces en la etapa 360 se inicia un evento asociado con el valor del color.
Una realización define las características del color, tal como se muestra en la figura 12. En la etapa 400, se determina si se ha producido una acción. Si la acción no se produjo, la etapa 400 se repite hasta que se produce una acción. Si la acción se ha producido, se determina que la acción se ha producido en la etapa 410. El lugar se muestra aquí con respecto a un solo píxel, "pixel C". En la etapa 420, se determina un componente de tono de un color para el píxel C. Luego, en la etapa 430, se determina un componente de la saturación del color para el píxel C. A continuación, en la etapa 440, se determina un componente del valor del color para el píxel C. En la etapa 450, se determina un componente rojo de un color para píxel C. Luego, en la etapa 460, se determina un componente verde del color para el píxel C. A continuación, en la etapa 470, se determina un componente azul del color para el píxel C.
A continuación, en la etapa 480, las características del color se combinan para formar un valor de color para el píxel
B. Después de la etapa 480, se determina si algún evento está asociado con el valor del color en la etapa 485. Si no hay ningún evento asociado a ese valor de color, no se inicia ningún evento y el proceso se repite en la etapa 400.
50 E01975637 04-08-2011
Si un evento está asociado con el valor del color, entonces se inicia en la etapa 490 un evento asociado con el valor del color.
Memoria intermedia de fotogramas
En un ordenador u otro dispositivo análogo, las imágenes se utilizan a menudo como una forma de salida. Una forma común de que tales dispositivos manejan las imágenes o secuencias de imágenes (por ejemplo, vídeo) es el uso de una "memoria intermedia de fotogramas". Para el procesamiento previo fuera de línea o para el procesamiento en tiempo real usando ordenadores de alta velocidad, las memorias intermedias de fotogramas RGB residen en la memoria. Alternativamente, una tarjeta de vídeo de alta velocidad especial se puede utilizar para procesar una memoria intermedia de fotogramas RGB para el procesamiento en tiempo real.
Una señal de vídeo, por ejemplo, comprende una serie de imágenes fijas que se muestran de forma secuencial, donde la serie de imágenes aparece con tanta rapidez que el usuario percibe la serie de imágenes como un flujo continuo de movimiento. A medida que el ordenador procesa cada imagen, los datos relativos a la imagen se almacenan en la memoria intermedia. Estos datos incluyen, por ejemplo, el color de los valores asociados a cada píxel en cada lugar de la pantalla.
Cuando una nueva imagen se muestra, nuevos datos sobre la imagen se almacena en la memoria intermedia. Dependiendo del tamaño de la memoria intermedia de fotogramas, muchas imágenes secuenciales se pueden almacenar allí antes de que se llene y los datos antiguos de la imagen deban ser sobrescritos.
Una realización de la presente invención se aprovecha de los datos ya existentes en la memoria intermedia de fotogramas, por ejemplo, para realizar la etapa 120 de la figura 9. La figura 15 muestra una realización de la presente invención, donde se utiliza la memoria intermedia de fotogramas.
En la etapa 700 se produce una acción. En la etapa 710, se determina la posición de la acción (una región de interés). A continuación, en la etapa 720, la invención accede a la memoria intermedia de fotogramas para obtener los valores del color en la posición de la acción cuando se ha producido. A continuación, se determina si algún evento está asociado con el valor del color en la etapa 730. Si no hay ningún evento asociado a ese valor de color, no se inicia ningún evento y el proceso se repite en la etapa 700. Si un evento está asociado con el valor del color, entonces se inicia en la etapa 740 un evento asociado con el valor del color.
Eventos
Tal como se describió anteriormente, un evento es un enlace a otra URL (es decir, para facilitar una transacción a través de Internet). Por lo tanto, un evento puede comprender la recuperación de una página web desde un ordenador servidor conectado a Internet.
En el contexto del medio streaming, un evento puede ser la recuperación de una página de texto. Por ejemplo, suponga que el usuario está viendo un programa de DVD que muestra varias de las grandes pirámides de Egipto. Si el usuario hace que se produzca un evento en una región de interés definida por una pirámide específica, el evento puede comprender la recuperación de una página de texto que indica al usuario exactamente qué pirámide es, cuándo se construyó, la historia relacionada con esta pirámide específica, y cualquier otra información pertinente. Por lo tanto, el evento haría que el DVD se mueva a una pista de datos diferente (es decir, acercar información diferente).
En el mismo ejemplo de la gran pirámide, otro evento puede comprender la recuperación de información de audio, por ejemplo, un narrador proporciona información similar a la dada en la pista de texto en el ejemplo anterior. Además, el evento puede comprender la recuperación de una nueva corriente de medios, tal como el acercamiento de la pirámide, ángulos alternos que muestran diferentes vistas de la misma pirámide, o vistas desde el interior de la pirámide, por ejemplo.
En una realización, un evento comprende la recuperación de una pista de datos. Una pista de datos comprende información asociada con el color que actúa en consecuencia. Supongamos por ejemplo, que esta realización de la presente invención se lleva a cabo utilizando un aparato de televisión interactiva. Mientras que la televisión interactiva está en funcionamiento, un presentador de televisión aparece vestido con una camisa verde. A continuación, supongamos, por ejemplo, que un usuario hace que se produzca una acción en el lugar de la camisa verde. En este caso, el seguimiento de los datos puede facilitar información sobre la camisa, el presentador del juego, o cualquier otra información pertinente.
Si un evento está asociado con un valor de color se puede determinar de una pluralidad de maneras. Una forma de hacerlo es utilizar una tabla. Un ejemplo de una realización de una tabla se muestra en la tabla 1.
E01975637 04-08-2011
Tabla 1
Valor del color
Evento
100
recuperar el documento en la URL www.info.com/test
300
obtener una pista de datos en un lugar específico
200
iniciar el flujo de los medios en la posición especificada
288
iniciar la pista de audio en la posición especificada
La tabla se pueden organizar en una pluralidad de formas y puede accederse en procedimientos bien conocidos por parte de los expertos en la materia, incluyendo las tablas hash, funciones hash, indicadores, índices, o cualquier otra forma adecuada de búsqueda en la tabla. Además, los distintos valores de color pueden iniciar el mismo evento. Alternativamente, todos los valores de color en un dispositivo de salida pueden estar asociados con el mismo evento.
La figura 13 muestra una realización de la presente invención, donde se implementa una tabla. En la etapa 500, se produce una acción. En la etapa 510, se determina la posición de la acción (una región de interés). A continuación, en la etapa 520, se determina el valor asociado con un color en la región de interés. A continuación, se busca en una tabla para localizar el valor del color para obtener un evento que está emparejado con el valor del color en la etapa
530. Luego, en la etapa 535, se determina si el valor del color está en la tabla. Si no es así, entonces el valor del color no está enlazado a un evento y no se inicia el evento. En ese caso el proceso se repite en la etapa 500. De lo contrario, en la etapa 540, el evento se inicia.
Gamas de color
En otra realización de la presente invención, las regiones de interés (es decir, aquellas regiones en las que un usuario ha realizado una acción) están asociadas con eventos basados en gamas de colores. Una gama de colores, por ejemplo, incluye los tonos de azul que corresponden con el cuerpo de un pájaro azul en una secuencia de vídeo. Corrientes realistas de imágenes y de vídeo no tendrán un tono uniforme de color azul en todas las áreas del cuerpo del pájaro azul, ya que la luz y otros factores harán variaciones naturales en el color percibido reflejado de un objeto. En esta realización, esta realidad se explica, que ofrece a esta realización una aplicación específica en corrientes de vídeo dinámicos y de alta calidad.
Las gamas de color se definen por las características del color. Por ejemplo, una gama de colores se puede traducir en valores en una escala RGB o HSV, o podría ser una combinación de ambas. Típicamente, en un sistema informático estos valores varían de 0-255. Por lo tanto, el cuerpo del pájaro azul puede ser definido como una región de interés en la gama de colores que incluye un valor B en la escala RGB de 50 a 75, por ejemplo.
Por lo tanto, si la acción se produjo en una parte superior izquierda o derecha inferior del cuerpo del pájaro azul, el mismo evento se inicia, a pesar del potencial que en estas esquinas de las regiones de interés, los valores de color sean diferentes. Todo lo que se requiere en esta realización es que tanto los valores de color diferentes estén dentro de la gama de colores definida.
En muchas imágenes, los colores pueden ser muy similares, incluso puede haber aspectos de los diferentes componentes de la imagen y que se asocian con diferentes eventos. En una realización, las gamas son definidas respecto a una pluralidad de características de color incluyendo RGB y HSV.
Por ejemplo, una gama puede ser definida donde R se selecciona para tener un rango de 50 a 80, G se selecciona para tener una gama de 150 a 160, y B se selecciona para tener una gama de 200 a 220. Un ejemplo es el color seleccionado por el usuario en el ejemplo, el color tiene las características RGB de 60, 155 y 205, respectivamente. Otro color en la pantalla que está asociado con un evento diferente puede parecer que es substancialmente idéntico al color de ejemplo, pero tiene características RGB de 190, 100, 33. Como los intervalos se han definido mediante una pluralidad de características, sin embargo, estas pequeñas diferencias en los tonos de los colores se explican para esta realización de la presente invención.
En una realización, las características del color se definen mediante R, G, B, H, S, V, y R-G, G-B, donde R-G y G-B tienen componentes rojo y verde y verde y azul, respectivamente. En esta realización, cualquiera de estas tres variables es suficiente para definir inequívocamente todos los colores mostrados en un dispositivo de salida o almacenados en una memoria intermedia de fotogramas. Para determinar si las variables se encuentran dentro de la gama de colores con el fin de determinar si un evento se asocia con el área de interés, se utiliza el siguiente algoritmo (que se muestra en la figura 16).
55 E01975637 04-08-2011
En la etapa 800, se determina si una acción se ha producido. Si la acción no se produjo, la etapa 800 se repite hasta que se produce una acción. Si la acción se ha producido, se determina que la acción se ha producido en la etapa
810. A continuación, en la etapa 820, se eligen tres variables de una lista de posibles componentes del color, por ejemplo, R, G, B, H, S, V, R-G, o G-B. Para las variables elegidas, se producen histogramas en la etapa 830.
Un histograma es un procedimiento gráfico para describir los datos. Es una presentación de los datos cuantitativos (es decir, los componentes del color) que se han resumido en una distribución de frecuencias. Los valores de las variables cuantitativas se muestran en el eje horizontal. Un rectángulo se dibuja por encima de cada clase, de tal manera que la base del rectángulo es igual a la anchura del intervalo de clase y su altura es proporcional al número de valores de datos en la clase.
Usando el histograma, las gamas de colores se determinan en la etapa 840, por ejemplo mediante la determinación del pico de la variable en el histograma + o - tres veces su varianza. Después de la etapa 840, se determina si algún evento se asocia con la gama de colores en la etapa 850. Si no hay ningún evento asociado a esa gama de colores, no se inicia ningún evento y el proceso se repite en la etapa 800. Si un evento se asocia con la gama de colores, entonces se inicia en la etapa 860 un evento asociado a la gama de colores.
Patrones de color
A menudo es beneficioso definir una región de interés que no es uniforme en color. Una región de interés, por ejemplo, puede ser un mantel de tela escocesa. En este caso, no es adecuado utilizar un valor de un solo color, ni una gama de colores para definir la región de interés. Para explicar esto, una realización de la presente invención utiliza patrones de color para definir la región de interés.
Un patrón de color comprende una representación de los colores en la región de interés, por ejemplo, una representación gráfica, que se define por un trazado en un eje x, y. Los colores que varían en la región de interés crear picos y valles en la representación gráfica de patrón del color. Al colocar los patrones de picos y valles en este patrón de color, se utilizan patrones de múltiples colores, tal como el mantel de tela escocesa, para asociar las acciones con los eventos.
Detección de bordes
Una realización de la presente invención utiliza un esquema de detección de bordes para definir los límites para los colores. El componente del color de un objeto se describe por sus píxeles. Un algoritmo da a los píxeles un "borde" que no es visible para el usuario, ni dibujado en la pantalla, ni procesados previamente antes de que el usuario vea las imágenes formadas por los píxeles. Por ejemplo, un fotograma de alambre invisible se ha creado para describir la forma del objeto de color determinado para asociarse con el evento. Pero el valor de los píxeles define el fotograma del alambre en lugar de realmente dibujar un fotograma de alambre en la pantalla.
Una realización de la presente invención utiliza QuickTime, un paquete de software disponible de Apple Computers™. En esta realización, Quicktime se utiliza para soportar el uso de "sprite". Un “sprite” es un elemento seleccionable dentro de un flujo de vídeo. Usando Quicktime, se modifica un “sprite” para ser definido por su componente de color. Así, una o más realizaciones de la presente invención crean las asociaciones entre objetos y eventos de forma dinámica, en la que los datos que crean la asociación son una propiedad de la propia imagen (es decir, sus valores de color). La presente invención no requiere la modificación o el procesamiento previo de la imagen para crear las asociaciones.
Realización de ambiente de ejecución informática (Hardware)
Una realización de la invención se puede implementar como software de ordenador en forma de código de programa informático ejecutado en un entorno informático de propósito general, tal como el ambiente 600 que se ilustra en la figura 14, o en forma de archivos ejecutables de clase de códigos de bytes de Java™ de tiempo de funcionamiento en un entorno, o en forma de códigos de bytes que se ejecutan en un procesador (o los dispositivos habilitados para procesar códigos de bytes) existentes en un entorno distribuido (por ejemplo, uno o más procesadores en una red). Un teclado 610 y un ratón 611 están acoplados a un bus de sistema 618. El teclado y el ratón son para la introducción de la entrada del usuario en el sistema informático y para la comunicación de la entrada del usuario a la unidad central de procesamiento (CPU) 613. Otros dispositivos de entrada adecuados se pueden utilizar, además, o en lugar, del ratón 611 y del teclado 610. Una unidad I/O (entrada/salida) 619 acoplada al bus del sistema bidireccional 618 representa estos elementos I/O como una impresora, A/V (audio/vídeo), I/O, etc.
Un ordenador 601 puede incluir una interfaz de comunicación 620, acoplada al bus 618. La interfaz de comunicación 620 permite una comunicación bidireccional de datos de acoplamiento a través de un enlace de red 621 a una red local 622. Por ejemplo, si la interfaz de comunicación 620 es una tarjeta o un módem digital de servicios integrados (RDSI), la interfaz de comunicación 620 proporciona una conexión de comunicación de datos al tipo correspondiente de la línea telefónica, que comprende parte del enlace de red 621. Si la interfaz de comunicación 620 es una tarjeta de red de área local (LAN), la interfaz de comunicación 620 proporciona una conexión de comunicación de datos a través del enlace de la red 621 a una LAN compatible. Enlaces inalámbricos también son posibles. En cualquiera de estas implementaciones, la interfaz de comunicación 620 envía y recibe señales eléctricas, electromagnéticas u
60 E01975637 04-08-2011
ópticas que transportan los flujos de datos digitales que representan diversos tipos de información.
Un enlace de red 621 típicamente proporciona una comunicación de datos a través de una o más redes a otros dispositivos de datos. Por ejemplo, el enlace de red 621 puede proporcionar una conexión a través de una red local 622 a un ordenador servidor local 623 o al equipo de datos operado por un ISP 624. El ISP 624, a su vez, proporciona servicios de comunicación de datos a través de la red mundial de comunicación de paquetes de datos ahora comúnmente conocida como "Internet" 625. La red local 622 e Internet 625 utilizan ambas señales eléctricas, electromagnéticas u ópticas que llevan flujos de datos digitales. Las señales a través de las distintas redes y las señales en el enlace de red 621 y a través de la interfaz de comunicación 620, que llevan la información digital a y desde el ordenador 600, son formas de ejemplo de ondas portadoras que llevan la información.
Un procesador 613 puede residir completamente en el ordenador cliente 601 o en su totalidad en el servidor 626 o un procesador 613 puede tener su poder de computación distribuido entre el ordenador 601 y el servidor 626. El servidor 626 simbólicamente se representa en la figura 6 como una unidad, pero el servidor 626 también se puede distribuir entre varios "niveles". En una realización, el servidor 626 comprende un nivel medio y trasero, donde la lógica de aplicación se ejecuta en el nivel medio y los datos persistentes se obtienen en el nivel trasero. En el caso de que el procesador 613 resida por completo en el servidor 626, los resultados de los cálculos realizados por el procesador 613 se transmiten al ordenador 601 a través de Internet 625, el proveedor de servicios de Internet (ISP) 624, la red local 622 y la interfaz de comunicación 620. De esta manera, el ordenador 601 es capaz de mostrar los resultados de la computación a un usuario en forma de salida.
El ordenador 601 incluye una memoria de vídeo 614, una memoria principal 615 y un almacenamiento masivo 612, todos acoplados a un bus de sistema bidireccional 618 junto con el teclado 610, el ratón 611 y el procesador 613. Al igual que con el procesador 613, en distintos entornos informáticos, la memoria principal 615 y el almacenamiento masivo 612 pueden residir completamente en el servidor 626 o el ordenador 601, o pueden estar distribuidos entre los dos. Ejemplos de sistemas en los que el procesador 613, la memoria principal 615, y el almacenamiento masivo 612 se distribuyen entre el ordenador 601 y el servidor 626 incluyen la arquitectura de computación de cliente ligero desarrollada por Sun Microsystems, Inc., el dispositivo de computación Palm Pilot y otros asistentes personales digitales, teléfonos celulares para conectarse a Internet y otros dispositivos de computación en Internet, y en entornos de plataforma de computación independientes, tales como los que utilizan tecnología Java, también desarrollada por Sun Microsystems, Inc.
El almacenamiento masivo 612 puede incluir medios fijos y extraíbles, tal como sistemas magnéticos de almacenamiento, ópticos o magnético ópticos o de cualquier otra tecnología disponible de almacenamiento masivo. El bus 618 puede contener, por ejemplo, treinta y dos líneas para la dirección de la memoria de vídeo 614 o la memoria principal 615. El bus del sistema 618 también incluye, por ejemplo, un bus de datos de 32 bits para transferir datos entre dos o más componentes, tales como el procesador 613, la memoria principal 615, la memoria de vídeo 614 y el almacenamiento masivo 612. Alternativamente, los datos del multiplexor/líneas de dirección se pueden utilizar en lugar de separar los datos y las líneas de dirección.
En una realización de la invención, el procesador 613 es un microprocesador fabricado por Motorola, tal como el procesador 680X0, o un microprocesador fabricado por Intel, tal como el procesador 80x86, o Pentium o un microprocesador SPARC de Sun Microsystems, Inc. Sin embargo, cualquier otro microprocesador adecuado o microcomputador pueden ser utilizados. La memoria principal 615 comprende una memoria de acceso aleatorio dinámica (DRAM). La memoria de vídeo 614 es una memoria de vídeo de acceso aleatorio de dos puertos. Un puerto de la memoria de vídeo 614 está acoplado a un amplificador de vídeo 616. El amplificador de vídeo 616 se utiliza para conducir el tubo de rayos catódicos (CRT) al monitor de rasterizado 617. El amplificador de vídeo 616 es bien conocido en la técnica y puede ser implementado mediante cualquier aparato adecuado. Este circuito convierte los datos de píxeles almacenados en la memoria de vídeo 614 en una señal de rasterizado adecuado para el uso del monitor 617. El monitor 617 es un tipo de monitor adecuado para mostrar imágenes gráficas.
El ordenador 601 puede enviar mensajes y recibir datos, incluyendo el código del programa, a través de la(s) red(es), el enlace de la red 621, y la interfaz de comunicación 620. En el ejemplo de Internet, el ordenador servidor remoto 626 puede transmitir un código solicitado para un programa de aplicación a través de Internet 625, el ISP 624, la red local 622 y la interfaz de comunicación 620. El código recibido puede ser ejecutado por un procesador 613 cuando se recibe, y/o almacenarse en almacenamiento masivo 612, u otro almacenamiento no volátil para su posterior ejecución. De esta manera, el ordenador 600 puede obtener el código de aplicación en forma de una onda portadora. Por otra parte, el ordenador servidor remoto 626 puede ejecutar aplicaciones usando el procesador 613, y utilizando el almacenamiento masivo 612, y/o la memoria de vídeo 615. Los resultados de la ejecución en el servidor 626 se transmiten a través de Internet 625, el ISP 624, la red local 622 y la interfaz de comunicación 620. En este ejemplo, el ordenador 601 sólo realiza funciones de entrada y de salida.
El código de aplicación puede realizarse en cualquier forma de producto de programa de ordenador. Un producto de programa de ordenador comprende un medio configurado para almacenar o transportar código legible por ordenador, o en el que el código legible por ordenador puede estar incorporado. Algunos ejemplos de productos de programa de ordenador son discos CD-ROM, tarjetas ROM, disquetes, cintas magnéticas, discos duros de ordenador, servidores en una red, y las ondas portadoras.
Obviamente, muchas modificaciones y variaciones de la presente invención son posibles a la luz de las enseñanzas anteriores. Por lo tanto, debe entenderse que, dentro del alcance de las reivindicaciones adjuntas, la invención se puede practicar de otra manera que no esté específicamente descrita anteriormente.
Lo que se reivindica y se desea que esté cubierto por una patente es lo siguiente:
Código de ejemplo para la lectura de datos en la primera matriz
numberOfLine = readFirstNumberOfFirstLine ();
startFrame readNextNumber = ();
endFrame readNextNumber = ();
trueFramePerSecond readNextNumber = ();
numberOfMovieSegment = readFirstNumberOfSecondLine ();
for (int i = 0; i <numberOfMovieSegments; i + +) { firstArray [i * 5] readNextNumber = (); firstArray [i * 5 +1] readNextNumber = (); firstArray [i * 5 +2] readNextNumber = (); firstArray [i * 5 +3] = readNextNumber (); firstArray [i * 5 +4] = readNextNumber ();
numberOfClickableAreas = calculateTheSumOfClickableAreas (firstArray [i * 5 +3]);}
Código de ejemplo para la lectura de datos en segundo conjunto
for (int i = 0; i <nurnberOfClickableAreas; i + +) { readLine (); secondArray [i * 5] readNextNumber = (); secondArray [i * 5 +1] readNextNumber = (); secondArray [i * 5 2] readNextNumber = (); secondArray [i * 5 +3] readNextNumber = (); secondArray [i * 5 +4] = readNextNumber ();}
Código de ejemplo para devolver un Índice de Enlace
int getLinkIndex (int x, int y, en frameNumber) { approximatedFrameNumber = frameNumber * trueFramePerSecond/12; segmentNumber = getSegmentNumber (approximateFrameNumber); numberOfClickableAreas = firstArray [segmentNumber * 5 + 3]; segmentStart = firstArray [segmentNumber * 5 + 4]
- numberOfSegments - 3; // 3 is the offset needed due to extra lines
for (int i = 0; i <numberOf ClickableAreas; i + +) {
x0 = secondArray [(segmentStart + i) * 5],
y0 = secondArray [ (segmentStart + i) * 5 + 1];
5
x2 = secondArray [(segmentStart + i) * 5 + 2];
xy2 = secondArray [(segmentStart + i) * 5 + 3],
if (x0 <= xR; y x < = x 2 + y y0 <= y &amp; &amp; y <= y2) {
return secondArray [(segmentStart + i) * 5 + 4];
}
10
}
return -1;
}
55 E01975637 04-08-2011

Claims (8)

  1. REIVINDICACIONES
    1. Procedimiento implementado por ordenador para el seguimiento automático de un objeto de píxeles o vídeo en una serie de fotogramas de vídeo en un modo de desarrollo, que incluye las siguientes etapas:
    determinar una posición de un objeto de píxeles seleccionado en un fotograma de la serie de fotogramas de vídeo que tiene un contenido de vídeo; determinar un valor de color para dicho objeto de píxeles; y seguir automáticamente el objeto de píxeles seleccionado en la serie de fotogramas de vídeo, caracterizo por definir en cada fotograma de la serie de fotogramas de vídeo una caja delimitadora que rodea el objeto de píxeles seleccionado, que incluye las etapas:
    (a)
    determinar una gama de color variable inicial de dicho objeto de píxeles seleccionado;
    (b)
    tomar muestras de los píxeles en un primer radio predeterminado respecto a dicho objeto de píxeles seleccionado;
    (c)
    localizar los píxeles en la muestra de la etapa (b) dentro de dicha gama de color variable inicial que define los píxeles localizados;
    (d)
    determinar una segunda gama de color variable a partir de dichos píxeles localizados, para compensar las variaciones en las variables de color;
    (e)
    tomar muestras de píxeles en un segundo radio de píxeles predeterminado en relación con dicho objeto de píxeles seleccionado, mayor que dicho primer radio de píxeles determinado;
    (f)
    localizar los píxeles en la muestra de la etapa (e) de dicho segunda gama de color variable;
    (g)
    determinar una tercera gama de color a partir de dicho píxeles localizados en la etapa (f), para compensar también las variaciones en las variables de color;
    (h)
    localizar los píxeles en la muestra de la etapa (e) en dicho tercer rango de color;
    (i)
    determinar el centroide y las coordenadas de una caja delimitadora alrededor de los píxeles localizados en la etapa (h);
    (j)
    almacenar el centroide y las coordenadas determinadas en la etapa (i), y
    (k)
    repetir las etapas (b) - (j) empezando en el centroide de la caja delimitadora del fotograma anterior usando la gama de color variable anterior hasta que todos los fotogramas de la secuencia de vídeo han sido procesados;
    y también caracterizado por la etapa: generar un archivo de vídeo enlazado que está separado de dicho contenido de vídeo, comprendiendo dicho archivo de vídeo enlazado
    (i)
    un archivo de píxeles que identifica las coordenadas de la caja delimitadora en cada fotograma y los fotogramas posteriores; y
    (ii)
    un archivo de objetos de datos que enlaza las coordenadas de la caja delimitadora con los objetos de datos.
  2. 2.
    Procedimiento según la reivindicación 1, que también se caracteriza por la etapa de determinar saltos de sección entre segmentos en dicha secuencia de fotogramas de vídeo en función de los cambios en dichas variables de color en uno o más fotogramas.
  3. 3.
    Procedimiento según la reivindicación 2, que también se caracteriza por la etapa de compensar los cambios en dichas variables de color como una función de dichos saltos de sección.
  4. 4.
    Sistema implementado en ordenador para el seguimiento automático de un píxel o un objeto de vídeo en una serie de fotogramas de vídeo en un modo de desarrollo, que incluye:
    una interfaz gráfica de usuario para determinar la posición de un objeto de píxeles seleccionado en un fotograma de una serie de fotogramas de vídeo que tiene contenido de vídeo; y una plataforma informática que se está configurada para:
    determinar una posición de un objeto de píxeles seleccionado en un fotograma de una serie de fotogramas de vídeo que tiene contenido de vídeo; determinar un valor de color de dicho objeto de píxeles; seguir automáticamente del objeto de píxeles seleccionado en la serie de fotogramas de vídeo;
    caracterizado porque la plataforma informática está configurada para definir en cada fotograma de la serie de fotogramas de vídeo una caja delimitadora que rodea el objeto de píxeles seleccionado, que está configurado para:
    (a)
    determinar una gama de color variable inicial de dicho objeto de píxeles seleccionado;
    (b)
    tomar muestras de los píxeles en un primer radio predeterminado respecto a dicho objeto de píxeles seleccionado;
    (c)
    localizar los píxeles en la muestra de la etapa (b) dentro de dicha gama de color variable inicial que define los píxeles localizados;
    (d)
    determinar una segunda gama de color variable a partir de dichos píxeles localizados, para compensar
    35 E01975637 04-08-2011
    las variaciones en las variables de color;
    (e)
    tomar muestras de píxeles en un segundo radio de píxeles predeterminado en relación con dicho objeto de píxeles seleccionado, mayor que dicho primer radio de píxeles determinado;
    (f)
    localizar los píxeles en la muestra de la etapa (e) de dicho segunda gama de color variable;
    (g)
    determinar una tercera gama de color a partir de dicho píxeles localizados en la etapa (f), para compensar también las variaciones en las variables de color;
    (h)
    localizar los píxeles en la muestra de la etapa (e) en dicho tercer rango de color;
    (i)
    determinar el centroide y las coordenadas de una caja delimitadora alrededor de los píxeles localizados en la etapa (h);
    (j)
    almacenar el centroide y las coordenadas determinadas en la etapa (i), y
    (k)
    repetir las etapas (b) - (j) empezando en el centroide de la caja delimitadora del fotograma anterior usando la gama de color variable anterior hasta que todos los fotogramas de la secuencia de vídeo han sido procesados;
    y está configurado además para: generar un archivo de vídeo enlazado que está separado de dicho contenido de vídeo, comprendiendo dicho archivo de vídeo enlazado
    (i)
    un archivo de píxeles que identifica las coordenadas de la caja delimitadora en cada fotograma y los fotogramas posteriores; y
    (ii)
    un archivo de objetos de datos que enlaza las coordenadas de la caja delimitadora con los objetos de datos.
  5. 5.
    Sistema según la reivindicación 4, caracterizado porque dicha plataforma informática está configurada para (i) permitir que un fotograma de dicha secuencia de fotogramas de vídeo sea capturado y uno o más objetos de píxeles en dicho fotograma capturado a seleccionar, y (ii) seguir automáticamente los objetos de píxeles seleccionados en el resto de los fotogramas de dicha secuencia de fotogramas de vídeo en función de uno o más colores característicos de dicho objeto de píxeles seleccionado, y (iii) generar uno o más archivos de vídeo enlazados separados de dichos fotogramas de vídeo.
  6. 6.
    Sistema según la reivindicación 5, caracterizado porque dicha plataforma informática está configurada para capturar un fotograma de dicha secuencia de fotogramas de vídeo para ser vistos para la definición de un fotograma de vídeo capturado.
  7. 7.
    Sistema según la reivindicación 5 ó 6, caracterizado porque dicha plataforma informática está configurada para la identificación automática de los valores de los píxeles promedio de la mediana de una serie de fotogramas de vídeo y comparar los cambios en los valores de los píxeles respecto al promedio de la mediana y que indica un salto de segmento cuando el cambio de los valores de los píxeles es mayor que una cantidad determinada.
  8. 8.
    Sistema según la reivindicación 5 ó 6, caracterizado porque dicha plataforma informática está configurada para compensar automáticamente los cambios en dicha una o más características de color de dicho objeto de píxeles seleccionado debido a cambios de iluminación.
ES01975637T 2000-10-03 2001-10-02 Sistema y procedimiento para el seguimiento de un objetivo en un video e información relacionada con el mismo. Expired - Lifetime ES2370893T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US67939100A 2000-10-03 2000-10-03
US679391 2000-10-03
US944543 2001-08-31

Publications (1)

Publication Number Publication Date
ES2370893T3 true ES2370893T3 (es) 2011-12-23

Family

ID=24726731

Family Applications (1)

Application Number Title Priority Date Filing Date
ES01975637T Expired - Lifetime ES2370893T3 (es) 2000-10-03 2001-10-02 Sistema y procedimiento para el seguimiento de un objetivo en un video e información relacionada con el mismo.

Country Status (3)

Country Link
US (6) US6774908B2 (es)
AT (1) ATE509311T1 (es)
ES (1) ES2370893T3 (es)

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7181691B2 (en) 1999-09-16 2007-02-20 Sharp Laboratories Of America, Inc. Audiovisual information management system with presentation service
US8028314B1 (en) 2000-05-26 2011-09-27 Sharp Laboratories Of America, Inc. Audiovisual information management system
US7076445B1 (en) 2000-06-20 2006-07-11 Cartwright Shawn D System and methods for obtaining advantages and transacting the same in a computer gaming environment
US6636237B1 (en) * 2000-07-31 2003-10-21 James H. Murray Method for creating and synchronizing links to objects in a video
US8020183B2 (en) 2000-09-14 2011-09-13 Sharp Laboratories Of America, Inc. Audiovisual management system
US6774908B2 (en) * 2000-10-03 2004-08-10 Creative Frontier Inc. System and method for tracking an object in a video and linking information thereto
US8316450B2 (en) * 2000-10-10 2012-11-20 Addn Click, Inc. System for inserting/overlaying markers, data packets and objects relative to viewable content and enabling live social networking, N-dimensional virtual environments and/or other value derivable from the content
US8234218B2 (en) * 2000-10-10 2012-07-31 AddnClick, Inc Method of inserting/overlaying markers, data packets and objects relative to viewable content and enabling live social networking, N-dimensional virtual environments and/or other value derivable from the content
US20030038796A1 (en) 2001-02-15 2003-02-27 Van Beek Petrus J.L. Segmentation metadata for audio-visual content
US6952224B2 (en) * 2001-03-30 2005-10-04 Intel Corporation Object trackability via parametric camera tuning
US7904814B2 (en) 2001-04-19 2011-03-08 Sharp Laboratories Of America, Inc. System for presenting audio-video content
US7499077B2 (en) 2001-06-04 2009-03-03 Sharp Laboratories Of America, Inc. Summarization of football video content
US7493397B1 (en) 2001-06-06 2009-02-17 Microsoft Corporation Providing remote processing services over a distributed communications network
US7203620B2 (en) * 2001-07-03 2007-04-10 Sharp Laboratories Of America, Inc. Summarization of video content
US7432940B2 (en) * 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US7474698B2 (en) * 2001-10-19 2009-01-06 Sharp Laboratories Of America, Inc. Identification of replay segments
US20030079224A1 (en) * 2001-10-22 2003-04-24 Anton Komar System and method to provide additional information associated with selectable display areas
US20030098869A1 (en) * 2001-11-09 2003-05-29 Arnold Glenn Christopher Real time interactive video system
US7120873B2 (en) 2002-01-28 2006-10-10 Sharp Laboratories Of America, Inc. Summarization of sumo video content
US8214741B2 (en) 2002-03-19 2012-07-03 Sharp Laboratories Of America, Inc. Synchronization of video and data
CN1640026A (zh) * 2002-07-01 2005-07-13 诺基亚公司 用于向终端传送广播媒体流的典型媒体对象的系统和方法
JP2004054435A (ja) * 2002-07-17 2004-02-19 Toshiba Corp ハイパーメディア情報提示方法、ハイパーメディア情報提示プログラムおよびハイパーメディア情報提示装置
US7042471B2 (en) * 2002-07-22 2006-05-09 International Business Machines Corporation Method and system for displaying descriptive information associated with a defined video object
US7657836B2 (en) 2002-07-25 2010-02-02 Sharp Laboratories Of America, Inc. Summarization of soccer video content
US7657907B2 (en) 2002-09-30 2010-02-02 Sharp Laboratories Of America, Inc. Automatic user profiling
US7643550B2 (en) * 2002-10-09 2010-01-05 Hewlett-Packard Development Company, L.P. Method for presenting streaming media for an event
US7006945B2 (en) 2003-01-10 2006-02-28 Sharp Laboratories Of America, Inc. Processing of video content
KR100513294B1 (ko) * 2003-04-09 2005-09-09 삼성전자주식회사 컨텐츠 내부 객체정보 제공을 위한 장치와 시스템 및컨텐츠 내부 객체정보 제공 방법
US20040233233A1 (en) * 2003-05-21 2004-11-25 Salkind Carole T. System and method for embedding interactive items in video and playing same in an interactive environment
CN100429641C (zh) * 2003-08-20 2008-10-29 英业达股份有限公司 交互式视讯生成系统及其方法
JP2005167517A (ja) * 2003-12-01 2005-06-23 Olympus Corp 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
US7742077B2 (en) * 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7594245B2 (en) 2004-03-04 2009-09-22 Sharp Laboratories Of America, Inc. Networked video devices
US8356317B2 (en) 2004-03-04 2013-01-15 Sharp Laboratories Of America, Inc. Presence based technology
US8949899B2 (en) 2005-03-04 2015-02-03 Sharp Laboratories Of America, Inc. Collaborative recommendation system
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US7890604B2 (en) * 2004-05-07 2011-02-15 Microsoft Corproation Client-side callbacks to server events
US9026578B2 (en) 2004-05-14 2015-05-05 Microsoft Corporation Systems and methods for persisting data between web pages
EP1792314A1 (en) * 2004-08-23 2007-06-06 Sherpa Technologies, LLC Selective displaying of item information in videos
US7594177B2 (en) * 2004-12-08 2009-09-22 Microsoft Corporation System and method for video browsing using a cluster index
US7970771B2 (en) * 2004-12-20 2011-06-28 Microsoft Corporation Method and system for tracking objects associated with an activity
GB0502369D0 (en) * 2005-02-04 2005-03-16 British Telecomm Classifying an object in a video frame
US20060218618A1 (en) * 2005-03-22 2006-09-28 Lorkovic Joseph E Dual display interactive video
US7451041B2 (en) 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US8724969B2 (en) * 2005-05-23 2014-05-13 Open Text S.A. Method, system and computer program product for editing movies in distributed scalable media environment
US9648281B2 (en) 2005-05-23 2017-05-09 Open Text Sa Ulc System and method for movie segment bookmarking and sharing
US8141111B2 (en) 2005-05-23 2012-03-20 Open Text S.A. Movie advertising playback techniques
US8145528B2 (en) 2005-05-23 2012-03-27 Open Text S.A. Movie advertising placement optimization based on behavior and content analysis
EP1758398A1 (en) * 2005-08-23 2007-02-28 Syneola SA Multilevel semiotic and fuzzy logic user and metadata interface means for interactive multimedia system having cognitive adaptive capability
US8150743B2 (en) * 2005-09-20 2012-04-03 Gadge Brown Method and apparatus for the identification of products displayed in media programs
US8689253B2 (en) 2006-03-03 2014-04-01 Sharp Laboratories Of America, Inc. Method and system for configuring media-playing sets
EP1991923A4 (en) * 2006-03-09 2009-04-08 Thomson Licensing ARBORESCENCE OF ACCESS TO CONTENT
US20080034028A1 (en) * 2006-08-03 2008-02-07 Ferrell Terry L System and method to provide an advertisement dragging system
JP4939890B2 (ja) * 2006-10-02 2012-05-30 株式会社東芝 映像符号化装置、映像復号化装置及び映像復号化方法
US20080088639A1 (en) * 2006-10-13 2008-04-17 Sony Ericsson Mobile Communications Ab Method for generating a graphical user interface
US8139115B2 (en) * 2006-10-30 2012-03-20 International Business Machines Corporation Method and apparatus for managing parking lots
US20080140523A1 (en) * 2006-12-06 2008-06-12 Sherpa Techologies, Llc Association of media interaction with complementary data
US7559017B2 (en) 2006-12-22 2009-07-07 Google Inc. Annotation framework for video
US9071730B2 (en) * 2007-04-14 2015-06-30 Viap Limited Product information display and purchasing
US20090043654A1 (en) * 2007-05-30 2009-02-12 Bates Daniel L Method And System For Enabling Advertising And Transaction Within User Generated Video Content
US9047374B2 (en) * 2007-06-08 2015-06-02 Apple Inc. Assembling video content
US20090006937A1 (en) * 2007-06-26 2009-01-01 Knapp Sean Object tracking and content monetization
US20090009532A1 (en) * 2007-07-02 2009-01-08 Sharp Laboratories Of America, Inc. Video content identification using ocr
US8091103B2 (en) * 2007-07-22 2012-01-03 Overlay.Tv Inc. Server providing content directories of video signals and linkage to content information sources
US20090078774A1 (en) * 2007-09-21 2009-03-26 Symbol Technologies, Inc. Graphical User Interface for Use in Programming a Barcode Reader
US11227315B2 (en) 2008-01-30 2022-01-18 Aibuy, Inc. Interactive product placement system and method therefor
US8312486B1 (en) 2008-01-30 2012-11-13 Cinsay, Inc. Interactive product placement system and method therefor
US20110191809A1 (en) 2008-01-30 2011-08-04 Cinsay, Llc Viral Syndicated Interactive Product System and Method Therefor
US8112702B2 (en) 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
WO2009137368A2 (en) 2008-05-03 2009-11-12 Mobile Media Now, Inc. Method and system for generation and playback of supplemented videos
US8280171B2 (en) * 2008-05-28 2012-10-02 Apple Inc. Tools for selecting a section of interest within an image
US8331685B2 (en) 2008-05-28 2012-12-11 Apple Inc. Defining a border for an image
US8452105B2 (en) * 2008-05-28 2013-05-28 Apple Inc. Selecting a section of interest within an image
US8548251B2 (en) 2008-05-28 2013-10-01 Apple Inc. Defining a border for an image
US8566353B2 (en) * 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
US8949718B2 (en) 2008-09-05 2015-02-03 Lemi Technology, Llc Visual audio links for digital audio content
US8386314B2 (en) 2008-12-11 2013-02-26 Accenture Global Services Limited Online ad detection and ad campaign analysis
US9665965B2 (en) * 2009-01-14 2017-05-30 Innovid Inc. Video-associated objects
US8200602B2 (en) * 2009-02-02 2012-06-12 Napo Enterprises, Llc System and method for creating thematic listening experiences in a networked peer media recommendation environment
US9183881B2 (en) 2009-02-02 2015-11-10 Porto Technology, Llc System and method for semantic trick play
US9940631B2 (en) * 2009-03-03 2018-04-10 Accenture Global Services Limited Online content collection
US9947017B2 (en) 2009-03-03 2018-04-17 Accenture Global Services Limited Online content campaign classification
US8826117B1 (en) 2009-03-25 2014-09-02 Google Inc. Web-based system for video editing
US8132200B1 (en) 2009-03-30 2012-03-06 Google Inc. Intra-video ratings
US20100275224A1 (en) * 2009-04-24 2010-10-28 Samuel Sheng System and Method for Information Delivery Including Delivery Via Video-Based Keyed or Tagged Content
US8885977B2 (en) * 2009-04-30 2014-11-11 Apple Inc. Automatically extending a boundary for an image to fully divide the image
US9055335B2 (en) 2009-05-29 2015-06-09 Cognitive Networks, Inc. Systems and methods for addressing a media database using distance associative hashing
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US10375451B2 (en) 2009-05-29 2019-08-06 Inscape Data, Inc. Detection of common media segments
US8769584B2 (en) 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US10116972B2 (en) 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US20120047119A1 (en) * 2009-07-21 2012-02-23 Porto Technology, Llc System and method for creating and navigating annotated hyperlinks between video segments
US20110261258A1 (en) * 2009-09-14 2011-10-27 Kumar Ramachandran Systems and methods for updating video content with linked tagging information
CN102033893A (zh) * 2009-09-25 2011-04-27 鸿富锦精密工业(深圳)有限公司 图片查询系统及方法
US9111287B2 (en) * 2009-09-30 2015-08-18 Microsoft Technology Licensing, Llc Video content-aware advertisement placement
US9838753B2 (en) 2013-12-23 2017-12-05 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US10192138B2 (en) 2010-05-27 2019-01-29 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US8819557B2 (en) 2010-07-15 2014-08-26 Apple Inc. Media-editing application with a free-form space for organizing or compositing media clips
US20120017150A1 (en) * 2010-07-15 2012-01-19 MySongToYou, Inc. Creating and disseminating of user generated media over a network
PE20130988A1 (es) * 2010-07-23 2013-09-12 Directv Group Inc Metodo para crear aplicaciones interactivas para television
US9792363B2 (en) * 2011-02-01 2017-10-17 Vdopia, INC. Video display method
US8842911B2 (en) 2011-02-04 2014-09-23 Apple Inc. Luma-based color matching
US8611655B2 (en) 2011-02-04 2013-12-17 Apple Inc. Hue-based color matching
US8594426B2 (en) 2011-02-04 2013-11-26 Apple Inc. Color matching using color segmentation
US8760464B2 (en) 2011-02-16 2014-06-24 Apple Inc. Shape masks
US8854370B2 (en) 2011-02-16 2014-10-07 Apple Inc. Color waveform
US8823726B2 (en) 2011-02-16 2014-09-02 Apple Inc. Color balance
US20120304062A1 (en) * 2011-05-23 2012-11-29 Speakertext, Inc. Referencing content via text captions
US8929588B2 (en) * 2011-07-22 2015-01-06 Honeywell International Inc. Object tracking
AU2012302021B2 (en) 2011-08-29 2016-05-19 Aibuy, Inc. Containerized software for virally copying from one endpoint to another
US9183546B2 (en) * 2011-10-07 2015-11-10 Hewlett-Packard Development Company, L.P. Methods and systems for a reminder servicer using visual recognition
KR20140075013A (ko) * 2011-10-19 2014-06-18 이 아이 듀폰 디 네모아 앤드 캄파니 조명용 유기 전자 소자
ITTO20110946A1 (it) * 2011-10-19 2013-04-20 Emisfera Societa Cooperativa Sistema per consentire ad un utente di interagire in tempo reale con un contenuto video
CN103299613B (zh) * 2011-11-17 2017-08-15 松下电器(美国)知识产权公司 图像处理装置、摄像装置及图像处理方法
US9438883B2 (en) * 2012-04-09 2016-09-06 Intel Corporation Quality of experience reporting for combined unicast-multicast/broadcast streaming of media content
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
US10789631B2 (en) 2012-06-21 2020-09-29 Aibuy, Inc. Apparatus and method for peer-assisted e-commerce shopping
US9607330B2 (en) 2012-06-21 2017-03-28 Cinsay, Inc. Peer-assisted shopping
WO2014014963A1 (en) 2012-07-16 2014-01-23 Questionmine, LLC Apparatus and method for synchronizing interactive content with multimedia
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
KR20140105985A (ko) * 2013-02-25 2014-09-03 삼성전자주식회사 사용자 인터페이스 제공 방법 및 장치
WO2014144882A1 (en) * 2013-03-15 2014-09-18 E-Connect Visual analysis of transactions
US9521438B2 (en) * 2013-03-29 2016-12-13 Microsoft Technology Licensing, Llc Custom data indicating nominal range of samples of media content
CA2921994C (en) 2013-09-11 2021-11-16 Cinsay, Inc. Dynamic binding of video content
JP6531105B2 (ja) 2013-09-27 2019-06-12 アイバイ,インコーポレイテッド 補足コンテンツのnレベル複製
KR102344237B1 (ko) 2013-09-27 2021-12-27 에이아이바이, 인크. 콘텐츠 제공과 연관되는 관계성들을 지원하기 위한 장치 및 방법
TW201519161A (zh) * 2013-11-07 2015-05-16 Inst Information Industry 電子裝置及其影片物體移動軌跡修正方法
TWI570666B (zh) * 2013-11-15 2017-02-11 財團法人資訊工業策進會 電子裝置及其影片物體追蹤方法
CN106062801B (zh) * 2013-12-23 2021-11-09 构造数据有限责任公司 用于电视事件观看的追踪像素和cookie
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
WO2015118563A1 (en) * 2014-02-06 2015-08-13 Gurbrinder Singh Bindra A method and system for providing information on one or more frames selected from a video by a user
US20150244772A1 (en) * 2014-02-24 2015-08-27 Triple It B.V. Fast rendering of content using a mobile user device
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
BR102014007666B1 (pt) * 2014-03-28 2023-01-10 Samsung Eletrônica Da Amazônia Ltda Método para autenticação de transações móveis usando criptografia de vídeo e método para criptografia de vídeo
US20150339589A1 (en) * 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
EP3162080A1 (en) * 2014-06-25 2017-05-03 Thomson Licensing Annotation method and corresponding device, computer program product and storage medium
US9462239B2 (en) * 2014-07-15 2016-10-04 Fuji Xerox Co., Ltd. Systems and methods for time-multiplexing temporal pixel-location data and regular image projection for interactive projection
US9852759B2 (en) * 2014-10-25 2017-12-26 Yieldmo, Inc. Methods for serving interactive content to a user
US11809811B2 (en) * 2014-10-25 2023-11-07 Yieldmo, Inc. Methods for serving interactive content to a user
US20250342306A1 (en) * 2014-10-25 2025-11-06 Yieldmo, Inc. Methods for serving interactive content to a user
EP3029631A1 (en) * 2014-12-04 2016-06-08 Thomson Licensing A method and apparatus for assisted object selection in video sequences
JP5818050B1 (ja) * 2015-01-28 2015-11-18 ビックリック株式会社 ステータス判定システム
MX373930B (es) 2015-01-30 2020-07-10 Inscape Data Inc Metodos para la identificacion de segmentos de video y opcion de visualizacion para ver desde una fuente alternativa y/o en un dispositivo alternativo.
CN107949849B (zh) 2015-04-17 2021-10-08 构造数据有限责任公司 缩减大数据集中数据密度的系统和方法
US11432046B1 (en) 2015-06-12 2022-08-30 Veepio Holdings, Llc Interactive, personalized objects in content creator's media with e-commerce link associated therewith
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
HK1255124A1 (zh) 2015-07-16 2019-08-02 构造数据有限责任公司 对视频段的未来收看的预测以优化系统资源利用
CA2992521C (en) 2015-07-16 2024-05-07 Inscape Data, Inc. System and method for improving work load management in acr television monitoring system
CA3216076A1 (en) 2015-07-16 2017-01-19 Inscape Data, Inc. Detection of common media segments
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
EP3323055A1 (en) 2015-07-16 2018-05-23 Inscape Data, Inc. Systems and methods for partitioning search indexes for improved efficiency in identifying media segments
US10445885B1 (en) 2015-10-01 2019-10-15 Intellivision Technologies Corp Methods and systems for tracking objects in videos and images using a cost matrix
CN108124167A (zh) * 2016-11-30 2018-06-05 阿里巴巴集团控股有限公司 一种播放处理方法、装置和设备
MX2019011811A (es) 2017-04-06 2019-11-25 Inscape Data Inc Sistemas y metodos para mejorar la precision de los mapas de dispositivos utilizando datos de visualizacion de medios.
US11006188B2 (en) 2017-12-29 2021-05-11 Comcast Cable Communications, Llc Secondary media insertion systems, methods, and apparatuses
US10999640B2 (en) 2018-11-29 2021-05-04 International Business Machines Corporation Automatic embedding of information associated with video content
US11141656B1 (en) * 2019-03-29 2021-10-12 Amazon Technologies, Inc. Interface with video playback
US11554324B2 (en) * 2020-06-25 2023-01-17 Sony Interactive Entertainment LLC Selection of video template based on computer simulation metadata
US11263385B1 (en) * 2021-03-24 2022-03-01 Ebay Inc. Web browser extension for linking images to webpages
CN114943936B (zh) * 2022-06-17 2023-06-20 北京百度网讯科技有限公司 目标行为识别方法、装置、电子设备及存储介质
US11805588B1 (en) 2022-07-29 2023-10-31 Electronic Theatre Controls, Inc. Collision detection for venue lighting

Family Cites Families (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US659643A (en) * 1900-07-11 1900-10-16 Vincenzo Bonzagni Apparatus for cleansing water-pipes.
US3878557A (en) 1974-03-15 1975-04-15 Int Video Corp Color framing videotape recording apparatus and method
US5204749A (en) 1984-05-25 1993-04-20 Canon Kabushiki Kaisha Automatic follow-up focus detecting device and automatic follow-up device
US4719584A (en) 1985-04-01 1988-01-12 Hughes Aircraft Company Dual mode video tracker
US4758714A (en) 1986-10-06 1988-07-19 Carlson Steven R Point-of-sale mechanism
US5053607A (en) 1986-10-06 1991-10-01 Carlson Steven R Point-of-sale device particularly adapted for processing checks
JPH0642882B2 (ja) * 1987-04-20 1994-06-08 富士写真フイルム株式会社 所望画像信号範囲決定方法
US4797920A (en) 1987-05-01 1989-01-10 Mastercard International, Inc. Electronic funds transfer system with means for verifying a personal identification number without pre-established secret keys
US4969189A (en) 1988-06-25 1990-11-06 Nippon Telegraph & Telephone Corporation Authentication system and apparatus therefor
US4924303A (en) 1988-09-06 1990-05-08 Kenneth Dunlop Method and apparatus for providing interactive retrieval of TV still frame images and audio segments
US5127043A (en) 1990-05-15 1992-06-30 Vcs Industries, Inc. Simultaneous speaker-independent voice recognition and verification over a telephone network
US5125022A (en) 1990-05-15 1992-06-23 Vcs Industries, Inc. Method for recognizing alphanumeric strings spoken over a telephone network
US5885086A (en) 1990-09-12 1999-03-23 The United States Of America As Represented By The Secretary Of The Navy Interactive video delivery system
US5504318A (en) * 1991-09-13 1996-04-02 Symbol Technologies, Inc. Analog waveform decoder using peak locations
US5724091A (en) 1991-11-25 1998-03-03 Actv, Inc. Compressed digital data interactive program system
USH1506H (en) * 1991-12-11 1995-12-05 Xerox Corporation Graphical user interface for editing a palette of colors
US5434678A (en) 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
JP3298072B2 (ja) * 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US5579471A (en) 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
CA2109681C (en) 1993-03-10 1998-08-25 Donald Edgar Blahut Method and apparatus for the coding and display of overlapping windows with transparency
DE4309802A1 (de) * 1993-03-28 1994-09-29 Robert Prof Dr Ing Massen Produktionsnahe Farbkontrolle mit bildgebenden Sensoren
TW318315B (es) 1993-05-03 1997-10-21 At & T Corp
US5590261A (en) 1993-05-07 1996-12-31 Massachusetts Institute Of Technology Finite-element method for image alignment and morphing
US5735744A (en) 1993-05-10 1998-04-07 Yugengaisha Adachi International Interactive communication system for communicating video game and karaoke software
US5517605A (en) 1993-08-11 1996-05-14 Ast Research Inc. Method and apparatus for managing browsing, and selecting graphic images
US5343529A (en) 1993-09-28 1994-08-30 Milton Goldfine Transaction authentication using a centrally generated transaction identifier
US5841978A (en) 1993-11-18 1998-11-24 Digimarc Corporation Network linking method using steganographically embedded data objects
US5475756A (en) 1994-02-17 1995-12-12 At&T Corp. Method of authenticating a terminal in a transaction execution system
US5907597A (en) 1994-08-05 1999-05-25 Smart Tone Authentication, Inc. Method and system for the secure communication of data
DE69522924T2 (de) 1994-10-11 2002-04-11 Koninklijke Philips Electronics N.V., Eindhoven Verfahren und anordnung zur übertragung eines interaktiven audiovisuellen programms
US6269348B1 (en) 1994-11-28 2001-07-31 Veristar Corporation Tokenless biometric electronic debit and credit transactions
US6154879A (en) 1994-11-28 2000-11-28 Smarttouch, Inc. Tokenless biometric ATM access system
US5774868A (en) * 1994-12-23 1998-06-30 International Business And Machines Corporation Automatic sales promotion selection system and method
US5729279A (en) 1995-01-26 1998-03-17 Spectravision, Inc. Video distribution system
US5677955A (en) 1995-04-07 1997-10-14 Financial Services Technology Consortium Electronic funds transfer instruments
US5729741A (en) 1995-04-10 1998-03-17 Golden Enterprises, Inc. System for storage and retrieval of diverse types of information obtained from different media sources which includes video, audio, and text transcriptions
US5752160A (en) 1995-05-05 1998-05-12 Dunn; Matthew W. Interactive entertainment network system and method with analog video startup loop for video-on-demand
US5907323A (en) 1995-05-05 1999-05-25 Microsoft Corporation Interactive program summary panel
US6205231B1 (en) 1995-05-10 2001-03-20 Identive Corporation Object identification in a moving video image
US5684715A (en) 1995-06-07 1997-11-04 Canon Information Systems, Inc. Interactive video system with dynamic video object descriptors
US5912980A (en) 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
US5737553A (en) 1995-07-14 1998-04-07 Novell, Inc. Colormap system for mapping pixel position and color index to executable functions
JP2000501859A (ja) * 1995-07-19 2000-02-15 モルフォメトリックス テクノロジーズ インク. 画像解析のためのウィンドウ・テクスチャ抽出
US6411725B1 (en) 1995-07-27 2002-06-25 Digimarc Corporation Watermark enabled video objects
US5745103A (en) 1995-08-02 1998-04-28 Microsoft Corporation Real-time palette negotiations in multimedia presentations
US6005582A (en) * 1995-08-04 1999-12-21 Microsoft Corporation Method and system for texture mapping images with anisotropic filtering
US6005602A (en) 1995-08-31 1999-12-21 Microsoft Corporation Message delivery method for interactive televideo system
US5874985A (en) 1995-08-31 1999-02-23 Microsoft Corporation Message delivery method for interactive televideo system
US5781228A (en) 1995-09-07 1998-07-14 Microsoft Corporation Method and system for displaying an interactive program with intervening informational segments
US5659742A (en) 1995-09-15 1997-08-19 Infonautics Corporation Method for storing multi-media information in an information retrieval system
US6496981B1 (en) 1997-09-19 2002-12-17 Douglass A. Wistendahl System for converting media content for interactive TV use
US20020056136A1 (en) * 1995-09-29 2002-05-09 Wistendahl Douglass A. System for converting existing TV content to interactive TV programs operated with a standard remote control and TV set-top box
US5708845A (en) * 1995-09-29 1998-01-13 Wistendahl; Douglass A. System for mapping hot spots in media content for interactive digital media program
US5724901A (en) 1995-11-02 1998-03-10 Gaz Metropolitan And Company Limited Oxygen-enriched gas burner for incinerating waste materials
US5793414A (en) 1995-11-15 1998-08-11 Eastman Kodak Company Interactive video communication system
US5819286A (en) 1995-12-11 1998-10-06 Industrial Technology Research Institute Video database indexing and query method and system
US5822530A (en) 1995-12-14 1998-10-13 Time Warner Entertainment Co. L.P. Method and apparatus for processing requests for video on demand versions of interactive applications
IT1278543B1 (it) 1995-12-20 1997-11-24 Abba Anna Maria Telefono cellulare dotato di mezzi per l'identificazione legale del possessore del telefono cellulare
US5794249A (en) 1995-12-21 1998-08-11 Hewlett-Packard Company Audio/video retrieval system that uses keyword indexing of digital recordings to display a list of the recorded text files, keywords and time stamps associated with the system
IL117133A (en) 1996-02-14 1999-07-14 Olivr Corp Ltd Method and system for providing on-line virtual reality movies
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5867584A (en) 1996-02-22 1999-02-02 Nec Corporation Video object tracking method for interactive multimedia applications
US6006256A (en) 1996-03-11 1999-12-21 Opentv, Inc. System and method for inserting interactive program content within a television signal originating at a remote network
US6240555B1 (en) 1996-03-29 2001-05-29 Microsoft Corporation Interactive entertainment system for presenting supplemental interactive content together with continuous video programs
US6008816A (en) 1996-04-25 1999-12-28 Microsoft Corporation Method and system for managing color specification using attachable palettes and palettes that refer to other palettes
US5778378A (en) 1996-04-30 1998-07-07 International Business Machines Corporation Object oriented information retrieval framework mechanism
US5929849A (en) 1996-05-02 1999-07-27 Phoenix Technologies, Ltd. Integration of dynamic universal resource locators with television presentations
US5778187A (en) 1996-05-09 1998-07-07 Netcast Communications Corp. Multicasting method and apparatus
US5886705A (en) * 1996-05-17 1999-03-23 Seiko Epson Corporation Texture memory organization based on data locality
US5872857A (en) 1996-05-22 1999-02-16 Raytheon Company Generalized biased centroid edge locator
US6018748A (en) 1996-05-28 2000-01-25 Sun Microsystems, Inc. Dynamic linkable labels in a network browser page
US5900905A (en) 1996-06-05 1999-05-04 Microsoft Corporation System and method for linking video, services and applications in an interactive television system
US5774191A (en) * 1996-06-26 1998-06-30 Intel Corporation Chroma-key color range determination
US5903816A (en) 1996-07-01 1999-05-11 Thomson Consumer Electronics, Inc. Interactive television system and method for displaying web-like stills with hyperlinks
US5929850A (en) 1996-07-01 1999-07-27 Thomson Consumer Electronices, Inc. Interactive television system and method having on-demand web-like navigational capabilities for displaying requested hyperlinked web-like still images associated with television content
US6031541A (en) 1996-08-05 2000-02-29 International Business Machines Corporation Method and apparatus for viewing panoramic three dimensional scenes
US5903830A (en) 1996-08-08 1999-05-11 Joao; Raymond Anthony Transaction security apparatus and method
US5893110A (en) 1996-08-16 1999-04-06 Silicon Graphics, Inc. Browser driven user interface to a media asset database
US6016504A (en) 1996-08-28 2000-01-18 Infospace.Com, Inc. Method and system for tracking the purchase of a product and services over the Internet
US5983244A (en) 1996-09-27 1999-11-09 International Business Machines Corporation Indicating when clickable image link on a hypertext image map of a computer web browser has been traversed
US6343141B1 (en) * 1996-10-08 2002-01-29 Lucent Technologies Inc. Skin area detection for video image systems
US5774666A (en) 1996-10-18 1998-06-30 Silicon Graphics, Inc. System and method for displaying uniform network resource locators embedded in time-based medium
JP3658893B2 (ja) * 1996-11-15 2005-06-08 カシオ計算機株式会社 宅配荷物管理装置
US5931908A (en) 1996-12-23 1999-08-03 The Walt Disney Corporation Visual object present within live programming as an actionable event for user selection of alternate programming wherein the actionable event is selected by human operator at a head end for distributed data and programming
US6256785B1 (en) 1996-12-23 2001-07-03 Corporate Media Patners Method and system for providing interactive look-and-feel in a digital broadcast via an X-Y protocol
US6164528A (en) 1996-12-31 2000-12-26 Chequemark Patent, Inc. Check writing point of sale system
US6637032B1 (en) 1997-01-06 2003-10-21 Microsoft Corporation System and method for synchronizing enhancing content with a video program using closed captioning
US6070176A (en) 1997-01-30 2000-05-30 Intel Corporation Method and apparatus for graphically representing portions of the world wide web
US6006241A (en) 1997-03-14 1999-12-21 Microsoft Corporation Production of a video stream with synchronized annotations over a computer network
US5973692A (en) 1997-03-10 1999-10-26 Knowlton; Kenneth Charles System for the capture and indexing of graphical representations of files, information sources and the like
US6070161A (en) 1997-03-19 2000-05-30 Minolta Co., Ltd. Method of attaching keyword or object-to-key relevance ratio and automatic attaching device therefor
JP3266278B2 (ja) 1997-04-02 2002-03-18 インターナショナル・ビジネス・マシーンズ・コーポレーション ハイパーリンクをビデオに統合するための方法及び装置
US5818440A (en) 1997-04-15 1998-10-06 Time Warner Entertainment Co. L.P. Automatic execution of application on interactive television
US5937404A (en) 1997-04-23 1999-08-10 Appaloosa Interactive Corporation Apparatus for bleaching a de-activated link in a web page of any distinguishing color or feature representing an active link
JPH10301953A (ja) 1997-04-28 1998-11-13 Just Syst Corp 画像管理装置、画像検索装置、画像管理方法、画像検索方法およびそれらの方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
US6741655B1 (en) 1997-05-05 2004-05-25 The Trustees Of Columbia University In The City Of New York Algorithms and system for object-oriented content-based video search
US6202151B1 (en) 1997-05-09 2001-03-13 Gte Service Corporation System and method for authenticating electronic transactions using biometric certificates
US6268852B1 (en) 1997-06-02 2001-07-31 Microsoft Corporation System and method for facilitating generation and editing of event handlers
US5987454A (en) 1997-06-09 1999-11-16 Hobbs; Allen Method and apparatus for selectively augmenting retrieved text, numbers, maps, charts, still pictures and/or graphics, moving pictures and/or graphics and audio information from a network resource
US6169573B1 (en) 1997-07-03 2001-01-02 Hotv, Inc. Hypervideo system and method with object tracking in a compressed digital video environment
GB2327837B (en) 1997-07-29 1999-09-15 Microsoft Corp Providing enhanced content with broadcast video
US5933005A (en) 1997-07-29 1999-08-03 Brunswick Corporation Throttle position monitor with one stationary sensor and one movable sensor
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
JPH1169330A (ja) 1997-08-19 1999-03-09 Fujitsu Ltd 留守録機能を備えた画像通信装置
US6069630A (en) 1997-08-22 2000-05-30 International Business Machines Corporation Data processing system and method for creating a link map
US6076104A (en) 1997-09-04 2000-06-13 Netscape Communications Corp. Video data integration system using image data and associated hypertext links
JPH11103441A (ja) * 1997-09-26 1999-04-13 Matsushita Electric Ind Co Ltd クリップ表示方法とその表示装置
US5867208A (en) 1997-10-28 1999-02-02 Sun Microsystems, Inc. Encoding system and method for scrolling encoded MPEG stills in an interactive television application
US6026411A (en) 1997-11-06 2000-02-15 International Business Machines Corporation Method, apparatus, and computer program product for generating an image index and for internet searching and querying by image colors
US6002168A (en) 1997-11-25 1999-12-14 Tessera, Inc. Microelectronic component with rigid interposer
JPH11184782A (ja) * 1997-12-19 1999-07-09 Matsushita Electric Ind Co Ltd ファイル受信表示装置およびファイル受信表示方法並びにその方法を記録した記録媒体
US6184878B1 (en) 1997-12-23 2001-02-06 Sarnoff Corporation Interactive world wide web access using a set top terminal in a video on demand system
US6222541B1 (en) * 1998-01-20 2001-04-24 International Business Machines Corporation Method and apparatus for fast-path location and selection of links
FR2775404A1 (fr) 1998-02-25 1999-08-27 Philips Electronics Nv Systeme interactif de distribution de signaux audio-video numeriques
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
GB2336061B (en) * 1998-04-03 2000-05-17 Discreet Logic Inc Modifying image data
US6154771A (en) * 1998-06-01 2000-11-28 Mediastra, Inc. Real-time receipt, decompression and play of compressed streaming video/hypervideo; with thumbnail display of past scenes and with replay, hyperlinking and/or recording permissively intiated retrospectively
US6603921B1 (en) 1998-07-01 2003-08-05 International Business Machines Corporation Audio/video archive system and method for automatic indexing and searching
JP2000050258A (ja) 1998-07-31 2000-02-18 Toshiba Corp 映像検索方法および映像検索装置
US6357042B2 (en) * 1998-09-16 2002-03-12 Anand Srinivasan Method and apparatus for multiplexing separately-authored metadata for insertion into a video data stream
US6198833B1 (en) 1998-09-16 2001-03-06 Hotv, Inc. Enhanced interactive video with object tracking and hyperlinking
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6209025B1 (en) 1998-11-09 2001-03-27 John C Bellamy Integrated video system
US6859799B1 (en) 1998-11-30 2005-02-22 Gemstar Development Corporation Search engine for video and graphics
US6253238B1 (en) 1998-12-02 2001-06-26 Ictv, Inc. Interactive cable television system with frame grabber
US6272250B1 (en) * 1999-01-20 2001-08-07 University Of Washington Color clustering for scene change detection and object tracking in video sequences
US6639998B1 (en) * 1999-01-11 2003-10-28 Lg Electronics Inc. Method of detecting a specific object in an image signal
GB2361339B (en) 1999-01-27 2003-08-06 Kent Ridge Digital Labs Method and apparatus for voice annotation and retrieval of multimedia data
JP2000222584A (ja) 1999-01-29 2000-08-11 Toshiba Corp 映像情報記述方法、映像検索方法及び映像検索装置
US6819797B1 (en) 1999-01-29 2004-11-16 International Business Machines Corporation Method and apparatus for classifying and querying temporal and spatial information in video
GB9902235D0 (en) * 1999-02-01 1999-03-24 Emuse Corp Interactive system
US6154528A (en) * 1999-02-11 2000-11-28 Ameritech Corporation System and method for storing and transferring information tokens in a low network communication
CA2366057C (en) 1999-03-05 2009-03-24 Canon Kabushiki Kaisha Database annotation and retrieval
US6526169B1 (en) * 1999-03-15 2003-02-25 Grass Valley (Us), Inc. Histogram-based segmentation of objects from a video signal via color moments
US7293280B1 (en) 1999-07-08 2007-11-06 Microsoft Corporation Skimming continuous multimedia content
US7181691B2 (en) 1999-09-16 2007-02-20 Sharp Laboratories Of America, Inc. Audiovisual information management system with presentation service
JP4271790B2 (ja) * 1999-09-22 2009-06-03 東芝テック株式会社 定着装置
US6424370B1 (en) 1999-10-08 2002-07-23 Texas Instruments Incorporated Motion based event detection system and method
US6493707B1 (en) 1999-10-29 2002-12-10 Verizon Laboratories Inc. Hypervideo: information retrieval using realtime buffers
US6757866B1 (en) 1999-10-29 2004-06-29 Verizon Laboratories Inc. Hyper video: information retrieval using text from multimedia
US6549643B1 (en) 1999-11-30 2003-04-15 Siemens Corporate Research, Inc. System and method for selecting key-frames of video data
US6478223B1 (en) * 2000-01-12 2002-11-12 Intermec Ip Corporation Machine-readable color symbology and method and apparatus for reading same with standard readers such as laser scanners
US6697796B2 (en) 2000-01-13 2004-02-24 Agere Systems Inc. Voice clip search
AU2001229644A1 (en) 2000-01-27 2001-08-07 Suzanne M. Berberet System and method for providing broadcast programming, a virtual vcr, and a video scrapbook to programming subscribers
JP2001243477A (ja) 2000-02-29 2001-09-07 Toshiba Corp 動画像による交通量解析装置
US6642940B1 (en) 2000-03-03 2003-11-04 Massachusetts Institute Of Technology Management of properties for hyperlinked video
GB0011798D0 (en) 2000-05-16 2000-07-05 Canon Kk Database annotation and retrieval
US6937744B1 (en) * 2000-06-13 2005-08-30 Microsoft Corporation System and process for bootstrap initialization of nonparametric color models
KR20040041082A (ko) 2000-07-24 2004-05-13 비브콤 인코포레이티드 멀티미디어 북마크와 비디오의 가상 편집을 위한 시스템및 방법
US6724933B1 (en) * 2000-07-28 2004-04-20 Microsoft Corporation Media segmentation system and related methods
US6822663B2 (en) * 2000-09-12 2004-11-23 Adaptview, Inc. Transform rule generator for web-based markup languages
US6774908B2 (en) 2000-10-03 2004-08-10 Creative Frontier Inc. System and method for tracking an object in a video and linking information thereto
GB0029893D0 (en) 2000-12-07 2001-01-24 Sony Uk Ltd Video information retrieval
US7032182B2 (en) 2000-12-20 2006-04-18 Eastman Kodak Company Graphical user interface adapted to allow scene content annotation of groups of pictures in a picture database to promote efficient database browsing
US20020087530A1 (en) 2000-12-29 2002-07-04 Expresto Software Corp. System and method for publishing, updating, navigating, and searching documents containing digital video data
KR100355382B1 (ko) 2001-01-20 2002-10-12 삼성전자 주식회사 영상 시퀀스에서의 객체 레이블 영상 생성장치 및 그 방법
US20030098869A1 (en) 2001-11-09 2003-05-29 Arnold Glenn Christopher Real time interactive video system
JP4061458B2 (ja) 2001-12-05 2008-03-19 ソニー株式会社 ビデオデータ検索方法およびビデオデータ検索システムおよびビデオデータ編集方法およびビデオデータ編集システム
US6536046B1 (en) * 2002-05-09 2003-03-25 Akadema, Inc. Baseball glove
US7446803B2 (en) 2003-12-15 2008-11-04 Honeywell International Inc. Synchronous video and data annotations
JP2004240750A (ja) 2003-02-06 2004-08-26 Canon Inc 画像検索装置
US20040233233A1 (en) 2003-05-21 2004-11-25 Salkind Carole T. System and method for embedding interactive items in video and playing same in an interactive environment
US7191164B2 (en) 2003-08-19 2007-03-13 Intel Corporation Searching for object images with reduced computation
US20050044105A1 (en) 2003-08-19 2005-02-24 Kelly Terrell System and method for delivery of content-specific video clips
US20050223031A1 (en) 2004-03-30 2005-10-06 Andrew Zisserman Method and apparatus for retrieving visual object categories from a database containing images
JP4304108B2 (ja) 2004-03-31 2009-07-29 株式会社東芝 メタデータ配信装置、動画再生装置および動画再生システム
US8132204B2 (en) 2004-04-07 2012-03-06 Visible World, Inc. System and method for enhanced video selection and categorization using metadata
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US20060082662A1 (en) 2004-10-15 2006-04-20 Brian Isaacson System and process for digitizing and tracking audio, video and text information

Also Published As

Publication number Publication date
HK1059483A1 (en) 2004-07-02
US6774908B2 (en) 2004-08-10
US20190080193A1 (en) 2019-03-14
US7804506B2 (en) 2010-09-28
US20020122042A1 (en) 2002-09-05
US7773093B2 (en) 2010-08-10
ATE509311T1 (de) 2011-05-15
US20090235151A1 (en) 2009-09-17
US20050162439A1 (en) 2005-07-28
US20040227768A1 (en) 2004-11-18
US20190318187A1 (en) 2019-10-17

Similar Documents

Publication Publication Date Title
ES2370893T3 (es) Sistema y procedimiento para el seguimiento de un objetivo en un video e información relacionada con el mismo.
CA2466924C (en) Real time interactive video system
ES2358889T3 (es) Alteraciones visuales posproducción.
US12142043B2 (en) Video processing for embedded information card localization and content extraction
US11496814B2 (en) Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game
US9565457B2 (en) Method, apparatus and system for providing access to product data
US10171754B2 (en) Overlay non-video content on a mobile device
US9762817B2 (en) Overlay non-video content on a mobile device
US9723335B2 (en) Serving objects to be inserted to videos and tracking usage statistics thereof
US20030079224A1 (en) System and method to provide additional information associated with selectable display areas
CN112135159B (zh) 公屏演播方法、装置、智能终端及储存介质
CN114501127A (zh) 在多画面视频中插入数字内容
EP1332427B1 (en) System and method for tracking an object in a video and linking information thereto
EP0841610A2 (en) Hot areas in interactive movies
HK1059483B (en) System and method for tracking an object in a video and linking information thereto
NZ575492A (en) Active advertising method