ES2306724T3 - Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. - Google Patents

Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. Download PDF

Info

Publication number
ES2306724T3
ES2306724T3 ES01962241T ES01962241T ES2306724T3 ES 2306724 T3 ES2306724 T3 ES 2306724T3 ES 01962241 T ES01962241 T ES 01962241T ES 01962241 T ES01962241 T ES 01962241T ES 2306724 T3 ES2306724 T3 ES 2306724T3
Authority
ES
Spain
Prior art keywords
image
target area
images
flow
duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES01962241T
Other languages
English (en)
Inventor
Kenneth J. Overton
Mark S. Muench
Charles H. Hayden Jr.
Norman S. Carmichael
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vistas Unlimited Inc
Original Assignee
Vistas Unlimited Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vistas Unlimited Inc filed Critical Vistas Unlimited Inc
Application granted granted Critical
Publication of ES2306724T3 publication Critical patent/ES2306724T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Un procedimiento para calcular la duración de un área objetivo incluida dentro de un flujo de imágenes obtenido por un sistema de captura de imágenes en un emplazamiento físico, comprendiendo el procedimiento: analizar al menos un campo del flujo de imágenes para la inclusión del área objetivo, en el que el área objetivo corresponde a una superficie virtual definida en un modelo de ordenador del emplazamiento, correspondiendo la superficie virtual a una superficie imaginaria en lugar de a una superficie real en el emplazamiento físico; e incrementar de manera automática un contador tras la confirmación de que el área objetivo está incluida dentro de al menos un campo.

Description

Procedimiento y sistema para medir la duración de un área incluida en un flujo de imagen.
Campo técnico de la invención
Esta invención se refiere por lo general al campo de sistemas de transmisión de vídeo y, en particular, a un sistema y a un procedimiento para la medida de la duración de una imagen que esté incluida dentro de un flujo de imágenes.
Antecedentes de la invención
Los equipos, las ligas y los propietarios de locales de manera típica cobran a los anunciantes tasas crecientes cuando sus banderolas o marcas aparecen de manera periódica durante partes de transmisiones deportivas por TV. Los eventos deportivos han proporcionado durante un largo tiempo la generación de ingresos adicionales por publicidad durante un evento de transmisión por TV así como durante las pausas de publicidad. Por ejemplo, los métodos de traducción cobran una tasa por tiempo en antena a los anunciantes que tienen anuncios que se ven durante parte de una transmisión por tv de un evento deportivo. A los anunciantes a menudo se les cobra, tasas relacionadas con el tiempo en antena en la transmisión por tv que los televidentes pueden ver logos y banderolas publicitarias comunes en estadios deportivos y en aparcamientos deportivos. Por ejemplo, las paredes de un campo de béisbol por lo común están formadas por numerosos paneles adyacentes, uno o más de los cuales están de manera típica alquilados a los anunciantes para visualizar el logo de un anunciante. El hockey sobre hielo también incluye banderolas publicitarias que se ven de manera típica en las barreras de metacrilato de protección de la pista de hielo de hockey así como debajo del propio hielo. Además, los campos de fútbol a menudo incluyen logotipos de patrocinadores pintados en el campo de fútbol además de los logotipos en las paredes del estadio. Las franquicias deportivas y los medios de transmisión deportivos usan también anuncios de banderolas giratorias. Estos anuncios de banderolas en lugar de estar fijos durante la duración de la difusión se mantienen sobre un chasis giratorio que permite visualizar diferentes anuncios de panel de pared durante el partido. Un radiodifusor puede estar interesado en medir las partes de las imágenes que se visualizan durante una radiodifusión del vídeo.
Un incentivo para la inserción de imágenes dentro del vídeo es para llevar a cabo ingresos por publicidad mejorados o adicionales para los medios de transmisión de televisión. Se han propuesto muchos sistemas y procedimientos para la inserción de imágenes estáticas y dinámicas, tales como anuncios dentro del vídeo en tiempo real. Estos sistemas y procedimientos de la técnica anterior sufren de varias desventajas y de varios problemas, muchos de los cuales se detallan en la patente de los Estados Unidos número 5.892.554 de DiCicco y colaboradores. Una técnica nuevamente desarrollada promete revolucionar la publicidad en, por ejemplo, las radiodifusiones en eventos deportivos. Los sistemas de transmisión facilitados por ordenador y capaces de insertar imágenes, por ejemplo, una imagen gráfica de una banderola de un anunciante dentro de una transmisión por tv del flujo de vídeo. Por lo general, un emplazamiento desde el que se vaya a realizar una transmisión por tv tiene un modelo en tres dimensiones hecho del mismo. El modelo incluye áreas objetivo para la inserción de imágenes gráficas o de vídeo. Las áreas objetivo pueden ser áreas reales del emplazamiento, por ejemplo, una barrera de metacrilato de protección de una pista de hielo, o pueden ser superficies imaginarias, por ejemplo, carteleras sintéticas. Por lo general, cada trama de la transmisión de vídeo es analizada y las imágenes escritas dentro de las áreas objetivo en muchas tramas contienen las áreas objetivo siendo retransmitidas. Un modelo
tridimensional del emplazamiento permite obtener realismo durante varias orientaciones o focalizaciones de la cámara.
Los medios de transmisión deben ser capaces de determinar la duración en antena de los anuncios físicamente presentes o insertados dentro del flujo de vídeo. Desafortunadamente, las técnicas de medida de un tiempo de exposición de estas imágenes durante una transmisión por tv sufren de muchas desventajas. Por ejemplo, la duración de la radiodifusión de la señalización física se calcula de manera manual, y de manera típica solamente después de que la radiodifusión se haya realizado. El cálculo manual del tiempo de transmisión de la transmisión por tv, o del tiempo en antena del anuncio se realiza por lo general por parte de un operador, usando técnicas precisas de medida tales como un cronógrafo manejado a mano. El procedimiento está sometido a una multitud de errores e imprecisiones, incluyendo los fallos en la atención del operador y el tiempo de retardo del operador. Además, el operador realiza estas medidas mirando una cinta de la radiodifusión original alguna vez después de que se haya hecho la radiodifusión. Estas técnicas requieren también de múltiples operadores para que miren la misma u otra versión de la radiodifusión grabada en cinta para hacer las medidas de múltiples anuncios. Como resultado de esto, estos procedimientos tradicionales requieren un número grande de recursos y sufren de imprecisiones en las medidas y retardos en las mismas que a su vez limitan su uso.
Además, las tarifas para los anuncios generalmente se calculan usando tres técnicas de la técnica anterior y están de manera típica limitadas a los ingresos que se pueden derivar de los anuncios tradicionales y de las banderolas existentes.
Los términos "transmisión por televisión" y "emisión" se usan dentro de la descripción para facilitar la comprensión de la invención. Sin embargo, los medios de transmisión por tv y de radiodifusión son solamente ejemplos. La presente invención no está limitada a la aplicación a las transmisiones por televisión. En lugar de esto, la presente invención se puede usar por cualquier número de tecnologías de la comunicación, tales como la televisión, el cable, Internet, satélite, sistemas digitales para salas de cine, etc., capaces de transmitir medios gráficos (por ejemplo, flujos de imágenes).
El documento WO-A-95 10919 describe un sistema para insertar de manera automática imágenes, por ejemplo, anuncios dentro del fondo de una escena de vídeo de un evento deportivo. Los objetos de bloqueo, por ejemplo, los jugadores tapando parte de una pared de fondo donde se va a ver un anuncio, son detectados y el anuncio se inserta de forma tal que también aparezca tapado por el jugador, es decir, imperceptible a los visualizadores del vídeo.
Mientras que la tecnología para proporcionar imágenes insertadas dentro de un vídeo se está desarrollando, las técnicas para valorar de manera precisa los ingresos por publicidad a partir de las mismas aún no se han abordado. Para implementar un sistema de cobro de tarifa justa, la duración de la radiodifusión de estas banderolas se calcula de manera manual y de manera típica después de que se haya realizado la radiodifusión. El cálculo manual del tiempo de transmisión de la transmisión por tv, o el tiempo en antena de un anuncio se hace por lo general por parte de una persona que mira una cinta de la radiodifusión original en algún momento después de que se haya realizado la radiodifusión. A menudo, el cálculo de la transmisión puntual de un anuncio en particular se hace por medio de dichas técnicas rudimentarias y propensas a errores tan simples como haciendo funcionar un cronógrafo. Hasta ahora, las tarifas para los anuncios hechas de acuerdo con técnicas de inserción de imágenes están limitadas a las técnicas de la técnica anterior utilizadas para los anunciantes de banderolas tradicionales.
Sumario de la invención
Un objeto de la presente invención es proporcionar un procedimiento y un sistema para calcular la duración de imágenes sintéticas y/o reales, o partes de las mismas, que estén incluidas en un flujo de imágenes que superen uno o más problemas con los procedimientos y el aparato de la técnica anterior.
De acuerdo con una realización de la presente invención, se incluye un sistema y un procedimiento para calcular la duración de una o más áreas objetivo en un flujo de imágenes que utiliza un modelo en tres dimensiones de un emplazamiento incluyendo al menos un área objetivo asignada a un área física dentro del emplazamiento desde la cual se captura el flujo de imágenes. Un contador mantenido en asociación con el área objetivo se incrementa durante períodos, por ejemplo, sobre una base de trama a trama o campo a campo, cuando el área objetivo está incluida en el flujo de imágenes. De acuerdo con esto, el contador mantenido en asociación con el área objetivo proporciona una indicación de la duración durante la que está incluida una imagen dentro del área objetivo en un flujo de imágenes. De esta forma, el contador proporciona una medida de la duración que la parte del emplazamiento incluido en el área física correspondiente al área objetivo (una imagen capturada de la misma a la que se hace referencia como una imagen física) está incluida en el flujo de imágenes.
De acuerdo con otra realización de la invención, el flujo de imágenes capturado por un sistema de captura de imágenes, tal como una o más cámaras, puede ser procesado para incluir imágenes sintéticas que no estén presentes en el emplazamiento desde el que se realizó la captura de la imagen. El flujo de imágenes capturado puede ser manipulado por medio de tecnologías de inserción de imágenes y se puede procesar para incluir las imágenes sintéticas insertadas dentro de un área objetivo asociada con un área física del emplazamiento. De acuerdo con esto, el contador proporciona una indicación de la duración de una imagen sintética que esté incluida en el área objetivo del flujo de imágenes procesado.
De acuerdo con otra realización de la presente invención, el porcentaje del área objetivo dentro del campo de visión se puede usar para determinar si se incrementa o no un contador asociado con el área objetivo.
De acuerdo con otra realización de la presente invención, se calcula un parámetro de oclusión asociado con un área objetivo para ajustar la duración calculada en la que el área objetivo está incluida en el flujo de imágenes. El parámetro de oclusión facilita la cuenta de las variaciones en la obstrucción de una imagen (física o sintética) correspondiente a una posición del área objetivo y se usa para hacer ajustes en un contador de manera que el propio contador sea indicativo de las variaciones en las obstrucciones de la imagen.
En otra realización adicional de la presente invención, se calcula un parámetro de primer plano asociado con un área objetivo para ajustar la duración calculada del área objetivo en la que está incluida en el flujo de imágenes. El parámetro de primer plano facilita la cuenta de las variaciones en la visibilidad de una imagen que esté dentro del área objetivo y que resulte de varios enfoques de la cámara.
En otra realización adicional, el contador se puede activar por medio de un umbral del porcentaje de la imagen de vídeo visible cubierta por el área objetivo, considerando como excluyendo el área de cualquier cuerpo oclusivo.
En otra realización adicional de la invención, los cálculos en tiempo real de la duración de una o más áreas objetivo que están incluidas dentro de un flujo de imágenes proporciona un mecanismo para asegurar que una duración deseada de una imagen sintética que esté incluida dentro de un flujo de imágenes cumpla con el análisis de métricas u otros datos estadísticos recogidos durante la captura o la transmisión de la imagen y sea indicativa de la duración de un área objetivo que esté incluida dentro de un flujo de imágenes pueda indicar que los datos de la imagen asignados a un área objetivo particular es poco probable que estén incluidos dentro del flujo de imágenes durante una duración deseada predefinida. Los datos de la imagen pueden ser reasignados a otra área objetivo en un intento por conseguir la duración deseada de la inclusión de los datos de imagen dentro del flujo de imágenes.
Éstos y otros objetos y ventajas adicionales de la invención serán aparentes a partir de la siguiente descripción de una realización preferida de la invención, hecha con referencia a los dibujos que se anexan.
Breve descripción de los dibujos
Para un entendimiento más completo de la presente invención, de los objetos y las ventajas de la misma, se hace referencia ahora a las siguientes descripciones tomadas junto con los dibujos que se acompañan, en los que:
La figura 1 es una representación esquemática de un sistema de inserción de imágenes en tiempo real para la manipulación de flujos de imágenes;
La figura 2 es un ejemplo de una imagen de vídeo generada por una cámara de vídeo antes de la inserción de una imagen objetivo;
La figura 3 es una interpretación de un modelo de un emplazamiento en el que se tomó la imagen de vídeo de la figura 2 y en el que se define un área objetivo que contiene una imagen de referencia;
La figura 4 es una imagen que contiene una interpretación del modelo del emplazamiento con la imagen de referencia, la imagen interpretada desde la misma posición y ángulo de la cámara que genera la imagen de vídeo de la figura 2;
La figura 5 es una máscara de procesado de un área objetivo generada a partir de la imagen de la figura 4;
La figura 6 es una imagen de referencia enmascarada generada por medio de la aplicación de la máscara de área objetivo de la figura 5 a la imagen de vídeo original de la figura 2;
La figura 7 es una imagen de fondo enmascarada generada por medio de la aplicación de la máscara de área objetivo de la figura 5 a la imagen de vídeo original de la figura 2;
La figura 8 es una imagen de área objetivo enmascarada generada por medio de la aplicación de la máscara de área objetivo de la figura 5 a la imagen de vídeo original de la figura 2;
La figura 9 es una imagen de oclusión generada por medio de la comparación de la imagen de área objetivo enmascarada de la figura 8 con la imagen de referencia enmascarada de la figura 6;
La figura 10 es una imagen final compuesta, que contiene una imagen objetivo que está generada por medio de la combinación de la imagen de oclusión de la figura 7 con la imagen de fondo enmascarada y la imagen objetivo enmascarada;
La figura 11 es una representación esquemática de un sistema de medida de la imagen en el que el proceso de medida para un flujo de vídeo se implementa en un sistema de múltiples cámaras antes de un sistema de producción que elige una o más de las múltiples señales de entrada como salida;
La figura 12 es un diagrama de flujo del procesado de un módulo para calcular la duración en la que una imagen está insertada dentro de una transmisión por tv de vídeo;
La figura 13 es una imagen final que ilustra el escenario representado en la figura 8 después de que haya transcurrido un período de tiempo;
La figura 14 es un diagrama de flujo que representa el procesado de un módulo que puede hacerse funcionar para ajustar el cálculo de la duración en que una imagen está insertada en un vídeo para reflejar las variaciones en las oclusiones de la imagen insertada;
La figura 15A y la figura 15B ilustran de manera respectiva una imagen final compuesta obtenida con diferentes posiciones de la cámara, ángulos de panorámica y de inclinación y configuraciones de focalización;
La figura 16 es un diagrama de flujo que representa el procesado de un módulo que se puede hacer funcionar para ajustar el cálculo de la duración de una imagen que está insertada dentro de un vídeo para reflejar las variaciones en la visualización de una imagen insertada resultado de diferencias en la focalización de la cámara;
La figura 17 ilustra un área objetivo que tiene múltiples áreas subobjetivo de acuerdo con una realización de la presente invención; y
La figura 18 es una trama de imagen que tiene varias áreas de imagen designadas para especificar umbrales para permitir / desestimar incrementos en un contador de área objetivo.
Descripción detallada de los dibujos
La realización preferida de la presente invención y sus ventajas serán mejor comprendidas por medio de la referencia a las figuras 1 a la 18 de los dibujos, en las que idénticos números se usan para las partes idénticas y correspondientes de los distintos dibujos.
Una aplicación para un sistema de inserción de imagen en tiempo real para la manipulación de flujos de imágenes es en un evento de radiodifusión en directo de un deporte o de un programa de espectáculos o similares desde un estadio, recinto deportivo, pista, cancha u otros locales para deportes o espectáculos. Dicho sistema se describe a continuación junto con su aplicación. El sistema de la presente invención se puede usar para la medida en tiempo real de la duración de la exposición de imágenes sintéticas en un flujo de imágenes. Por ejemplo, la duración de las imágenes insertadas, tales como publicidad que no están físicamente presentes en un local de espectáculos desde el que se captura el flujo de imágenes, se manipula y se radiodifunde, puede ser medido de manera precisa en tiempo real de acuerdo con las enseñanzas de la invención. Los ingresos y/o las tasas publicitarias por estas imágenes insertadas se pueden calcular después según se desee en respuesta a la duración calculada de las imágenes insertadas que estén incluidas en el flujo de imágenes.
Aunque el sistema de medida de la duración de la imagen de la presente invención tiene ventajas particulares cuando se usa junto con un sistema de manipulación de flujo de imágenes, también se puede usar en otras aplicaciones. El sistema de la presente invención también se puede usar para una medida en tiempo real de la duración de una imagen que es capturada desde un objeto físico presente en el emplazamiento desde el que se captura el flujo de imágenes, tales como las imágenes capturadas desde un anuncio físico en un local de espectáculos desde el que se captura el flujo de imágenes.
Los detalles de la medida de la imagen y las técnicas de manipulación de los flujos de imágenes, realizados por el sistema de medida de la imagen 100 ilustrado en la figura 1 se encuentran fuera del alcance de la presente invención y la técnica descrita solamente es ilustrativa. Se debería comprender que el sistema de inserción de imágenes puede hacerse funcionar para manipular un modelo en tres dimensiones de un emplazamiento desde el que se captura un flujo de imágenes y se insertan imágenes, por ejemplo, mapas de bits que proporcionan representaciones gráficas de anuncios, dentro de tramas del flujo de imágenes. De esta forma, un flujo de imágenes puede incluir las imágenes obtenidas desde un sistema de captura de imágenes, por ejemplo un sistema de una cámara 104A-104N, así como imágenes del flujo de imágenes que tengan imagen o imágenes sintéticas insertadas dentro de ellas, una técnica de ejemplo que incluye operaciones descritas por lo general a continuación con referencia a las figuras 1 a la 10.
Un flujo de imágenes capturado se define en este documento como una o más tramas de imagen (o, de manera alternativa, campos) capturados a partir de objetos físicos presentes en el sitio por medio de un sistema de captura de imágenes. Un flujo de imágenes se define en este documento para hacer referencia al flujo de imágenes capturado y/o el producto de procesar eso se puede realizar sobre el flujo de imágenes capturado tal como la manipulación de las imágenes dentro de flujo de imágenes que incluyen la manipulación por medio de tecnologías de inserción de imágenes. El flujo de imágenes puede incluir imágenes solamente capturadas del emplazamiento físico desde el que se captura el flujo de imágenes, o el flujo de imágenes puede incluir las imágenes capturadas del emplazamiento y/o las imágenes sintéticas (insertadas dentro del flujo de imágenes) no físicamente presentes dentro del emplazamiento desde el que se capturo el flujo de imágenes.
Una imagen física se define en este documento para hacer referencia a una imagen en un flujo de imágenes que se captura desde un objeto físico con el sistema de captura de imágenes. Una imagen sintética se define en este documento para hacer referencia a una imagen insertada en un flujo de imágenes que no está capturada de un objeto que esté físicamente presente en el emplazamiento desde el que se capturó el flujo de imágenes.
Un área objetivo se define en este documento para hacer referencia a un área de interés dentro de un emplazamiento físico y/o un área correspondiente dentro de un modelo del emplazamiento físico. Un flujo de imágenes capturado y un flujo de imágenes se dice que incluyen el área objetivo, o una parte de la misma, cuando el campo de vista de un sistema de captura de imágenes incluye el área de interés (o una parte de la misma). Por ejemplo una barrera de metacrilato de protección en un estadio de hockey sobre hielo puede ser especificada como un área objetivo. La barrera de metacrilato de protección especificada como el área objetivo tendrá un área correspondiente en un modelo en tres dimensiones del estadio de hockey a la que se hará referencia también como el área objetivo. La presente invención contempla el cálculo de una duración de una o más áreas objetivo que se puedan incluir dentro de un flujo de imágenes obtenido por medio de un sistema de captura de imágenes. Las áreas objetivo pueden estar presentes en un flujo de imágenes
que se puede obtener durante un único evento en un recinto particular, o múltiples eventos en recintos independientes.
Una imagen objetivo se define en este documento como una imagen dentro del área objetivo en un flujo de imágenes y puede ser una imagen física o una imagen sintética o una imagen compuesta de las mismas.
Una imagen de referencia es la aparición de una superficie de área objetivo dentro del emplazamiento actual que se usará para el procesado de la oclusión y puede ser una imagen asociada con un área objetivo que sea entregada por un sistema de entrega de imágenes. A imagen de referencia puede ser una imagen entregada de un objeto físico (tal como un objeto físico dentro del emplazamiento desde el que se captura el flujo de imágenes), o la imagen de referencia puede ser una imagen entregada de una imagen sintética que se vaya a insertar dentro de un área objetivo de una imagen en un flujo de imágenes. Imágenes de referencia son, en general, utilizadas para formar una imagen objetivo para su inserción dentro de un área objetivo y para facilitar la medida de la duración de la misma o para facilitar las medidas de duración de imágenes físicas que tengan áreas objetivo asignadas a las mismas. Las imágenes objetivo sintéticas se desarrollan, en parte, por medio de una imagen de referencia entregada.
Como se describe en este documento, la presente invención proporciona una técnica y un mecanismo para calcular la duración del área objetivo que está incluida en un flujo de imágenes. De acuerdo con esto, la técnica y el mecanismo se proporcionan para calcular la duración de una imagen (física o sintética) que esté incluida dentro del área objetivo se pueda aplicar para calcular las duraciones de una imagen que esté incluida dentro de un flujo de imágenes.
Con referencia a la figura 1, un sistema de medida de imagen en tiempo real 100 para calcular la duración de una o más áreas objetivo que estén incluidas en flujos de imágenes se representa de manera esquemática por medio de sus componentes funcionales primarios. Estos componentes están implementados como una combinación de hardware y de software, y no están destinados a representar componentes hardware o software discretos o como a estar limitados a ninguna implementación en particular a menos que se especifique en contra.
El sistema de medida de imágenes 100 recibe un flujo de imágenes desde un sistema de producción de imágenes 102. El sistema de producción de imágenes 102 selecciona una señal de imagen proveniente de un sistema de cámara 104A o de una pluralidad de otros sistemas de cámaras 104B-104N. Este flujo de imágenes seleccionado se proporciona después a un sistema de medida de la imagen 100 para las medidas de duración de las imágenes físicas dentro del recinto físico, tal como la señalética existente, las imágenes sintéticas tales como anuncios, o áreas dentro del flujo de imágenes que pueden tener imágenes sintéticas insertadas en su interior después de que el flujo de imágenes sea sometido a procesado. El sistema de medida de las imágenes puede estar localizado con el sistema de producción de vídeo en, por ejemplo, una unidad de producción móvil. También puede estar remotamente localizado en una instalación de producción central o incluso flujo abajo, tal como en una emisora de televisión local o en un operador por cable. De manera alternativa, las medidas de duración de la imagen pueden tener lugar antes de la selección de un flujo de imágenes, por ejemplo por medio de la medida de imágenes en el flujo de imágenes desde cada uno de los sistemas de cámara antes de ser proporcionadas al sistema de producción.
En otra realización, el sistema de producción 102 puede incorporar una funcionalidad adicional dentro del sistema de medida de las imágenes como se trata con mayor detalle junto con la figura 11. Por lo general, la salida del sistema de producción 102 con múltiples entradas proporcionadas por otros sistemas de cámara 104B-104N se puede comparar, y se puede actualizar un contador de la duración para una entrada de cámara seleccionada por una unidad de control de producción tal como un camión de producción. Por ejemplo, las cámaras múltiples se usan por lo común para capturar flujos de imágenes desde un único recinto. Los flujos de imágenes de las múltiples cámaras son proporcionados después a un sistema de producción. El sistema de producción puede hacerse funcionar para proporcionar una entrada a un separador de flujo de imágenes / telemetría 118. Por lo general, la entrada a cualquier caso dado provisto de separador de flujo de imágenes / telemetría 118 incluirá un flujo de imágenes tomadas desde una única cámara del otro sistema de cámaras 104B-104N. De esta forma, el sistema de producción 102 puede hacerse funcionar para conmutar el flujo de imágenes que se proporciona al separador de vídeo / telemetría que es procesado y por último se saca un flujo de imágenes seleccionado desde el sistema en forma de un programa de televisión de vídeo u otro flujo de imágenes procesado. De acuerdo con esto, como se usa un contador (como se describe de una manera más completa en este documento más adelante) para acumular una medida de la duración que una imagen está incluida en un flujo de imágenes de salida, se debe utilizar un mecanismo de conmutación de forma que el contador se incremente solamente cuando se incluya una imagen en un flujo de imágenes que esté siendo sacado por el sistema de producción 102 en lugar de aumentar el contador cuando la imagen se incluya en cualquier flujo de imágenes capturado por uno o más de los otros sistemas de cámaras 104B-104N.
Un sistema de cámaras 104A genera un flujo de imágenes codificado con datos de telemetría indicativos de al menos donde está apuntando la cámara con relación a una trama tridimensional conocida o predefinida de referencia de un emplazamiento. El sistema de cámaras incluye una cámara de vídeo convencional 108 conectada a una cabeza de cámara 110. La cabeza de cámara 110 incluye sensores que generan información que indica el acimut y la elevación, o algunas otras coordenadas que definen la dirección del eje óptico de la cámara 108. Esta información de telemetría se proporciona al procesador de telemetría y al codificador 112. La cámara 108 o algún otro sensor conectado, también proporcionan al procesador de telemetría y al codificador información telemétrica adicional indicando, por ejemplo, la longitud focal y la apertura de la lente de la cámara. La longitud focal variará con el grado de focalización de la lente. La apertura variará con el cambio de las condiciones de luz. De manera opcional, la información adicional de sensor, por ejemplo, la información de satélite de posicionamiento global 114 puede proporcionar también información al procesador de telemetría y al codificador indicando la posición de la cámara en términos de su longitud, latitud y elevación. La posición de la cámara se puede determinar de una manera fácil y puede permitirse que se mueva en lugar de permanecer fija en una localización predefinida. Usando una señal de temporización de flujo de imágenes proporcionada por la cámara, el procesador de telemetría y el codificador generan una señal de datos que se puede sincronizar con el flujo de imágenes generado por la cámara. Esta señal de datos codifica la información de telemetría para cada una de las tramas del flujo de imágenes generado por la cámara. Un combinador de flujo de imágenes / telemetría 116 que puede ser parte del procesador de telemetría, combina después la señal de datos con el flujo de imágenes. Con la información de telemetría codificada de manera síncrona en el flujo de imágenes, se proporciona información suficiente para permitir que las imágenes sintéticas sean insertadas dentro del flujo de imágenes en cualquier punto corriente abajo del sistema de la cámara.
Mientras que la manipulación de un flujo de imágenes se describe en este documento con referencia a una o más tramas que se incluyen dentro del flujo de imágenes, se debería comprender que las tramas pueden estar comprendidas de subelementos, por ejemplo, campos. Por ejemplo, las tramas de una transmisión por tv de vídeo típica están comprendidas de campos pares e impares. De esta forma, un flujo de imágenes que comprenda un flujo de vídeo o una transmisión por tv que tenga una velocidad de tramas de 30 Hz puede realmente estar formado por dos campos de 60 Hz. La manipulación y el análisis de un flujo de imágenes o de una transmisión por tv de imágenes descrita en este documento con referencia a operaciones basadas en tramas es solamente ilustrativa y se describe como tal para la simplificación de la discusión. Se comprenderá que los mismos procedimientos y técnicas generales se pueden implementar mediante la utilización de operaciones basadas en campo.
Una vez que el sistema de medida de imágenes 100 recibe un flujo de imágenes codificado, el separador de flujo de imágenes / telemetría 118 extrae los datos de telemetría para una imagen en particular dentro del flujo de imágenes. El flujo de imágenes es además descodificado por medio de un descodificador de flujo de imágenes / memoria de almacenamiento temporal 119 para extraer y para almacenar una imagen de cada una de las tramas del flujo de imágenes. En la figura 2 se ilustra como una imagen 400 un ejemplo de una imagen incluida en un flujo de imágenes generado por una cámara. Este ejemplo particular es de un partido de hockey sobre hielo. Incluye las barreras de metacrilato de protección 402, un primer jugador de hockey 404 y un segundo jugador de hockey 406. El funcionamiento del sistema de medida de la imagen 100 y el proceso de medida de la imagen se tratarán a continuación con referencia a la figura 400. Sin embargo, el proceso de medida de las imágenes se repetirá para una imagen en cada trama sucesiva de un flujo de imágenes, al menos hasta el punto de que la imagen cambie entre tramas.
Un controlador 102 representa una entidad software y hardware, o una colección de entidades, que coordinan los procesos que ocurren dentro de los componentes funcionales del sistema de medida de la imagen 100. Usando los datos de telemetría 100 y otra información que describa un evento que está ocurriendo en el emplazamiento, por ejemplo, el número de entradas de un partido de béisbol, la puntuación u otra información sobre el flujo de un juego deportivo, el controlador 120 accede a reglas de medida de imagen predefinidas en la base de datos 122 para determinar, en base al menos en parte a un identificador de cámara incorporado en los datos de telemetría, qué áreas - a las que se hace referencia en este documento como áreas objetivo - incluidas en el recinto y que se pueden incluir en el flujo de imágenes van a estar sometidas a una medida de la duración durante todo el flujo de la imagen (o una parte del mismo). El área objetivo puede ser, por ejemplo, un área dentro de un estadio deportivo en el que las presentaciones de anuncios se insertarán de manera sintética dentro del flujo de imágenes procesado. De manera alternativa, el área objetivo puede ser, por ejemplo, un área dentro del estadio deportivo en la que la señalética física esté presente en el emplazamiento y se pueda capturar por medio del flujo de imágenes. De esta forma, un área objetivo del emplazamiento que esté incluida en un flujo de imágenes puede tener imágenes físicas y/o imágenes sintéticas incluidas dentro de la misma. Habiendo predefinido reglas se permite a un área objetivo preseleccionada estar sometida a una medida de la duración que dé como resultado una medida cuantitativa de la duración que el área objetivo está incluida en un flujo de imágenes. Por medio del cálculo de una medida cuantitativa de la duración, un área objetivo se incluye dentro de un flujo de imágenes, también se hace la duración que una imagen física o una imagen sintética incluida dentro del área objetivo. Además, un área objetivo puede cambiar en momentos o períodos predefinidos, o en base al estado del evento que esté siendo sometido a la captura de imágenes, esto es, la localización de un área objetivo en un emplazamiento puede cambiar durante la captura o el procesado del flujo de imágenes.
Un director publicitario, por ejemplo, también puede supervisar y controlar los procesos de medida durante un evento usando una consola de director 123 que incluya el software y el hardware para la introducción de órdenes y de datos al controlador 120. Por ejemplo, el director puede proporcionar al sistema información relativa al estado del evento en el emplazamiento, si dicha información no se encuentra en caso contrario disponible en la base de datos. El director también puede hacer caso omiso de las reglas de medida de la imagen en la base de datos 122 y seleccionar de manera manual áreas objetivo para las medidas de la duración, o el director puede modificar las reglas de manera dinámica. El director publicitario también puede establecer y mantener bases de datos que mantengan las áreas objetivo. La consola del director publicitario incluirá monitores de forma que el director pueda supervisar el flujo de imágenes durante la duración de las medidas de las áreas objetivo. La consola del director también puede permitir al director modificar las bases de datos almacenando modelos CAD para las imágenes de referencia, que se describen con posterioridad, y supervisar y ajustar los pasos del proceso de medida del área objetivo como se describe más adelante.
Para cada una de las áreas objetivo incluidas dentro del flujo de imágenes o del flujo de imágenes procesado, se puede asignar una imagen de referencia a un área objetivo predefinida en el emplazamiento. La imagen de referencia es interpretada en base a un modelo de referencia predefinido del área objetivo. Se puede definir más de un área objetivo y aparecer en cualquier flujo de imágenes dado. El modelo es, de manera preferible, un diseño asistido por ordenador (CAD) que define superficies (reales o imaginarias) de áreas objetivo de manera matemática permitiendo de esta forma que el modelo sea interpretado desde un punto de vista que sea sustancialmente el mismo que la localización y la orientación de la cámara que está generando el flujo de imágenes. Esta interpretación, que es en efecto una imagen sintetizada de las áreas objetivo del emplazamiento que está alienado con el flujo de imágenes, se usa después para guiar las medidas de la duración de las áreas objetivo dentro del flujo de imágenes. Si cambia la posición de la cámara entre tramas, se pueden usar las interpretaciones de la trama anterior. De acuerdo con esto, una imagen de referencia correspondiente a un objeto de imagen física se puede interpretar en las varias orientaciones y focalizaciones desde la que se puede capturar la imagen física.
Con referencia brevemente también a las figuras 2 y 3, la imagen 502 de la figura 3 es un ejemplo de una interpretación de un modelo predefinido del emplazamiento, en el que se tomó la imagen mostrada en la figura 2. Un sistema de diseño asistido por ordenador (CAD), puede ser estándar, software CAD comercialmente disponible que se ejecute en un ordenador, genera la interpretación del modelo predefinido. Nótese que la interpretación no está hecha desde la misma posición y ángulo de cámara que la imagen de vídeo de la figura 2. Un área objetivo 504 en este ejemplo es un área predefinida de la superficie las barreras de metacrilato de protección 402. El modelo podría tener también superficies imaginarias definidas como áreas objetivo. Por ejemplo, el modelo podría tener definida la posición de una banderola imaginaria colgada del techo del estadio de hockey sobre hielo. Una superficie de área objetivo, real o imaginaria, no necesita ser plana. En esta figura, el área objetivo ha sido interpretada con una imagen de referencia. La imagen de referencia se puede almacenar, por ejemplo, como una imagen de mapa de bits que se inserta dentro del modelo interpretado. En este ejemplo en particular, hay una pared blanca vacía, que es la parte de las barreras de metacrilato de protección que tienen un área objetivo designada para que sea blanca o esté vacía y sea de acuerdo con lo representado por una imagen de referencia similar. Sin embargo, la imagen de referencia puede ser una imagen de un anuncio que esté físicamente localizado por ejemplo sobre las barreras de metacrilato de protección 402 tal como un logotipo corporativo. La imagen de referencia puede ser interpretada desde varios ángulos para corresponder con las diferentes orientaciones que el área física habiendo el área objetivo asignado a la misma se pueden capturar en el flujo de imágenes. La imagen de referencia puede ser una imagen de un elemento sintético para su posterior inserción dentro de la imagen también. Por ejemplo, se puede insertar un anuncio dentro de un área objetivo específica y de esta manera aparecer en el área objetivo de una imagen procesada final. El modelo de referencia del emplazamiento con imágenes de referencia para cada área objetivo se almacena en un fichero CAD 124 mostrado en la figura 1.
Con referencia ahora a las figuras 1, 2 y 5, el interpretador del modelo CAD 128 interpreta una imagen de línea base 700 del modelo CAD almacenado en un fichero CAD 124, en base a los datos de telemetría provenientes de la cámara que haya capturado la imagen 400 mostrada en la figura 2. La imagen de línea base 700 de la figura 4 incluye una imagen de referencia de área objetivo 506 insertada dentro de un área objetivo 504. Como se ha descrito con anterioridad, los datos de telemetría indican la identificación, el ángulo, la distancia focal y la configuración de la apertura de la cámara que está tomando la imagen 400. Los datos de telemetría también pueden indicar la localización de la cámara si la cámara no está fija en la localización.
El proceso de medida de la duración de la imagen de la presente invención también puede incluir la generación de una máscara de área objetivo. La figura 5 ilustra imagen de máscara 900 para la imagen de ejemplo 400 de la figura 2. Se genera una máscara de área objetivo 502 por parte del constructor de máscaras 134 usando la imagen de referencia generada por el interpretador de modelos 128. Para generar la imagen de máscara 900, la máscara de área objetivo 502 dentro de la imagen de máscara 900 tiene todos los píxeles dentro fijados a un valor predefinido y todos los píxeles fuera de la máscara de área objetivo 502 están fijados a otro valor predefinido. En la imagen de la máscara 900, todos los píxeles de la máscara de área objetivo 900 son blancos y todos los píxeles alrededor de la máscara del área objetivo 502 son negros.
La máscara de área objetivo 502 se usa para varios propósitos junto con un paso de procesado de la oclusión. Con referencia ahora a la figura 1, la máscara de área objetivo 502 se usa por parte de un separador de fondo / imágenes de referencia de área objetivo 138 para separar o enmascarar cada una de las imágenes de referencia de área objetivo 506 dentro de la imagen de línea base 700 generada por el interpretador de modelos 128. En el ejemplo que se ilustra en la figura 4, la máscara se usará para separar la imagen de referencia de área objetivo 506 dentro de la imagen de línea base 700 del resto de la imagen, dando como resultado una imagen de referencia enmascarada 700a mostrada en la figura 6. La máscara de área objetivo 502 se usa para localizar y para separar dentro de la imagen original el área o áreas objetivo del resto de las áreas no objetivo de la imagen, a las que se hará referencia como el fondo. Esta función es realizada por el separador de fondo / área objetivo 136.
La figura 7 y la figura 8 ilustran las dos imágenes que resultan de la separación del fondo del área objetivo en la imagen original 400 mostrada en la figura 2. La figura 7 es una imagen de fondo enmascarada 400a que incluye toda la imagen original excepto esa parte dentro del área objetivo 504, que está vacía. La figura 8 es una imagen de área objetivo enmascarada 400b que incluye una parte 1200 de la imagen original 400 incluida dentro del área objetivo 504. La máscara también es usada por el separador de fondo / imagen objetivo 140 para separar las imágenes objetivo dentro de la imagen interpretada por parte del interpretador de modelos 130.
En la imagen de ejemplo 400 de la figura 2, parte del jugador de hockey 404 está cubriendo una parte de las barreras de metacrilato de protección 402 habiendo asignada a la misma un área objetivo 504 que está sometida a las medidas de duración de acuerdo con la invención. Con el fin de medir la duración, el área objetivo 504 está incluida en un flujo de imágenes incluyendo la imagen 400 y para proporcionar una medida cuantitativa de la duración que refleje la "capacidad de visualizar" una imagen incluida dentro del área objetivo 504, la parte del jugador de hockey 404 dentro del área objetivo 504, a la que se hace referencia como una oclusión, debe estar diferenciada del resto del área objetivo 504 de la imagen original 400, y el área correspondiente eliminada de la restante imagen no ocluida dentro del área objetivo 504. Para hacer esta separación, el separador de oclusión 144 compara la imagen de área objetivo enmascarada 400b con la imagen de referencia enmascarada 700a. Cualquier diferencia se presupone que son oclusiones, es decir, las imágenes de los objetos entre la cámara y la superficie (o superficie sintética) que tengan un área objetivo 504 asignada a las mismas. Las pequeñas diferencias entre la imagen de referencia enmascarada y la imagen objetivo enmascarada introducida por el ruido electrónico en la cámara se puede acomodar usando un número de técnicas comúnmente practicadas en el campo del procesado de imágenes, por ejemplo, la supresión de una región pequeña. El posicionamiento impreciso del área objetivo debido a errores en el sistema de medida de telemetría se puede acomodar por medio del filtrado de los datos de telemetría usando técnicas de seguimiento de objetivo comúnmente practicadas, por ejemplo, el filtrado de Kalman. En el ejemplo que se ilustra, la imagen de área objetivo enmascarada 400b mostrada en la figura 8, se compara con la imagen de referencia enmascarada 700a, mostrada en la figura 6. La imagen resultante de oclusión 400c mostrada en la figura 9 incluye solamente la oclusión que, en este ejemplo ilustrativo, es la parte o las partes del jugador de hockey 404 capturadas en la imagen 400 dentro del área objetivo 504. El resto de la imagen de oclusión 400c está vacía. El separador de oclusión 144 también crea una máscara de oclusión. La máscara de oclusión identifica las partes dentro de la imagen original 400 que constituyen la oclusión u oclusiones. En el ejemplo, la máscara de oclusión está generada a partir de la imagen de oclusión 400c de la figura 9. La imagen de fondo enmascarada 400a, la imagen objetivo enmascarada 800a y la imagen de oclusión 400c pueden combinarse por medio del combinador de imágenes 146 para formar una imagen compuesta o imagen final 400e que se puede insertar dentro del flujo de imágenes en el lugar de la imagen 400. La imagen objetivo 604 puede incluir una imagen sintética y, de acuerdo con esto, la imagen compuesta generada proporciona una imagen manipulada que incluye la imagen sintética teniendo una oclusión tal que una parte de la imagen sintética está incluida dentro de la imagen final y aparece como si la imagen sintética fuese parte de la imagen original 400. La imagen de fondo enmascarada, la imagen objetivo enmascarada y la imagen de oclusión se combinan por medio del combinador de imágenes 146 para formar una imagen compuesta o imagen final. La imagen final se puede usar por tecnologías de manipulación de imágenes para su inserción dentro del flujo de imágenes. De acuerdo con esto, la imagen final, o los componentes constitutivos de la misma se pueden usar por el sistema de medida de la imagen 100 para los cálculos de la duración de las áreas objetivo incluidas en su interior. La imagen final se puede insertar entonces dentro del flujo de imágenes cuando la imagen de referencia incluya imágenes sintéticas. Sin embargo, la imagen final o partes de la misma, se pueden usar solamente para calcular las medidas de la duración asociadas con un área objetivo y no se pueden insertar dentro del flujo de imágenes. El último escenario se puede usar para calcular las medidas de duración para la señalética fija teniendo un área objetivo asignada a la misma en cuyo caso la composición de la imagen final facilita un cálculo de la duración de los datos de imagen correspondientes a una imagen física asociada con el área objetivo mientras que el flujo de imágenes no está sometido a tecnologías de inserción de imágenes. De acuerdo con esto, el cálculo de una medida de la duración proporciona una indicación de la duración de que la imagen o las imágenes físicas están incluidas dentro del flujo de imágenes.
En la forma más simple, un sistema para determinar una medida de la duración del área objetivo 504 que está incluido dentro de un flujo de imágenes incluye la cuenta de un número de imágenes finales 400e en un flujo de imágenes que incluye el área objetivo 504. La duración acumulada de una parte de un flujo de imágenes que tenga un área objetivo 504 y una imagen incluida en su interior se pueden calcular en base por ejemplo a las tramas por segundo en la transmisión del flujo de imágenes y/o en la captura. De esta forma, el sistema para medir la duración de una o más áreas objetivo, y de esta forma la duración de los datos de imagen está abarcado en su interior, se incluye en el flujo de imágenes producido por el sistema de captura de imágenes y/o el sistema de manipulación de imágenes incluye el análisis de las imágenes finales 400e, o los componentes constitutivos de las mismas, para la inclusión de una o más áreas objetivo 504 y, por asociación con el área objetivo, la correspondiente inclusión de datos de imagen abarcados dentro del área objetivo 504.
Con referencia a la figura 11, se ilustra una captura de imagen medida de la duración del área objetivo de acuerdo con las enseñanzas de la invención. Uno o más sistemas de captura de la imagen o sistemas de telemetría 104A-104N pueden capturar un flujo de imágenes desde un emplazamiento tal como un recinto deportivo o de espectáculos. Cada sistema de captura de imágenes y de telemetría 104A-104N incluye un respectivo sistema de telemetría. De acuerdo con esto os datos de imagen capturados por un sistema de captura de imágenes y de telemetría 104A-104N tienen información de telemetría codificada dentro del flujo de imágenes capturado. La información de telemetría puede incluir datos de posicionamiento del dispositivo de captura de imágenes, datos de la orientación del dispositivo de captura de imágenes, información focal relacionada con el enfoque del dispositivo de captura de imágenes, etc. Los datos de imagen y de telemetría pueden sacarse de cada sistema de captura de imágenes y telemetría 104A-104N a uno o más sistemas de medida de la duración de la imagen 100A-100N y a un sistema de producción 102. El sistema de producción 102 puede realizar el procesado de os datos de imagen capturada y proporcionar funciones de conmutación para seleccionar uno de los datos de imagen de los sistemas de captura de imágenes y telemetría 104A-104N para ser sacados. De manera típica, una salida de flujo de imágenes incluirá un flujo de imágenes, o flujo de imágenes procesado, proveniente de una fuente de imágenes única en cualquier momento dado. Para implementar una medida de la duración que sea atractiva para los anunciantes, la presente invención proporciona para medir de manera precisa la duración de un área objetivo se incluye en un flujo de imágenes de salida.
Como numerosos sistemas de captura de imágenes y de telemetría 104A-104N se pueden usar para suministrar el sistema de producción 102 con varias vistas de la imagen de un evento, diferentes vistas pueden incluir un área objetivo particular mientras que otras excluyen el área objetivo. De acuerdo con esto, cada sistema de captura de imagen y de telemetría de manera preferible incorpora una etiqueta que identifica a la cámara correspondiente en los datos de imagen y de telemetría capturados por los mismos. Se conocen otras técnicas para identificar la cámara y/o los datos de imagen y de telemetría. De acuerdo con esto, el sistema de producción 102 puede aumentar un contador que mida la duración de un área objetivo que esté incluida dentro de un flujo de imágenes de salida. La coordinación de dichas medidas se puede realizar por medio de un dispositivo o sistema de coordinación de medidas 121A que es suministrado con los datos de la medida de la imagen obtenidos a partir de sistemas de captura de la imagen y de telemetría 100A-100N así como un flujo de imágenes de salida. De acuerdo con esto, se puede incrementar un contador asignado a un área objetivo por medio de un dispositivo o sistema de coordinación de medida 121A solamente cuando el área objetivo esté incluida en un flujo de imágenes que sea sacado por el sistema de producción 102. La realización ilustrada en la figura 11 se puede implementar usando una variedad de procedimientos. Por ejemplo, los sistemas de captura de imagen y de telemetría 104A-104N y los sistemas de medida de la imagen 104A-104N pueden ser implementados usando las mismas plataformas hardware o software o plataformas independientes. Estos sistemas también se pueden usar para de manera virtual capturar de manera simultánea datos de imagen del mismo evento en un único recinto, o de diferentes eventos en diferentes recintos, y puede estar localizados en el mismo recinto o en recintos independientes, o colocados en una unidad de producción tal como un camión de producción.
En la figura 12, se muestra un diagrama de flujo que representa el procesado de un módulo de cálculo de la duración en tiempo real 147. El procedimiento se puede realizar para una o para más áreas objetivo incluidas dentro de una imagen de acuerdo con los procedimientos de la presente invención y los cálculos de la duración se pueden realizar de acuerdo con esto con imágenes físicas dentro del área objetivo 504 así como con imágenes sintéticas insertadas dentro del área objetivo 504. El módulo 147, en el paso 1500 recibe la entrada proveniente del separador de oclusión 144 y del separador de fondo / referencia de área objetivo 138. En un modelo que tiene una pluralidad de áreas objetivo, a cada una de las áreas objetivo se le puede asignar un índice único (i) para la identificación de la misma. El módulo analiza la imagen final 400e, o uno o más componentes constitutivos de la misma, para la inclusión del área objetivo, en el paso 1502, y si el área objetivo no aparece en la trama, el índice i se incrementa en el paso 1504 y se compara frente a un valor de índice FINAL, en el paso 1506, correspondiente al número total de áreas objetivo incluidas dentro del modelo. Si el valor del índice FINAL no se ha alcanzado, el procesado del módulo retorna al paso 1500. Si se ha alcanzado el valor del índice FINAL en el paso 1505, finaliza el procesado del módulo 147 para la trama actual y se repite desde el paso 1500 para las tramas posteriores.
La confirmación de la inclusión de un área_{i} objetivo dentro de la imagen final 400e en el paso 1502 provoca un incremento de un contador_{i} en antena asociado con el área_{i} en el paso 1508. El contador_{i} se puede mantener dentro del módulo de cálculo 147 o de otro componente del sistema de medida de la imagen 100 y es de manera preferible un valor digitalmente almacenado que representa una duración acumulada que el área_{i} total asociada está incluida dentro del flujo de imágenes. La duración acumulada medida puede hacerse en cualquier número de unidades, por ejemplo, la duración de tiempo en segundos, el número de tramas, el número de campos, etc. además, la unidad de duración puede ser dependiente de un estándar de imagen particular usado para sacar el flujo de imágenes a una audiencia. Por ejemplo, numerosos estándares de vídeo, tales como los estándares del Comité Nacional de Estándares de Televisión (NTSG), los estándares de línea alterna de fase (PAL) y otros estándares de vídeo, respectivamente definen las frecuencias de transmisión que definen el número de tramas de imagen o de campos incluidos dentro de un flujo de imágenes por unidad dada de tiempo. Las medidas de la duración de las áreas objetivo incluidas en un flujo de imágenes transmitido a una audiencia de acuerdo con cualquier estándar definido se puede hacer de acuerdo con el mismo. Además, la duración medida se puede ponderar por medio de numerosos factores incluyendo la oclusión y los parámetros de fondo efectuando el visionado de una imagen dentro del área objetivo 504 como se describe con más profundidad más adelante en este mismo documento. El índice i se incrementa a continuación en el paso 510 y se hace entonces una comparación entre el índice i y el índice FINAL en el paso 1512. Si el valor del índice FINAL se tiene aún que alcanzar, el procesado del módulo 147 retorna al paso 1500. Si, por el contrario, se ha alcanzado ya el valor del índice FINAL, el procesado del módulo se completa para la trama actual y se continuará en el paso 1500 para cualquier trama posterior.
De acuerdo con esto, cualquier área objetivo incluida en el modelo y que tenga una imagen objetivo insertada dentro del área objetivo en una imagen final 400e, tendrá asociado un contador_{i} incrementado para esa imagen final particular 400e. Igualmente, cualquier área objetivo incluida en el modelo y que no tenga una imagen insertada dentro del área objetivo pero, que en lugar de esto, tenga el área objetivo asignada a un área de interés tal como la señalética físicamente localizada dentro del emplazamiento tendrá un contador asociado incrementado parada imagen final particular 400e que indique la inclusión de la señal física dentro de la imagen final particular 400e del flujo de imágenes. De manera notable, la cuenta de tramas en las que está incluida el área objetivo en la imagen final 400e se puede hacer en tiempo real de manera concurrente con el procesado de la imagen. Claramente, sin embargo, el cálculo del número de tramas en las que está incluida un área objetivo en un flujo de imágenes se puede retrasar con respecto a la transmisión por tv, la transmisión u otros procesados del flujo de imágenes. Una vez que se hace una cuenta de trama para cada área objetivo de acuerdo con el proceso generalmente descrito en la figura 12, la duración de cualquier imagen objetivo (física o sintética) incluida dentro del área_{i} objetivo se puede calcular como el producto del contador de tramas y las tramas por segundo del flujo de imágenes. De esta manera, se pueden cobrar las tarifas a los anunciantes hechas en forma de imágenes objetivo insertadas dentro del flujo de imágenes sobre una base de duración que cuente la duración de la imagen o de las imágenes objetivo que están incluidas en el flujo de imágenes. Así mismo, las tarifas se pueden cobrar a los anunciantes hechas en forma de señalética física localizada en el emplazamiento que sean capturadas en el flujo de imágenes por medio del cálculo de la duración de un área objetivo asignada al área particular del emplazamiento que incluye la señalética física que está incluida en el flujo de imágenes.
La técnica para calcular la duración de una imagen objetivo que esté incluida en un flujo de imágenes se puede mejorar por medio tener en cuenta factores que efectúen la "legibilidad" o la visibilidad de una imagen objetivo dada. Una medida de la duración más deseable se puede calcular teniendo en cuenta y ajustando el contador en antena para las oclusiones de una imagen objetivo. De acuerdo con la técnica descrita anteriormente en este documento, con referencia a la figura 12, un área objetivo para un número particular de tramas de imagen sería evaluada con la misma cuenta de duración, y por consiguiente, sometida a las mismas tarifas implementadas de acuerdo con las enseñanzas de este documento, con independencia de si el área objetivo estaba completamente sin obstruir o el área objetivo estaba obstruida en varias partes de la misma. Dicha implementación de la invención puede tener objeciones para potenciales anunciantes.
En la figura 13, se ilustra la imagen final 400e incluyendo un primer jugador de hockey 404 y un segundo jugador de hockey 406 en un escenario que puede ocurrir ligeramente después del que se representa en la figura 10. De manera notable, la oclusión representada en la figura 10 no está presente por más tiempo, esto es, el jugador 404 se ha desplazado más allá del área objetivo 504 y la imagen objetivo 604 se ve ahora en su totalidad y, por consiguiente, la imagen objetivo 604 estará en su totalidad incluida dentro de la imagen final 400e. En comparación, solamente una parte de la imagen objetivo 604 estará incluida dentro de la imagen final 400e para el escenario representado en la figura 10.
El módulo 147 puede calcular un parámetro de oclusión (A) para tener en cuenta variaciones en la obstrucción a un área objetivo 504, y la imagen objetivo 604 incluida dentro de la misma, y las tarifas se aplican a los anunciantes para la transmisión por tv u otras formas de visualización de la imagen objetivo 604 pueden ser impuestas de manera más apropiada en vista de la visibilidad global de la imagen objetivo 604. Una disposición de ejemplo para el cálculo de un parámetro de oclusión implica la interrogación, por parte del módulo 147, del separador de oclusión 144 para la información relativa a la imagen de oclusión 400c. El módulo 147 puede adquirir del separador de oclusión 144 una cuenta de píxeles de la oclusión, que sea una cuenta de píxeles solamente de la parte de la imagen 400e del jugador de hockey 404 que está incluida dentro del área objetivo 504. Así mismo, se puede obtener una cuenta de píxeles de la imagen objetivo 802 a partir del separador de fondo / imagen objetivo 140. Se puede calcular un único parámetro de oclusión a partir de la cuenta de píxeles de la oclusión y de la cuenta de píxeles de la imagen objetivo 802, por ejemplo, por medio de la generación de una relación de la cuenta de píxeles de la imagen de oclusión 400c respecto de la cuenta de píxeles de la imagen objetivo 802. El contador_{i} de duración asociado con el área_{i} objetivo se puede ajustar de acuerdo con esto.
En la figura 14 se muestra un diagrama de flujo que representa el procesado de un módulo de cálculo de la duración real 147 que puede hacerse funcionar para medir la duración de una o más imágenes objetivo que estén incluidas en un flujo de imágenes y para reflejar las variaciones en as oclusiones de una o más imágenes objetivo en la duración calculada. El módulo 147 en el paso 1700, recibe una imagen final 400e proveniente del combinador de imágenes 146. En un modelo que tenga una pluralidad de áreas objetivo, a cada una de las áreas objetivo se le puede asignar un único índice i para la identificación de la misma. El modelo analiza la trama para la inclusión del área objetivo; en el paso 1702, y si el área_{i} objetivo no aparece en la trama, el índice i se incrementa, en el paso 1704, y se compara frente al valor del índice FINAL en el paso 1706 correspondiente al número de áreas objetivo presentes en el modelo. Si el valor del índice FINAL aún no se ha alcanzado, el procesado del módulo retorna al paso 1700. Si se ha alcanzado el valor del índice FINAL en el paso 1706, finaliza el procesado del módulo 147 para la trama actual y se repite desde el paso 1700 para cualquier trama posterior.
La confirmación de un área_{i} objetivo en el paso 1702 da como resultado el que el módulo 147 obtenga una cuenta de píxeles de cualquier oclusión del área objetivo; en el paso 1708. El módulo 147 a continuación obtiene una cuenta de píxeles de la imagen_{i} objetivo en el paso 1710. A continuación se calcula un parámetro de oclusión \Delta, por ejemplo una relación de la cuenta de píxeles de imagen de oclusión respecto de la cuenta de píxeles de la imagen_{i} objetivo, por parte del módulo 147 en el paso 1712. El parámetro de oclusión se puede calcular de manera alternativa como una relación de la cuenta de píxeles de la imagen de oclusión respecto de la cuenta de píxeles del área_{i} objetivo. Son posibles otras variaciones del parámetro de oclusión. Se incrementa entonces un contador_{i} como una función del parámetro de oclusión en el paso 1714. Por ejemplo, un área objetivo completamente sin ocluir (o imagen objetivo) puede dar como resultado un incremento en una unidad del contador_{i} con variaciones en el incremento del contador_{i} siendo hechas por medio de la resta A de un incremento unidad del contador_{i}. De acuerdo con el cálculo de ejemplo de \Delta, un área objetivo completamente obstruida (o imagen objetivo) daría como resultado un incremento de cero de i porque la cuenta de píxeles de la oclusión será igual a la cuenta de píxeles del área_{i} objetivo (o imagen_{i} objetivo). De manera apropiada, no resultaría ningún cambio en el valor del contador_{i} incluso aunque se hubiese realizado el procesado del valor del contador. Además, el contador_{i} se incrementará de manera inversa a la cantidad de oclusión del área objetivo.
El índice a continuación se incrementa en el paso 1716 y se hace entonces una comparación entre el índice_{i} y el índice FINAL en el paso 1718. Si el valor del índice FINAL aún no se ha alcanzado, el procesado del módulo 147 retorna al paso 1700. Si por el contrario se ha alcanzado el valor del índice FINAL, se completa el procesado del módulo para la trama actual y continuará en el paso 1700 para cualquier trama posterior.
De acuerdo con esto, cualquier área objetivo que esté incluida en el modelo y que tenga una imagen objetivo dentro de ella dentro de una imagen final 400e tendrá asociado un contador_{i} incrementado para esa imagen final particular 400e y cualquier cuenta final asociada con un área objetivo acumulada sobre un flujo de imágenes reflejará de manera más precisa la cantidad de visibilidad real de la imagen objetivo incluida en ella. La duración de cualquier imagen objetivo incluida dentro de un área objetivo se puede determinar entonces como un producto del contador_{i} de tramas y las tramas por segundo del flujo de imágenes. De esta manera, se pueden imponer de manera más precisa tarifas a los anunciantes hechas en forma de imágenes objetivo incluidas dentro de áreas objetivo de un flujo de imágenes sobre una base de duración.
\newpage
La invención así descrita puede ser mejorada teniendo en cuenta la focalización de la cámara que afecta a la visibilidad de la imagen objetivo incluida en ella dentro de un área objetivo. En las figuras 18A y 18B, se ilustra de manera respectiva una imagen final 400e que se puede obtener con diferentes focalizaciones de la cámara. Dentro de cada imagen final, un área objetivo 504 que tenga una imagen objetivo 604 en ella está incluida en la imagen final 400e. La imagen 400e representada en la figura 18 se puede analizar de acuerdo con las enseñanzas descritas anteriormente en este documento para determinar el cálculo de la duración de áreas objetivo incluidas dentro del flujo de imágenes que incluye a la imagen final 400e. Suponiendo la equivalencia en un escenario particular (esto es, la equivalencia de la oclusión de la imagen objetivo, etc.), una imagen objetivo 604 que sea mucho menos visible (figura 15A) debido a la focalización de la cámara pero que sin embargo aparezca en la imagen 400e tendrá un contador de la duración asociado con ella incrementado de manera equivalente a una imagen objetivo 604 que aparezca en el primer plano (figura 15B) de la imagen final 400e de acuerdo con las enseñanzas anteriores de este documento. Como dicha implementación de la cuenta de la duración en antena de una imagen objetivo puede ser objetada por parte de potenciales anunciantes, la presente invención proporciona una mejora adicional para modificar un contador asociado con un área objetivo, y de esta forma una imagen objetivo asociada, de acuerdo con las variaciones en la focalización de la cámara que afecten a la visibilidad de la imagen objetivo.
El módulo 147 puede calcular un parámetro de primer plano y para tener en cuenta las variaciones en la focalización de la cámara dando como resultado diferencias en la visibilidad de una imagen objetivo 604 dentro de un área objetivo 504 y, de acuerdo con esto, las tarifas aplicadas a los anunciantes de la imagen objetivo 604 pueden ser impuestas de manera más apropiada en vista de la visibilidad global de la imagen objetivo 604. Una disposición de ejemplo para calcular un parámetro de primer plano implica la interrogación, por parte del módulo 147, del separador de fondo /
imagen objetivo 140 para una cuenta de píxeles de la imagen objetivo 802, o de manera alternativa una cuenta de píxeles del área objetivo 504, incluida en una imagen final 400e. Se puede calcular entonces un único parámetro de primer plano a partir de la cuenta de píxeles de la imagen objetivo 802 (o de manera alternativa del área objetivo 504) y la cuenta de píxeles de la imagen final 400e, por ejemplo, por medio de la generación de una relación de la cuenta de píxeles de la imagen objetivo 802 (o del área objetivo 504) respecto de la cuenta de píxeles de la imagen final 400e. Por lo general, la cuenta de píxeles de la imagen final 400e es una constante conocida y fija. El cálculo de la duración asociada con la imagen objetivo 802 se puede ajustar como una función de la relación de la cuenta de píxeles de la imagen objetivo 802 y de la cuenta de píxeles de la imagen final 400e para reflejar de manera precisa la visibilidad global de la imagen objetivo 802.
En la figura 16, se muestra un diagrama de flujo que representa el procesado de un módulo de cálculo de duración en tiempo real 147. El módulo 147, en el paso 1900, recibe una imagen final 400e desde el combinador de imágenes 146. Como se ha hecho notar con anterioridad, en un modelo que tiene una pluralidad de áreas objetivo, a cada una de las áreas objetivo se les puede asignar un único índice_{i} para la identificación de la misma. El modelo analiza la trama para la inclusión del área_{i} objetivo, en el paso 1902, y si el área_{i} objetivo no aparece en la trama, se incrementa el índice en el paso 1904, y se compara frente a un valor de índice FINAL en el paso 1906, correspondiente al número de áreas objetivo presentes en el modelo. Si el valor de índice FINAL no ha sido alcanzado aún, el procesado del módulo retorna al paso 1900. Si se ha alcanzado el valor de índice FINAL en el paso 1906, el procesado del módulo 147 finaliza para la trama actual y se repite desde el paso 1900 para cualquier trama posterior.
La confirmación de la inclusión de un área_{i} objetivo dentro de la imagen 400e en el paso 1902 da como resultado el que el módulo obtenga la cuenta de píxeles del área objetivo (o imagen_{i} objetivo) en el paso 1910. El parámetro de primer plano y, por ejemplo una relación de la cuenta de píxeles de la imagen_{i} objetivo 802 respecto de la cuenta de píxeles de la imagen final 400e, se calcula a continuación por medio del módulo 147 en el paso 1912. Se incrementa entonces un contador_{i} por medio de una función del parámetro de primer plano en el paso 1914, por ejemplo simplemente incrementando el contador_{i} por el valor calculado de \gamma. Una imagen objetivo que ocupe la totalidad de la imagen final 400e daría como resultado un incremento unidad del contador_{i} de acuerdo con el cálculo de ejemplo del parámetro de primer plano \gamma. Las variaciones en la focalización de la cámara que dan como resultado una imagen objetivo que aparece distante de manera creciente en el fondo daría como resultado una reducción proporcional en el incremento del contador_{i}. El índice_{i} se incrementa a continuación en el paso 1916 y después se hace una comparación entre el índice_{i} y el índice FINAL en el paso 1918. Si el valor del índice FINAL aún se tiene que alcanzar, el procesado del módulo 147 retorna al paso 1900. Si, por el contrario, ya se ha alcanzado el valor de índice FINAL, el procesado del módulo se completa para la trama actual y continuará en el paso 1900 para las tramas posteriores.
De acuerdo con esto, cualquier área objetivo que esté incluida en el modelo y que tenga una imagen objetivo dentro de ella dentro de una imagen final 400e tendrá asociado un contador incrementado para esa imagen final particular 400e y cualquier cuenta final asociada con un área objetivo acumulada sobre un flujo de imágenes reflejará de manera más precisa la visibilidad de la imagen objetivo resultante de las diferentes focalizaciones de la cámara usada para producir cualquier número de imágenes finales 400e. La duración de cualquier imagen objetivo incluida dentro de un área objetivo se puede determinar entonces como un producto del contador de tramas y las tramas por segundo del flujo de imágenes. De esta manera, se pueden imponer de manera más precisa tarifas a los anunciantes hechas en forma de imágenes objetivo dentro de áreas objetivo incluidas en un flujo de imágenes.
De manera preferible, el sistema de medida de la imagen ilustrado en la figura 1 puede tener canales de comunicación entre la consola del director 123 y el módulo de cálculo de la imagen 147. Estos umbrales se pueden fijar o se pueden definir por parte de un operador de la consola del director 123. Se ha considerado que la cantidad de oclusión de un área objetivo particular, o imagen objetivo, pueden ser tan grande en algunos casos mientras que el área objetivo o la imagen objetivo aún este incluida dentro de una trama de una transmisión por tv que los espectadores de la transmisión por tv puedan fallar en reconocer la imagen objetivo particular incluida dentro del área objetivo ocluida. Por ejemplo, una imagen objetivo puede incluir solamente una insignia corporativa que ocupe de manera visible solamente una pequeña parte de un área objetivo cuando se incluya en el flujo de imágenes. Si una parte del área objetivo está ocluida, el área objetivo puede por sí misma tener una parte significativa de la misma sin ocluir mientras que la insignia insertada en forma de una imagen objetivo no es visible, o es irreconocible para los espectadores del flujo de imágenes. De acuerdo con las técnicas novedosas anteriores, en tal circunstancia los contadores asociados con el área objetivo serían incrementados porque una parte del área objetivo está incluida con la trama asociada. Cualquier tarifa calculada como una función del contador sería entonces incluida al menos una parte de la misma para las tramas de transmisión por tv en las que la insignia no sea visible o sea irreconocible. Se pueden implementar los umbrales para facilitar el remedio de dicha situación. Un umbral de oclusión se puede definir de manera que los incrementos del contador no estén permitidos cuando un porcentaje especificado del área objetivo esté ocluida, esto es, el umbral de oclusión deja de permitir incrementos en el contador si el parámetro de oclusión es mayor que el umbral de oclusión. Si más de un área objetivo está incluida en el modelo del emplazamiento, los umbrales de oclusión se pueden definir para cada una de las áreas objetivo y se pueden implementar de manera independiente unos de otros. De esta manera, el director publicitario podría confeccionar tarifas de manera específica hacia imágenes objetivo particulares que se vayan a incluir dentro de un área objetivo dada.
El umbral de oclusión también se puede implementar como una función del porcentaje del área objetivo, o imagen objetivo que aparezca en la pantalla, esto es, dentro de una trama que no esté ocluida. Por ejemplo, durante eventos deportivos, las panorámicas de la cámara ocurren a menudo y darán como resultado tramas en las que las áreas objetivo solamente estén parcialmente incluidas dentro de una trama. Un parámetro de oclusión distinto del que se ha descrito anteriormente se puede implementar en estas situaciones. De esta forma, se puede implementar un umbral de oclusión diferente para dejar de permitir incrementos en un contador asociado con un área objetivo para áreas objetivo que no estén incluidas por completo en una trama.
Otra realización adicional de la invención utiliza áreas subobjetivo 504A u 504B dentro del área objetivo 504. Las tarifas se pueden calcular sobre áreas subobjetivo individuales por medio de la asignación de contadores independientes a las áreas subobjetivo. Los parámetros de oclusión individuales e independientes y los parámetros de primer plano se pueden calcular para cada una de las áreas de subobjetivo 504A y 504B para facilitar refinamientos adicionales en las técnicas de cálculo de la duración descritas en este documento. Las áreas subobjetivo 504A y 504B pueden, por ejemplo, ser útiles cuando una imagen objetivo incluya gráficos, tales como logotipos corporativos, así como texto. Como los gráficos pueden ser más o menos reconocibles que el texto, una imagen objetivo que incluya a ambos puede tener múltiples áreas subobjetivo definidas dentro de un área objetivo mayor. Se pueden incluir una o más imágenes objetivo dentro del área objetivo 504 de forma que el cálculo de la duración de las áreas subobjetivo 504A y 504B permita el cálculo independiente de la duración de la imagen o de las imágenes objetivo dentro del área objetivo 504. De acuerdo con esto, se pueden asociar de manera respectiva contadores independientes con las áreas subobjetivo. Como consecuencia de esto, se pueden implementar tarifas de manera individual para las áreas subobjetivo. Así mismo, los parámetros de oclusión individuales y/o los parámetros de primer plano se pueden calcular para cada una de las áreas subobjetivo 504A y 504B. Se pueden fijar también diferentes umbrales de oclusión para cada una de las áreas subobjetivo 504A y 504B.
Se debería comprender que la técnica particular para el cálculo de un parámetro de oclusión y para un parámetro de primer plano y/o la asignación de umbrales a los mismos que hayan sido descritos son solamente a modo de ejemplo. Son posibles variaciones de la cuenta de las diferencias en la visibilidad debido a las oclusiones y a las variaciones en la focalización de una cámara que esté capturando un flujo de imágenes. Por ejemplo, se puede calcular un porcentaje de un área objetivo que esté dentro de una trama de imagen independiente de si está ocluida o no. El área total de todas las oclusiones respecto del área objetivo se pueden restar entonces del área de la trama de imagen completa antes de calcular el porcentaje del área objetivo que está dentro de la trama de la imagen.
De manera adicional, se pueden hacer variaciones para la compensación de primer plano de un área objetivo. La cuenta de una trama / campo que incluya un área objetivo puede depender de un umbral para el porcentaje calculado de área objetivo dentro del área de trama global y para el porcentaje del área de pantalla. Con referencia a la figura 18, un área total 2200 de trama de imagen, o señal de trama, se designa por A,; un área total de la parte visible de la trama de imagen 2201 se designa por A,; un área entera del área objetivo 2202 interpretada de acuerdo con la telemetría de la cámara se designa A_{T}; un área 2203 del área objetivo visible en la pantalla se designa A_{TS}; y un área total 2204 de todos los cuerpos que producen oclusión del área objetivo se designa A_{T0}. \theta_{T} se define como un umbral para el área de trama de la señal para permitir un incremento de la cuenta. De manera preferible, \theta_{T} se puede fijar por el usuario. \theta_{T0} es un umbral correspondiente en el que el área de todos los cuerpos que producen oclusión se toma en consideración. \theta_{s} representa un umbral que puede fijar el usuario para el área objetivo visible que no cuenta los cuerpos que producen oclusión como un porcentaje del área de la pantalla. \theta_{s0} denota el umbral para la cuenta de las oclusiones del área objetivo visible como un porcentaje de área de trama de imagen. Se pueden realizar las siguientes posibles pruebas para determinar si se va a incrementar un contador asignado a un área objetivo:
1
\vskip1.000000\baselineskip
2
\vskip1.000000\baselineskip
3
\vskip1.000000\baselineskip
4
\vskip1.000000\baselineskip
Las ecuaciones 1 a la 4 permiten el fijar umbrales que gobiernen los incrementos en los contadores asignados a las respectivas áreas objetivo. La permisividad o la no permisividad de los incrementos de un contador de un área objetivo también se puede determinar a partir de una combinación lógica o ponderada de estas ecuaciones según se desee.
La presente invención contempla el incluir una o más áreas subobjetivo definidas dentro de un área objetivo, por ejemplo, un logotipo de un anunciante dentro de una señal (física o sintética) correspondiente a un área objetivo. Con referencia de nuevo a la figura 18, el área total 2205 de un área subobjetivo dentro del área total 2202 viene designado por A_{L}; el área 2206 del área subobjetivo dentro de la trama de imagen visible está designado como A_{LS}; el área 2207 del área subobjetivo ocluida por todos los cuerpos oclusivos viene designada por A_{L0}. los siguientes umbrales se pueden definir entonces: \phi_{L} es un umbral del área de trama de imagen del área subobjetivo como un porcentaje del área subobjetivo total; \phi_{L0} es un umbral del área de trama de imagen menos el área total de todos los cuerpos oclusivos como un porcentaje del área subobjetivo total; \phi_{s} es un umbral del área subobjetivo como un porcentaje del área de trama de imagen visible total; y \phi_{s0} es el umbral relativo al área de trama de imagen total menos cualquier área ocluida de las áreas subobjetivo.
Se pueden definir entonces las siguientes pruebas para permitir y no permitir incrementos de un contador asignado a un área objetivo:
5
\vskip1.000000\baselineskip
6
\vskip1.000000\baselineskip
7
\vskip1.000000\baselineskip
8
La permisividad / no permisividad de incrementos en un contador de un área objetivo también se puede determinar a partir de una combinación lógica o ponderada de as ecuaciones 5 a la 8. Como un nivel añadido de sofisticación, las ecuaciones 1 a la 4 se pueden combinar con las ecuaciones 5 a la 8 para proporcionar una métrica híbrida para permitir /
no permitir incrementos del contador.
De manera preferible, un sistema de medida de la imagen 100 que incluya un módulo del cálculo de la duración en antena 147 implementaría un cálculo de la duración en antena teniendo ajustes tanto para las variaciones de la oclusión como para las del primer plano como se describe con referencia a las figuras 17 y 19 y/o con referencia a una o a más de las ecuaciones 1 a la 8. Sin embargo, las enseñanzas de la invención, en su forma más simple, se pueden implementar de acuerdo con la figura 12 y la descripción que la acompaña. Como se ha aludido con anterioridad, los cálculos se pueden realizar sobre un mecanismo basado en campo, en lugar de un mecanismo basado en trama. De esta forma, los contadores descritos para medir la duración de un área objetivo que esté incluida dentro del flujo de la imagen se pueden realizar por medio del análisis de uno o de más campos de una trama del flujo de vídeo que se esta siendo retransmitido.
Son posibles otras modificaciones de la invención. Por ejemplo, las técnicas descritas permiten cálculos en tiempo real de la duración que una o de más áreas objetivo que estén incluidas dentro de un flujo de imágenes también proporcionan un mecanismo para asegurar que se consiga una duración deseada de una imagen sintética que esté incluida dentro de un flujo de imágenes. Por ejemplo, un anunciante puede contratar el tener un anuncio incluido en un flujo de imágenes, tal como una transmisión por tv de un evento deportivo. La presente invención permite que el contrato especifique una duración, tal como un tiempo de exposición máximo, un tiempo de exposición mínimo o un tiempo de exposición preciso, que un anuncio u otra imagen sintética estén incluidos en un flujo de imágenes. El contrato puede especificar un número de unidades, tales como segundos o tramas de un flujo de imágenes, un anuncio u otra imagen vaya a ser incluida en el flujo de imágenes. De acuerdo con esto, las tasas de publicidad impuestas para la inclusión de un anuncio en un flujo de imágenes se pueden hacer sobre una base de la duración antes de la transmisión por tv, u otros mecanismos de transmisión del flujo de imágenes. Ésta es una mejora notable sobre las técnicas de la técnica anterior que requieren hacer el cálculo de la duración de un anuncio que esté incluido en un flujo de imágenes después de la transmisión por tv u otra transmisión del flujo de imágenes. Las tasas basadas en la duración para las imágenes incluidas dentro del flujo de imágenes pueden no ser impuestas hasta después de la transmisión por tv del flujo de imágenes de acuerdo con técnicas conocidas en la técnica. De manera adicional, la duración de una imagen particular que se incluye dentro de un flujo de imágenes puede no ser definida antes de la transmisión de la transmisión por tv de acuerdo con las técnicas de la técnica anterior.
Una imagen sintética puede tener un tiempo de exposición deseado definido antes de la transmisión de un flujo de imágenes que vaya a tener la imagen sintética insertada de acuerdo con una realización de la invención. El asignar una imagen sintética a un área objetivo para su inserción en la misma u permitir que el área objetivo sea reasignada de manera dinámica durante una transmisión de flujo de imágenes puede facilitar el cumplir con una duración deseada predefinida de una imagen que se vaya a incluir en un flujo de imágenes de acuerdo con las enseñanzas de la invención. Por ejemplo, durante una transmisión por tv de evento deportivo, una imagen sintética asignada para su inserción en un área objetivo puede tener una duración de exposición deseada predefinida definida antes de la transmisión del flujo de imágenes. El cálculo en tiempo real del tiempo de exposición de la duración del área objetivo que tenga la imagen sintética asignada a la misma puede indicar, en algún punto durante la transmisión del flujo de imágenes, que el área objetivo puede no estar incluida dentro del flujo de imágenes durante la duración deseada del anunciante. La imagen sintética puede ser reasignada a otra área objetivo que se determina para proporcionar una mayor probabilidad de ser incluida dentro del flujo de imágenes durante la duración predefinida original asociada con los datos de la imagen. Por ejemplo, un anunciante puede contratar el tener una imagen sintética insertada en un área objetivo durante una duración predefinida de un recinto deportivo tal como la pared donde el jugador espera recoger la bola en el campo de béisbol. Durante la transmisión del partido de béisbol, el análisis de las medidas de duración, las métricas u otros datos estadísticos recogidos durante la captura del flujo de imágenes y calculados para el área objetivo que tiene los datos de imagen asignados a la misma, pueden indicar que el área objetivo igualmente será incluida durante una duración que sea menor que la duración deseada indicada y acordada por el anunciante antes de la transmisión del flujo de imágenes desde el recinto deportivo. De acuerdo con esto, los datos de imagen asignados al área objetivo se pueden reasignar a otra área objetivo. Por ejemplo, si durante la transmisión del flujo de imágenes se determina que la duración real del área objetivo que tiene los datos de imagen asignados a la misma es probable que tenga una duración que sea menor que una duración deseada predefinida, los datos de imagen asignados al área objetivo pueden ser reasignados a otra área objetivo, por ejemplo, a un área objetivo en un área más visible del recinto deportivo, tal como una pared central del campo, que tenga los cálculos de la duración indicando una duración de exposición mayor con relación al área objetivo que tiene los datos de imagen originalmente asignados a la misma. De esta manera, una vez que se hayan reasignado a otra área objetivo, la duración de los datos de imagen que está incluida en el flujo de imágenes se puede incrementar en un intento para tener los datos de imagen incluidos dentro del flujo de imágenes para conseguir la duración deseada predefinida. Así mismo, los datos de imagen se pueden reasignar a múltiples áreas objetivo y la reasignación de los mismos no impide el mantenimiento de una asignación de los datos de imagen con un área objetivo desde la que se reasignan, esto es, los datos de imagen se pueden reasignar a una primera área objetivo y se pueden reasignar a una segunda área objetivo sobre la que los datos de imagen originalmente asignados a la primera área objetivo aparecerán en imágenes de la trama de imágenes que incluya a la segunda área objetivo o a la primera y a la segunda área objetivo. La reasignación de datos de imagen se puede hacer para cualquier número de áreas objetivo en un intento de incluir los datos de imagen asignados a las mismas dentro del flujo de imágenes durante una duración predefinida. De acuerdo con esto, se pueden hacer variaciones de los mecanismos de contador descritos en este documento para facilitar las medidas de la duración de los datos de imagen incluidos dentro de una o más áreas objetivo y que se pueden reasignar a otras áreas objetivo. Por ejemplo, los contadores asignados a un área objetivo de manera similar pueden ser asignados a datos de imagen particulares que se pueden insertar dentro de imágenes de un flujo de imágenes y se pueden calcular de acuerdo con las enseñanzas de este documento. De esta forma, un contador particular asociado con datos de imagen que se vaya a insertar dentro de un área objetivo se puede incrementar solamente cuando el área objetivo esté incluida en una imagen del flujo de imágenes y cuando el área objetivo tenga incluido dentro del mismo datos de imagen particulares. El contador se puede reasignar a un área objetivo diferente al producirse la reasignación de los datos de imagen. Además, los incrementos en el contador se pueden hacer al producirse la determinación de la inclusión de cualquiera de una pluralidad de áreas objetivo dentro de una imagen del flujo de imágenes facilitando por lo tanto la reasignación de los datos de imagen y los cálculos de duración de los mismos.

Claims (30)

1. Un procedimiento para calcular la duración de un área objetivo incluida dentro de un flujo de imágenes obtenido por un sistema de captura de imágenes en un emplazamiento físico, comprendiendo el procedimiento:
analizar al menos un campo del flujo de imágenes para la inclusión del área objetivo, en el que el área objetivo corresponde a una superficie virtual definida en un modelo de ordenador del emplazamiento, correspondiendo la superficie virtual a una superficie imaginaria en lugar de a una superficie real en el emplazamiento físico; e
incrementar de manera automática un contador tras la confirmación de que el área objetivo está incluida dentro de al menos un campo.
\vskip1.000000\baselineskip
2. El procedimiento de acuerdo con la reivindicación 1, comprendiendo de manera adicional el cálculo de un parámetro de oclusión del área objetivo.
3. El procedimiento de acuerdo con la reivindicación 1, en el que se calcula una tasa al menos en parte al valor del contador.
4. El procedimiento de la reivindicación 2, en el que el parámetro de oclusión se calcula en respuesta a una cuenta de píxeles de una oclusión del área objetivo y una cuenta de píxeles del área objetivo.
5. El procedimiento de acuerdo con la reivindicación 4, en el que el parámetro de oclusión es una relación de la cuenta de píxeles de la oclusión respecto de la cuenta de píxeles del área objetivo.
6. El procedimiento de acuerdo con la reivindicación 2, en el que el contador se incrementa por el resultado numérico del parámetro de oclusión restando de uno.
7. El procedimiento de la reivindicación 1, comprendiendo de manera adicional el cálculo de un parámetro de primer plano del área objetivo.
8. El procedimiento de acuerdo con la reivindicación 7, en el que el parámetro de primer plano se calcula en base al menos en parte a una cuenta de píxeles del área objetivo y una cuenta de píxeles de al menos un campo.
9. El procedimiento de acuerdo con la reivindicación 8, en el que el parámetro de primer plano es una relación de la cuenta de píxeles del área objetivo respecto de la cuenta de píxeles de al menos un campo.
10. El procedimiento de acuerdo con la reivindicación 7, en el que el contador se incrementa en un incremento que es equivalente al valor calculado del parámetro de primer plano.
11. El procedimiento de acuerdo con la reivindicación 2, comprendiendo de manera adicional la definición de un umbral de oclusión, no permitiéndose un incremento del contador si el umbral de oclusión sobrepasa el parámetro de oclusión.
12. El procedimiento de la reivindicación 1, en el que el área objetivo comprende datos de imagen seleccionados del grupo consistente en la señalización existente en un emplazamiento desde el que se capturó el flujo de imágenes y una imagen sintética no presente en el emplazamiento.
13. El procedimiento de acuerdo con la reivindicación 1, comprendiendo de manera adicional:
asignar datos de imagen para la inserción dentro del área objetivo; y
reasignar los datos de imagen a una segunda área objetivo para que se incluyan en el flujo de imágenes.
\vskip1.000000\baselineskip
14. El procedimiento de acuerdo con la reivindicación 13, en el que la reasignación de los datos de imagen a una segunda área objetivo comprende además la reasignación de los datos de imagen a la segunda área objetivo cuando se captura el flujo de imágenes.
15. El procedimiento de acuerdo con la reivindicación 13, comprendiendo de manera adicional:
especificar una duración de los datos de imagen que se vayan a incluir dentro del flujo de imágenes antes de la captura del flujo de imágenes; y
recoger, antes de reasignar los datos de imagen, datos estadísticos indicativos de la duración de al menos un grupo que consiste en el área objetivo y la segunda área objetivo está incluida en el flujo de imágenes cuando se captura el flujo de imágenes.
\vskip1.000000\baselineskip
16. El procedimiento de acuerdo con la reivindicación 15, en el que la reasignación de los datos de imagen a una segunda área objetivo comprende de manera adicional la reasignación de los datos de imagen a la segunda área objetivo en respuesta a los datos estadísticos indicativos de que la segunda área objetivo tiene una duración de inclusión superior en el flujo de imágenes que el área objetivo.
17. El procedimiento de acuerdo con la reivindicación 13, comprendiendo de manera adicional el cálculo de la duración de los datos de imagen que están incluidos en el flujo de imágenes por medio de la suma de los respectivos incrementos en el contador que está asociado con la primera área objetivo con los incrementos al segundo contador que está asociado con la segunda área objetivo, los incrementos sumados limitados a los respectivos incrementos hechos al área objetivo cuando los datos de imagen están respectivamente asignados a una o más del área objetivo y de la segunda área objetivo.
18. Un sistema para calcular la duración de un área objetivo que está incluida en un flujo de imágenes obtenido por medio de la captura de imágenes en un emplazamiento físico, comprendiendo el sistema:
un modelo de la mencionada área objetivo, el área objetivo correspondiente a un elemento virtual en lugar de a un elemento real en el emplazamiento físico;
un módulo de cálculo de la duración que identifique la inclusión del área objetivo en al menos un campo del flujo de imágenes, el módulo incluyendo un contador que se incrementa al producirse la conformación de la inclusión del área objetivo dentro del al menos un campo; y
en el que el área objetivo está incluida en el al menos un campo cuando el emplazamiento está incluido en el flujo de imágenes.
19. El sistema de acuerdo con la reivindicación 18, comprendiendo de manera adicional:
un sistema de inserción de imagen para insertar una imagen objetivo dentro de al menos una pluralidad de campos del flujo de imágenes, el sistema de inserción de imagen estando en comunicación con el módulo de cálculo de la duración; y
un sistema de captura de imagen para proporcionar una imagen al sistema de medida de imágenes.
20. El sistema de acuerdo con la reivindicación 18, en el que el módulo del cálculo de la duración está incluido dentro del sistema de inserción de imagen.
21. El sistema de acuerdo con la reivindicación 18, comprendiendo de manera adicional:
un interpretador de modelo para generar una imagen sintética en base a un modelo de referencia en tres dimensiones predefinido del emplazamiento desde una posición conocida de una cámara incluida en el sistema de suministro de imágenes, la imagen sintética teniendo la imagen objetivo insertada en el área objetivo de la misma,
un separador de imágenes para enmascarar a partir de una imagen de vídeo contenida dentro de una trama de una señal de vídeo generada por la cámara, el área objetivo para crear una imagen de fondo enmascarada, siendo creada una imagen de referencia enmascarada por el separador de imágenes por medio de la separación de una imagen de referencia del resto de la imagen; y
un separador de oclusión que se puede hacer funcionar para comparar la imagen de área objetivo enmascarada con la imagen de referencia enmascarada, representando la diferencia entre ellas una oclusión de la imagen objetivo.
22. El sistema de acuerdo con la reivindicación 21, en el que el módulo calcula un parámetro de oclusión a partir de la información obtenida del separador de imágenes.
23. El sistema de acuerdo con la reivindicación 22, en el que el parámetro de oclusión se calcula como una relación de una cuenta de píxeles de la oclusión respecto de una cuenta de píxeles de la imagen objetivo.
24. El sistema de acuerdo con la reivindicación 22, en el que el incremento del contador es una función del parámetro de oclusión.
25. El sistema de acuerdo con la reivindicación 21, en el que el módulo calcula el parámetro de primer plano a partir de la información obtenida del sistema de inserción de imágenes.
26. El sistema de acuerdo con la reivindicación 24, comprendiendo de manera adicional:
un combinador de imágenes para producir una imagen final de la imagen de fondo enmascarada y la oclusión, el módulo obteniendo una cuenta de píxeles del área objetivo a partir del separador de imágenes y una cuenta de píxeles de la imagen final a partir del combinador de imágenes, siendo calculado el parámetro de primer plano a partir de la cuenta de píxeles del área objetivo y de la cuenta de píxeles de la imagen final.
\vskip1.000000\baselineskip
27. El sistema de acuerdo con la reivindicación 24, en el que el incremento es una función del parámetro de primer plano.
28. El sistema de acuerdo con la reivindicación 21, en el que no se permite un incremento del contador en el caso de que el parámetro de oclusión sobrepase un umbral de oclusión.
29. El sistema de acuerdo con la reivindicación 21, en el que el área objetivo comprende datos de imagen seleccionados del grupo consistente en la señalética existente en un emplazamiento desde el que se capturó el flujo de imágenes y las imágenes sintéticas no están presentes en el emplazamiento.
30. El sistema de acuerdo con la reivindicación 21, comprendiendo de manera adicional:
un modelo de área objetivo de un segundo emplazamiento desde el que se capturó el flujo de imágenes; y
un módulo de cálculo de la duración que identifique la inclusión del área objetivo del segundo emplazamiento en el al menos un campo del flujo de imágenes, el módulo incluyendo un contador que se incrementa al producirse la confirmación de la inclusión del área objetivo dentro del al menos un campo, y en el que el área objetivo del segundo emplazamiento está incluida en al menos un campo cuando el segundo emplazamiento está incluido en el flujo de imágenes.
ES01962241T 2001-07-10 2001-08-16 Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. Expired - Lifetime ES2306724T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US903122 2001-07-10
US09/903,122 US7206434B2 (en) 2001-07-10 2001-07-10 Method and system for measurement of the duration an area is included in an image stream

Publications (1)

Publication Number Publication Date
ES2306724T3 true ES2306724T3 (es) 2008-11-16

Family

ID=25416979

Family Applications (1)

Application Number Title Priority Date Filing Date
ES01962241T Expired - Lifetime ES2306724T3 (es) 2001-07-10 2001-08-16 Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen.

Country Status (13)

Country Link
US (1) US7206434B2 (es)
EP (1) EP1405266B1 (es)
JP (1) JP4176010B2 (es)
AT (1) ATE394756T1 (es)
AU (1) AU2001283437B2 (es)
BR (1) BR0117076A (es)
CA (1) CA2454297C (es)
DE (1) DE60133944D1 (es)
ES (1) ES2306724T3 (es)
HK (1) HK1064776A1 (es)
IL (2) IL159788A0 (es)
MX (1) MXPA04000307A (es)
WO (1) WO2003007245A2 (es)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030187730A1 (en) * 2002-03-27 2003-10-02 Jai Natarajan System and method of measuring exposure of assets on the client side
JP4136420B2 (ja) * 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
US20040070691A1 (en) * 2002-10-11 2004-04-15 Akio Kojima Image processing method of sporting events
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
US20050110801A1 (en) * 2003-11-20 2005-05-26 I-Jong Lin Methods and systems for processing displayed images
US9087380B2 (en) * 2004-05-26 2015-07-21 Timothy J. Lock Method and system for creating event data and making same available to be served
US7868914B2 (en) * 2004-06-07 2011-01-11 Sportsmedia Technology Corporation Video event statistic tracking system
US7620266B2 (en) * 2005-01-20 2009-11-17 International Business Machines Corporation Robust and efficient foreground analysis for real-time video surveillance
US8738787B2 (en) 2005-04-20 2014-05-27 Limelight Networks, Inc. Ad server integration
US8291095B2 (en) * 2005-04-20 2012-10-16 Limelight Networks, Inc. Methods and systems for content insertion
US20080010083A1 (en) * 2005-07-01 2008-01-10 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Approval technique for media content alteration
US9583141B2 (en) 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US7978192B2 (en) * 2005-10-04 2011-07-12 Rdv Systems Ltd. Method and apparatus for evaluating sight distance
US7692649B2 (en) 2005-10-04 2010-04-06 Rdv Systems Ltd. Method and apparatus for virtual reality presentation of civil engineering, land planning and infrastructure
CA2672144A1 (en) * 2006-04-14 2008-11-20 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US20080219504A1 (en) * 2007-03-05 2008-09-11 Adams Henry W Automatic measurement of advertising effectiveness
US8376226B2 (en) * 2007-04-03 2013-02-19 International Business Machines Corporation System and method for interactive marketing to consumers
US8314791B2 (en) * 2007-11-19 2012-11-20 Rdv Systems Ltd. Method and apparatus for determining view impact
WO2009085233A2 (en) * 2007-12-21 2009-07-09 21Ct, Inc. System and method for visually tracking with occlusions
US9031279B2 (en) * 2008-07-09 2015-05-12 Disney Enterprises, Inc. Multiple-object tracking and team identification for game strategy analysis
US8458147B2 (en) * 2008-08-20 2013-06-04 Intel Corporation Techniques for the association, customization and automation of content from multiple sources on a single display
US8427473B2 (en) * 2008-09-28 2013-04-23 Rdv Systems Ltd. Pseudo-realistic rendering of BIM data responsive to positional indicator
US20100091036A1 (en) * 2008-10-10 2010-04-15 Honeywell International Inc. Method and System for Integrating Virtual Entities Within Live Video
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US9533418B2 (en) * 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
CN102726051B (zh) * 2009-09-11 2016-02-03 迪斯尼实业公司 3d视频中的虚拟插件
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
CN102906810B (zh) 2010-02-24 2015-03-18 爱普莱克斯控股公司 支持视觉受损的个体的扩增的现实全景
WO2012038506A1 (en) * 2010-09-22 2012-03-29 Thomson Licensing Methods for processing multimedia flows and corresponding devices
JP5656567B2 (ja) * 2010-11-05 2015-01-21 キヤノン株式会社 映像処理装置および方法
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
CN103907137A (zh) * 2011-08-31 2014-07-02 岩石国际集团私人有限公司 虚拟广告平台
US9514381B1 (en) 2013-03-15 2016-12-06 Pandoodle Corporation Method of identifying and replacing an object or area in a digital image with another object or area
EP3654286B1 (en) 2013-12-13 2024-01-17 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
US11004139B2 (en) 2014-03-31 2021-05-11 Monticello Enterprises LLC System and method for providing simplified in store purchases and in-app purchases using a use-interface-based payment API
US10511580B2 (en) 2014-03-31 2019-12-17 Monticello Enterprises LLC System and method for providing a social media shopping experience
US11080777B2 (en) 2014-03-31 2021-08-03 Monticello Enterprises LLC System and method for providing a social media shopping experience
US12008629B2 (en) 2014-03-31 2024-06-11 Monticello Enterprises LLC System and method for providing a social media shopping experience
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
GB2529182B (en) * 2014-08-12 2019-03-27 Supponor Oy Method and apparatus for dynamic image content manipulation
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
CN105006006A (zh) * 2015-07-01 2015-10-28 广东省城乡规划设计研究院 一种城市高温区通风廊道的计算方法及系统
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
CN105530514A (zh) * 2016-01-28 2016-04-27 长光卫星技术有限公司 一种用于卫星平台微振动对相机成像影响的测试装置
WO2017165538A1 (en) * 2016-03-22 2017-09-28 Uru, Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
US11856271B2 (en) * 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
JP7018566B2 (ja) * 2017-04-28 2022-02-14 パナソニックIpマネジメント株式会社 撮像装置、画像処理方法及びプログラム
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US20220164974A1 (en) * 2019-03-28 2022-05-26 Sony Group Corporation Information processing device, information processing method, and program
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
FR3103343B1 (fr) * 2019-11-20 2022-07-01 Affaticati Jean Luc Procédé de modification d’un flux vidéo
JP7330507B2 (ja) * 2019-12-13 2023-08-22 株式会社Agama-X 情報処理装置、プログラム、及び、方法
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11206453B2 (en) 2020-04-14 2021-12-21 International Business Machines Corporation Cognitive broadcasting of an event
WO2022049694A1 (ja) * 2020-09-03 2022-03-10 日本電信電話株式会社 学習装置、推定装置、学習方法、及び学習プログラム
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4084184A (en) 1976-07-26 1978-04-11 Crain David W Tv object locator and image identifier
EP0089212B1 (en) * 1982-03-13 1987-10-28 Kabushiki Kaisha Ishida Koki Seisakusho Method and apparatus for sorting articles
US4970666A (en) 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
FR2661061B1 (fr) 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
FR2675977B1 (fr) 1991-04-26 1997-09-12 Inst Nat Audiovisuel Procede de modelisation d'un systeme de prise de vues et procede et systeme de realisation de combinaisons d'images reelles et d'images de synthese.
EP0595808B1 (en) 1991-07-19 1999-06-23 Princeton Video Image, Inc. Television displays having selected inserted indicia
GB9119964D0 (en) 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5715018A (en) 1992-04-10 1998-02-03 Avid Technology, Inc. Digital advertisement insertion system
US5903317A (en) 1993-02-14 1999-05-11 Orad Hi-Tech Systems Ltd. Apparatus and method for detecting, identifying and incorporating advertisements in a video
AU6298794A (en) 1993-02-14 1995-05-04 Orad, Inc. Apparatus and method for detecting, identifying and incorporating advertisements in a video
CA2121151A1 (en) 1993-04-16 1994-10-17 Trevor Lambert Method and apparatus for automatic insertion of a television signal from a remote source
WO1995010915A1 (en) 1993-10-12 1995-04-20 Orad, Inc. Sports event video
NZ271237A (en) 1993-10-27 1996-09-25 Princeton Video Image Inc Electronic billboard insertion of images into broadcast video stream
JPH07220452A (ja) 1993-12-17 1995-08-18 Imix Inc ビデオ編集及び実時間処理のための方法及び装置
IL108957A (en) 1994-03-14 1998-09-24 Scidel Technologies Ltd Video sequence imaging system
IL109487A (en) 1994-04-29 1996-09-12 Orad Hi Tec Systems Ltd Chromakeying system
US5436672A (en) 1994-05-27 1995-07-25 Symah Vision Video processing system for modifying a zone in successive images
IL110573A (en) 1994-08-04 1998-10-30 Orad Hi Tec Systems Ltd Video transmission device and method
US5627915A (en) 1995-01-31 1997-05-06 Princeton Video Image, Inc. Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field
FR2730837B1 (fr) 1995-02-22 1997-05-30 Sciamma Dominique Systeme d'insertion en temps reel ou differe de panneaux publicitaires ou informationnels virtuels dans des emissions televisees
US5600366A (en) 1995-03-22 1997-02-04 Npb Partners, Ltd. Methods and apparatus for digital advertisement insertion in video programming
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5808695A (en) 1995-06-16 1998-09-15 Princeton Video Image, Inc. Method of tracking scene motion for live video insertion systems
EP0796541B1 (en) 1995-06-16 1999-05-19 Princeton Video Image, Inc. System and method of real time insertions into video using adaptive occlusion with a synthetic reference image
US5892554A (en) 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
EP0838068B1 (en) 1995-07-10 2005-10-26 Sarnoff Corporation Method and system for rendering and combining images
GB9514313D0 (en) 1995-07-13 1995-09-13 Beattie Robert J Live-ads
GB9601101D0 (en) 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
IL115288A (en) 1995-09-13 1999-06-20 Scidel Technologies Ltd Method and apparatus for implanting images into a video sequence
GB2312582A (en) 1996-01-19 1997-10-29 Orad Hi Tech Systems Limited Insertion of virtual objects into a video sequence
US5799055A (en) 1996-05-15 1998-08-25 Northwestern University Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy
SE506544C2 (sv) 1996-06-20 1998-01-12 Telia Ab Anordning och metod för generering av digitala reklamskyltar
US5914748A (en) 1996-08-30 1999-06-22 Eastman Kodak Company Method and apparatus for generating a composite image using the difference of two images
US5917553A (en) 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
JPH10145674A (ja) 1996-11-12 1998-05-29 Sony Corp ビデオ信号処理装置及びビデオ信号処理方法
US6100925A (en) 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
US5871437A (en) 1996-12-10 1999-02-16 Inflow Dynamics, Inc. Radioactive stent for treating blood vessels to prevent restenosis
ES2183229T3 (es) 1996-12-20 2003-03-16 Princeton Video Image Inc Dispositivo descodificador para la insercion electronica modulada de indicaciones en videos.
GB2323735C (en) 1997-03-27 2006-08-10 Quantel Ltd An image processing system
EP0907145A3 (en) 1997-10-03 2003-03-26 Nippon Telegraph and Telephone Corporation Method and equipment for extracting image features from image sequence
IL122194A0 (en) 1997-11-13 1998-06-15 Scidel Technologies Ltd Method and apparatus for personalized images inserted into a video stream
JPH11205648A (ja) 1998-01-09 1999-07-30 Olympus Optical Co Ltd 画像合成装置
US6487721B1 (en) 1998-01-30 2002-11-26 General Instrument Corporation Apparatus and method for digital advertisement insertion in a bitstream
AU2853099A (en) 1998-03-18 1999-10-11 Nippon Television Network Corporation Image replacing system and method therefor
US6266100B1 (en) 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
US6731788B1 (en) * 1999-01-28 2004-05-04 Koninklijke Philips Electronics N.V. Symbol Classification with shape features applied to neural network
US6525741B1 (en) 1999-08-30 2003-02-25 Xerox Corporation Chroma key of antialiased images

Also Published As

Publication number Publication date
JP2004535129A (ja) 2004-11-18
MXPA04000307A (es) 2005-03-07
CA2454297C (en) 2012-05-22
BR0117076A (pt) 2004-08-17
EP1405266B1 (en) 2008-05-07
EP1405266A2 (en) 2004-04-07
ATE394756T1 (de) 2008-05-15
IL159788A0 (en) 2004-06-20
US7206434B2 (en) 2007-04-17
US20030012409A1 (en) 2003-01-16
IL159788A (en) 2010-04-15
WO2003007245A2 (en) 2003-01-23
CA2454297A1 (en) 2003-01-23
DE60133944D1 (de) 2008-06-19
WO2003007245A3 (en) 2003-08-28
JP4176010B2 (ja) 2008-11-05
AU2001283437B2 (en) 2007-05-17
HK1064776A1 (en) 2005-02-04

Similar Documents

Publication Publication Date Title
ES2306724T3 (es) Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen.
AU2001283437A1 (en) Method and system for measurement of the duration an area is included in an image stream
US9298986B2 (en) Systems and methods for video processing
US8624962B2 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
JP2021511729A (ja) 画像、又はビデオデータにおいて検出された領域の拡張
US9691173B2 (en) System and method for rendering in accordance with location of virtual objects in real-time
US7868914B2 (en) Video event statistic tracking system
US6297853B1 (en) Apparatus and method for detecting, identifying and incorporating advertisements in a video image
EP0683961B1 (en) Apparatus and method for detecting, identifying and incorporating advertisements in a video
US8451265B2 (en) Virtual viewpoint animation
US9041722B2 (en) Updating background texture for virtual viewpoint animations
CN108289220B (zh) 虚拟图像处理方法、图像处理系统及存储介质
US20090129630A1 (en) 3d textured objects for virtual viewpoint animations
US20090128549A1 (en) Fading techniques for virtual viewpoint animations
US20090128667A1 (en) Line removal and object detection in an image
RU2564640C2 (ru) Способ, система и компьютерная программа для получения трансформации изображения
US20060258457A1 (en) Enhancement of collective experience
US9154710B2 (en) Automatic camera identification from a multi-camera video stream
US9906769B1 (en) Methods and apparatus for collaborative multi-view augmented reality video
JP4189900B2 (ja) イベント関連情報挿入方法および装置
US20110141359A1 (en) In-Program Trigger of Video Content
JP2002502160A5 (es)
JPH08511392A (ja) 映像内における広告の検出、識別および編入のための装置および方法
KR20050008246A (ko) 스포츠 비디오에서 카메라 모션 분석을 통한 그래픽 영상객체 합성 구현 장치 및 방법