ES2306724T3 - Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. - Google Patents
Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. Download PDFInfo
- Publication number
- ES2306724T3 ES2306724T3 ES01962241T ES01962241T ES2306724T3 ES 2306724 T3 ES2306724 T3 ES 2306724T3 ES 01962241 T ES01962241 T ES 01962241T ES 01962241 T ES01962241 T ES 01962241T ES 2306724 T3 ES2306724 T3 ES 2306724T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- target area
- images
- flow
- duration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Un procedimiento para calcular la duración de un área objetivo incluida dentro de un flujo de imágenes obtenido por un sistema de captura de imágenes en un emplazamiento físico, comprendiendo el procedimiento: analizar al menos un campo del flujo de imágenes para la inclusión del área objetivo, en el que el área objetivo corresponde a una superficie virtual definida en un modelo de ordenador del emplazamiento, correspondiendo la superficie virtual a una superficie imaginaria en lugar de a una superficie real en el emplazamiento físico; e incrementar de manera automática un contador tras la confirmación de que el área objetivo está incluida dentro de al menos un campo.
Description
Procedimiento y sistema para medir la duración
de un área incluida en un flujo de imagen.
Esta invención se refiere por lo general al
campo de sistemas de transmisión de vídeo y, en particular, a un
sistema y a un procedimiento para la medida de la duración de una
imagen que esté incluida dentro de un flujo de imágenes.
Los equipos, las ligas y los propietarios de
locales de manera típica cobran a los anunciantes tasas crecientes
cuando sus banderolas o marcas aparecen de manera periódica durante
partes de transmisiones deportivas por TV. Los eventos deportivos
han proporcionado durante un largo tiempo la generación de ingresos
adicionales por publicidad durante un evento de transmisión por TV
así como durante las pausas de publicidad. Por ejemplo, los métodos
de traducción cobran una tasa por tiempo en antena a los anunciantes
que tienen anuncios que se ven durante parte de una transmisión por
tv de un evento deportivo. A los anunciantes a menudo se les cobra,
tasas relacionadas con el tiempo en antena en la transmisión por tv
que los televidentes pueden ver logos y banderolas publicitarias
comunes en estadios deportivos y en aparcamientos deportivos. Por
ejemplo, las paredes de un campo de béisbol por lo común están
formadas por numerosos paneles adyacentes, uno o más de los cuales
están de manera típica alquilados a los anunciantes para visualizar
el logo de un anunciante. El hockey sobre hielo también incluye
banderolas publicitarias que se ven de manera típica en las barreras
de metacrilato de protección de la pista de hielo de hockey así
como debajo del propio hielo. Además, los campos de fútbol a menudo
incluyen logotipos de patrocinadores pintados en el campo de fútbol
además de los logotipos en las paredes del estadio. Las franquicias
deportivas y los medios de transmisión deportivos usan también
anuncios de banderolas giratorias. Estos anuncios de banderolas en
lugar de estar fijos durante la duración de la difusión se
mantienen sobre un chasis giratorio que permite visualizar
diferentes anuncios de panel de pared durante el partido. Un
radiodifusor puede estar interesado en medir las partes de las
imágenes que se visualizan durante una radiodifusión del vídeo.
Un incentivo para la inserción de imágenes
dentro del vídeo es para llevar a cabo ingresos por publicidad
mejorados o adicionales para los medios de transmisión de
televisión. Se han propuesto muchos sistemas y procedimientos para
la inserción de imágenes estáticas y dinámicas, tales como anuncios
dentro del vídeo en tiempo real. Estos sistemas y procedimientos de
la técnica anterior sufren de varias desventajas y de varios
problemas, muchos de los cuales se detallan en la patente de los
Estados Unidos número 5.892.554 de DiCicco y colaboradores. Una
técnica nuevamente desarrollada promete revolucionar la publicidad
en, por ejemplo, las radiodifusiones en eventos deportivos. Los
sistemas de transmisión facilitados por ordenador y capaces de
insertar imágenes, por ejemplo, una imagen gráfica de una banderola
de un anunciante dentro de una transmisión por tv del flujo de
vídeo. Por lo general, un emplazamiento desde el que se vaya a
realizar una transmisión por tv tiene un modelo en tres dimensiones
hecho del mismo. El modelo incluye áreas objetivo para la inserción
de imágenes gráficas o de vídeo. Las áreas objetivo pueden ser
áreas reales del emplazamiento, por ejemplo, una barrera de
metacrilato de protección de una pista de hielo, o pueden ser
superficies imaginarias, por ejemplo, carteleras sintéticas. Por lo
general, cada trama de la transmisión de vídeo es analizada y las
imágenes escritas dentro de las áreas objetivo en muchas tramas
contienen las áreas objetivo siendo retransmitidas. Un
modelo
tridimensional del emplazamiento permite obtener realismo durante varias orientaciones o focalizaciones de la cámara.
tridimensional del emplazamiento permite obtener realismo durante varias orientaciones o focalizaciones de la cámara.
Los medios de transmisión deben ser capaces de
determinar la duración en antena de los anuncios físicamente
presentes o insertados dentro del flujo de vídeo.
Desafortunadamente, las técnicas de medida de un tiempo de
exposición de estas imágenes durante una transmisión por tv sufren
de muchas desventajas. Por ejemplo, la duración de la radiodifusión
de la señalización física se calcula de manera manual, y de manera
típica solamente después de que la radiodifusión se haya realizado.
El cálculo manual del tiempo de transmisión de la transmisión por
tv, o del tiempo en antena del anuncio se realiza por lo general
por parte de un operador, usando técnicas precisas de medida tales
como un cronógrafo manejado a mano. El procedimiento está sometido
a una multitud de errores e imprecisiones, incluyendo los fallos en
la atención del operador y el tiempo de retardo del operador.
Además, el operador realiza estas medidas mirando una cinta de la
radiodifusión original alguna vez después de que se haya hecho la
radiodifusión. Estas técnicas requieren también de múltiples
operadores para que miren la misma u otra versión de la
radiodifusión grabada en cinta para hacer las medidas de múltiples
anuncios. Como resultado de esto, estos procedimientos
tradicionales requieren un número grande de recursos y sufren de
imprecisiones en las medidas y retardos en las mismas que a su vez
limitan su uso.
Además, las tarifas para los anuncios
generalmente se calculan usando tres técnicas de la técnica
anterior y están de manera típica limitadas a los ingresos que se
pueden derivar de los anuncios tradicionales y de las banderolas
existentes.
Los términos "transmisión por televisión" y
"emisión" se usan dentro de la descripción para facilitar la
comprensión de la invención. Sin embargo, los medios de transmisión
por tv y de radiodifusión son solamente ejemplos. La presente
invención no está limitada a la aplicación a las transmisiones por
televisión. En lugar de esto, la presente invención se puede usar
por cualquier número de tecnologías de la comunicación, tales como
la televisión, el cable, Internet, satélite, sistemas digitales
para salas de cine, etc., capaces de transmitir medios gráficos
(por ejemplo, flujos de imágenes).
El documento
WO-A-95 10919 describe un sistema
para insertar de manera automática imágenes, por ejemplo, anuncios
dentro del fondo de una escena de vídeo de un evento deportivo. Los
objetos de bloqueo, por ejemplo, los jugadores tapando parte de una
pared de fondo donde se va a ver un anuncio, son detectados y el
anuncio se inserta de forma tal que también aparezca tapado por el
jugador, es decir, imperceptible a los visualizadores del
vídeo.
Mientras que la tecnología para proporcionar
imágenes insertadas dentro de un vídeo se está desarrollando, las
técnicas para valorar de manera precisa los ingresos por publicidad
a partir de las mismas aún no se han abordado. Para implementar un
sistema de cobro de tarifa justa, la duración de la radiodifusión de
estas banderolas se calcula de manera manual y de manera típica
después de que se haya realizado la radiodifusión. El cálculo manual
del tiempo de transmisión de la transmisión por tv, o el tiempo en
antena de un anuncio se hace por lo general por parte de una
persona que mira una cinta de la radiodifusión original en algún
momento después de que se haya realizado la radiodifusión. A
menudo, el cálculo de la transmisión puntual de un anuncio en
particular se hace por medio de dichas técnicas rudimentarias y
propensas a errores tan simples como haciendo funcionar un
cronógrafo. Hasta ahora, las tarifas para los anuncios hechas de
acuerdo con técnicas de inserción de imágenes están limitadas a las
técnicas de la técnica anterior utilizadas para los anunciantes de
banderolas tradicionales.
Un objeto de la presente invención es
proporcionar un procedimiento y un sistema para calcular la
duración de imágenes sintéticas y/o reales, o partes de las mismas,
que estén incluidas en un flujo de imágenes que superen uno o más
problemas con los procedimientos y el aparato de la técnica
anterior.
De acuerdo con una realización de la presente
invención, se incluye un sistema y un procedimiento para calcular
la duración de una o más áreas objetivo en un flujo de imágenes que
utiliza un modelo en tres dimensiones de un emplazamiento
incluyendo al menos un área objetivo asignada a un área física
dentro del emplazamiento desde la cual se captura el flujo de
imágenes. Un contador mantenido en asociación con el área objetivo
se incrementa durante períodos, por ejemplo, sobre una base de
trama a trama o campo a campo, cuando el área objetivo está
incluida en el flujo de imágenes. De acuerdo con esto, el contador
mantenido en asociación con el área objetivo proporciona una
indicación de la duración durante la que está incluida una imagen
dentro del área objetivo en un flujo de imágenes. De esta forma, el
contador proporciona una medida de la duración que la parte del
emplazamiento incluido en el área física correspondiente al área
objetivo (una imagen capturada de la misma a la que se hace
referencia como una imagen física) está incluida en el flujo de
imágenes.
De acuerdo con otra realización de la invención,
el flujo de imágenes capturado por un sistema de captura de
imágenes, tal como una o más cámaras, puede ser procesado para
incluir imágenes sintéticas que no estén presentes en el
emplazamiento desde el que se realizó la captura de la imagen. El
flujo de imágenes capturado puede ser manipulado por medio de
tecnologías de inserción de imágenes y se puede procesar para
incluir las imágenes sintéticas insertadas dentro de un área
objetivo asociada con un área física del emplazamiento. De acuerdo
con esto, el contador proporciona una indicación de la duración de
una imagen sintética que esté incluida en el área objetivo del
flujo de imágenes procesado.
De acuerdo con otra realización de la presente
invención, el porcentaje del área objetivo dentro del campo de
visión se puede usar para determinar si se incrementa o no un
contador asociado con el área objetivo.
De acuerdo con otra realización de la presente
invención, se calcula un parámetro de oclusión asociado con un área
objetivo para ajustar la duración calculada en la que el área
objetivo está incluida en el flujo de imágenes. El parámetro de
oclusión facilita la cuenta de las variaciones en la obstrucción de
una imagen (física o sintética) correspondiente a una posición del
área objetivo y se usa para hacer ajustes en un contador de manera
que el propio contador sea indicativo de las variaciones en las
obstrucciones de la imagen.
En otra realización adicional de la presente
invención, se calcula un parámetro de primer plano asociado con un
área objetivo para ajustar la duración calculada del área objetivo
en la que está incluida en el flujo de imágenes. El parámetro de
primer plano facilita la cuenta de las variaciones en la
visibilidad de una imagen que esté dentro del área objetivo y que
resulte de varios enfoques de la cámara.
En otra realización adicional, el contador se
puede activar por medio de un umbral del porcentaje de la imagen de
vídeo visible cubierta por el área objetivo, considerando como
excluyendo el área de cualquier cuerpo oclusivo.
En otra realización adicional de la invención,
los cálculos en tiempo real de la duración de una o más áreas
objetivo que están incluidas dentro de un flujo de imágenes
proporciona un mecanismo para asegurar que una duración deseada de
una imagen sintética que esté incluida dentro de un flujo de
imágenes cumpla con el análisis de métricas u otros datos
estadísticos recogidos durante la captura o la transmisión de la
imagen y sea indicativa de la duración de un área objetivo que esté
incluida dentro de un flujo de imágenes pueda indicar que los datos
de la imagen asignados a un área objetivo particular es poco
probable que estén incluidos dentro del flujo de imágenes durante
una duración deseada predefinida. Los datos de la imagen pueden ser
reasignados a otra área objetivo en un intento por conseguir la
duración deseada de la inclusión de los datos de imagen dentro del
flujo de imágenes.
Éstos y otros objetos y ventajas adicionales de
la invención serán aparentes a partir de la siguiente descripción
de una realización preferida de la invención, hecha con referencia
a los dibujos que se anexan.
Para un entendimiento más completo de la
presente invención, de los objetos y las ventajas de la misma, se
hace referencia ahora a las siguientes descripciones tomadas junto
con los dibujos que se acompañan, en los que:
La figura 1 es una representación esquemática de
un sistema de inserción de imágenes en tiempo real para la
manipulación de flujos de imágenes;
La figura 2 es un ejemplo de una imagen de vídeo
generada por una cámara de vídeo antes de la inserción de una
imagen objetivo;
La figura 3 es una interpretación de un modelo
de un emplazamiento en el que se tomó la imagen de vídeo de la
figura 2 y en el que se define un área objetivo que contiene una
imagen de referencia;
La figura 4 es una imagen que contiene una
interpretación del modelo del emplazamiento con la imagen de
referencia, la imagen interpretada desde la misma posición y ángulo
de la cámara que genera la imagen de vídeo de la figura 2;
La figura 5 es una máscara de procesado de un
área objetivo generada a partir de la imagen de la figura 4;
La figura 6 es una imagen de referencia
enmascarada generada por medio de la aplicación de la máscara de
área objetivo de la figura 5 a la imagen de vídeo original de la
figura 2;
La figura 7 es una imagen de fondo enmascarada
generada por medio de la aplicación de la máscara de área objetivo
de la figura 5 a la imagen de vídeo original de la figura 2;
La figura 8 es una imagen de área objetivo
enmascarada generada por medio de la aplicación de la máscara de
área objetivo de la figura 5 a la imagen de vídeo original de la
figura 2;
La figura 9 es una imagen de oclusión generada
por medio de la comparación de la imagen de área objetivo
enmascarada de la figura 8 con la imagen de referencia enmascarada
de la figura 6;
La figura 10 es una imagen final compuesta, que
contiene una imagen objetivo que está generada por medio de la
combinación de la imagen de oclusión de la figura 7 con la imagen
de fondo enmascarada y la imagen objetivo enmascarada;
La figura 11 es una representación esquemática
de un sistema de medida de la imagen en el que el proceso de medida
para un flujo de vídeo se implementa en un sistema de múltiples
cámaras antes de un sistema de producción que elige una o más de
las múltiples señales de entrada como salida;
La figura 12 es un diagrama de flujo del
procesado de un módulo para calcular la duración en la que una
imagen está insertada dentro de una transmisión por tv de
vídeo;
La figura 13 es una imagen final que ilustra el
escenario representado en la figura 8 después de que haya
transcurrido un período de tiempo;
La figura 14 es un diagrama de flujo que
representa el procesado de un módulo que puede hacerse funcionar
para ajustar el cálculo de la duración en que una imagen está
insertada en un vídeo para reflejar las variaciones en las
oclusiones de la imagen insertada;
La figura 15A y la figura 15B ilustran de manera
respectiva una imagen final compuesta obtenida con diferentes
posiciones de la cámara, ángulos de panorámica y de inclinación y
configuraciones de focalización;
La figura 16 es un diagrama de flujo que
representa el procesado de un módulo que se puede hacer funcionar
para ajustar el cálculo de la duración de una imagen que está
insertada dentro de un vídeo para reflejar las variaciones en la
visualización de una imagen insertada resultado de diferencias en la
focalización de la cámara;
La figura 17 ilustra un área objetivo que tiene
múltiples áreas subobjetivo de acuerdo con una realización de la
presente invención; y
La figura 18 es una trama de imagen que tiene
varias áreas de imagen designadas para especificar umbrales para
permitir / desestimar incrementos en un contador de área
objetivo.
La realización preferida de la presente
invención y sus ventajas serán mejor comprendidas por medio de la
referencia a las figuras 1 a la 18 de los dibujos, en las que
idénticos números se usan para las partes idénticas y
correspondientes de los distintos dibujos.
Una aplicación para un sistema de inserción de
imagen en tiempo real para la manipulación de flujos de imágenes es
en un evento de radiodifusión en directo de un deporte o de un
programa de espectáculos o similares desde un estadio, recinto
deportivo, pista, cancha u otros locales para deportes o
espectáculos. Dicho sistema se describe a continuación junto con su
aplicación. El sistema de la presente invención se puede usar para
la medida en tiempo real de la duración de la exposición de
imágenes sintéticas en un flujo de imágenes. Por ejemplo, la
duración de las imágenes insertadas, tales como publicidad que no
están físicamente presentes en un local de espectáculos desde el
que se captura el flujo de imágenes, se manipula y se radiodifunde,
puede ser medido de manera precisa en tiempo real de acuerdo con
las enseñanzas de la invención. Los ingresos y/o las tasas
publicitarias por estas imágenes insertadas se pueden calcular
después según se desee en respuesta a la duración calculada de las
imágenes insertadas que estén incluidas en el flujo de
imágenes.
Aunque el sistema de medida de la duración de la
imagen de la presente invención tiene ventajas particulares cuando
se usa junto con un sistema de manipulación de flujo de imágenes,
también se puede usar en otras aplicaciones. El sistema de la
presente invención también se puede usar para una medida en tiempo
real de la duración de una imagen que es capturada desde un objeto
físico presente en el emplazamiento desde el que se captura el
flujo de imágenes, tales como las imágenes capturadas desde un
anuncio físico en un local de espectáculos desde el que se captura
el flujo de imágenes.
Los detalles de la medida de la imagen y las
técnicas de manipulación de los flujos de imágenes, realizados por
el sistema de medida de la imagen 100 ilustrado en la figura 1 se
encuentran fuera del alcance de la presente invención y la técnica
descrita solamente es ilustrativa. Se debería comprender que el
sistema de inserción de imágenes puede hacerse funcionar para
manipular un modelo en tres dimensiones de un emplazamiento desde el
que se captura un flujo de imágenes y se insertan imágenes, por
ejemplo, mapas de bits que proporcionan representaciones gráficas
de anuncios, dentro de tramas del flujo de imágenes. De esta forma,
un flujo de imágenes puede incluir las imágenes obtenidas desde un
sistema de captura de imágenes, por ejemplo un sistema de una
cámara 104A-104N, así como imágenes del flujo de
imágenes que tengan imagen o imágenes sintéticas insertadas dentro
de ellas, una técnica de ejemplo que incluye operaciones descritas
por lo general a continuación con referencia a las figuras 1 a la
10.
Un flujo de imágenes capturado se define en este
documento como una o más tramas de imagen (o, de manera
alternativa, campos) capturados a partir de objetos físicos
presentes en el sitio por medio de un sistema de captura de
imágenes. Un flujo de imágenes se define en este documento para
hacer referencia al flujo de imágenes capturado y/o el producto de
procesar eso se puede realizar sobre el flujo de imágenes capturado
tal como la manipulación de las imágenes dentro de flujo de
imágenes que incluyen la manipulación por medio de tecnologías de
inserción de imágenes. El flujo de imágenes puede incluir imágenes
solamente capturadas del emplazamiento físico desde el que se
captura el flujo de imágenes, o el flujo de imágenes puede incluir
las imágenes capturadas del emplazamiento y/o las imágenes
sintéticas (insertadas dentro del flujo de imágenes) no físicamente
presentes dentro del emplazamiento desde el que se capturo el flujo
de imágenes.
Una imagen física se define en este documento
para hacer referencia a una imagen en un flujo de imágenes que se
captura desde un objeto físico con el sistema de captura de
imágenes. Una imagen sintética se define en este documento para
hacer referencia a una imagen insertada en un flujo de imágenes que
no está capturada de un objeto que esté físicamente presente en el
emplazamiento desde el que se capturó el flujo de imágenes.
Un área objetivo se define en este documento
para hacer referencia a un área de interés dentro de un
emplazamiento físico y/o un área correspondiente dentro de un
modelo del emplazamiento físico. Un flujo de imágenes capturado y
un flujo de imágenes se dice que incluyen el área objetivo, o una
parte de la misma, cuando el campo de vista de un sistema de captura
de imágenes incluye el área de interés (o una parte de la misma).
Por ejemplo una barrera de metacrilato de protección en un estadio
de hockey sobre hielo puede ser especificada como un área objetivo.
La barrera de metacrilato de protección especificada como el área
objetivo tendrá un área correspondiente en un modelo en tres
dimensiones del estadio de hockey a la que se hará referencia
también como el área objetivo. La presente invención contempla el
cálculo de una duración de una o más áreas objetivo que se puedan
incluir dentro de un flujo de imágenes obtenido por medio de un
sistema de captura de imágenes. Las áreas objetivo pueden estar
presentes en un flujo de imágenes
que se puede obtener durante un único evento en un recinto particular, o múltiples eventos en recintos independientes.
que se puede obtener durante un único evento en un recinto particular, o múltiples eventos en recintos independientes.
Una imagen objetivo se define en este documento
como una imagen dentro del área objetivo en un flujo de imágenes y
puede ser una imagen física o una imagen sintética o una imagen
compuesta de las mismas.
Una imagen de referencia es la aparición de una
superficie de área objetivo dentro del emplazamiento actual que se
usará para el procesado de la oclusión y puede ser una imagen
asociada con un área objetivo que sea entregada por un sistema de
entrega de imágenes. A imagen de referencia puede ser una imagen
entregada de un objeto físico (tal como un objeto físico dentro del
emplazamiento desde el que se captura el flujo de imágenes), o la
imagen de referencia puede ser una imagen entregada de una imagen
sintética que se vaya a insertar dentro de un área objetivo de una
imagen en un flujo de imágenes. Imágenes de referencia son, en
general, utilizadas para formar una imagen objetivo para su
inserción dentro de un área objetivo y para facilitar la medida de
la duración de la misma o para facilitar las medidas de duración de
imágenes físicas que tengan áreas objetivo asignadas a las mismas.
Las imágenes objetivo sintéticas se desarrollan, en parte, por
medio de una imagen de referencia entregada.
Como se describe en este documento, la presente
invención proporciona una técnica y un mecanismo para calcular la
duración del área objetivo que está incluida en un flujo de
imágenes. De acuerdo con esto, la técnica y el mecanismo se
proporcionan para calcular la duración de una imagen (física o
sintética) que esté incluida dentro del área objetivo se pueda
aplicar para calcular las duraciones de una imagen que esté
incluida dentro de un flujo de imágenes.
Con referencia a la figura 1, un sistema de
medida de imagen en tiempo real 100 para calcular la duración de
una o más áreas objetivo que estén incluidas en flujos de imágenes
se representa de manera esquemática por medio de sus componentes
funcionales primarios. Estos componentes están implementados como
una combinación de hardware y de software, y no están destinados a
representar componentes hardware o software discretos o como a
estar limitados a ninguna implementación en particular a menos que
se especifique en contra.
El sistema de medida de imágenes 100 recibe un
flujo de imágenes desde un sistema de producción de imágenes 102.
El sistema de producción de imágenes 102 selecciona una señal de
imagen proveniente de un sistema de cámara 104A o de una pluralidad
de otros sistemas de cámaras 104B-104N. Este flujo
de imágenes seleccionado se proporciona después a un sistema de
medida de la imagen 100 para las medidas de duración de las imágenes
físicas dentro del recinto físico, tal como la señalética
existente, las imágenes sintéticas tales como anuncios, o áreas
dentro del flujo de imágenes que pueden tener imágenes sintéticas
insertadas en su interior después de que el flujo de imágenes sea
sometido a procesado. El sistema de medida de las imágenes puede
estar localizado con el sistema de producción de vídeo en, por
ejemplo, una unidad de producción móvil. También puede estar
remotamente localizado en una instalación de producción central o
incluso flujo abajo, tal como en una emisora de televisión local o
en un operador por cable. De manera alternativa, las medidas de
duración de la imagen pueden tener lugar antes de la selección de
un flujo de imágenes, por ejemplo por medio de la medida de
imágenes en el flujo de imágenes desde cada uno de los sistemas de
cámara antes de ser proporcionadas al sistema de producción.
En otra realización, el sistema de producción
102 puede incorporar una funcionalidad adicional dentro del sistema
de medida de las imágenes como se trata con mayor detalle junto con
la figura 11. Por lo general, la salida del sistema de producción
102 con múltiples entradas proporcionadas por otros sistemas de
cámara 104B-104N se puede comparar, y se puede
actualizar un contador de la duración para una entrada de cámara
seleccionada por una unidad de control de producción tal como un
camión de producción. Por ejemplo, las cámaras múltiples se usan
por lo común para capturar flujos de imágenes desde un único
recinto. Los flujos de imágenes de las múltiples cámaras son
proporcionados después a un sistema de producción. El sistema de
producción puede hacerse funcionar para proporcionar una entrada a
un separador de flujo de imágenes / telemetría 118. Por lo general,
la entrada a cualquier caso dado provisto de separador de flujo de
imágenes / telemetría 118 incluirá un flujo de imágenes tomadas
desde una única cámara del otro sistema de cámaras
104B-104N. De esta forma, el sistema de producción
102 puede hacerse funcionar para conmutar el flujo de imágenes que
se proporciona al separador de vídeo / telemetría que es procesado
y por último se saca un flujo de imágenes seleccionado desde el
sistema en forma de un programa de televisión de vídeo u otro flujo
de imágenes procesado. De acuerdo con esto, como se usa un contador
(como se describe de una manera más completa en este documento más
adelante) para acumular una medida de la duración que una imagen
está incluida en un flujo de imágenes de salida, se debe utilizar
un mecanismo de conmutación de forma que el contador se incremente
solamente cuando se incluya una imagen en un flujo de imágenes que
esté siendo sacado por el sistema de producción 102 en lugar de
aumentar el contador cuando la imagen se incluya en cualquier flujo
de imágenes capturado por uno o más de los otros sistemas de
cámaras 104B-104N.
Un sistema de cámaras 104A genera un flujo de
imágenes codificado con datos de telemetría indicativos de al menos
donde está apuntando la cámara con relación a una trama
tridimensional conocida o predefinida de referencia de un
emplazamiento. El sistema de cámaras incluye una cámara de vídeo
convencional 108 conectada a una cabeza de cámara 110. La cabeza de
cámara 110 incluye sensores que generan información que indica el
acimut y la elevación, o algunas otras coordenadas que definen la
dirección del eje óptico de la cámara 108. Esta información de
telemetría se proporciona al procesador de telemetría y al
codificador 112. La cámara 108 o algún otro sensor conectado,
también proporcionan al procesador de telemetría y al codificador
información telemétrica adicional indicando, por ejemplo, la
longitud focal y la apertura de la lente de la cámara. La longitud
focal variará con el grado de focalización de la lente. La apertura
variará con el cambio de las condiciones de luz. De manera
opcional, la información adicional de sensor, por ejemplo, la
información de satélite de posicionamiento global 114 puede
proporcionar también información al procesador de telemetría y al
codificador indicando la posición de la cámara en términos de su
longitud, latitud y elevación. La posición de la cámara se puede
determinar de una manera fácil y puede permitirse que se mueva en
lugar de permanecer fija en una localización predefinida. Usando
una señal de temporización de flujo de imágenes proporcionada por
la cámara, el procesador de telemetría y el codificador generan una
señal de datos que se puede sincronizar con el flujo de imágenes
generado por la cámara. Esta señal de datos codifica la información
de telemetría para cada una de las tramas del flujo de imágenes
generado por la cámara. Un combinador de flujo de imágenes /
telemetría 116 que puede ser parte del procesador de telemetría,
combina después la señal de datos con el flujo de imágenes. Con la
información de telemetría codificada de manera síncrona en el flujo
de imágenes, se proporciona información suficiente para permitir
que las imágenes sintéticas sean insertadas dentro del flujo de
imágenes en cualquier punto corriente abajo del sistema de la
cámara.
Mientras que la manipulación de un flujo de
imágenes se describe en este documento con referencia a una o más
tramas que se incluyen dentro del flujo de imágenes, se debería
comprender que las tramas pueden estar comprendidas de
subelementos, por ejemplo, campos. Por ejemplo, las tramas de una
transmisión por tv de vídeo típica están comprendidas de campos
pares e impares. De esta forma, un flujo de imágenes que comprenda
un flujo de vídeo o una transmisión por tv que tenga una velocidad
de tramas de 30 Hz puede realmente estar formado por dos campos de
60 Hz. La manipulación y el análisis de un flujo de imágenes o de
una transmisión por tv de imágenes descrita en este documento con
referencia a operaciones basadas en tramas es solamente ilustrativa
y se describe como tal para la simplificación de la discusión. Se
comprenderá que los mismos procedimientos y técnicas generales se
pueden implementar mediante la utilización de operaciones basadas
en campo.
Una vez que el sistema de medida de imágenes 100
recibe un flujo de imágenes codificado, el separador de flujo de
imágenes / telemetría 118 extrae los datos de telemetría para una
imagen en particular dentro del flujo de imágenes. El flujo de
imágenes es además descodificado por medio de un descodificador de
flujo de imágenes / memoria de almacenamiento temporal 119 para
extraer y para almacenar una imagen de cada una de las tramas del
flujo de imágenes. En la figura 2 se ilustra como una imagen 400 un
ejemplo de una imagen incluida en un flujo de imágenes generado por
una cámara. Este ejemplo particular es de un partido de hockey
sobre hielo. Incluye las barreras de metacrilato de protección 402,
un primer jugador de hockey 404 y un segundo jugador de hockey 406.
El funcionamiento del sistema de medida de la imagen 100 y el
proceso de medida de la imagen se tratarán a continuación con
referencia a la figura 400. Sin embargo, el proceso de medida de las
imágenes se repetirá para una imagen en cada trama sucesiva de un
flujo de imágenes, al menos hasta el punto de que la imagen cambie
entre tramas.
Un controlador 102 representa una entidad
software y hardware, o una colección de entidades, que coordinan
los procesos que ocurren dentro de los componentes funcionales del
sistema de medida de la imagen 100. Usando los datos de telemetría
100 y otra información que describa un evento que está ocurriendo
en el emplazamiento, por ejemplo, el número de entradas de un
partido de béisbol, la puntuación u otra información sobre el flujo
de un juego deportivo, el controlador 120 accede a reglas de medida
de imagen predefinidas en la base de datos 122 para determinar, en
base al menos en parte a un identificador de cámara incorporado en
los datos de telemetría, qué áreas - a las que se hace referencia
en este documento como áreas objetivo - incluidas en el recinto y
que se pueden incluir en el flujo de imágenes van a estar sometidas
a una medida de la duración durante todo el flujo de la imagen (o
una parte del mismo). El área objetivo puede ser, por ejemplo, un
área dentro de un estadio deportivo en el que las presentaciones de
anuncios se insertarán de manera sintética dentro del flujo de
imágenes procesado. De manera alternativa, el área objetivo puede
ser, por ejemplo, un área dentro del estadio deportivo en la que la
señalética física esté presente en el emplazamiento y se pueda
capturar por medio del flujo de imágenes. De esta forma, un área
objetivo del emplazamiento que esté incluida en un flujo de
imágenes puede tener imágenes físicas y/o imágenes sintéticas
incluidas dentro de la misma. Habiendo predefinido reglas se
permite a un área objetivo preseleccionada estar sometida a una
medida de la duración que dé como resultado una medida cuantitativa
de la duración que el área objetivo está incluida en un flujo de
imágenes. Por medio del cálculo de una medida cuantitativa de la
duración, un área objetivo se incluye dentro de un flujo de
imágenes, también se hace la duración que una imagen física o una
imagen sintética incluida dentro del área objetivo. Además, un área
objetivo puede cambiar en momentos o períodos predefinidos, o en
base al estado del evento que esté siendo sometido a la captura de
imágenes, esto es, la localización de un área objetivo en un
emplazamiento puede cambiar durante la captura o el procesado del
flujo de imágenes.
Un director publicitario, por ejemplo, también
puede supervisar y controlar los procesos de medida durante un
evento usando una consola de director 123 que incluya el software y
el hardware para la introducción de órdenes y de datos al
controlador 120. Por ejemplo, el director puede proporcionar al
sistema información relativa al estado del evento en el
emplazamiento, si dicha información no se encuentra en caso
contrario disponible en la base de datos. El director también puede
hacer caso omiso de las reglas de medida de la imagen en la base de
datos 122 y seleccionar de manera manual áreas objetivo para las
medidas de la duración, o el director puede modificar las reglas de
manera dinámica. El director publicitario también puede establecer
y mantener bases de datos que mantengan las áreas objetivo. La
consola del director publicitario incluirá monitores de forma que el
director pueda supervisar el flujo de imágenes durante la duración
de las medidas de las áreas objetivo. La consola del director
también puede permitir al director modificar las bases de datos
almacenando modelos CAD para las imágenes de referencia, que se
describen con posterioridad, y supervisar y ajustar los pasos del
proceso de medida del área objetivo como se describe más
adelante.
Para cada una de las áreas objetivo incluidas
dentro del flujo de imágenes o del flujo de imágenes procesado, se
puede asignar una imagen de referencia a un área objetivo
predefinida en el emplazamiento. La imagen de referencia es
interpretada en base a un modelo de referencia predefinido del área
objetivo. Se puede definir más de un área objetivo y aparecer en
cualquier flujo de imágenes dado. El modelo es, de manera
preferible, un diseño asistido por ordenador (CAD) que define
superficies (reales o imaginarias) de áreas objetivo de manera
matemática permitiendo de esta forma que el modelo sea interpretado
desde un punto de vista que sea sustancialmente el mismo que la
localización y la orientación de la cámara que está generando el
flujo de imágenes. Esta interpretación, que es en efecto una imagen
sintetizada de las áreas objetivo del emplazamiento que está
alienado con el flujo de imágenes, se usa después para guiar las
medidas de la duración de las áreas objetivo dentro del flujo de
imágenes. Si cambia la posición de la cámara entre tramas, se
pueden usar las interpretaciones de la trama anterior. De acuerdo
con esto, una imagen de referencia correspondiente a un objeto de
imagen física se puede interpretar en las varias orientaciones y
focalizaciones desde la que se puede capturar la imagen física.
Con referencia brevemente también a las figuras
2 y 3, la imagen 502 de la figura 3 es un ejemplo de una
interpretación de un modelo predefinido del emplazamiento, en el
que se tomó la imagen mostrada en la figura 2. Un sistema de diseño
asistido por ordenador (CAD), puede ser estándar, software CAD
comercialmente disponible que se ejecute en un ordenador, genera la
interpretación del modelo predefinido. Nótese que la interpretación
no está hecha desde la misma posición y ángulo de cámara que la
imagen de vídeo de la figura 2. Un área objetivo 504 en este
ejemplo es un área predefinida de la superficie las barreras de
metacrilato de protección 402. El modelo podría tener también
superficies imaginarias definidas como áreas objetivo. Por ejemplo,
el modelo podría tener definida la posición de una banderola
imaginaria colgada del techo del estadio de hockey sobre hielo. Una
superficie de área objetivo, real o imaginaria, no necesita ser
plana. En esta figura, el área objetivo ha sido interpretada con
una imagen de referencia. La imagen de referencia se puede
almacenar, por ejemplo, como una imagen de mapa de bits que se
inserta dentro del modelo interpretado. En este ejemplo en
particular, hay una pared blanca vacía, que es la parte de las
barreras de metacrilato de protección que tienen un área objetivo
designada para que sea blanca o esté vacía y sea de acuerdo con lo
representado por una imagen de referencia similar. Sin embargo, la
imagen de referencia puede ser una imagen de un anuncio que esté
físicamente localizado por ejemplo sobre las barreras de metacrilato
de protección 402 tal como un logotipo corporativo. La imagen de
referencia puede ser interpretada desde varios ángulos para
corresponder con las diferentes orientaciones que el área física
habiendo el área objetivo asignado a la misma se pueden capturar en
el flujo de imágenes. La imagen de referencia puede ser una imagen
de un elemento sintético para su posterior inserción dentro de la
imagen también. Por ejemplo, se puede insertar un anuncio dentro de
un área objetivo específica y de esta manera aparecer en el área
objetivo de una imagen procesada final. El modelo de referencia del
emplazamiento con imágenes de referencia para cada área objetivo se
almacena en un fichero CAD 124 mostrado en la figura 1.
Con referencia ahora a las figuras 1, 2 y 5, el
interpretador del modelo CAD 128 interpreta una imagen de línea
base 700 del modelo CAD almacenado en un fichero CAD 124, en base a
los datos de telemetría provenientes de la cámara que haya
capturado la imagen 400 mostrada en la figura 2. La imagen de línea
base 700 de la figura 4 incluye una imagen de referencia de área
objetivo 506 insertada dentro de un área objetivo 504. Como se ha
descrito con anterioridad, los datos de telemetría indican la
identificación, el ángulo, la distancia focal y la configuración de
la apertura de la cámara que está tomando la imagen 400. Los datos
de telemetría también pueden indicar la localización de la cámara
si la cámara no está fija en la localización.
El proceso de medida de la duración de la imagen
de la presente invención también puede incluir la generación de una
máscara de área objetivo. La figura 5 ilustra imagen de máscara 900
para la imagen de ejemplo 400 de la figura 2. Se genera una máscara
de área objetivo 502 por parte del constructor de máscaras 134
usando la imagen de referencia generada por el interpretador de
modelos 128. Para generar la imagen de máscara 900, la máscara de
área objetivo 502 dentro de la imagen de máscara 900 tiene todos
los píxeles dentro fijados a un valor predefinido y todos los
píxeles fuera de la máscara de área objetivo 502 están fijados a
otro valor predefinido. En la imagen de la máscara 900, todos los
píxeles de la máscara de área objetivo 900 son blancos y todos los
píxeles alrededor de la máscara del área objetivo 502 son
negros.
La máscara de área objetivo 502 se usa para
varios propósitos junto con un paso de procesado de la oclusión.
Con referencia ahora a la figura 1, la máscara de área objetivo 502
se usa por parte de un separador de fondo / imágenes de referencia
de área objetivo 138 para separar o enmascarar cada una de las
imágenes de referencia de área objetivo 506 dentro de la imagen de
línea base 700 generada por el interpretador de modelos 128. En el
ejemplo que se ilustra en la figura 4, la máscara se usará para
separar la imagen de referencia de área objetivo 506 dentro de la
imagen de línea base 700 del resto de la imagen, dando como
resultado una imagen de referencia enmascarada 700a mostrada en la
figura 6. La máscara de área objetivo 502 se usa para localizar y
para separar dentro de la imagen original el área o áreas objetivo
del resto de las áreas no objetivo de la imagen, a las que se hará
referencia como el fondo. Esta función es realizada por el
separador de fondo / área objetivo 136.
La figura 7 y la figura 8 ilustran las dos
imágenes que resultan de la separación del fondo del área objetivo
en la imagen original 400 mostrada en la figura 2. La figura 7 es
una imagen de fondo enmascarada 400a que incluye toda la imagen
original excepto esa parte dentro del área objetivo 504, que está
vacía. La figura 8 es una imagen de área objetivo enmascarada 400b
que incluye una parte 1200 de la imagen original 400 incluida
dentro del área objetivo 504. La máscara también es usada por el
separador de fondo / imagen objetivo 140 para separar las imágenes
objetivo dentro de la imagen interpretada por parte del
interpretador de modelos 130.
En la imagen de ejemplo 400 de la figura 2,
parte del jugador de hockey 404 está cubriendo una parte de las
barreras de metacrilato de protección 402 habiendo asignada a la
misma un área objetivo 504 que está sometida a las medidas de
duración de acuerdo con la invención. Con el fin de medir la
duración, el área objetivo 504 está incluida en un flujo de imágenes
incluyendo la imagen 400 y para proporcionar una medida
cuantitativa de la duración que refleje la "capacidad de
visualizar" una imagen incluida dentro del área objetivo 504, la
parte del jugador de hockey 404 dentro del área objetivo 504, a la
que se hace referencia como una oclusión, debe estar diferenciada
del resto del área objetivo 504 de la imagen original 400, y el
área correspondiente eliminada de la restante imagen no ocluida
dentro del área objetivo 504. Para hacer esta separación, el
separador de oclusión 144 compara la imagen de área objetivo
enmascarada 400b con la imagen de referencia enmascarada 700a.
Cualquier diferencia se presupone que son oclusiones, es decir, las
imágenes de los objetos entre la cámara y la superficie (o
superficie sintética) que tengan un área objetivo 504 asignada a
las mismas. Las pequeñas diferencias entre la imagen de referencia
enmascarada y la imagen objetivo enmascarada introducida por el
ruido electrónico en la cámara se puede acomodar usando un número
de técnicas comúnmente practicadas en el campo del procesado de
imágenes, por ejemplo, la supresión de una región pequeña. El
posicionamiento impreciso del área objetivo debido a errores en el
sistema de medida de telemetría se puede acomodar por medio del
filtrado de los datos de telemetría usando técnicas de seguimiento
de objetivo comúnmente practicadas, por ejemplo, el filtrado de
Kalman. En el ejemplo que se ilustra, la imagen de área objetivo
enmascarada 400b mostrada en la figura 8, se compara con la imagen
de referencia enmascarada 700a, mostrada en la figura 6. La imagen
resultante de oclusión 400c mostrada en la figura 9 incluye
solamente la oclusión que, en este ejemplo ilustrativo, es la parte
o las partes del jugador de hockey 404 capturadas en la imagen 400
dentro del área objetivo 504. El resto de la imagen de oclusión
400c está vacía. El separador de oclusión 144 también crea una
máscara de oclusión. La máscara de oclusión identifica las partes
dentro de la imagen original 400 que constituyen la oclusión u
oclusiones. En el ejemplo, la máscara de oclusión está generada a
partir de la imagen de oclusión 400c de la figura 9. La imagen de
fondo enmascarada 400a, la imagen objetivo enmascarada 800a y la
imagen de oclusión 400c pueden combinarse por medio del combinador
de imágenes 146 para formar una imagen compuesta o imagen final
400e que se puede insertar dentro del flujo de imágenes en el lugar
de la imagen 400. La imagen objetivo 604 puede incluir una imagen
sintética y, de acuerdo con esto, la imagen compuesta generada
proporciona una imagen manipulada que incluye la imagen sintética
teniendo una oclusión tal que una parte de la imagen sintética está
incluida dentro de la imagen final y aparece como si la imagen
sintética fuese parte de la imagen original 400. La imagen de fondo
enmascarada, la imagen objetivo enmascarada y la imagen de oclusión
se combinan por medio del combinador de imágenes 146 para formar
una imagen compuesta o imagen final. La imagen final se puede usar
por tecnologías de manipulación de imágenes para su inserción
dentro del flujo de imágenes. De acuerdo con esto, la imagen final,
o los componentes constitutivos de la misma se pueden usar por el
sistema de medida de la imagen 100 para los cálculos de la duración
de las áreas objetivo incluidas en su interior. La imagen final se
puede insertar entonces dentro del flujo de imágenes cuando la
imagen de referencia incluya imágenes sintéticas. Sin embargo, la
imagen final o partes de la misma, se pueden usar solamente para
calcular las medidas de la duración asociadas con un área objetivo
y no se pueden insertar dentro del flujo de imágenes. El último
escenario se puede usar para calcular las medidas de duración para
la señalética fija teniendo un área objetivo asignada a la misma en
cuyo caso la composición de la imagen final facilita un cálculo de
la duración de los datos de imagen correspondientes a una imagen
física asociada con el área objetivo mientras que el flujo de
imágenes no está sometido a tecnologías de inserción de imágenes.
De acuerdo con esto, el cálculo de una medida de la duración
proporciona una indicación de la duración de que la imagen o las
imágenes físicas están incluidas dentro del flujo de imágenes.
En la forma más simple, un sistema para
determinar una medida de la duración del área objetivo 504 que está
incluido dentro de un flujo de imágenes incluye la cuenta de un
número de imágenes finales 400e en un flujo de imágenes que incluye
el área objetivo 504. La duración acumulada de una parte de un
flujo de imágenes que tenga un área objetivo 504 y una imagen
incluida en su interior se pueden calcular en base por ejemplo a las
tramas por segundo en la transmisión del flujo de imágenes y/o en
la captura. De esta forma, el sistema para medir la duración de una
o más áreas objetivo, y de esta forma la duración de los datos de
imagen está abarcado en su interior, se incluye en el flujo de
imágenes producido por el sistema de captura de imágenes y/o el
sistema de manipulación de imágenes incluye el análisis de las
imágenes finales 400e, o los componentes constitutivos de las
mismas, para la inclusión de una o más áreas objetivo 504 y, por
asociación con el área objetivo, la correspondiente inclusión de
datos de imagen abarcados dentro del área objetivo 504.
Con referencia a la figura 11, se ilustra una
captura de imagen medida de la duración del área objetivo de
acuerdo con las enseñanzas de la invención. Uno o más sistemas de
captura de la imagen o sistemas de telemetría
104A-104N pueden capturar un flujo de imágenes desde
un emplazamiento tal como un recinto deportivo o de espectáculos.
Cada sistema de captura de imágenes y de telemetría
104A-104N incluye un respectivo sistema de
telemetría. De acuerdo con esto os datos de imagen capturados por
un sistema de captura de imágenes y de telemetría
104A-104N tienen información de telemetría
codificada dentro del flujo de imágenes capturado. La información
de telemetría puede incluir datos de posicionamiento del dispositivo
de captura de imágenes, datos de la orientación del dispositivo de
captura de imágenes, información focal relacionada con el enfoque
del dispositivo de captura de imágenes, etc. Los datos de imagen y
de telemetría pueden sacarse de cada sistema de captura de imágenes
y telemetría 104A-104N a uno o más sistemas de
medida de la duración de la imagen 100A-100N y a un
sistema de producción 102. El sistema de producción 102 puede
realizar el procesado de os datos de imagen capturada y
proporcionar funciones de conmutación para seleccionar uno de los
datos de imagen de los sistemas de captura de imágenes y telemetría
104A-104N para ser sacados. De manera típica, una
salida de flujo de imágenes incluirá un flujo de imágenes, o flujo
de imágenes procesado, proveniente de una fuente de imágenes única
en cualquier momento dado. Para implementar una medida de la
duración que sea atractiva para los anunciantes, la presente
invención proporciona para medir de manera precisa la duración de
un área objetivo se incluye en un flujo de imágenes de salida.
Como numerosos sistemas de captura de imágenes y
de telemetría 104A-104N se pueden usar para
suministrar el sistema de producción 102 con varias vistas de la
imagen de un evento, diferentes vistas pueden incluir un área
objetivo particular mientras que otras excluyen el área objetivo. De
acuerdo con esto, cada sistema de captura de imagen y de telemetría
de manera preferible incorpora una etiqueta que identifica a la
cámara correspondiente en los datos de imagen y de telemetría
capturados por los mismos. Se conocen otras técnicas para
identificar la cámara y/o los datos de imagen y de telemetría. De
acuerdo con esto, el sistema de producción 102 puede aumentar un
contador que mida la duración de un área objetivo que esté incluida
dentro de un flujo de imágenes de salida. La coordinación de dichas
medidas se puede realizar por medio de un dispositivo o sistema de
coordinación de medidas 121A que es suministrado con los datos de la
medida de la imagen obtenidos a partir de sistemas de captura de la
imagen y de telemetría 100A-100N así como un flujo
de imágenes de salida. De acuerdo con esto, se puede incrementar un
contador asignado a un área objetivo por medio de un dispositivo o
sistema de coordinación de medida 121A solamente cuando el área
objetivo esté incluida en un flujo de imágenes que sea sacado por
el sistema de producción 102. La realización ilustrada en la figura
11 se puede implementar usando una variedad de procedimientos. Por
ejemplo, los sistemas de captura de imagen y de telemetría
104A-104N y los sistemas de medida de la imagen
104A-104N pueden ser implementados usando las
mismas plataformas hardware o software o plataformas independientes.
Estos sistemas también se pueden usar para de manera virtual
capturar de manera simultánea datos de imagen del mismo evento en
un único recinto, o de diferentes eventos en diferentes recintos, y
puede estar localizados en el mismo recinto o en recintos
independientes, o colocados en una unidad de producción tal como un
camión de producción.
En la figura 12, se muestra un diagrama de flujo
que representa el procesado de un módulo de cálculo de la duración
en tiempo real 147. El procedimiento se puede realizar para una o
para más áreas objetivo incluidas dentro de una imagen de acuerdo
con los procedimientos de la presente invención y los cálculos de
la duración se pueden realizar de acuerdo con esto con imágenes
físicas dentro del área objetivo 504 así como con imágenes
sintéticas insertadas dentro del área objetivo 504. El módulo 147,
en el paso 1500 recibe la entrada proveniente del separador de
oclusión 144 y del separador de fondo / referencia de área objetivo
138. En un modelo que tiene una pluralidad de áreas objetivo, a
cada una de las áreas objetivo se le puede asignar un índice único
(i) para la identificación de la misma. El módulo analiza la imagen
final 400e, o uno o más componentes constitutivos de la misma, para
la inclusión del área objetivo, en el paso 1502, y si el área
objetivo no aparece en la trama, el índice i se incrementa en el
paso 1504 y se compara frente a un valor de índice FINAL, en el
paso 1506, correspondiente al número total de áreas objetivo
incluidas dentro del modelo. Si el valor del índice FINAL no se ha
alcanzado, el procesado del módulo retorna al paso 1500. Si se ha
alcanzado el valor del índice FINAL en el paso 1505, finaliza el
procesado del módulo 147 para la trama actual y se repite desde el
paso 1500 para las tramas posteriores.
La confirmación de la inclusión de un área_{i}
objetivo dentro de la imagen final 400e en el paso 1502 provoca un
incremento de un contador_{i} en antena asociado con el
área_{i} en el paso 1508. El contador_{i} se puede mantener
dentro del módulo de cálculo 147 o de otro componente del sistema
de medida de la imagen 100 y es de manera preferible un valor
digitalmente almacenado que representa una duración acumulada que
el área_{i} total asociada está incluida dentro del flujo de
imágenes. La duración acumulada medida puede hacerse en cualquier
número de unidades, por ejemplo, la duración de tiempo en segundos,
el número de tramas, el número de campos, etc. además, la unidad de
duración puede ser dependiente de un estándar de imagen particular
usado para sacar el flujo de imágenes a una audiencia. Por ejemplo,
numerosos estándares de vídeo, tales como los estándares del Comité
Nacional de Estándares de Televisión (NTSG), los estándares de
línea alterna de fase (PAL) y otros estándares de vídeo,
respectivamente definen las frecuencias de transmisión que definen
el número de tramas de imagen o de campos incluidos dentro de un
flujo de imágenes por unidad dada de tiempo. Las medidas de la
duración de las áreas objetivo incluidas en un flujo de imágenes
transmitido a una audiencia de acuerdo con cualquier estándar
definido se puede hacer de acuerdo con el mismo. Además, la
duración medida se puede ponderar por medio de numerosos factores
incluyendo la oclusión y los parámetros de fondo efectuando el
visionado de una imagen dentro del área objetivo 504 como se
describe con más profundidad más adelante en este mismo documento.
El índice i se incrementa a continuación en el paso 510 y se hace
entonces una comparación entre el índice i y el índice FINAL en el
paso 1512. Si el valor del índice FINAL se tiene aún que alcanzar,
el procesado del módulo 147 retorna al paso 1500. Si, por el
contrario, se ha alcanzado ya el valor del índice FINAL, el
procesado del módulo se completa para la trama actual y se
continuará en el paso 1500 para cualquier trama posterior.
De acuerdo con esto, cualquier área objetivo
incluida en el modelo y que tenga una imagen objetivo insertada
dentro del área objetivo en una imagen final 400e, tendrá asociado
un contador_{i} incrementado para esa imagen final particular
400e. Igualmente, cualquier área objetivo incluida en el modelo y
que no tenga una imagen insertada dentro del área objetivo pero,
que en lugar de esto, tenga el área objetivo asignada a un área de
interés tal como la señalética físicamente localizada dentro del
emplazamiento tendrá un contador asociado incrementado parada
imagen final particular 400e que indique la inclusión de la señal
física dentro de la imagen final particular 400e del flujo de
imágenes. De manera notable, la cuenta de tramas en las que está
incluida el área objetivo en la imagen final 400e se puede hacer en
tiempo real de manera concurrente con el procesado de la imagen.
Claramente, sin embargo, el cálculo del número de tramas en las que
está incluida un área objetivo en un flujo de imágenes se puede
retrasar con respecto a la transmisión por tv, la transmisión u
otros procesados del flujo de imágenes. Una vez que se hace una
cuenta de trama para cada área objetivo de acuerdo con el proceso
generalmente descrito en la figura 12, la duración de cualquier
imagen objetivo (física o sintética) incluida dentro del área_{i}
objetivo se puede calcular como el producto del contador de tramas
y las tramas por segundo del flujo de imágenes. De esta manera, se
pueden cobrar las tarifas a los anunciantes hechas en forma de
imágenes objetivo insertadas dentro del flujo de imágenes sobre una
base de duración que cuente la duración de la imagen o de las
imágenes objetivo que están incluidas en el flujo de imágenes. Así
mismo, las tarifas se pueden cobrar a los anunciantes hechas en
forma de señalética física localizada en el emplazamiento que sean
capturadas en el flujo de imágenes por medio del cálculo de la
duración de un área objetivo asignada al área particular del
emplazamiento que incluye la señalética física que está incluida en
el flujo de imágenes.
La técnica para calcular la duración de una
imagen objetivo que esté incluida en un flujo de imágenes se puede
mejorar por medio tener en cuenta factores que efectúen la
"legibilidad" o la visibilidad de una imagen objetivo dada. Una
medida de la duración más deseable se puede calcular teniendo en
cuenta y ajustando el contador en antena para las oclusiones de una
imagen objetivo. De acuerdo con la técnica descrita anteriormente
en este documento, con referencia a la figura 12, un área objetivo
para un número particular de tramas de imagen sería evaluada con la
misma cuenta de duración, y por consiguiente, sometida a las mismas
tarifas implementadas de acuerdo con las enseñanzas de este
documento, con independencia de si el área objetivo estaba
completamente sin obstruir o el área objetivo estaba obstruida en
varias partes de la misma. Dicha implementación de la invención
puede tener objeciones para potenciales anunciantes.
En la figura 13, se ilustra la imagen final 400e
incluyendo un primer jugador de hockey 404 y un segundo jugador de
hockey 406 en un escenario que puede ocurrir ligeramente después
del que se representa en la figura 10. De manera notable, la
oclusión representada en la figura 10 no está presente por más
tiempo, esto es, el jugador 404 se ha desplazado más allá del área
objetivo 504 y la imagen objetivo 604 se ve ahora en su totalidad y,
por consiguiente, la imagen objetivo 604 estará en su totalidad
incluida dentro de la imagen final 400e. En comparación, solamente
una parte de la imagen objetivo 604 estará incluida dentro de la
imagen final 400e para el escenario representado en la figura
10.
El módulo 147 puede calcular un parámetro de
oclusión (A) para tener en cuenta variaciones en la obstrucción a
un área objetivo 504, y la imagen objetivo 604 incluida dentro de
la misma, y las tarifas se aplican a los anunciantes para la
transmisión por tv u otras formas de visualización de la imagen
objetivo 604 pueden ser impuestas de manera más apropiada en vista
de la visibilidad global de la imagen objetivo 604. Una disposición
de ejemplo para el cálculo de un parámetro de oclusión implica la
interrogación, por parte del módulo 147, del separador de oclusión
144 para la información relativa a la imagen de oclusión 400c. El
módulo 147 puede adquirir del separador de oclusión 144 una cuenta
de píxeles de la oclusión, que sea una cuenta de píxeles solamente
de la parte de la imagen 400e del jugador de hockey 404 que está
incluida dentro del área objetivo 504. Así mismo, se puede obtener
una cuenta de píxeles de la imagen objetivo 802 a partir del
separador de fondo / imagen objetivo 140. Se puede calcular un
único parámetro de oclusión a partir de la cuenta de píxeles de la
oclusión y de la cuenta de píxeles de la imagen objetivo 802, por
ejemplo, por medio de la generación de una relación de la cuenta de
píxeles de la imagen de oclusión 400c respecto de la cuenta de
píxeles de la imagen objetivo 802. El contador_{i} de duración
asociado con el área_{i} objetivo se puede ajustar de acuerdo con
esto.
En la figura 14 se muestra un diagrama de flujo
que representa el procesado de un módulo de cálculo de la duración
real 147 que puede hacerse funcionar para medir la duración de una
o más imágenes objetivo que estén incluidas en un flujo de imágenes
y para reflejar las variaciones en as oclusiones de una o más
imágenes objetivo en la duración calculada. El módulo 147 en el
paso 1700, recibe una imagen final 400e proveniente del combinador
de imágenes 146. En un modelo que tenga una pluralidad de áreas
objetivo, a cada una de las áreas objetivo se le puede asignar un
único índice i para la identificación de la misma. El modelo
analiza la trama para la inclusión del área objetivo; en el paso
1702, y si el área_{i} objetivo no aparece en la trama, el índice
i se incrementa, en el paso 1704, y se compara frente al valor del
índice FINAL en el paso 1706 correspondiente al número de áreas
objetivo presentes en el modelo. Si el valor del índice FINAL aún
no se ha alcanzado, el procesado del módulo retorna al paso 1700.
Si se ha alcanzado el valor del índice FINAL en el paso 1706,
finaliza el procesado del módulo 147 para la trama actual y se
repite desde el paso 1700 para cualquier trama posterior.
La confirmación de un área_{i} objetivo en el
paso 1702 da como resultado el que el módulo 147 obtenga una cuenta
de píxeles de cualquier oclusión del área objetivo; en el paso
1708. El módulo 147 a continuación obtiene una cuenta de píxeles de
la imagen_{i} objetivo en el paso 1710. A continuación se calcula
un parámetro de oclusión \Delta, por ejemplo una relación de la
cuenta de píxeles de imagen de oclusión respecto de la cuenta de
píxeles de la imagen_{i} objetivo, por parte del módulo 147 en el
paso 1712. El parámetro de oclusión se puede calcular de manera
alternativa como una relación de la cuenta de píxeles de la imagen
de oclusión respecto de la cuenta de píxeles del área_{i}
objetivo. Son posibles otras variaciones del parámetro de oclusión.
Se incrementa entonces un contador_{i} como una función del
parámetro de oclusión en el paso 1714. Por ejemplo, un área objetivo
completamente sin ocluir (o imagen objetivo) puede dar como
resultado un incremento en una unidad del contador_{i} con
variaciones en el incremento del contador_{i} siendo hechas por
medio de la resta A de un incremento unidad del contador_{i}. De
acuerdo con el cálculo de ejemplo de \Delta, un área objetivo
completamente obstruida (o imagen objetivo) daría como resultado un
incremento de cero de i porque la cuenta de píxeles de la oclusión
será igual a la cuenta de píxeles del área_{i} objetivo (o
imagen_{i} objetivo). De manera apropiada, no resultaría ningún
cambio en el valor del contador_{i} incluso aunque se hubiese
realizado el procesado del valor del contador. Además, el
contador_{i} se incrementará de manera inversa a la cantidad de
oclusión del área objetivo.
El índice a continuación se incrementa en el
paso 1716 y se hace entonces una comparación entre el índice_{i}
y el índice FINAL en el paso 1718. Si el valor del índice FINAL aún
no se ha alcanzado, el procesado del módulo 147 retorna al paso
1700. Si por el contrario se ha alcanzado el valor del índice
FINAL, se completa el procesado del módulo para la trama actual y
continuará en el paso 1700 para cualquier trama posterior.
De acuerdo con esto, cualquier área objetivo que
esté incluida en el modelo y que tenga una imagen objetivo dentro
de ella dentro de una imagen final 400e tendrá asociado un
contador_{i} incrementado para esa imagen final particular 400e y
cualquier cuenta final asociada con un área objetivo acumulada
sobre un flujo de imágenes reflejará de manera más precisa la
cantidad de visibilidad real de la imagen objetivo incluida en ella.
La duración de cualquier imagen objetivo incluida dentro de un área
objetivo se puede determinar entonces como un producto del
contador_{i} de tramas y las tramas por segundo del flujo de
imágenes. De esta manera, se pueden imponer de manera más precisa
tarifas a los anunciantes hechas en forma de imágenes objetivo
incluidas dentro de áreas objetivo de un flujo de imágenes sobre una
base de duración.
\newpage
La invención así descrita puede ser mejorada
teniendo en cuenta la focalización de la cámara que afecta a la
visibilidad de la imagen objetivo incluida en ella dentro de un
área objetivo. En las figuras 18A y 18B, se ilustra de manera
respectiva una imagen final 400e que se puede obtener con
diferentes focalizaciones de la cámara. Dentro de cada imagen final,
un área objetivo 504 que tenga una imagen objetivo 604 en ella está
incluida en la imagen final 400e. La imagen 400e representada en la
figura 18 se puede analizar de acuerdo con las enseñanzas descritas
anteriormente en este documento para determinar el cálculo de la
duración de áreas objetivo incluidas dentro del flujo de imágenes
que incluye a la imagen final 400e. Suponiendo la equivalencia en
un escenario particular (esto es, la equivalencia de la oclusión de
la imagen objetivo, etc.), una imagen objetivo 604 que sea mucho
menos visible (figura 15A) debido a la focalización de la cámara
pero que sin embargo aparezca en la imagen 400e tendrá un contador
de la duración asociado con ella incrementado de manera equivalente
a una imagen objetivo 604 que aparezca en el primer plano (figura
15B) de la imagen final 400e de acuerdo con las enseñanzas
anteriores de este documento. Como dicha implementación de la
cuenta de la duración en antena de una imagen objetivo puede ser
objetada por parte de potenciales anunciantes, la presente invención
proporciona una mejora adicional para modificar un contador
asociado con un área objetivo, y de esta forma una imagen objetivo
asociada, de acuerdo con las variaciones en la focalización de la
cámara que afecten a la visibilidad de la imagen objetivo.
El módulo 147 puede calcular un parámetro de
primer plano y para tener en cuenta las variaciones en la
focalización de la cámara dando como resultado diferencias en la
visibilidad de una imagen objetivo 604 dentro de un área objetivo
504 y, de acuerdo con esto, las tarifas aplicadas a los anunciantes
de la imagen objetivo 604 pueden ser impuestas de manera más
apropiada en vista de la visibilidad global de la imagen objetivo
604. Una disposición de ejemplo para calcular un parámetro de
primer plano implica la interrogación, por parte del módulo 147,
del separador de fondo /
imagen objetivo 140 para una cuenta de píxeles de la imagen objetivo 802, o de manera alternativa una cuenta de píxeles del área objetivo 504, incluida en una imagen final 400e. Se puede calcular entonces un único parámetro de primer plano a partir de la cuenta de píxeles de la imagen objetivo 802 (o de manera alternativa del área objetivo 504) y la cuenta de píxeles de la imagen final 400e, por ejemplo, por medio de la generación de una relación de la cuenta de píxeles de la imagen objetivo 802 (o del área objetivo 504) respecto de la cuenta de píxeles de la imagen final 400e. Por lo general, la cuenta de píxeles de la imagen final 400e es una constante conocida y fija. El cálculo de la duración asociada con la imagen objetivo 802 se puede ajustar como una función de la relación de la cuenta de píxeles de la imagen objetivo 802 y de la cuenta de píxeles de la imagen final 400e para reflejar de manera precisa la visibilidad global de la imagen objetivo 802.
imagen objetivo 140 para una cuenta de píxeles de la imagen objetivo 802, o de manera alternativa una cuenta de píxeles del área objetivo 504, incluida en una imagen final 400e. Se puede calcular entonces un único parámetro de primer plano a partir de la cuenta de píxeles de la imagen objetivo 802 (o de manera alternativa del área objetivo 504) y la cuenta de píxeles de la imagen final 400e, por ejemplo, por medio de la generación de una relación de la cuenta de píxeles de la imagen objetivo 802 (o del área objetivo 504) respecto de la cuenta de píxeles de la imagen final 400e. Por lo general, la cuenta de píxeles de la imagen final 400e es una constante conocida y fija. El cálculo de la duración asociada con la imagen objetivo 802 se puede ajustar como una función de la relación de la cuenta de píxeles de la imagen objetivo 802 y de la cuenta de píxeles de la imagen final 400e para reflejar de manera precisa la visibilidad global de la imagen objetivo 802.
En la figura 16, se muestra un diagrama de flujo
que representa el procesado de un módulo de cálculo de duración en
tiempo real 147. El módulo 147, en el paso 1900, recibe una imagen
final 400e desde el combinador de imágenes 146. Como se ha hecho
notar con anterioridad, en un modelo que tiene una pluralidad de
áreas objetivo, a cada una de las áreas objetivo se les puede
asignar un único índice_{i} para la identificación de la misma. El
modelo analiza la trama para la inclusión del área_{i} objetivo,
en el paso 1902, y si el área_{i} objetivo no aparece en la
trama, se incrementa el índice en el paso 1904, y se compara frente
a un valor de índice FINAL en el paso 1906, correspondiente al
número de áreas objetivo presentes en el modelo. Si el valor de
índice FINAL no ha sido alcanzado aún, el procesado del módulo
retorna al paso 1900. Si se ha alcanzado el valor de índice FINAL
en el paso 1906, el procesado del módulo 147 finaliza para la trama
actual y se repite desde el paso 1900 para cualquier trama
posterior.
La confirmación de la inclusión de un área_{i}
objetivo dentro de la imagen 400e en el paso 1902 da como resultado
el que el módulo obtenga la cuenta de píxeles del área objetivo (o
imagen_{i} objetivo) en el paso 1910. El parámetro de primer
plano y, por ejemplo una relación de la cuenta de píxeles de la
imagen_{i} objetivo 802 respecto de la cuenta de píxeles de la
imagen final 400e, se calcula a continuación por medio del módulo
147 en el paso 1912. Se incrementa entonces un contador_{i} por
medio de una función del parámetro de primer plano en el paso 1914,
por ejemplo simplemente incrementando el contador_{i} por el
valor calculado de \gamma. Una imagen objetivo que ocupe la
totalidad de la imagen final 400e daría como resultado un incremento
unidad del contador_{i} de acuerdo con el cálculo de ejemplo del
parámetro de primer plano \gamma. Las variaciones en la
focalización de la cámara que dan como resultado una imagen objetivo
que aparece distante de manera creciente en el fondo daría como
resultado una reducción proporcional en el incremento del
contador_{i}. El índice_{i} se incrementa a continuación en el
paso 1916 y después se hace una comparación entre el índice_{i} y
el índice FINAL en el paso 1918. Si el valor del índice FINAL aún
se tiene que alcanzar, el procesado del módulo 147 retorna al paso
1900. Si, por el contrario, ya se ha alcanzado el valor de índice
FINAL, el procesado del módulo se completa para la trama actual y
continuará en el paso 1900 para las tramas posteriores.
De acuerdo con esto, cualquier área objetivo que
esté incluida en el modelo y que tenga una imagen objetivo dentro
de ella dentro de una imagen final 400e tendrá asociado un contador
incrementado para esa imagen final particular 400e y cualquier
cuenta final asociada con un área objetivo acumulada sobre un flujo
de imágenes reflejará de manera más precisa la visibilidad de la
imagen objetivo resultante de las diferentes focalizaciones de la
cámara usada para producir cualquier número de imágenes finales
400e. La duración de cualquier imagen objetivo incluida dentro de
un área objetivo se puede determinar entonces como un producto del
contador de tramas y las tramas por segundo del flujo de imágenes.
De esta manera, se pueden imponer de manera más precisa tarifas a
los anunciantes hechas en forma de imágenes objetivo dentro de
áreas objetivo incluidas en un flujo de imágenes.
De manera preferible, el sistema de medida de la
imagen ilustrado en la figura 1 puede tener canales de comunicación
entre la consola del director 123 y el módulo de cálculo de la
imagen 147. Estos umbrales se pueden fijar o se pueden definir por
parte de un operador de la consola del director 123. Se ha
considerado que la cantidad de oclusión de un área objetivo
particular, o imagen objetivo, pueden ser tan grande en algunos
casos mientras que el área objetivo o la imagen objetivo aún este
incluida dentro de una trama de una transmisión por tv que los
espectadores de la transmisión por tv puedan fallar en reconocer la
imagen objetivo particular incluida dentro del área objetivo
ocluida. Por ejemplo, una imagen objetivo puede incluir solamente
una insignia corporativa que ocupe de manera visible solamente una
pequeña parte de un área objetivo cuando se incluya en el flujo de
imágenes. Si una parte del área objetivo está ocluida, el área
objetivo puede por sí misma tener una parte significativa de la
misma sin ocluir mientras que la insignia insertada en forma de una
imagen objetivo no es visible, o es irreconocible para los
espectadores del flujo de imágenes. De acuerdo con las técnicas
novedosas anteriores, en tal circunstancia los contadores asociados
con el área objetivo serían incrementados porque una parte del área
objetivo está incluida con la trama asociada. Cualquier tarifa
calculada como una función del contador sería entonces incluida al
menos una parte de la misma para las tramas de transmisión por tv
en las que la insignia no sea visible o sea irreconocible. Se
pueden implementar los umbrales para facilitar el remedio de dicha
situación. Un umbral de oclusión se puede definir de manera que los
incrementos del contador no estén permitidos cuando un porcentaje
especificado del área objetivo esté ocluida, esto es, el umbral de
oclusión deja de permitir incrementos en el contador si el
parámetro de oclusión es mayor que el umbral de oclusión. Si más de
un área objetivo está incluida en el modelo del emplazamiento, los
umbrales de oclusión se pueden definir para cada una de las áreas
objetivo y se pueden implementar de manera independiente unos de
otros. De esta manera, el director publicitario podría confeccionar
tarifas de manera específica hacia imágenes objetivo particulares
que se vayan a incluir dentro de un área objetivo dada.
El umbral de oclusión también se puede
implementar como una función del porcentaje del área objetivo, o
imagen objetivo que aparezca en la pantalla, esto es, dentro de una
trama que no esté ocluida. Por ejemplo, durante eventos deportivos,
las panorámicas de la cámara ocurren a menudo y darán como
resultado tramas en las que las áreas objetivo solamente estén
parcialmente incluidas dentro de una trama. Un parámetro de
oclusión distinto del que se ha descrito anteriormente se puede
implementar en estas situaciones. De esta forma, se puede
implementar un umbral de oclusión diferente para dejar de permitir
incrementos en un contador asociado con un área objetivo para áreas
objetivo que no estén incluidas por completo en una trama.
Otra realización adicional de la invención
utiliza áreas subobjetivo 504A u 504B dentro del área objetivo 504.
Las tarifas se pueden calcular sobre áreas subobjetivo individuales
por medio de la asignación de contadores independientes a las áreas
subobjetivo. Los parámetros de oclusión individuales e
independientes y los parámetros de primer plano se pueden calcular
para cada una de las áreas de subobjetivo 504A y 504B para facilitar
refinamientos adicionales en las técnicas de cálculo de la duración
descritas en este documento. Las áreas subobjetivo 504A y 504B
pueden, por ejemplo, ser útiles cuando una imagen objetivo incluya
gráficos, tales como logotipos corporativos, así como texto. Como
los gráficos pueden ser más o menos reconocibles que el texto, una
imagen objetivo que incluya a ambos puede tener múltiples áreas
subobjetivo definidas dentro de un área objetivo mayor. Se pueden
incluir una o más imágenes objetivo dentro del área objetivo 504 de
forma que el cálculo de la duración de las áreas subobjetivo 504A y
504B permita el cálculo independiente de la duración de la imagen o
de las imágenes objetivo dentro del área objetivo 504. De acuerdo
con esto, se pueden asociar de manera respectiva contadores
independientes con las áreas subobjetivo. Como consecuencia de
esto, se pueden implementar tarifas de manera individual para las
áreas subobjetivo. Así mismo, los parámetros de oclusión
individuales y/o los parámetros de primer plano se pueden calcular
para cada una de las áreas subobjetivo 504A y 504B. Se pueden fijar
también diferentes umbrales de oclusión para cada una de las áreas
subobjetivo 504A y 504B.
Se debería comprender que la técnica particular
para el cálculo de un parámetro de oclusión y para un parámetro de
primer plano y/o la asignación de umbrales a los mismos que hayan
sido descritos son solamente a modo de ejemplo. Son posibles
variaciones de la cuenta de las diferencias en la visibilidad
debido a las oclusiones y a las variaciones en la focalización de
una cámara que esté capturando un flujo de imágenes. Por ejemplo,
se puede calcular un porcentaje de un área objetivo que esté dentro
de una trama de imagen independiente de si está ocluida o no. El
área total de todas las oclusiones respecto del área objetivo se
pueden restar entonces del área de la trama de imagen completa
antes de calcular el porcentaje del área objetivo que está dentro
de la trama de la imagen.
De manera adicional, se pueden hacer variaciones
para la compensación de primer plano de un área objetivo. La cuenta
de una trama / campo que incluya un área objetivo puede depender de
un umbral para el porcentaje calculado de área objetivo dentro del
área de trama global y para el porcentaje del área de pantalla. Con
referencia a la figura 18, un área total 2200 de trama de imagen, o
señal de trama, se designa por A,; un área total de la parte
visible de la trama de imagen 2201 se designa por A,; un área entera
del área objetivo 2202 interpretada de acuerdo con la telemetría de
la cámara se designa A_{T}; un área 2203 del área objetivo
visible en la pantalla se designa A_{TS}; y un área total 2204 de
todos los cuerpos que producen oclusión del área objetivo se
designa A_{T0}. \theta_{T} se define como un umbral para el área
de trama de la señal para permitir un incremento de la cuenta. De
manera preferible, \theta_{T} se puede fijar por el usuario.
\theta_{T0} es un umbral correspondiente en el que el área de
todos los cuerpos que producen oclusión se toma en consideración.
\theta_{s} representa un umbral que puede fijar el usuario para
el área objetivo visible que no cuenta los cuerpos que producen
oclusión como un porcentaje del área de la pantalla. \theta_{s0}
denota el umbral para la cuenta de las oclusiones del área objetivo
visible como un porcentaje de área de trama de imagen. Se pueden
realizar las siguientes posibles pruebas para determinar si se va a
incrementar un contador asignado a un área objetivo:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Las ecuaciones 1 a la 4 permiten el fijar
umbrales que gobiernen los incrementos en los contadores asignados
a las respectivas áreas objetivo. La permisividad o la no
permisividad de los incrementos de un contador de un área objetivo
también se puede determinar a partir de una combinación lógica o
ponderada de estas ecuaciones según se desee.
La presente invención contempla el incluir una o
más áreas subobjetivo definidas dentro de un área objetivo, por
ejemplo, un logotipo de un anunciante dentro de una señal (física o
sintética) correspondiente a un área objetivo. Con referencia de
nuevo a la figura 18, el área total 2205 de un área subobjetivo
dentro del área total 2202 viene designado por A_{L}; el área 2206
del área subobjetivo dentro de la trama de imagen visible está
designado como A_{LS}; el área 2207 del área subobjetivo ocluida
por todos los cuerpos oclusivos viene designada por A_{L0}. los
siguientes umbrales se pueden definir entonces: \phi_{L} es un
umbral del área de trama de imagen del área subobjetivo como un
porcentaje del área subobjetivo total; \phi_{L0} es un umbral
del área de trama de imagen menos el área total de todos los
cuerpos oclusivos como un porcentaje del área subobjetivo total;
\phi_{s} es un umbral del área subobjetivo como un porcentaje
del área de trama de imagen visible total; y \phi_{s0} es el
umbral relativo al área de trama de imagen total menos cualquier
área ocluida de las áreas subobjetivo.
Se pueden definir entonces las siguientes
pruebas para permitir y no permitir incrementos de un contador
asignado a un área objetivo:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
La permisividad / no permisividad de incrementos
en un contador de un área objetivo también se puede determinar a
partir de una combinación lógica o ponderada de as ecuaciones 5 a
la 8. Como un nivel añadido de sofisticación, las ecuaciones 1 a la
4 se pueden combinar con las ecuaciones 5 a la 8 para proporcionar
una métrica híbrida para permitir /
no permitir incrementos del contador.
no permitir incrementos del contador.
De manera preferible, un sistema de medida de la
imagen 100 que incluya un módulo del cálculo de la duración en
antena 147 implementaría un cálculo de la duración en antena
teniendo ajustes tanto para las variaciones de la oclusión como
para las del primer plano como se describe con referencia a las
figuras 17 y 19 y/o con referencia a una o a más de las ecuaciones 1
a la 8. Sin embargo, las enseñanzas de la invención, en su forma
más simple, se pueden implementar de acuerdo con la figura 12 y la
descripción que la acompaña. Como se ha aludido con anterioridad,
los cálculos se pueden realizar sobre un mecanismo basado en campo,
en lugar de un mecanismo basado en trama. De esta forma, los
contadores descritos para medir la duración de un área objetivo que
esté incluida dentro del flujo de la imagen se pueden realizar por
medio del análisis de uno o de más campos de una trama del flujo de
vídeo que se esta siendo retransmitido.
Son posibles otras modificaciones de la
invención. Por ejemplo, las técnicas descritas permiten cálculos en
tiempo real de la duración que una o de más áreas objetivo que
estén incluidas dentro de un flujo de imágenes también proporcionan
un mecanismo para asegurar que se consiga una duración deseada de
una imagen sintética que esté incluida dentro de un flujo de
imágenes. Por ejemplo, un anunciante puede contratar el tener un
anuncio incluido en un flujo de imágenes, tal como una transmisión
por tv de un evento deportivo. La presente invención permite que el
contrato especifique una duración, tal como un tiempo de exposición
máximo, un tiempo de exposición mínimo o un tiempo de exposición
preciso, que un anuncio u otra imagen sintética estén incluidos en
un flujo de imágenes. El contrato puede especificar un número de
unidades, tales como segundos o tramas de un flujo de imágenes, un
anuncio u otra imagen vaya a ser incluida en el flujo de imágenes.
De acuerdo con esto, las tasas de publicidad impuestas para la
inclusión de un anuncio en un flujo de imágenes se pueden hacer
sobre una base de la duración antes de la transmisión por tv, u
otros mecanismos de transmisión del flujo de imágenes. Ésta es una
mejora notable sobre las técnicas de la técnica anterior que
requieren hacer el cálculo de la duración de un anuncio que esté
incluido en un flujo de imágenes después de la transmisión por tv u
otra transmisión del flujo de imágenes. Las tasas basadas en la
duración para las imágenes incluidas dentro del flujo de imágenes
pueden no ser impuestas hasta después de la transmisión por tv del
flujo de imágenes de acuerdo con técnicas conocidas en la técnica.
De manera adicional, la duración de una imagen particular que se
incluye dentro de un flujo de imágenes puede no ser definida antes
de la transmisión de la transmisión por tv de acuerdo con las
técnicas de la técnica anterior.
Una imagen sintética puede tener un tiempo de
exposición deseado definido antes de la transmisión de un flujo de
imágenes que vaya a tener la imagen sintética insertada de acuerdo
con una realización de la invención. El asignar una imagen
sintética a un área objetivo para su inserción en la misma u
permitir que el área objetivo sea reasignada de manera dinámica
durante una transmisión de flujo de imágenes puede facilitar el
cumplir con una duración deseada predefinida de una imagen que se
vaya a incluir en un flujo de imágenes de acuerdo con las
enseñanzas de la invención. Por ejemplo, durante una transmisión
por tv de evento deportivo, una imagen sintética asignada para su
inserción en un área objetivo puede tener una duración de
exposición deseada predefinida definida antes de la transmisión del
flujo de imágenes. El cálculo en tiempo real del tiempo de
exposición de la duración del área objetivo que tenga la imagen
sintética asignada a la misma puede indicar, en algún punto durante
la transmisión del flujo de imágenes, que el área objetivo puede no
estar incluida dentro del flujo de imágenes durante la duración
deseada del anunciante. La imagen sintética puede ser reasignada a
otra área objetivo que se determina para proporcionar una mayor
probabilidad de ser incluida dentro del flujo de imágenes durante
la duración predefinida original asociada con los datos de la
imagen. Por ejemplo, un anunciante puede contratar el tener una
imagen sintética insertada en un área objetivo durante una duración
predefinida de un recinto deportivo tal como la pared donde el
jugador espera recoger la bola en el campo de béisbol. Durante la
transmisión del partido de béisbol, el análisis de las medidas de
duración, las métricas u otros datos estadísticos recogidos durante
la captura del flujo de imágenes y calculados para el área objetivo
que tiene los datos de imagen asignados a la misma, pueden indicar
que el área objetivo igualmente será incluida durante una duración
que sea menor que la duración deseada indicada y acordada por el
anunciante antes de la transmisión del flujo de imágenes desde el
recinto deportivo. De acuerdo con esto, los datos de imagen
asignados al área objetivo se pueden reasignar a otra área objetivo.
Por ejemplo, si durante la transmisión del flujo de imágenes se
determina que la duración real del área objetivo que tiene los
datos de imagen asignados a la misma es probable que tenga una
duración que sea menor que una duración deseada predefinida, los
datos de imagen asignados al área objetivo pueden ser reasignados a
otra área objetivo, por ejemplo, a un área objetivo en un área más
visible del recinto deportivo, tal como una pared central del campo,
que tenga los cálculos de la duración indicando una duración de
exposición mayor con relación al área objetivo que tiene los datos
de imagen originalmente asignados a la misma. De esta manera, una
vez que se hayan reasignado a otra área objetivo, la duración de
los datos de imagen que está incluida en el flujo de imágenes se
puede incrementar en un intento para tener los datos de imagen
incluidos dentro del flujo de imágenes para conseguir la duración
deseada predefinida. Así mismo, los datos de imagen se pueden
reasignar a múltiples áreas objetivo y la reasignación de los
mismos no impide el mantenimiento de una asignación de los datos de
imagen con un área objetivo desde la que se reasignan, esto es, los
datos de imagen se pueden reasignar a una primera área objetivo y
se pueden reasignar a una segunda área objetivo sobre la que los
datos de imagen originalmente asignados a la primera área objetivo
aparecerán en imágenes de la trama de imágenes que incluya a la
segunda área objetivo o a la primera y a la segunda área objetivo.
La reasignación de datos de imagen se puede hacer para cualquier
número de áreas objetivo en un intento de incluir los datos de
imagen asignados a las mismas dentro del flujo de imágenes durante
una duración predefinida. De acuerdo con esto, se pueden hacer
variaciones de los mecanismos de contador descritos en este
documento para facilitar las medidas de la duración de los datos de
imagen incluidos dentro de una o más áreas objetivo y que se pueden
reasignar a otras áreas objetivo. Por ejemplo, los contadores
asignados a un área objetivo de manera similar pueden ser asignados
a datos de imagen particulares que se pueden insertar dentro de
imágenes de un flujo de imágenes y se pueden calcular de acuerdo
con las enseñanzas de este documento. De esta forma, un contador
particular asociado con datos de imagen que se vaya a insertar
dentro de un área objetivo se puede incrementar solamente cuando el
área objetivo esté incluida en una imagen del flujo de imágenes y
cuando el área objetivo tenga incluido dentro del mismo datos de
imagen particulares. El contador se puede reasignar a un área
objetivo diferente al producirse la reasignación de los datos de
imagen. Además, los incrementos en el contador se pueden hacer al
producirse la determinación de la inclusión de cualquiera de una
pluralidad de áreas objetivo dentro de una imagen del flujo de
imágenes facilitando por lo tanto la reasignación de los datos de
imagen y los cálculos de duración de los mismos.
Claims (30)
1. Un procedimiento para calcular la duración
de un área objetivo incluida dentro de un flujo de imágenes
obtenido por un sistema de captura de imágenes en un emplazamiento
físico, comprendiendo el procedimiento:
analizar al menos un campo del flujo de imágenes
para la inclusión del área objetivo, en el que el área objetivo
corresponde a una superficie virtual definida en un modelo de
ordenador del emplazamiento, correspondiendo la superficie virtual
a una superficie imaginaria en lugar de a una superficie real en el
emplazamiento físico; e
incrementar de manera automática un contador
tras la confirmación de que el área objetivo está incluida dentro
de al menos un campo.
\vskip1.000000\baselineskip
2. El procedimiento de acuerdo con la
reivindicación 1, comprendiendo de manera adicional el cálculo de
un parámetro de oclusión del área objetivo.
3. El procedimiento de acuerdo con la
reivindicación 1, en el que se calcula una tasa al menos en parte
al valor del contador.
4. El procedimiento de la reivindicación 2, en
el que el parámetro de oclusión se calcula en respuesta a una
cuenta de píxeles de una oclusión del área objetivo y una cuenta de
píxeles del área objetivo.
5. El procedimiento de acuerdo con la
reivindicación 4, en el que el parámetro de oclusión es una
relación de la cuenta de píxeles de la oclusión respecto de la
cuenta de píxeles del área objetivo.
6. El procedimiento de acuerdo con la
reivindicación 2, en el que el contador se incrementa por el
resultado numérico del parámetro de oclusión restando de uno.
7. El procedimiento de la reivindicación 1,
comprendiendo de manera adicional el cálculo de un parámetro de
primer plano del área objetivo.
8. El procedimiento de acuerdo con la
reivindicación 7, en el que el parámetro de primer plano se calcula
en base al menos en parte a una cuenta de píxeles del área objetivo
y una cuenta de píxeles de al menos un campo.
9. El procedimiento de acuerdo con la
reivindicación 8, en el que el parámetro de primer plano es una
relación de la cuenta de píxeles del área objetivo respecto de la
cuenta de píxeles de al menos un campo.
10. El procedimiento de acuerdo con la
reivindicación 7, en el que el contador se incrementa en un
incremento que es equivalente al valor calculado del parámetro de
primer plano.
11. El procedimiento de acuerdo con la
reivindicación 2, comprendiendo de manera adicional la definición
de un umbral de oclusión, no permitiéndose un incremento del
contador si el umbral de oclusión sobrepasa el parámetro de
oclusión.
12. El procedimiento de la reivindicación 1, en
el que el área objetivo comprende datos de imagen seleccionados del
grupo consistente en la señalización existente en un emplazamiento
desde el que se capturó el flujo de imágenes y una imagen sintética
no presente en el emplazamiento.
13. El procedimiento de acuerdo con la
reivindicación 1, comprendiendo de manera adicional:
asignar datos de imagen para la inserción dentro
del área objetivo; y
reasignar los datos de imagen a una segunda área
objetivo para que se incluyan en el flujo de imágenes.
\vskip1.000000\baselineskip
14. El procedimiento de acuerdo con la
reivindicación 13, en el que la reasignación de los datos de imagen
a una segunda área objetivo comprende además la reasignación de los
datos de imagen a la segunda área objetivo cuando se captura el
flujo de imágenes.
15. El procedimiento de acuerdo con la
reivindicación 13, comprendiendo de manera adicional:
especificar una duración de los datos de imagen
que se vayan a incluir dentro del flujo de imágenes antes de la
captura del flujo de imágenes; y
recoger, antes de reasignar los datos de imagen,
datos estadísticos indicativos de la duración de al menos un grupo
que consiste en el área objetivo y la segunda área objetivo está
incluida en el flujo de imágenes cuando se captura el flujo de
imágenes.
\vskip1.000000\baselineskip
16. El procedimiento de acuerdo con la
reivindicación 15, en el que la reasignación de los datos de imagen
a una segunda área objetivo comprende de manera adicional la
reasignación de los datos de imagen a la segunda área objetivo en
respuesta a los datos estadísticos indicativos de que la segunda
área objetivo tiene una duración de inclusión superior en el flujo
de imágenes que el área objetivo.
17. El procedimiento de acuerdo con la
reivindicación 13, comprendiendo de manera adicional el cálculo de
la duración de los datos de imagen que están incluidos en el flujo
de imágenes por medio de la suma de los respectivos incrementos en
el contador que está asociado con la primera área objetivo con los
incrementos al segundo contador que está asociado con la segunda
área objetivo, los incrementos sumados limitados a los respectivos
incrementos hechos al área objetivo cuando los datos de imagen
están respectivamente asignados a una o más del área objetivo y de
la segunda área objetivo.
18. Un sistema para calcular la duración de un
área objetivo que está incluida en un flujo de imágenes obtenido
por medio de la captura de imágenes en un emplazamiento físico,
comprendiendo el sistema:
un modelo de la mencionada área objetivo, el
área objetivo correspondiente a un elemento virtual en lugar de a
un elemento real en el emplazamiento físico;
un módulo de cálculo de la duración que
identifique la inclusión del área objetivo en al menos un campo del
flujo de imágenes, el módulo incluyendo un contador que se
incrementa al producirse la conformación de la inclusión del área
objetivo dentro del al menos un campo; y
en el que el área objetivo está incluida en el
al menos un campo cuando el emplazamiento está incluido en el flujo
de imágenes.
19. El sistema de acuerdo con la reivindicación
18, comprendiendo de manera adicional:
un sistema de inserción de imagen para insertar
una imagen objetivo dentro de al menos una pluralidad de campos del
flujo de imágenes, el sistema de inserción de imagen estando en
comunicación con el módulo de cálculo de la duración; y
un sistema de captura de imagen para
proporcionar una imagen al sistema de medida de imágenes.
20. El sistema de acuerdo con la reivindicación
18, en el que el módulo del cálculo de la duración está incluido
dentro del sistema de inserción de imagen.
21. El sistema de acuerdo con la reivindicación
18, comprendiendo de manera adicional:
un interpretador de modelo para generar una
imagen sintética en base a un modelo de referencia en tres
dimensiones predefinido del emplazamiento desde una posición
conocida de una cámara incluida en el sistema de suministro de
imágenes, la imagen sintética teniendo la imagen objetivo insertada
en el área objetivo de la misma,
un separador de imágenes para enmascarar a
partir de una imagen de vídeo contenida dentro de una trama de una
señal de vídeo generada por la cámara, el área objetivo para crear
una imagen de fondo enmascarada, siendo creada una imagen de
referencia enmascarada por el separador de imágenes por medio de la
separación de una imagen de referencia del resto de la imagen;
y
un separador de oclusión que se puede hacer
funcionar para comparar la imagen de área objetivo enmascarada con
la imagen de referencia enmascarada, representando la diferencia
entre ellas una oclusión de la imagen objetivo.
22. El sistema de acuerdo con la reivindicación
21, en el que el módulo calcula un parámetro de oclusión a partir
de la información obtenida del separador de imágenes.
23. El sistema de acuerdo con la reivindicación
22, en el que el parámetro de oclusión se calcula como una relación
de una cuenta de píxeles de la oclusión respecto de una cuenta de
píxeles de la imagen objetivo.
24. El sistema de acuerdo con la reivindicación
22, en el que el incremento del contador es una función del
parámetro de oclusión.
25. El sistema de acuerdo con la reivindicación
21, en el que el módulo calcula el parámetro de primer plano a
partir de la información obtenida del sistema de inserción de
imágenes.
26. El sistema de acuerdo con la reivindicación
24, comprendiendo de manera adicional:
un combinador de imágenes para producir una
imagen final de la imagen de fondo enmascarada y la oclusión, el
módulo obteniendo una cuenta de píxeles del área objetivo a partir
del separador de imágenes y una cuenta de píxeles de la imagen
final a partir del combinador de imágenes, siendo calculado el
parámetro de primer plano a partir de la cuenta de píxeles del área
objetivo y de la cuenta de píxeles de la imagen final.
\vskip1.000000\baselineskip
27. El sistema de acuerdo con la reivindicación
24, en el que el incremento es una función del parámetro de primer
plano.
28. El sistema de acuerdo con la reivindicación
21, en el que no se permite un incremento del contador en el caso
de que el parámetro de oclusión sobrepase un umbral de
oclusión.
29. El sistema de acuerdo con la reivindicación
21, en el que el área objetivo comprende datos de imagen
seleccionados del grupo consistente en la señalética existente en
un emplazamiento desde el que se capturó el flujo de imágenes y las
imágenes sintéticas no están presentes en el emplazamiento.
30. El sistema de acuerdo con la reivindicación
21, comprendiendo de manera adicional:
un modelo de área objetivo de un segundo
emplazamiento desde el que se capturó el flujo de imágenes; y
un módulo de cálculo de la duración que
identifique la inclusión del área objetivo del segundo
emplazamiento en el al menos un campo del flujo de imágenes, el
módulo incluyendo un contador que se incrementa al producirse la
confirmación de la inclusión del área objetivo dentro del al menos
un campo, y en el que el área objetivo del segundo emplazamiento
está incluida en al menos un campo cuando el segundo emplazamiento
está incluido en el flujo de imágenes.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US903122 | 2001-07-10 | ||
US09/903,122 US7206434B2 (en) | 2001-07-10 | 2001-07-10 | Method and system for measurement of the duration an area is included in an image stream |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2306724T3 true ES2306724T3 (es) | 2008-11-16 |
Family
ID=25416979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES01962241T Expired - Lifetime ES2306724T3 (es) | 2001-07-10 | 2001-08-16 | Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. |
Country Status (13)
Country | Link |
---|---|
US (1) | US7206434B2 (es) |
EP (1) | EP1405266B1 (es) |
JP (1) | JP4176010B2 (es) |
AT (1) | ATE394756T1 (es) |
AU (1) | AU2001283437B2 (es) |
BR (1) | BR0117076A (es) |
CA (1) | CA2454297C (es) |
DE (1) | DE60133944D1 (es) |
ES (1) | ES2306724T3 (es) |
HK (1) | HK1064776A1 (es) |
IL (2) | IL159788A0 (es) |
MX (1) | MXPA04000307A (es) |
WO (1) | WO2003007245A2 (es) |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030187730A1 (en) * | 2002-03-27 | 2003-10-02 | Jai Natarajan | System and method of measuring exposure of assets on the client side |
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
JP4298407B2 (ja) * | 2002-09-30 | 2009-07-22 | キヤノン株式会社 | 映像合成装置及び映像合成方法 |
US20040070691A1 (en) * | 2002-10-11 | 2004-04-15 | Akio Kojima | Image processing method of sporting events |
US7574070B2 (en) * | 2003-09-30 | 2009-08-11 | Canon Kabushiki Kaisha | Correction of subject area detection information, and image combining apparatus and method using the correction |
US20050110801A1 (en) * | 2003-11-20 | 2005-05-26 | I-Jong Lin | Methods and systems for processing displayed images |
US9087380B2 (en) * | 2004-05-26 | 2015-07-21 | Timothy J. Lock | Method and system for creating event data and making same available to be served |
US7868914B2 (en) * | 2004-06-07 | 2011-01-11 | Sportsmedia Technology Corporation | Video event statistic tracking system |
US7620266B2 (en) * | 2005-01-20 | 2009-11-17 | International Business Machines Corporation | Robust and efficient foreground analysis for real-time video surveillance |
US8738787B2 (en) | 2005-04-20 | 2014-05-27 | Limelight Networks, Inc. | Ad server integration |
US8291095B2 (en) * | 2005-04-20 | 2012-10-16 | Limelight Networks, Inc. | Methods and systems for content insertion |
US20080010083A1 (en) * | 2005-07-01 | 2008-01-10 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Approval technique for media content alteration |
US9583141B2 (en) | 2005-07-01 | 2017-02-28 | Invention Science Fund I, Llc | Implementing audio substitution options in media works |
US7978192B2 (en) * | 2005-10-04 | 2011-07-12 | Rdv Systems Ltd. | Method and apparatus for evaluating sight distance |
US7692649B2 (en) | 2005-10-04 | 2010-04-06 | Rdv Systems Ltd. | Method and apparatus for virtual reality presentation of civil engineering, land planning and infrastructure |
CA2672144A1 (en) * | 2006-04-14 | 2008-11-20 | Patrick Levy Rosenthal | Virtual video camera device with three-dimensional tracking and virtual object insertion |
US20080219504A1 (en) * | 2007-03-05 | 2008-09-11 | Adams Henry W | Automatic measurement of advertising effectiveness |
US8376226B2 (en) * | 2007-04-03 | 2013-02-19 | International Business Machines Corporation | System and method for interactive marketing to consumers |
US8314791B2 (en) * | 2007-11-19 | 2012-11-20 | Rdv Systems Ltd. | Method and apparatus for determining view impact |
WO2009085233A2 (en) * | 2007-12-21 | 2009-07-09 | 21Ct, Inc. | System and method for visually tracking with occlusions |
US9031279B2 (en) * | 2008-07-09 | 2015-05-12 | Disney Enterprises, Inc. | Multiple-object tracking and team identification for game strategy analysis |
US8458147B2 (en) * | 2008-08-20 | 2013-06-04 | Intel Corporation | Techniques for the association, customization and automation of content from multiple sources on a single display |
US8427473B2 (en) * | 2008-09-28 | 2013-04-23 | Rdv Systems Ltd. | Pseudo-realistic rendering of BIM data responsive to positional indicator |
US20100091036A1 (en) * | 2008-10-10 | 2010-04-15 | Honeywell International Inc. | Method and System for Integrating Virtual Entities Within Live Video |
US9190110B2 (en) | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
US9533418B2 (en) * | 2009-05-29 | 2017-01-03 | Cognex Corporation | Methods and apparatus for practical 3D vision system |
CN102726051B (zh) * | 2009-09-11 | 2016-02-03 | 迪斯尼实业公司 | 3d视频中的虚拟插件 |
US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
CN102906810B (zh) | 2010-02-24 | 2015-03-18 | 爱普莱克斯控股公司 | 支持视觉受损的个体的扩增的现实全景 |
WO2012038506A1 (en) * | 2010-09-22 | 2012-03-29 | Thomson Licensing | Methods for processing multimedia flows and corresponding devices |
JP5656567B2 (ja) * | 2010-11-05 | 2015-01-21 | キヤノン株式会社 | 映像処理装置および方法 |
US8601380B2 (en) * | 2011-03-16 | 2013-12-03 | Nokia Corporation | Method and apparatus for displaying interactive preview information in a location-based user interface |
CN103907137A (zh) * | 2011-08-31 | 2014-07-02 | 岩石国际集团私人有限公司 | 虚拟广告平台 |
US9514381B1 (en) | 2013-03-15 | 2016-12-06 | Pandoodle Corporation | Method of identifying and replacing an object or area in a digital image with another object or area |
EP3654286B1 (en) | 2013-12-13 | 2024-01-17 | Panasonic Intellectual Property Management Co., Ltd. | Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium |
US11004139B2 (en) | 2014-03-31 | 2021-05-11 | Monticello Enterprises LLC | System and method for providing simplified in store purchases and in-app purchases using a use-interface-based payment API |
US10511580B2 (en) | 2014-03-31 | 2019-12-17 | Monticello Enterprises LLC | System and method for providing a social media shopping experience |
US11080777B2 (en) | 2014-03-31 | 2021-08-03 | Monticello Enterprises LLC | System and method for providing a social media shopping experience |
US12008629B2 (en) | 2014-03-31 | 2024-06-11 | Monticello Enterprises LLC | System and method for providing a social media shopping experience |
US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
GB2529182B (en) * | 2014-08-12 | 2019-03-27 | Supponor Oy | Method and apparatus for dynamic image content manipulation |
US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
CN105006006A (zh) * | 2015-07-01 | 2015-10-28 | 广东省城乡规划设计研究院 | 一种城市高温区通风廊道的计算方法及系统 |
US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
CN105530514A (zh) * | 2016-01-28 | 2016-04-27 | 长光卫星技术有限公司 | 一种用于卫星平台微振动对相机成像影响的测试装置 |
WO2017165538A1 (en) * | 2016-03-22 | 2017-09-28 | Uru, Inc. | Apparatus, systems, and methods for integrating digital media content into other digital media content |
US11856271B2 (en) * | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
JP7018566B2 (ja) * | 2017-04-28 | 2022-02-14 | パナソニックIpマネジメント株式会社 | 撮像装置、画像処理方法及びプログラム |
US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
US11601721B2 (en) | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
US20220164974A1 (en) * | 2019-03-28 | 2022-05-26 | Sony Group Corporation | Information processing device, information processing method, and program |
US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
FR3103343B1 (fr) * | 2019-11-20 | 2022-07-01 | Affaticati Jean Luc | Procédé de modification d’un flux vidéo |
JP7330507B2 (ja) * | 2019-12-13 | 2023-08-22 | 株式会社Agama-X | 情報処理装置、プログラム、及び、方法 |
US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
US11206453B2 (en) | 2020-04-14 | 2021-12-21 | International Business Machines Corporation | Cognitive broadcasting of an event |
WO2022049694A1 (ja) * | 2020-09-03 | 2022-03-10 | 日本電信電話株式会社 | 学習装置、推定装置、学習方法、及び学習プログラム |
US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4084184A (en) | 1976-07-26 | 1978-04-11 | Crain David W | Tv object locator and image identifier |
EP0089212B1 (en) * | 1982-03-13 | 1987-10-28 | Kabushiki Kaisha Ishida Koki Seisakusho | Method and apparatus for sorting articles |
US4970666A (en) | 1988-03-30 | 1990-11-13 | Land Development Laboratory, Inc. | Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment |
FR2661061B1 (fr) | 1990-04-11 | 1992-08-07 | Multi Media Tech | Procede et dispositif de modification de zone d'images. |
FR2675977B1 (fr) | 1991-04-26 | 1997-09-12 | Inst Nat Audiovisuel | Procede de modelisation d'un systeme de prise de vues et procede et systeme de realisation de combinaisons d'images reelles et d'images de synthese. |
EP0595808B1 (en) | 1991-07-19 | 1999-06-23 | Princeton Video Image, Inc. | Television displays having selected inserted indicia |
GB9119964D0 (en) | 1991-09-18 | 1991-10-30 | Sarnoff David Res Center | Pattern-key video insertion |
US5715018A (en) | 1992-04-10 | 1998-02-03 | Avid Technology, Inc. | Digital advertisement insertion system |
US5903317A (en) | 1993-02-14 | 1999-05-11 | Orad Hi-Tech Systems Ltd. | Apparatus and method for detecting, identifying and incorporating advertisements in a video |
AU6298794A (en) | 1993-02-14 | 1995-05-04 | Orad, Inc. | Apparatus and method for detecting, identifying and incorporating advertisements in a video |
CA2121151A1 (en) | 1993-04-16 | 1994-10-17 | Trevor Lambert | Method and apparatus for automatic insertion of a television signal from a remote source |
WO1995010915A1 (en) | 1993-10-12 | 1995-04-20 | Orad, Inc. | Sports event video |
NZ271237A (en) | 1993-10-27 | 1996-09-25 | Princeton Video Image Inc | Electronic billboard insertion of images into broadcast video stream |
JPH07220452A (ja) | 1993-12-17 | 1995-08-18 | Imix Inc | ビデオ編集及び実時間処理のための方法及び装置 |
IL108957A (en) | 1994-03-14 | 1998-09-24 | Scidel Technologies Ltd | Video sequence imaging system |
IL109487A (en) | 1994-04-29 | 1996-09-12 | Orad Hi Tec Systems Ltd | Chromakeying system |
US5436672A (en) | 1994-05-27 | 1995-07-25 | Symah Vision | Video processing system for modifying a zone in successive images |
IL110573A (en) | 1994-08-04 | 1998-10-30 | Orad Hi Tec Systems Ltd | Video transmission device and method |
US5627915A (en) | 1995-01-31 | 1997-05-06 | Princeton Video Image, Inc. | Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field |
FR2730837B1 (fr) | 1995-02-22 | 1997-05-30 | Sciamma Dominique | Systeme d'insertion en temps reel ou differe de panneaux publicitaires ou informationnels virtuels dans des emissions televisees |
US5600366A (en) | 1995-03-22 | 1997-02-04 | Npb Partners, Ltd. | Methods and apparatus for digital advertisement insertion in video programming |
US5850352A (en) | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5808695A (en) | 1995-06-16 | 1998-09-15 | Princeton Video Image, Inc. | Method of tracking scene motion for live video insertion systems |
EP0796541B1 (en) | 1995-06-16 | 1999-05-19 | Princeton Video Image, Inc. | System and method of real time insertions into video using adaptive occlusion with a synthetic reference image |
US5892554A (en) | 1995-11-28 | 1999-04-06 | Princeton Video Image, Inc. | System and method for inserting static and dynamic images into a live video broadcast |
EP0838068B1 (en) | 1995-07-10 | 2005-10-26 | Sarnoff Corporation | Method and system for rendering and combining images |
GB9514313D0 (en) | 1995-07-13 | 1995-09-13 | Beattie Robert J | Live-ads |
GB9601101D0 (en) | 1995-09-08 | 1996-03-20 | Orad Hi Tech Systems Limited | Method and apparatus for automatic electronic replacement of billboards in a video image |
IL115288A (en) | 1995-09-13 | 1999-06-20 | Scidel Technologies Ltd | Method and apparatus for implanting images into a video sequence |
GB2312582A (en) | 1996-01-19 | 1997-10-29 | Orad Hi Tech Systems Limited | Insertion of virtual objects into a video sequence |
US5799055A (en) | 1996-05-15 | 1998-08-25 | Northwestern University | Apparatus and method for planning a stereotactic surgical procedure using coordinated fluoroscopy |
SE506544C2 (sv) | 1996-06-20 | 1998-01-12 | Telia Ab | Anordning och metod för generering av digitala reklamskyltar |
US5914748A (en) | 1996-08-30 | 1999-06-22 | Eastman Kodak Company | Method and apparatus for generating a composite image using the difference of two images |
US5917553A (en) | 1996-10-22 | 1999-06-29 | Fox Sports Productions Inc. | Method and apparatus for enhancing the broadcast of a live event |
JPH10145674A (ja) | 1996-11-12 | 1998-05-29 | Sony Corp | ビデオ信号処理装置及びビデオ信号処理方法 |
US6100925A (en) | 1996-11-27 | 2000-08-08 | Princeton Video Image, Inc. | Image insertion in video streams using a combination of physical sensors and pattern recognition |
US5871437A (en) | 1996-12-10 | 1999-02-16 | Inflow Dynamics, Inc. | Radioactive stent for treating blood vessels to prevent restenosis |
ES2183229T3 (es) | 1996-12-20 | 2003-03-16 | Princeton Video Image Inc | Dispositivo descodificador para la insercion electronica modulada de indicaciones en videos. |
GB2323735C (en) | 1997-03-27 | 2006-08-10 | Quantel Ltd | An image processing system |
EP0907145A3 (en) | 1997-10-03 | 2003-03-26 | Nippon Telegraph and Telephone Corporation | Method and equipment for extracting image features from image sequence |
IL122194A0 (en) | 1997-11-13 | 1998-06-15 | Scidel Technologies Ltd | Method and apparatus for personalized images inserted into a video stream |
JPH11205648A (ja) | 1998-01-09 | 1999-07-30 | Olympus Optical Co Ltd | 画像合成装置 |
US6487721B1 (en) | 1998-01-30 | 2002-11-26 | General Instrument Corporation | Apparatus and method for digital advertisement insertion in a bitstream |
AU2853099A (en) | 1998-03-18 | 1999-10-11 | Nippon Television Network Corporation | Image replacing system and method therefor |
US6266100B1 (en) | 1998-09-04 | 2001-07-24 | Sportvision, Inc. | System for enhancing a video presentation of a live event |
US6731788B1 (en) * | 1999-01-28 | 2004-05-04 | Koninklijke Philips Electronics N.V. | Symbol Classification with shape features applied to neural network |
US6525741B1 (en) | 1999-08-30 | 2003-02-25 | Xerox Corporation | Chroma key of antialiased images |
-
2001
- 2001-07-10 US US09/903,122 patent/US7206434B2/en not_active Expired - Lifetime
- 2001-08-16 AT AT01962241T patent/ATE394756T1/de not_active IP Right Cessation
- 2001-08-16 MX MXPA04000307A patent/MXPA04000307A/es active IP Right Grant
- 2001-08-16 DE DE60133944T patent/DE60133944D1/de not_active Expired - Lifetime
- 2001-08-16 ES ES01962241T patent/ES2306724T3/es not_active Expired - Lifetime
- 2001-08-16 JP JP2003512933A patent/JP4176010B2/ja not_active Expired - Lifetime
- 2001-08-16 IL IL15978801A patent/IL159788A0/xx unknown
- 2001-08-16 CA CA2454297A patent/CA2454297C/en not_active Expired - Lifetime
- 2001-08-16 AU AU2001283437A patent/AU2001283437B2/en not_active Expired
- 2001-08-16 WO PCT/US2001/025813 patent/WO2003007245A2/en active IP Right Grant
- 2001-08-16 EP EP01962241A patent/EP1405266B1/en not_active Expired - Lifetime
- 2001-08-16 BR BR0117076-7A patent/BR0117076A/pt not_active Application Discontinuation
-
2004
- 2004-01-08 IL IL159788A patent/IL159788A/en active IP Right Grant
- 2004-09-30 HK HK04107531A patent/HK1064776A1/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
JP2004535129A (ja) | 2004-11-18 |
MXPA04000307A (es) | 2005-03-07 |
CA2454297C (en) | 2012-05-22 |
BR0117076A (pt) | 2004-08-17 |
EP1405266B1 (en) | 2008-05-07 |
EP1405266A2 (en) | 2004-04-07 |
ATE394756T1 (de) | 2008-05-15 |
IL159788A0 (en) | 2004-06-20 |
US7206434B2 (en) | 2007-04-17 |
US20030012409A1 (en) | 2003-01-16 |
IL159788A (en) | 2010-04-15 |
WO2003007245A2 (en) | 2003-01-23 |
CA2454297A1 (en) | 2003-01-23 |
DE60133944D1 (de) | 2008-06-19 |
WO2003007245A3 (en) | 2003-08-28 |
JP4176010B2 (ja) | 2008-11-05 |
AU2001283437B2 (en) | 2007-05-17 |
HK1064776A1 (en) | 2005-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2306724T3 (es) | Procedimiento y sistema para medir la duracion de un area incluida en un flujo de imagen. | |
AU2001283437A1 (en) | Method and system for measurement of the duration an area is included in an image stream | |
US9298986B2 (en) | Systems and methods for video processing | |
US8624962B2 (en) | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images | |
JP2021511729A (ja) | 画像、又はビデオデータにおいて検出された領域の拡張 | |
US9691173B2 (en) | System and method for rendering in accordance with location of virtual objects in real-time | |
US7868914B2 (en) | Video event statistic tracking system | |
US6297853B1 (en) | Apparatus and method for detecting, identifying and incorporating advertisements in a video image | |
EP0683961B1 (en) | Apparatus and method for detecting, identifying and incorporating advertisements in a video | |
US8451265B2 (en) | Virtual viewpoint animation | |
US9041722B2 (en) | Updating background texture for virtual viewpoint animations | |
CN108289220B (zh) | 虚拟图像处理方法、图像处理系统及存储介质 | |
US20090129630A1 (en) | 3d textured objects for virtual viewpoint animations | |
US20090128549A1 (en) | Fading techniques for virtual viewpoint animations | |
US20090128667A1 (en) | Line removal and object detection in an image | |
RU2564640C2 (ru) | Способ, система и компьютерная программа для получения трансформации изображения | |
US20060258457A1 (en) | Enhancement of collective experience | |
US9154710B2 (en) | Automatic camera identification from a multi-camera video stream | |
US9906769B1 (en) | Methods and apparatus for collaborative multi-view augmented reality video | |
JP4189900B2 (ja) | イベント関連情報挿入方法および装置 | |
US20110141359A1 (en) | In-Program Trigger of Video Content | |
JP2002502160A5 (es) | ||
JPH08511392A (ja) | 映像内における広告の検出、識別および編入のための装置および方法 | |
KR20050008246A (ko) | 스포츠 비디오에서 카메라 모션 분석을 통한 그래픽 영상객체 합성 구현 장치 및 방법 |