ES2899651T3 - Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores - Google Patents

Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores Download PDF

Info

Publication number
ES2899651T3
ES2899651T3 ES18701058T ES18701058T ES2899651T3 ES 2899651 T3 ES2899651 T3 ES 2899651T3 ES 18701058 T ES18701058 T ES 18701058T ES 18701058 T ES18701058 T ES 18701058T ES 2899651 T3 ES2899651 T3 ES 2899651T3
Authority
ES
Spain
Prior art keywords
image data
image
images
video
viewers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18701058T
Other languages
English (en)
Inventor
Braun Max Von
Hans-Peter Boll
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Appario Global Solutions AGS AG
Original Assignee
Appario Global Solutions AGS AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP17153512.3A external-priority patent/EP3355586A1/en
Application filed by Appario Global Solutions AGS AG filed Critical Appario Global Solutions AGS AG
Application granted granted Critical
Publication of ES2899651T3 publication Critical patent/ES2899651T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Un método para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores, que comprende: generar al menos dos conjuntos diferentes de datos de imagen, comprendiendo cada conjunto de datos de imagen una secuencia de imágenes individuales; mostrar las imágenes de dichos al menos dos conjuntos de datos de imagen de una manera multiplexada por intervalos de tiempo en dicha pantalla física, comprendiendo al menos un conjunto de datos de imagen de dichos dos conjuntos de datos de imagen una secuencia de imágenes e imágenes inversas; generar al menos una secuencia de vídeo de una escena que incluye dicha pantalla física, consistiendo dicha secuencia de vídeo en tramas de vídeo capturadas con una velocidad de tramas superior a 20 Hz de manera síncrona con la visualización de las imágenes de uno de dichos al menos dos conjuntos de datos de imagen en dicha pantalla física, en donde dicha secuencia de vídeo no incluye imágenes inversas; y transmitir dicha secuencia de vídeo a un subconjunto de dichos espectadores.

Description

DESCRIPCIÓN
Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores
La presente invención se refiere a un método y a un sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores.
Las pantallas activas, tales como las pantallas de diodos emisores de luz (LED - Light Emitting Diode, en inglés), son ampliamente utilizadas como vallas publicitarias o carteles para transmitir información o anuncios a los espectadores. Habitualmente, estas pantallas se utilizan en eventos deportivos o de entretenimiento. En consecuencia, dichas pantallas aparecen a menudo en transmisiones de televisión (TV) o transmisiones de vídeo que están dirigidas a una gran variedad de espectadores diferentes, siendo un ejemplo típico los espectadores en diferentes países con diferentes idiomas nativos o diferentes antecedentes culturales. Para orientar la información/anuncios mostrados en estas pantallas a subconjuntos específicos de estos espectadores, ya se han desarrollado métodos para variar el contenido de una pantalla entre los espectadores que observan la pantalla a través de una emisión de televisión o una secuencia de vídeo. Por ejemplo, la solicitud de patente de EE. UU. US 2002/0144263 describe un método y un aparato para agrupar anuncios dirigidos en un canal de publicidad.
Un enfoque más elegante es insertar el anuncio como parte integral de la secuencia de vídeo, por ejemplo, mostrando el anuncio en una valla publicitaria mostrada en la secuencia de vídeo. El documento GB 2305051 describe un aparato para la sustitución electrónica automática de una valla publicitaria en una imagen de vídeo. De manera similar, el documento GB 2305049 describe un sistema de reemplazo de vallas publicitarias electrónicas para su uso en un sistema de emisión de televisión. Sin embargo, para crear una buena impresión y mantener un aspecto natural de la imagen compuesta, el anuncio debe adaptarse al resto de la escena en la secuencia de vídeo. Habitualmente, este enfoque requiere la intervención humana para obtener resultados de buena calidad. En general, estos enfoques electrónicos o basados en software a menudo no son satisfactorios en lo que respecta a la experiencia del espectador, especialmente cuando los esquemas de emisión involucran escenas dinámicas que oscurecen parcialmente la valla publicitaria.
En la solicitud de patente internacional WO 2005/112476, se ha descrito un método que permite la variación del contenido de una pantalla entre espectadores en una emisión de televisión. Este documento de la técnica anterior describe un método que permite a múltiples espectadores ver una de varias secuencias de vídeo visualizadas simultáneamente en una sola pantalla de vídeo. Sin embargo, los espectadores deben usar gafas de visión con obturador, sincronizadas con una de las secuencias de vídeo que se muestran en la pantalla. Un sistema de este tipo no es adecuado para transmisiones de televisión de la propia pantalla.
Estos problemas se mitigan mediante una solución descrita en la solicitud de patente internacional WO 2007/125350 (también publicada como US 2009/0102957 A1). Este documento de la técnica anterior describe un método y un dispositivo para variar el contenido de una pantalla física que aparece como parte de una escena en una emisión de televisión entre diferentes espectadores de la emisión de televisión. El contenido de visualización comprende imágenes de visualización de espectador directo dirigidas a los espectadores presentes en el evento, por ejemplo, un evento deportivo, y un espectador de emisión muestra imágenes dirigidas a los espectadores de televisión. La pantalla física muestra dos o más instancias de contenido de datos intercaladas temporalmente, en donde la imagen de la pantalla para el espectador de difusión está sincronizada para mostrar una de dichas instancias de contenido de datos. Se utiliza una cámara para grabar una escena del evento, incluida la pantalla física, tal como un cartel, y se utiliza un sistema de control para sincronizar la cámara y el cartel. La secuencia de vídeo grabada por la cámara que comprende todas las diferentes instancias de contenido de datos es alimentada a un desmultiplexador, que genera alimentaciones individuales correspondientes a instancias de contenido de datos específicas mostradas en la pantalla física. El método y sistema descritos en el documento WO 2007/125350 requieren una tecnología de cámara dedicada, que permite grabar a velocidades de trama que son mucho más altas que la velocidad de tramas habitual utilizada para transmisiones de televisión o vídeo, debido a que se requiere la cámara para capturar cada imagen que se muestra en el cartel. Además, la potencia de cálculo del desmultiplexador que genera las alimentaciones de vídeo individuales tiene que ser correspondientemente alta. Por lo tanto, el método descrito en el documento WO 2007/125350 requiere nuevos equipos dedicados y los costes correspondientes para establecer dicha tecnología en eventos deportivos y de entretenimiento son altos. Además, con el método del documento WO 2007/125350, la experiencia de visualización de los espectadores directos de un evento se reduce, debido a que la inserción de imágenes dedicadas para los espectadores de la emisión da como resultado un parpadeo inestable del cartel, incluso cuando los intervalos de tiempo durante los cuales se muestra una imagen, son demasiado cortos para que el espectador perciba conscientemente el contenido de una imagen.
El documento US 2003/0128218 A1 describe un aparato de alteración de imágenes que proporciona una visualización confidencial de una pantalla de vídeo mediante la multiplexación en el tiempo de la imagen fundamental de la pantalla con una imagen de color invertido de la misma, píxel a píxel. La imagen fundamental puede ser decodificada y vista solo por aquellos que ven la imagen codificada a través de gafas especialmente diseñadas que incorporan obturadores de LCD sincronizados en el tiempo, polarizadores variables o filtros de color.
Por lo tanto, ha sido un problema técnico de la presente invención proporcionar un método y un sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores, que puede estar basado en la tecnología de cámara y pantalla existente, lo que permite que el método de la invención sea fácilmente accesible y desplegado de manera rentable en muchos campos deportivos y de eventos de todo el mundo. Además, el método de la invención también mejorará la experiencia del usuario para los espectadores directos de un evento.
Este problema técnico se resuelve mediante el método de la reivindicación 1. Las realizaciones preferidas del método de la invención están sujetas a las reivindicaciones dependientes.
El método de la presente invención es particularmente ventajoso si uno de los al menos dos conjuntos diferentes de datos de imagen mostrados en la pantalla física está destinado a ser visto directamente por un subconjunto de espectadores, por ejemplo, visitantes que están realmente presentes en un estadio deportivo (espectadores directos), mientras que conjuntos adicionales de datos de imágenes están destinados a ser vistos como secuencias de vídeo por uno o más subconjuntos diferentes de espectadores (espectadores de transmisión).
Por lo tanto, los al menos dos conjuntos de datos de imagen diferentes comprenden un conjunto de datos de imagen para ser vistos por un subconjunto de usuarios directamente en dicha pantalla física (espectadores directos).
Cabe señalar que, por supuesto, todos los datos de imagen mostrados en la pantalla física serán vistos por los espectadores directos debido a que, en la presente invención, los espectadores directos no emplearán gafas obturadoras o similares, que bloquearían cualquier imagen que no fuera destinada a los espectadores directos. Por el contrario, en el método de la presente invención, las velocidades de trama y los períodos de visualización de los tramas de los diferentes conjuntos de datos de imagen son seleccionados de tal manera que el espectador directo puede percibir el conjunto de imágenes destinado al espectador directo según las limitaciones fisiológicas del ojo humano, mientras que otros subconjuntos de imágenes destinados a ser transmitidos a través de dicha secuencia de vídeo para ser percibidos por los espectadores de emisión solo tienen velocidades de trama y períodos de visualización de imágenes seleccionados de tal manera que no son percibidos por el ojo humano cuando se mira directamente a la pantalla física, mientras una cámara de vídeo aún puede capturar dichas imágenes.
En el método de la técnica anterior descrito en el documento WO 2007/125350, incluso si el espectador directo no puede percibir conscientemente las imágenes destinadas a la transmisión de una secuencia de vídeo solo en la pantalla física, estas imágenes seguirán generando fluctuaciones de intensidad y/o color en la pantalla física que aún pueden interferir con la presentación de imágenes para el espectador directo, perturbando, por lo tanto, la experiencia del espectador directo.
A diferencia de la técnica anterior, según la presente invención, se sugiere que al menos un conjunto de datos de imagen de dichos al menos dos conjuntos de datos de imagen diferentes comprenda una secuencia de imágenes e imágenes inversas. Las imágenes de dicho conjunto de datos de imágenes que comprenden imágenes e imágenes inversas están destinadas a ser transmitidas a través de una secuencia de vídeo a un subconjunto de espectadores, es decir, a los espectadores de la emisión, y no deben ser percibidas conscientemente por los espectadores directos. Las imágenes inversas de dicho conjunto de datos de imagen no se capturan al generar la secuencia de vídeo, sino que se muestran en la pantalla física poco antes o después de la imagen correspondiente, que se captura para generar la secuencia de vídeo. El período de tiempo entre la visualización de una imagen que se va a capturar y una imagen inversa correspondiente debe ser lo suficientemente corto para que las imágenes no puedan ser resueltas por el ojo humano de los espectadores directos de la visualización física. En consecuencia, el espectador directo percibe una imagen promedio de la imagen destinada a la secuencia de vídeo y la imagen inversa correspondiente, de modo que se reduzcan las fluctuaciones de intensidad y/o de color experimentadas por los espectadores directos de la pantalla física.
En una realización preferida de la presente invención, la imagen inversa de cada imagen anterior y/o posterior de un conjunto de datos de imagen se genera de tal manera que la imagen combinada y la imagen inversa dan como resultado una imagen percibida para los espectadores directos que tienen una intensidad homogénea y/o un valor de gris homogéneo. En consecuencia, es posible que cualquier intensidad o fluctuación de color para los espectadores directos se pueda reducir aún más.
En una realización, se genera una imagen inversa para cada imagen, que está destinada a ser transmitida en una secuencia de vídeo. En esta realización, la imagen y la imagen inversa correspondiente se muestran en sucesión directa en la pantalla física. En una realización, la imagen inversa es generada sobre la base de la imagen correspondiente, por ejemplo, calculando la diferencia entre un valor máximo de la intensidad (por ejemplo, para cada valor de color RGB) y los valores de intensidad correspondientes (RGB) para la imagen a ser transmitida a través de la secuencia de vídeo (ImaxR,G,B - IimagenR,G,B = Icomp.imagenR,G,B). Si las intensidades en la pantalla física (por ejemplo, una pantalla de LED) son generadas mediante modulación de ancho de pulso (PWM - Pulse Width Modulation, en inglés), se puede generar una imagen inversa o complementaria perfecta, debido a que ni las características de corriente/intensidad de los LED ni la configuración de la gradación tienen efecto sobre la generación de la imagen inversa. En otra realización, la imagen inversa calculada puede ser modificada, además, mediante un factor de amortiguación temporal, para evitar cambios repentinos de intensidad entre imágenes inversas posteriores.
En una realización de la presente invención, la imagen inversa de imágenes anteriores y/o posteriores de más de un conjunto de datos de imagen es generada de tal manera que la imagen combinada de dicho conjunto de más de un conjunto de datos de imagen y la imagen inversa correspondiente dan como resultado una imagen percibida que tiene una intensidad homogénea y/o un valor de gris homogéneo. En esta realización, se genera una imagen inversa para imágenes de más de un conjunto de datos de imagen. En consecuencia, se deben transmitir menos imágenes inversas y hay más intervalos de tiempo disponibles para transmitir imágenes para secuencias de vídeo. La combinación de más imágenes puede dar como resultado un promedio inicial antes de que se aplique el efecto de la imagen inversa. Sin embargo, puesto que las intensidades de las imágenes que se van a combinar también pueden ser acumuladas, los valores máximos de la intensidad que se van a compensar mediante la imagen inversa resultante aumentan. Por consiguiente, puesto que, en esta realización, las posibles intensidades de las imágenes inversas son más altas que las intensidades de las imágenes reales subyacentes, también se deben tener en cuenta las características de corriente/intensidad de los LED.
En una realización del método de la presente invención, la imagen inversa es generada incluyendo datos de imagen de dicho conjunto de datos de imagen para ser vistos por dicho subconjunto de usuarios directamente en dicha pantalla física. Por consiguiente, la imagen inversa mostrada en la pantalla física comprende una combinación de datos de imagen para ser visualizados por el espectador directo, y datos de la imagen correctiva que se adaptan a las imágenes emitidas a través de una o más secuencias de vídeo. En esta realización, los datos de la imagen correctivos pueden ser visualizados siempre que la imagen sea vista por el espectador directo, de modo que los datos de la imagen correctiva puedan ser visualizados con intensidades más bajas en la pantalla LED. Aun así, se deben tener en cuenta las características de corriente/intensidad de los LED.
En una realización, el al menos uno de dichos al menos dos conjuntos de datos de imagen diferentes puede comprender un conjunto de datos de imagen monocromáticos. En consecuencia, el presente método también se puede emplear para soluciones basadas en software (tecnología de codificación) donde se utiliza una imagen monocromática en una pantalla física para identificar la ubicación de la pantalla física dentro de un entorno, y para reemplazar la imagen monocromática por medio de una tecnología adecuada de procesamiento de imágenes con el contenido que verán los espectadores de la secuencia de vídeo.
En esta realización, la imagen inversa puede ser generada sobre la base de los datos de la imagen monocromática. De este modo, a diferencia de las tecnologías de codificación convencionales, en las que los espectadores directos perciben los destellos de colores, la introducción de las imágenes inversas correspondientes evita cualquier distracción molesta de los espectadores directos.
En una realización del método de la presente invención, el conjunto de datos de imagen para los espectadores directos se presenta a una velocidad de tramas más alta que el conjunto (o que cada uno de los conjuntos) de datos de imagen para los espectadores de la emisión. Se sabe por la fisiología, que el llamado “umbral de fusión de parpadeo” (o tasa de fusión de parpadeo), la frecuencia a la que un estímulo de luz intermitente parece ser completamente estable para el observador humano promedio, es, entre otros parámetros, mediante la frecuencia de la modulación, la amplitud o profundidad de la modulación (es decir, cuál es el porcentaje máximo de disminución en la intensidad de iluminación desde su valor máximo) y la intensidad de iluminación promedio (o máxima) (ley de Ferry-Porter). Por consiguiente, mientras que, en el método de la presente invención, los datos de imagen para los espectadores directos son interrumpidos repetidamente por los datos de imagen para los espectadores de la emisión, el parpadeo se puede reducir cuando los datos de imagen para los espectadores directos se muestran a una frecuencia más alta en la pantalla física. En consecuencia, para una velocidad de tramas determinada, cada trama de datos de imagen para espectadores directos se puede mostrar varias veces en la pantalla física, por ejemplo, cada trama de datos de imagen para los espectadores directos se puede mostrar en múltiples intervalos de tiempo antes y/o después de cada trama de datos de imagen para los espectadores de la emisión.
Según la invención, los al menos dos conjuntos diferentes de datos de imagen que se muestran en la pantalla física pueden comprender imágenes fijas o imágenes animadas, por ejemplo, una película. Cuando se muestran imágenes fijas en la pantalla física, las imágenes de un conjunto de datos de imagen son esencialmente idénticas. Cuando un conjunto de datos de imagen comprende una película, las imágenes de un conjunto de datos de imagen pueden diferir entre sí, de modo que se muestre una secuencia animada. Por consiguiente, en la siguiente descripción, los términos secuencia de vídeo y emisión de televisión se utilizan indistintamente y están destinados a incluir una variedad de esquemas para transmitir datos de imagen a los espectadores, incluidas imágenes fijas, imágenes animadas, vídeo, con o sin datos de audio adicionales.
Según la presente invención, se genera al menos una secuencia de vídeo de una escena que incluye la visualización física, habitualmente grabando la escena con una cámara de vídeo. La cámara de vídeo se activa de tal manera que la secuencia de vídeo consiste en tramas de vídeo capturadas de manera síncrona con la visualización de las imágenes de uno de dichos al menos dos conjuntos de datos de imagen en la pantalla física. De este modo, en contraste con el método descrito en el documento WO 2007/125350, no se requiere que la cámara de vídeo capture todas las imágenes de todos los conjuntos de datos de imagen mostrados en la pantalla física, sino solo las imágenes de uno de los conjuntos de datos de imagen mostrados en la pantalla física. Por consiguiente, la velocidad mínima de trama de la cámara de vídeo utilizada en el método de la presente invención es solo tan alta como la velocidad de tramas de un conjunto de datos de imagen. En consecuencia, las cámaras de vídeo convencionales conocidas en la técnica pueden ser empleadas en el método de la presente invención.
En el sentido de la presente solicitud, un “conjunto de datos de imagen” corresponde a las imágenes (ya sean imágenes fijas o una película) mostradas a un subconjunto concreto de espectadores. Según la presente invención, se muestran al menos dos conjuntos de datos de imagen en la pantalla física, mientras se genera al menos una secuencia de vídeo que comprende un conjunto de dichos dos conjuntos de datos de imagen. En su forma más simple, el método de la presente invención comprende un conjunto de datos de imagen destinados a espectadores directos de un evento, por ejemplo, espectadores presentes en un evento deportivo o de entretenimiento. El segundo conjunto de datos de imagen se dirige a los espectadores de una secuencia de vídeo. Hablando de manera más general, si los conjuntos de datos de imagen mostrados en el dispositivo físico incluyen datos de imagen para espectadores directos, el número de secuencias de vídeo generadas corresponde al número de conjuntos de datos de imagen menos uno.
En una realización de la presente invención, un “conjunto de datos de imagen” también puede incluir imágenes en blanco, es decir, intervalos de tiempo, en los que no se muestra ninguna imagen en la pantalla física. Esto puede ser deseable, por ejemplo, si los espectadores directos de un evento o los participantes de un evento, tales como jugadores de fútbol o baloncesto, no se distraigan debido a los contenidos mostrados en la pantalla física, es decir, debido a los anuncios, que, en esta realización, solo son transmitidos a los espectadores de la emisión a través de las secuencias de vídeo.
En otra realización de la invención, el “conjunto de datos de imagen” puede comprender tramas de colores monocromáticas, que se pueden utilizar para identificar la ubicación de la pantalla física dentro de una secuencia de vídeo para insertar los anuncios deseados en la zona de la pantalla física en la secuencia de vídeo utilizando tecnologías de codificación convencionales basadas en software.
En otra realización más de la presente invención en la que no se requiere un conjunto dedicado de datos de imagen para espectadores directos, el número de secuencias de vídeo corresponde al número de conjuntos de datos de imagen mostrados en la pantalla física. En consecuencia, se genera una secuencia de vídeo para cada conjunto de datos de imagen mostrados en el dispositivo físico. Si bien la presente invención puede ser implementada utilizando tecnología de cámara de vídeo de última generación, se utiliza una cámara de vídeo dedicada para cada secuencia de vídeo. En consecuencia, no se requiere una demultiplexación de una única secuencia de vídeo que comprende todos los datos de imagen para todos los subconjuntos de espectadores cuando se implementa el método de la presente invención.
Según una realización preferida del método de la presente invención, una secuencia de vídeo que consta de tramas de vídeo capturadas de manera síncrona con la visualización de las imágenes de uno de dichos al menos dos conjuntos de datos de imagen se consigue generando señales de sincronización que activan la visualización simultánea de imágenes de dicho al menos un conjunto de datos de imagen en dicho dispositivo físico, y capturando tramas de vídeo de la secuencia de vídeo asociada a dicho conjunto de datos de imagen. Por ejemplo, un impulso de activación es enviado a una memoria intermedia de imagen de la pantalla física que activa la visualización de una imagen específica de un conjunto específico de datos de imagen, y un impulso simultáneo es enviado a una cámara de vídeo que activa la cámara de vídeo para capturar una trama de vídeo de la escena.
En una realización de la presente invención, la al menos una secuencia de vídeo de la escena que incluye dicha visualización física es generada grabando una señal de vídeo de alta velocidad de tramas de dicha escena con una sola unidad de cámara a una alta velocidad de tramas, siendo dicha alta velocidad de tramas un múltiplo entero de una velocidad de tramas estándar. En la tecnología de emisión de vídeo profesional convencional, la unidad de cámara está controlada por una unidad de control de cámara (CCU - Camera Control Unit, en inglés) y la señal de vídeo de la unidad de cámara se transmite directamente a la CCU. En el contexto de esta realización de la presente invención, la señal de vídeo de la cámara es transmitida a una unidad de procesamiento intermedia dispuesta entre la unidad de cámara y la CCU. La unidad de procesamiento intermedia comprende al menos una unidad de conexión, que tiene una entrada para dicha señal de vídeo de alta velocidad de tramas proveniente de la cámara, y una pluralidad de salidas de vídeo, en donde el número de dicha pluralidad de salidas de vídeo corresponde al menos a dicho múltiplo entero de la velocidad de tramas estándar a la que se genera la señal de vídeo de alta velocidad de tramas. En la unidad de procesamiento intermedia, la señal de vídeo de alta velocidad de tramas puede ser convertida en señales de vídeo de velocidad de tramas estándar, transmitiendo cíclicamente tramas consecutivas de dicha señal de vídeo de entrada de alta velocidad de tramas a salidas de vídeo consecutivas de dicho número entero de salidas de vídeo. Por consiguiente, cada trama de dicha señal de vídeo de alta velocidad de tramas dentro de un período de tiempo correspondiente a la velocidad de tramas estándar es transmitida a la misma salida física de vídeo. Por lo tanto, es posible obtener dicha al menos una secuencia de vídeo a una velocidad de tramas estándar en uno de dichos números enteros de salidas de vídeo.
El término “velocidad de tramas estándar” denota la velocidad de tramas a la que se transmite un canal, es decir, la señal de vídeo de una de las salidas físicas de vídeo. En una realización, la velocidad de tramas estándar corresponde a la velocidad de tramas a la que se transmite la señal de vídeo a los espectadores. En estos casos, la velocidad de tramas estándar suele ser de 25 Hz o 50 Hz o 60 Hz (es decir, 25 tramas por segundo, 50 tramas por segundo o 60 tramas por segundo). En otra realización, la velocidad de tramas estándar ya puede ser una velocidad de tramas en cámara lenta, por ejemplo, una velocidad de tramas de 150 Hz (150 tramas por segundo) o 180 Hz (180 tramas por segundo). En estas realizaciones, cada una de las al menos una secuencia de vídeo ya comprendería una señal de vídeo en cámara lenta. Por lo general, estas señales serán señales de cámara lenta moderada, por ejemplo, 150 Hz, lo que resultaría en una cámara lenta de tres tiempos si es reproducida en una pantalla de televisión de 50 Hz.
El término “múltiplo entero” se refiere a un número entero para obtener la velocidad de tramas alta a partir de la velocidad de tramas estándar. Este número, es decir, el múltiplo entero, está comprendido, preferentemente, entre 4 y 32. Por ejemplo, si la velocidad de tramas estándar corresponde a 50 Hz, con un múltiplo entero de 4, la unidad de cámara capturaría la señal de vídeo original a una alta velocidad de tramas de 4 x 50 Hz = 200 Hz. En este ejemplo, cuatro tramas consecutivas de la señal de vídeo de alta velocidad de tramas serán transmitidas cíclicamente de manera consecutiva a cuatro salidas físicas de vídeo diferentes.
En una realización particularmente preferida de la presente invención, la unidad de procesamiento intermedia es una unidad de procesamiento de banda base disponible comercialmente.
Las unidades de proceso de banda base disponibles comercialmente tienen entradas de vídeo para recibir una transmisión de vídeo de entrada de alta resolución (por ejemplo, 4K) y/o alta velocidad de tramas (por ejemplo, 100 Hz, 150 Hz, 200 Hz, 400 Hz, 800 Hz, etc.) desde una cámara, y comprenden un procesador de vídeo, para convertir la secuencia de vídeo de entrada en más de una secuencia de vídeo 3G-SDI o HD-SDI. En consecuencia, las unidades de proceso de banda base comprenden un número correspondiente de salidas de vídeo que están configuradas como salidas estándar de 3G-SDI y/o HD-SDI, lo que permite, por ejemplo, conectar una unidad de cámara 4K a un equipo de SDI (Interfaz de serie digital - Series Digital Interface, en inglés) estándar de una camioneta de emisión al exterior o equipo de SDI ya disponible en un estadio deportivo.
Para cumplir con los requisitos de ancho de banda de los equipos de SDI convencionales, sorprendentemente se ha descubierto que las unidades de procesamiento intermedias disponibles comercialmente son configuradas habitualmente de tal manera que las tramas de vídeo consecutivas de una señal de vídeo de alta velocidad de tramas de 4K son transmitidas a salidas físicas de vídeo consecutivas de la unidad de procesamiento intermedia, de manera cíclica. Por ejemplo, cuatro tramas de una señal de vídeo de alta velocidad de tramas de 200 Hz grabada durante el intervalo de tiempo de una sola trama de una señal de vídeo de velocidad de tramas estándar de 50 Hz son transmitidas a cuatro salidas de vídeo individuales consecutivas de la unidad de procesamiento intermedia. Por consiguiente, en una realización preferida, la unidad de proceso de banda base comprende al menos una entrada de vídeo de alta velocidad de tramas de 4K y al menos salidas de vídeo de 3G-SDI y/o HD-SDI.
Cabe señalar que el número de salidas puede ser mayor que el múltiplo entero mencionado anteriormente. Por ejemplo, la unidad de procesamiento intermedia puede comprender dos salidas físicas para cada señal de vídeo, por ejemplo, cada trama puede ser transferida a dos salidas de vídeo, lo que permite procesar la misma señal de vídeo a través de diferentes vías de procesamiento de vídeo.
En ciertas realizaciones, la unidad de proceso de banda base está dispuesta entre la unidad de cámara y una unidad de control de cámara. Por lo general, una unidad de cámara profesional se controla por medio de su unidad de control de cámara (CCU) dedicada. Una unidad de cámara HD normalmente tiene su HD-CCU dedicada, e igualmente una unidad de cámara 4K tiene su 4K-CCU dedicada. Para reducir los costes y la interoperabilidad, los fabricantes de cámaras, tal como Sony Corporation han desarrollado unidades de procesamiento intermedias, denominadas “unidades de proceso de banda base” (BPU - Baseband Process Unit, en inglés), que comprenden una primera unidad de conexión y una segunda unidad de conexión. La primera unidad de conexión está conectada a una unidad de cámara que tiene una primera resolución en la dirección del espacio y/o en la dirección del tiempo. La segunda unidad de conexión está conectada a una unidad de control de cámara que tiene una segunda resolución en la dirección del espacio y/o en la dirección del tiempo. La unidad de proceso intermedia comprende una unidad de transmisión de información interpuesta entre la primera unidad de conexión y la segunda unidad de conexión. Mediante la unidad de puente de información, se puentea la información intercambiada entre la unidad de cámara y la unidad de control de cámara. Por ejemplo, la unidad de puente de información puede convertir una señal de vídeo de la primera entrada de resolución a la primera unidad de conexión desde la unidad de cámara en una señal de vídeo de la segunda resolución, y enviar la señal a la segunda unidad de conexión. En este caso, la unidad de puente de información puede llevar a cabo el procesamiento de la señal de la cámara en la señal de vídeo de la primera resolución antes de que la señal de vídeo de la primera entrada de resolución a la primera unidad de conexión desde la unidad de cámara se convierta en la señal de vídeo de la segunda resolución.
En consecuencia, es posible conectar una cámara con resolución 4K a una unidad de control de cámara HD.
Una unidad de procesamiento intermedia habitual se describe en la patente de EE. UU. US 9.413.923 B2. Estas unidades de procesamiento intermedias son, por ejemplo, comercializadas por Sony Corporation, por ejemplo, como unidades de proceso de banda base, BPU, 4000 o BPU 4800. Esencialmente, estos dispositivos Sony permiten accionar unidades de cámara 4K con unidades de control de cámara HD, y transmitir señales 4K de alta velocidad de tramas a través de salidas de SDI. Puesto que los canales de SDI no cumplirían los requisitos de ancho de banda de las señales 4K de alta velocidad de tramas, las BPU permiten combinar varias salidas de SDI de la manera descrita anteriormente para transmitir una alta velocidad de tramas 4K.
Otras empresas proporcionan equipos similares. Por ejemplo, las estaciones base de fibra XCU UXF/XF comercializadas por Grass Valley, Montreal, Canadá, también pueden ser utilizadas en el proceso de la presente invención.
En consecuencia, la presente invención también está dirigida a la utilización de una unidad de procesamiento intermedia, tal como una unidad de procesamiento de banda base 4K, que comprende al menos una primera unidad de conexión que tiene una entrada para una señal de vídeo de alta resolución y/o una señal de vídeo de alta velocidad de tramas desde una unidad de cámara, un procesador de vídeo, para convertir la señal de vídeo de entrada de alta resolución y/o alta velocidad de tramas en más de una, por ejemplo cuatro o más, transmisiones de vídeo de 3G-SDI o HD-SDI, y al menos dos salidas de vídeo de 3G-SDI y/o h D-SDI, en el método descrito anteriormente.
Preferentemente, la unidad de procesamiento intermedia comprende, además, al menos una segunda unidad de conexión, para conectar una unidad de control de cámara, por ejemplo, una unidad de control de cámara HD.
Preferentemente, la unidad de proceso intermedia comprende al menos 8 y, de manera particularmente preferida, al menos 16 salidas de vídeo de 3G-SDI y/o HD-SDI. En cualquier caso, el número de salidas de vídeo es mayor o igual que el múltiplo entero que relaciona la velocidad de tramas estándar con la unidad de cámara de alta velocidad de tramas.
De manera particularmente preferida, la unidad de procesamiento intermedia es una unidad de procesamiento de banda base Sony 4K tal como Sony BPU 4000 o Sony BPU 4800 o una estación base de fibra Grass Valley, tal como una estación base de fibra XCU UXF/XF.
En una realización de la presente invención, se generan al menos dos secuencias de vídeo para al menos dos conjuntos de datos de imagen visualizados en dicha pantalla física.
En otra realización preferida, se genera una secuencia de vídeo para cada conjunto de datos de imagen visualizados en dicha pantalla física.
Cuando se genera más de una secuencia de vídeo, los requisitos de ancho de banda para transmitir estas secuencias de vídeo aumentan sustancialmente, especialmente si estas secuencias de vídeo contienen contenido en HD, 4K y/o cámara lenta. Sin embargo, en el método de la presente invención, las secuencias de vídeo difieren solo en el contenido de la pantalla física grabada en la secuencia de vídeo y cualquier efecto de movimiento, aunque menor, en la escena grabada atribuido al hecho de que las tramas correspondientes en diferentes secuencias de vídeo se graban con un cierto retardo, según la frecuencia de imagen de la unidad de cámara de alta frecuencia de imagen empleada. En consecuencia, es posible utilizar técnicas de compresión de vídeo convencionales, tales como la codificación delta entre tramas en diferentes canales de salida o técnicas de compensación de movimiento que permiten transferir la señal de vídeo de un canal de salida con información de vídeo completa, mientras que solo los datos diferenciales que permiten reconstituir la señal del canal original son transmitidos para otros canales de vídeo. El propio canal de vídeo “completamente” transmitido no tiene que ser necesariamente una señal de vídeo sin comprimir, porque también se pueden aplicar técnicas de compresión convencionales, tales como codificación por transformación a este canal, para reducir la cantidad de datos a transmitir.
Preferentemente, las señales de sincronización se basan en un reloj principal que corresponde a la velocidad de tramas de la secuencia de vídeo, por ejemplo, la velocidad de tramas estándar definida anteriormente. Se puede emplear cualquier velocidad de tramas convencional utilizada en la producción de vídeo o películas. Por ejemplo, si se genera una secuencia de vídeo de 50p (50 tramas completas por segundo), se puede emplear un reloj principal de 50 Hz.
Convencionalmente, la señal del reloj principal es enviada a las unidades de cámara, ya sea directamente o mediante una CCU.
En la realización de la presente invención, en la que solo se utiliza una unidad de cámara para generar múltiples salidas de vídeo diferentes, la señal del reloj principal es suministrada a una interfaz que recibe datos de imagen para ser mostrados en la pantalla física, y que genera señales de activación a una velocidad que corresponde a la alta velocidad de tramas definida anteriormente, a la que las unidades de cámara graban una señal de vídeo. Los datos de la imagen se muestran en la pantalla física según las señales de activación.
Según otra realización preferida, en la que se utiliza una unidad de cámara dedicada para cada secuencia de vídeo, el reloj principal se utiliza para generar relojes secundarios dedicados para cada conjunto individual de datos de imagen. Los relojes secundarios se obtienen desfasando el reloj principal en un retardo específico para cada secuencia de vídeo. Por ejemplo, si n conjuntos de datos de imagen se muestran en el dispositivo físico, el reloj secundario i(n) se obtiene desfasando el reloj principal en un retardo Di = (n-1) út. Por consiguiente, las señales de sincronización para el primer conjunto de datos de imagen corresponden al reloj principal, mientras que las señales de sincronización para los conjuntos posteriores de datos de imagen se son desfasadas dentro del tiempo periódico del reloj principal. Por ejemplo, el tiempo de obturación de cada cámara asociada a una secuencia de vídeo particular determina el número máximo de canales (conjuntos de datos de imagen) que pueden ser mostrados en la pantalla física y transmitidos a través de secuencias de vídeo dedicadas. En consecuencia, con un tiempo de obturación de ús, el número máximo de conjuntos de datos de imagen n está determinado por la ecuación n • A s < 1/F. De manera similar, la pantalla física debe poder mostrar imágenes a la velocidad de tramas requerida de n F. Las pantallas disponibles comercialmente que se utilizan en estadios deportivos tienen velocidades de trama de hasta 1200 Hz, o incluso 2400 Hz, de modo que se puedan presentar al menos 24 conjuntos de datos de imagen.
Según una realización de la presente invención, el primer conjunto de datos de imagen corresponde a las imágenes presentadas para los espectadores directos. Según esta realización, el primer conjunto de datos de imagen se muestra dentro del período de retardo At entre las señales de sincronización subsiguientes para las secuencias de vídeo. En una realización particularmente preferida del método de la invención, el tiempo de obturación A s y el período de retardo At se seleccionan de tal manera que aproximadamente el 90 por ciento del tiempo dentro de un período de trama del reloj principal, se muestran imágenes del primer conjunto de imágenes dirigidas a los espectadores directos (n • A s < 0.1 • ( n -1) • At).
Según otra realización de la presente invención, al menos un conjunto de datos de imagen comprende una secuencia de imágenes reales e imágenes inversas o complementarias de las respectivas imágenes reales. Según esta realización preferida, una imagen real y la imagen inversa respectiva se muestran en sucesión inmediata a una frecuencia que no puede ser resuelta por el ojo humano. En consecuencia, un espectador directo percibe las secuencias de imágenes reales e imágenes inversas como una imagen neutra y sin rasgos distintivos. Según la invención, cada conjunto de datos de imagen destinado a las secuencias de vídeo se presenta de esta manera, es decir, como una secuencia de imágenes reales y, en consecuencia, imágenes inversas/complementarias, mientras que el conjunto de datos de imagen destinado a los espectadores directos se presenta como imágenes, solamente. Cuando un espectador presente en un evento ve todas las imágenes mostradas en la pantalla física, el conjunto de imágenes insertado destinado a las secuencias de vídeo es menos perturbador, debido a que la secuencia de imagen y la imagen inversa esencialmente se cancelan.
Puesto que la velocidad de tramas para grabar el vídeo es más alta que la resolución de tiempo del ojo humano, por ejemplo, superior a 20 Hz (20 tramas por segundo), no es necesario insertar una imagen inversa/complementaria después de cada imagen presentada en la pantalla física. Por lo tanto, según otra realización de la invención, se calcula una imagen inversa/complementaria a partir de un grupo de imágenes reales que comprende más de una imagen real. La presentación de la imagen inversa/complementaria está asociada con la presentación de este grupo de imágenes reales, por ejemplo, se muestra antes o después de que se presente el grupo de imágenes reales, o incluso dentro del grupo de imágenes reales. En una realización, el grupo de imágenes reales comprende todas las imágenes mostradas dentro de un período de tiempo (1 / (velocidad de tramas)) del reloj principal para que solo se muestre una imagen inversa/complementaria dentro de cada período de tiempo.
Según una realización, cuando la pantalla es una pantalla a color, la secuencia de imagen e imagen inversa se establece mediante la multiplexación en el tiempo de una imagen fundamental con una imagen de color invertida de la misma, píxel a píxel, generando de este modo una imagen compuesta resultante en la pantalla que es sustancialmente sin características para un espectador directo de la pantalla. Cada componente de datos de color inverso puede ser generado a partir de, y en función de, un componente de datos de color correspondiente de la señal de imagen fundamental y, por lo tanto, es representativo del mismo componente de color de la imagen fundamental. Puesto que la amplitud de la señal está directamente relacionada con la intensidad del color de la imagen, aunque de manera no lineal, la amplitud de cada componente de datos de color inverso se determina en función de la amplitud de su componente de datos de color correspondiente, de tal manera que la media ponderada en el tiempo de las intensidades de color correspondientes a las amplitudes de todos los componentes de datos de color y los correspondientes componentes de datos de color inverso son sustancialmente iguales para cada componente de datos de color compuesto, correspondiente al mismo píxel. La amplitud calculada de cada componente de datos de color inverso durante una trama de visualización determinada se establece de manera que la intensidad de cada componente de color correspondiente de la imagen compuesta resultante sea sustancialmente la misma que la de todos los demás componentes de color. Puesto que los componentes de datos de color fundamental e inverso se multiplexan en el tiempo a una frecuencia suficientemente alta tal que el ojo humano no puede discernir entre ellos, las intensidades de todos los componentes de color de la imagen resultante generada por la señal de imagen compuesta parecerán ser sustancialmente las mismas para cada píxel. Como consecuencia, no hay variación visible en el color o la intensidad de un píxel a otro, y la imagen compuesta resultante parece carecer sustancialmente de características. Por lo tanto, al multiplexar en el tiempo los componentes de datos de color individuales de una señal de imagen fundamental con los correspondientes componentes de datos de color inverso, píxel a píxel, la imagen fundamental se multiplexa esencialmente en el tiempo con una imagen de color invertida calculada de la misma, para generar una imagen compuesta resultante, que es sustancialmente neutral y sin rasgos distintivos a simple vista de un observador.
Según una realización preferida de esta presentación de imágenes inversas, la imagen inversa de cada imagen anterior y/o posterior se genera de tal manera que la imagen combinada y la imagen inversa dan como resultado una imagen percibida que tiene una intensidad homogénea.
Según otra realización preferida de la invención, la pantalla física es un grupo/pantalla de diodos emisores de luz (LED). Preferentemente, la pantalla de LED es un cartel o una valla publicitaria.
Según otra realización de la invención, la escena que se graba en una o más secuencias de vídeo forma parte de un evento deportivo o de entretenimiento.
La presente invención se refiere, además, a una interfaz de control configurada para llevar a cabo el método de la invención, comprendiendo dicha interfaz de control medios para recibir o generar una señal de reloj principal, medios para generar dos o más señales de reloj secundario desfasadas en el tiempo y medios para generar señales de activación en correspondencia con dichas dos o más señales de reloj secundario desfasadas en el tiempo.
Preferentemente, la interfaz de control comprende, además, al menos una entrada que recibe una señal de reloj principal externo, al menos dos salidas secundarias para transmitir dichas señales de reloj secundario a una o más, en una realización dos o más, cámaras y al menos en salidas de activación para transmitir señales de activación a una pantalla física para mostrar diferentes conjuntos de datos de imagen en dicha pantalla física de una manera multiplexada por intervalos de tiempo.
Según una realización, la interfaz de control es una interfaz de hardware dedicada, donde dichos medios para recibir o generar una señal de reloj principal, medios para generar dos o más señales de reloj secundario desfasadas en el tiempo y medios para generar señales de activación en correspondencia con dichos dos o más señales de reloj secundario desfasadas en el tiempo se implementan, al menos en parte, en hardware en microcontroladores dedicados o FPGA.
Según otra realización, la interfaz de control está completamente implementada en software. En consecuencia, dichos medios para recibir o generar una señal de reloj principal, los medios para generar dos o más señales de reloj secundario desfasadas en el tiempo y los medios para generar señales de activación en correspondencia con dichas dos o más señales de reloj secundario desfasadas en el tiempo se implementan como un programa ejecutable en un ordenador de propósito general o en componentes de hardware (FPGA, microcontroladores, tarjeta de envío, tarjetas gráficas, etc.).
Finalmente, la presente está dirigida a un sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores, que comprende al menos una pantalla física, una interfaz de control, tal como se ha descrito anteriormente, para mostrar al menos un primer y un segundo conjuntos de datos de imagen en dicha pantalla física, de una manera multiplexada por intervalos de tiempo, al menos una cámara para recodificar una escena que incluye dicha visualización física en correspondencia con dicho primer conjunto de datos de imagen, medios para generar al menos una secuencia de vídeo a partir de datos de vídeo proporcionados por dicha cámara y transmitir dicha secuencia de vídeo a un subconjunto de dichos espectadores.
A continuación, se describirá con más detalle una realización preferida de la presente invención, haciendo referencia a los dibujos adjuntos. En los dibujos,
la figura 1 muestra una descripción general esquemática de un sistema que implementa el método de la presente invención;
la figura 2 muestra una línea de tiempo de los relojes principal y secundario generados, según una primera realización del método de la invención;
la figura 3 muestra una línea de tiempo de los relojes secundarios generados, según una segunda realización del método de la invención;
la figura 4 muestra una descripción esquemática de un sistema que implementa otra realización del método de la presente invención;
la figura 5 muestra una secuencia de tramas de una unidad de cámara única utilizada en la realización de la figura 4;
la figura 6 muestra secuencias de tramas de secuencias de vídeo generadas a partir de la secuencia de vídeo de la figura 5;
la figura 7 muestra tres realizaciones alternativas para implementar la sincronización de visualización física y cámaras en el método de la presente invención;
la figura 8 muestra una primera realización de la presente invención que utiliza datos de imagen inversa;
la figura 9 muestra una segunda realización de la presente invención que utiliza datos de imagen inversa;
la figura 10 muestra una tercera realización del método de la presente invención que utiliza datos de imagen inversa; y
la figura 11 muestra una mejora para reducir el parpadeo en la pantalla física.
La presente invención se describe a continuación con más detalle haciendo referencia a un ejemplo típico, a saber, una emisión de televisión de un evento deportivo.
En la realización de la presente invención representada en la figura 1, se emplean unidades de cámara dedicadas para cada secuencia de vídeo. En consecuencia, se utiliza una multiplicidad de cámaras C1, C2, C3, C4 para proporcionar imágenes de vídeo de un evento deportivo ejemplificado por un campo de juego 10 de fútbol americano (parcialmente representado). En una línea de banda 11 del campo de juego 10, está instalada una valla publicitaria 12 que tiene una pantalla LED 13. La valla publicitaria 12 comprende un controlador 14, que controla la entrega de imágenes fijas y/o animadas al grupo de LED 13. En un esquema de emisión convencional de múltiples cámaras, las cámaras C1, C2, C3 y C4 deben estar sincronizadas para permitir cambiar de una cámara a otra. A tal efecto, las cámaras C1, C2, C3 y C4 reciben una señal de sincronización de un reloj principal 15 que forma parte de una unidad de control de televisión, por ejemplo alojada en una unidad de emisión exterior (unidad OB - Outside Broadcasting, en inglés), por ejemplo en una furgoneta de OB 16 En una emisión de televisión convencional, las cámaras C1, C2, C3 y C4 están sincronizadas con señales de reloj principal M1, M2, M3, M4 idénticas (es decir, M1 = M2 = M3 = M4). Estas señales de sincronización se pueden transmitir a las cámaras C1, C2, C3, C4 a través de las líneas L1, L2, L3 y L4, respectivamente. Tal como indican las flechas, las líneas L1, L2, L3 y L4 pueden ser bidireccionales, lo que permite no solo transmitir señales de sincronización a las cámaras C1, C2, C3 y C4, sino también señales de vídeo de las cámaras para alimentar a una furgoneta de OB 16. Por supuesto, la comunicación bidireccional entre la furgoneta de OB 16 y las cámaras C1, C2, C3 y C4 puede ser por cable o inalámbrica, o una combinación de ambas.
En una emisión de televisión convencional, las transmisiones de vídeo de las cámaras normalmente se combinan para generar una única secuencia de vídeo proporcionada a los espectadores. Por el contrario, en el método según la presente invención, las cámaras C1, C2, C3 y C4 se utilizan para generar diferentes emisiones de vídeo V1, V2, V3, V4 para diferentes subconjuntos de espectadores, por ejemplo, espectadores en diferentes países. Estas diferentes emisiones de vídeo mostrarán esencialmente la misma escena del evento, pero diferirán en la información que se muestra en el grupo de LED 13. Para permitir que diferentes cámaras graben información diferente que se muestra en el grupo de LED, las señales de reloj principal M1, M2, M3 y M4 simultáneas que son emitidas desde el reloj principal 15 no son proporcionadas directamente a las respectivas cámaras C1, C2, C3 y C4. Por el contrario, las señales de reloj principal simultáneas son proporcionadas a una interfaz 17, que permite introducir un retardo de tiempo predeterminado (cambio de fase) entre las señales de sincronización proporcionadas a las respectivas cámaras. Las señales de fase desplazada se designan como señales de reloj secundarias S1, S2, S3 y S4, respectivamente, que a continuación son transmitidas a través de las líneas bidireccionales L1 ’, L2’, L3’y L4’ a las cámaras C1, C2, C3 y C4. En el presente caso, la señal secundaria S1 corresponde a la señal de reloj principal M1, mientras que las señales S2, S3 y S4 están desfasadas en los retardos At, 2 ■ At y 3 ■ At con respecto a las correspondientes señales de reloj principal M2, M3 y M4, respectivamente.
Además, al mismo tiempo que las señales de reloj secundario S1, S2, S3 y S4, la interfaz 17 genera señales de activación T1, T2, T3 y T4 que son transmitidas a través de la línea L5 al controlador 14 del grupo de LED 13, para garantizar que las imágenes dirigidas a los subconjuntos específicos de espectadores se muestran en el grupo de LED 13 de la valla publicitaria 12 en los tiempos de activación respectivos (desplazados en fase) de las cámaras C1, C2, C3 y C4.
En una realización de la invención, una de las cámaras podría ser utilizada para mostrar el mismo conjunto de datos de imagen que está destinado a los espectadores directos presentes en el evento. En este caso, el número de conjuntos de datos de imagen correspondería al número de cámaras desfasadas entre sí. Sin embargo, en el ejemplo descrito en las figuras, se presenta un conjunto adicional de datos de imagen a los espectadores directos. En consecuencia, se proporcionan un total de cinco conjuntos de datos de imagen que se pueden mostrar en el conjunto de LED 13 en momentos específicos determinados por la interfaz 17 a través del controlador 14. A este efecto, la interfaz 17 no solo genera señales de activación T1, T2, T3, T4, sino también una señal de activación T5 que se utiliza para mostrar las imágenes del conjunto de datos de imágenes dirigidas a los espectadores directos.
Específicamente, existen cuatro conjuntos de datos de imagen dedicados a los cuatro subconjuntos respectivos de espectadores que pueden ver el evento deportivo recibiendo información o anuncios dedicados en el grupo de LED 13. La cámara C1 genera una secuencia de vídeo V1 para un primer subconjunto de espectadores, mientras que las cámaras C2, C3 y C4 generan las respectivas transmisiones de vídeo V2, V3 y V4 para el segundo, tercer y cuarto subconjunto de espectadores.
El quinto conjunto de datos de imágenes se utiliza para representar las imágenes que están destinadas a los espectadores directos que están presentes en el evento deportivo. Tal como se describió anteriormente, en una realización preferida de la invención, el grupo de LED se controla de tal manera que la mayoría de las veces, las imágenes destinadas a los espectadores directos se muestran en el grupo de LED 13.
La figura 2 representa las respectivas señales de sincronización utilizadas en el método de la invención. La figura 2a muestra una señal de reloj principal emitida a una frecuencia de 50 Hz, por ejemplo, dirigido a una grabación de vídeo de 50 tramas por segundo. Las figuras 2b, 2c, 2d y 2e corresponden a las señales de reloj secundario S1, S2, S3 y S4 generadas por la interfaz 17. Tal como se puede ver en la figura 2, cada señal secundaria se desplaza en un retardo n út, siendo n = 0, 1, 2 y 3, respectivamente. Las señales S1, S2, S3 y S4 activan los tiempos de obturación de las respectivas cámaras C1, C2, C3, C4.
Mientras el obturador de una cámara está abierto, el grupo de LED 13 muestra una imagen del conjunto respectivo de datos de imagen activado por los pulsos de activación T1, T2, T3 y T4, respectivamente.
La figura 2f representa los pulsos de activación T5 para el quinto subconjunto de datos de imagen dirigidos a los espectadores directos. En la realización actualmente descrita, estas imágenes solo se muestran en el grupo de LED cuando no hay ninguna cámara activa, pero en otras realizaciones la cámara o cámaras también pueden estar activas. Tal como se puede ver en la figura 2, la velocidad de tramas del grupo de LED es mucho más alta que la velocidad de tramas de las cámaras.
La figura 3 representa una variante del esquema de sincronización de la figura 2, donde por cada pulso de reloj secundario se generan dos pulsos de activación del grupo de LED. Los pulsos T1, T2, T3 y T4 iniciales activan la imagen real que debe grabar la cámara respectiva. Inmediatamente después de que se haya grabado una trama de vídeo, es decir, después de la terminación de las señales secundarias S1, S2, S3 y S4, respectivamente, se generan los pulsos T1 i, T2i, T3i y T4i que activan la visualización de una imagen inversa de la imagen respectiva mostrada en T1, T2, T3 y T4. La imagen y la imagen inversa se muestran a una velocidad que no se puede resolver a simple vista, lo que genera una experiencia de visualización más fluida para los espectadores directos.
Cabe señalar que, en el contexto de la presente invención, cada cámara C1, C2, C3 y C4 puede representar un grupo de cámaras, siendo cada cámara del grupo activada por la misma señal de sincronización. Por lo tanto, la secuencia de vídeo V1, V2, V3 y V4 generada por cada grupo de cámaras puede estar compuesta, por ejemplo, de alimentaciones de múltiples cámaras, por ejemplo, mostrando el evento desde diferentes ángulos.
Además, los términos señal de sincronización, señal de reloj principal, señal de reloj secundario o señal de activación y las entradas y salidas correspondientes en la interfaz de control deben ser interpretados de manera amplia. Estas señales pueden ser señales analógicas, señales digitales, o una combinación de ambas. Estas señales pueden ser señales inalámbricas o por cable. Especialmente cuando se trata de señales digitales, estas señales pueden transmitir más información, además de la información de temporización/activación. Por ejemplo, las señales de activación pueden transmitir información relativa a la visualización de una imagen particular en un conjunto particular de datos de imagen. Asimismo, aunque se ha demostrado que las cámaras C1, C2, C3, C4 están conectadas a la interfaz a través de líneas dedicadas, la salida de reloj secundario de la interfaz también puede ser una salida única, por ejemplo, un único bus de datos en el que las señales de reloj secundario S1, S2, S3 y S4 direccionadas digitalmente pueden ser transmitidas a las cámaras C1, C2, C3, C4 vinculadas al bus de datos.
La figura 4 representa esquemáticamente una realización adicional de la presente invención en una vista esquemática similar a la de la figura 1, excepto por que, en esta realización, se utiliza una única unidad de cámara C para capturar una secuencia de vídeo inicial de alta velocidad de tramas de una escena que incluye la pantalla de LED 13 de una valla publicitaria 12 dispuesta en una línea de banda 11 de un campo de juego 10 de fútbol americano. Una unidad de cámara C típica que se puede emplear en la presente realización es una cámara HDC 4300 comercializada por la firma Sony Corporation, que permite grabar una escena con una alta velocidad de tramas. La secuencia de vídeo de alta velocidad de tramas, HFR (High Frame Rate, en inglés) (véase la figura 5) es transmitida a través de un primer cable óptico 20 hacia una primera conexión 21 de una unidad de procesamiento intermedia 22. La unidad de procesamiento intermedia 22 comprende un puente de información 23 para conectar la primera conexión 21 a una segunda conexión 24 que se puede utilizar para conectar la unidad de procesamiento intermedia 22 a través de un segundo cable óptico 25 a una unidad de control de cámara (CCU) 26. La unidad de control de cámara 26 tiene entradas/salidas adicionales 28 para señales tales como controles de cámara externa, recuento, apuntador, vídeo de retorno, etc. Una unidad de procesamiento intermedia 22 adecuada es, por ejemplo, una unidad de proceso de banda base (BPU - Baseband Process Unit, en inglés), tal como la BPU 4000 comercializada por la firma Sony Corporation. La unidad de procesamiento intermedia 22 comprende, además, un procesador de vídeo 27 para convertir y enrutar la secuencia de vídeo inicial de alta velocidad de tramas a una pluralidad de salidas físicas de SDI O1, O2, O3, etc. Las salidas de SDI O1, O2, O3, etc. secuencias de vídeo de velocidad normal de tramas, NFR (Normal Frame Rate, en inglés) (véase la figura 6).
La unidad de cámara C recibe una señal de reloj principal M de un reloj principal 15 ya sea directamente (no representada) o a través de una línea 29 que conecta el reloj principal 15 a la unidad de control de cámara 26 y cables ópticos 25, 20.
La señal de reloj principal M también es proporcionada a una interfaz 17 a través de la línea 30. La interfaz 17 recibe datos de imagen a través de la entrada de datos de imagen 31 y genera señales de activación T según las cuales los datos de imagen son transmitidos a través de la línea 32 a la pantalla LED 13, donde los datos de imagen se muestran según las señales de activación T. Las señales de activación T son seleccionadas de tal manera que las tramas posteriores grabadas por la unidad de cámara puedan mostrar la escena grabada con diferentes datos de imagen mostrados en la pantalla de LED 13. Por supuesto, los datos de imagen también pueden ser transmitidos almacenados previamente en un medio de almacenamiento de la pantalla 13 y/o de la interfaz 17. Además, la interfaz 17 puede formar parte de la valla publicitaria 12 de modo que la línea 32 forme parte del circuito interno de la valla publicitaria 12.
Sin embargo, cabe señalar que la unidad de control de cámara 26 no es esencial para el método de la presente invención, debido a que la unidad de cámara C puede emplear su unidad de control dedicada o incluso tener implementados los controles necesarios en la misma. El propósito principal de la unidad de procesamiento intermedia 22 es dividir las tramas que provienen de la unidad de cámara C de alta velocidad de tramas en secuencias de vídeo separadas en las salidas de SDI O1, O2, O3, etc. de la unidad de procesamiento intermedia 22, tal como se describe con más detalle a continuación.
La figura 5 muestra una secuencia de tramas de un vídeo de alta velocidad de tramas, HFR, grabado por la unidad de cámara C con tres veces la frecuencia normal de tramas (50 Hz), es decir, con 150 Hz. En consecuencia, se graban tres tramas fi.1, fi.2, fi.3 durante un intervalo de tiempo de 1/50 s (20 ms). La figura 5 muestra las tramas grabadas durante un período de 60 ms, es decir, i = 1,2, 3). Las tramas son transmitidas a través del cable óptico 20 a la unidad de procesamiento intermedia 22 (BPU).
Tal como se muestra en la figura 6, el procesador de vídeo 27 de la unidad de procesamiento intermedia 22 divide la secuencia de HFR en tres secuencias de NFR, y enruta las tramas a tres salidas de SDI diferentes O1, O2, O2, de tal manera que las tramas (fn.i) son enrutadas hacia la salida Oi (i = 1, 2, 3) siendo n las tramas consecutivas de la secuencia de vídeo de HFR. Tal como se puede tomar a partir de la figura 6, las tramas 1.1, 2.1, 3.1, etc. de la secuencia inicial de vídeo de alta velocidad de tramas generan una primera secuencia de vídeo de velocidad normal de tramas NFR (estándar) a una velocidad de tramas de 50 Hz en la salida de SDI O1. Se generan secuencias de vídeo de NFR similares en las salidas O2, O3. Por consiguiente, los requisitos de ancho de banda de la secuencia inicial de vídeo de HFR son distribuidas a tres secuencias de vídeo de NFR en las tres salidas de SDI O1, O2, O3. En un esquema de transmisión convencional, las tres secuencias serán combinadas nuevamente después de la transmisión a través de líneas de transmisión de SDI estándar. No obstante, en el contexto de la presente invención, la pantalla de LED de la valla publicitaria es activada de tal manera que se muestra contenido diferente en la pantalla cuando se graban las tramas n.1, n.2 y n.3 (n = 1,2, 3, 4, 5, ...), respectivamente. Por lo tanto, las secuencias de NFR generadas en diferentes salidas de SDI se utilizan como diferentes secuencias de vídeo para diferentes audiencias.
La figura 7 representa tres métodos alternativos para implementar la sincronización de la visualización física, y una o más cámaras, en el método de la presente invención. En las realizaciones mostradas en las figuras 7a, 7b y 7c, se muestran de nuevo varios elementos ya representados en las vistas esquemáticas de las figuras. 1 y 4: las realizaciones de la figura 7 muestran una pantalla de LED 13 y una cámara C (que representa una o más cámaras) para notificar un esquema que incluye la pantalla de LED 13. Tal como también se muestra en las figuras 1 y 4, respectivamente, está dispuesta una interfaz 17 que recibe datos de imagen que se mostrarán en la pantalla de LED 13 a través de la línea de datos 31. En la realización de la figura 7, los datos de imagen son proporcionados por una unidad informática 40, que puede, por ejemplo, incluir un componente de procesamiento y almacenamiento 41 que puede comprender una o más tarjetas gráficas 42 y una o más pantallas de control 43. La unidad informática 40 comprende, asimismo, una tarjeta de envío 44 dedicada, que recibe información de imagen de la o las tarjetas gráficas del componente de procesamiento y almacenamiento 41, y transmite los datos de imagen a una tarjeta de recepción 17a correspondiente de la interfaz 17. La interfaz 17 comprende, además, matrices de puertas programables en campo (FPGA - Field Programmable Gate Arrays, en inglés), que están configuradas para enviar datos parciales de imagen a los controladores de LED 13a asociados de la pantalla de LED 13. Múltiples pantallas o paneles 13 forman la pantalla completa de una valla publicitaria (señal de referencia 12 en las figuras 1 y 4).
La realización de las figuras 7a a 7c difieren en la manera en que la secuencia de datos de imagen representada en la pantalla de LED 13 se sincroniza con la cámara C. En la realización de la figura 7a, el reloj principal 15 activa la cámara C y las FPGA de la interfaz 17. Cabe señalar que cada FPGA debe estar conectada al reloj principal, por lo que el cableado correspondiente es costoso y complicado. En la realización preferida de la figura 7b, las señales de activación del reloj principal 15 se dirigen a la cámara C y a la tarjeta de envío 44 que luego no solo transmite datos de imagen a la interfaz 17, sino también las señales de activación correspondientes, que serán recibidas por las diversos FPGA. En consecuencia, el cableado correspondiente para las señales de reloj es mucho más sencillo. Tal como se muestra en la figura 7c, también es posible enviar la señal del reloj principal a la tarjeta gráfica 42 del componente de procesamiento y almacenamiento 41 de la unidad informática 40. Esto requiere, no obstante, tarjetas gráficas especializadas que permiten transmitir no solo datos de imagen, sino información de activación adicional a la tarjeta de envío.
El concepto de incluir imágenes inversas en los conjuntos de datos de imagen mostrados en la pantalla física se explicará con más detalle en relación con tres realizaciones del método de la presente invención mostradas en las figuras 8, 9 y 10 respectivamente.
La figura 8 muestra en la figura 8a una representación de intervalos de tiempo en la que se muestran diferentes alimentaciones F0, F1, F2 y F3 (tramas de imagen de diferentes conjuntos de datos de imagen) en la pantalla física, según el método descrito anteriormente. En el presente ejemplo, las imágenes se muestran con una velocidad de tramas de 50 Hz, es decir, cada alimentación comprende imágenes, que son transmitidas con dicha velocidad de tramas, por lo tanto, dentro del intervalo de tiempo de 20 ms, se muestra una imagen de cada alimentación. Las imágenes de las alimentaciones 1, 2 y 3 (F1, F2, F3) están destinadas a ser transmitidas a través de una secuencia de vídeo a diferentes subconjuntos de espectadores de emisión, mientras que la alimentación 0 (F0) comprende las imágenes para que el espectador directo las vea conscientemente. Por supuesto, en la práctica, las imágenes de la alimentación F0 del espectador directo se mostrarían más largas y/o más brillantes que las alimentaciones F1, F2 y F3 del espectador de emisión. Además, para delimitar el efecto de las alimentaciones F1, F2 y F3 sobre las imágenes de la alimentación F0 percibidas por los espectadores directos, el método de la presente invención sugiere incluir imágenes inversas/complementarias de las alimentaciones F1, F2 y F3, representadas como imágenes C1, C2 y C3. La o las cámaras no grabarán C1, C2 y C3 para que las transmisiones emitidas no se vean afectadas, pero el espectador directo verá una combinación de F1 y C2 y F2 y C2 y F3 y C3, lo que dará como resultado inserciones breves de imágenes grises.
Según la presente invención, se insertan imágenes inversas (imágenes complementarias) tal como se describe con más detalle en relación con las figuras 8b, 8c y 8d. En consecuencia, cada alimentación comprende no solo los datos de la imagen real, que son capturados por una cámara de vídeo, sino también las imágenes inversas (correctivas/complementarias) correspondientes (C1, C2, C3) que no están destinadas a ser capturadas por la cámara de vídeo, sino que serán vistas solo por los espectadores directos. Esto se ejemplifica en la figura 8b para una trama de imagen de la alimentación 1 (F1) seguida de una imagen inversa (C1) correspondiente. Tal como se puede tomar de las figuras 8c y 8d, la imagen inversa (C1) mostrada en la figura 8d se calcula sobre la base de la imagen transmitida (F1) mostrada en la figura 8c, que debe ser llenada hasta un valor máximo (Imax).
Cabe señalar que, en las figuras 8b, c y d, los intervalos de tiempo posteriores representan los tiempos posteriores, pero dentro de cada intervalo de tiempo, la variación de la intensidad espacial dentro del área de visualización se
representa esquemáticamente tal como se indica mediante un vector espacial bidimensional aunque en las presentes representaciones esquemáticas solo se representa una dimensión.
La figura 9 muestra una segunda realización del método de la presente invención que utiliza datos de imagen inversa donde las imágenes inversas se calculan sobre la base de datos de imagen de más de una alimentación. En el ejemplo de la figura 9, las alimentaciones 1 y 2 (F1, F2) son combinadas, y se genera una imagen inversa correspondiente sumando las alimentaciones 1 y 2 y calculando la imagen inversa C1+2 sobre la base de la diferencia requerida para obtener un valor homogéneo de la intensidad máxima (figura 9a). En el ejemplo, se crea una suma de imágenes de las alimentaciones F1 y F2 y se determina el valor de la intensidad máxima Imax (figura 9b). A partir de esta imagen de suma combinada, se calcula la imagen inversa/complementaria C1+2 (figura 9c).
La figura 10 muestra una realización, en la que la imagen inversa se muestra junto con las imágenes del conjunto de datos de imagen destinados a los espectadores directos (alimentación F0). Por consiguiente, tal como se puede tomar a partir de la figura 10a, la imagen inversa corrC1+2 puede ser visualizada durante un período de tiempo prolongado, lo que permite utilizar intensidades más bajas para las imágenes inversas. Tal como se puede tomar a partir de las figuras 10a y 10b, en esta realización, la alimentación F0 también se transmite sin corrección de datos de imagen corrC1+2 permitiendo, de este modo, que los datos de imagen visualizados por los espectadores directos también sean transmitidos a los espectadores de vídeo en un canal de vídeo sin perturbaciones. Esta alimentación F0 sin perturbaciones no es necesaria cuando los datos de imagen que ven los espectadores directos no tienen que ser transmitidos a través de una secuencia de vídeo.
Tal como se puede tomar a partir de las figuras 10c, 10d y 10e, los datos de imagen inversa correctiva combinados para las alimentaciones F1 y F2, es decir, los datos de imagen que no serán percibidos por los espectadores directos, se calculan inicialmente de manera similar a la realización de la figura 9, es decir, se calcula la suma de ambas alimentaciones F1 F2 (figura 10c) y la imagen inversa C1+2 se puede obtener como la diferencia con la intensidad máxima Imax (figura 10d). Puesto que C1+2 se muestra durante un período de tiempo prolongado, C1+2 se divide por el período de tiempo y la intensidad de corriente empleada para transmitir la imagen inversa, de modo que las intensidades resultantes puedan ser más bajas para los datos de imagen correctiva corrC1+2 (figura 10e). Los datos de imagen reales transmitidos en el cuarto intervalo de tiempo en las representaciones de las figuras 10a a 10e son una señal obtenida sumando los datos de imagen de la alimentación F0 a los datos de imagen ponderados (figura 10e) de los datos de imagen inversa de la figura 10d.
La figura 11 muestra un esquema mejorado para presentar datos de imagen y datos de imagen inversa de una manera que reduce al mínimo el parpadeo para los espectadores directos.
La realización de la figura 11 se basa en la suposición de que la velocidad normal de tramas de las secuencias de vídeo transmitidas con el método de la presente invención corresponde a 50 Hz. En esta realización, se emplean cuatro conjuntos diferentes de datos de imagen: un conjunto de datos de imagen (alimentación F0) está destinado a ser visto conscientemente por los espectadores directos; tres alimentaciones adicionales (F1, F2, F3) están destinadas a ser vistas conscientemente solo por los espectadores de retransmisiones. En la realización representada, los datos de imagen de la alimentación F0 también son transmitidos a un subconjunto de espectadores de emisión. En consecuencia, se emplea una cámara (o cámaras) que permiten capturar vídeo a una velocidad de tramas de 200 Hz, de modo que la cámara pueda capturar cuatro tramas diferentes (una trama de imagen para cada secuencia de vídeo a transmitir) dentro del período de tiempo de 20 ms de la frecuencia de imagen estándar de 50 Hz.
Con el fin de reducir al mínimo la influencia sobre la percepción de la alimentación F0 por parte de los espectadores directos, la presente invención sugiere que cada trama destinada a ser vista solo por los espectadores de emisión va seguida de una trama que representa una imagen inversa, generada, por ejemplo, tal como se ha descrito junto con la figura 8. Sin embargo, aun así, una velocidad de tramas de 50 Hz, la alimentación F0 destinada a ser vista conscientemente por los espectadores directos, todavía es propensa a parpadear.
La realización del método de la presente invención representada en la figura 11 permite minimizar el parpadeo de las imágenes presentadas a los espectadores directos, aumentando la velocidad de tramas percibida de las imágenes del conjunto de imágenes de alimentación F0 presentadas a los espectadores directos. Tal como se muestra, cada trama de datos de imagen para los espectadores directos se muestra en varias veces antes del final o después de cada trama de datos de imagen para los espectadores de la emisión. En la realización de la figura 11, el período de tiempo de 20 ms de la velocidad de tramas estándar de 50 Hz se subdivide en 16 intervalos de tiempo, denominados intervalos S1, S2, S3, S4 ..., S15 y S16. Por consiguiente, cada intervalo de tiempo tiene una longitud de 1,25 ms, y 4 intervalos de tiempo constituyen un período de 5 ms, es decir, la velocidad de tramas de 200 Hz de la cámara empleada en la realización. Por consiguiente, los datos de imagen de la alimentación F0 destinados a ser vistos conscientemente por los espectadores directos se presentan en los intervalos de tiempo S1, S2, S3, S4. El intervalo de tiempo S1 es también el primer intervalo de tiempo grabado por la cámara. Los intervalos de tiempo en los que está activada la grabación de la cámara se indican con el símbolo “R” (Recording, en inglés) en la figura 11. En el intervalo de tiempo S5, una trama de imagen de la señal F1 destinada únicamente a los espectadores de la emisión se representa en la pantalla física 13, y también se graba mediante la cámara (ver símbolo “R”). El intervalo de tiempo S6 muestra la imagen complementaria/inversa C1 de la imagen de la señal F1, y no es grabada por la cámara. Sin embargo, para los espectadores directos, la combinación rápida de las tramas F1 y C1 da como resultado una imagen gris, apenas perceptible, que no perturba la percepción de la alimentación F0 principal destinada a los espectadores directos. A continuación, en los intervalos S7 y S8, se presentan de nuevo dos tramas de la alimentación F0 antes de que se presenten los datos de imagen F2 y los datos de imagen complementarios C2 en los intervalos S9 y S10. Los intervalos S11 y S12 muestran nuevamente los datos de imagen de la alimentación F0, mientras que los intervalos S13 y S14 muestran los datos de imagen F3 y los datos de imagen complementarios C3 de la tercera alimentación para los espectadores de la emisión. Los intervalos S15 y S16 están dedicados nuevamente a la alimentación F0 para los espectadores de la emisión.
En consecuencia, los datos de imagen de la alimentación F0 destinados a ser vistos por los espectadores directos se presentan a una velocidad de tramas más alta, minimizando de este modo cualquier parpadeo.
Una ventaja adicional es si las intensidades de los datos de imagen presentados a los espectadores directos (F0) son más altas que las intensidades de las imágenes presentadas a los espectadores de emisión (F1, F2, F3), con el fin de reducir la intensidad mínima mostrada en la pantalla física 13 a un valor gris oscuro/casi negro (suponiendo que la sensibilidad de las cámaras empleadas sea suficientemente alta). Esto también reducirá aún más cualquier distorsión de la percepción para los espectadores directos. En dicha realización, también es posible reducir las intensidades de la imagen presentada en el intervalo S1 al mismo nivel que las intensidades de las imágenes destinadas a los espectadores de la emisión, de modo que no se requiera ninguna adaptación especial de la cámara para la secuencia de vídeo basada en la alimentación F0. La reducción de la intensidad en un intervalo de cada 10 intervalos que tienen datos de imagen para los espectadores directos todavía no afecta de manera notable a la intensidad general percibida por los espectadores directos.
Por supuesto, se pueden diseñar esquemas similares para diferentes velocidades de trama estándar, tales como 25 Hz o 60 Hz.

Claims (15)

REIVINDICACIONES
1. Un método para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores, que comprende:
generar al menos dos conjuntos diferentes de datos de imagen, comprendiendo cada conjunto de datos de imagen una secuencia de imágenes individuales;
mostrar las imágenes de dichos al menos dos conjuntos de datos de imagen de una manera multiplexada por intervalos de tiempo en dicha pantalla física, comprendiendo al menos un conjunto de datos de imagen de dichos dos conjuntos de datos de imagen una secuencia de imágenes e imágenes inversas;
generar al menos una secuencia de vídeo de una escena que incluye dicha pantalla física, consistiendo dicha secuencia de vídeo en tramas de vídeo capturadas con una velocidad de tramas superior a 20 Hz de manera síncrona con la visualización de las imágenes de uno de dichos al menos dos conjuntos de datos de imagen en dicha pantalla física, en donde dicha secuencia de vídeo no incluye imágenes inversas; y
transmitir dicha secuencia de vídeo a un subconjunto de dichos espectadores.
2. El método de la reivindicación 1, en el que la imagen inversa de cada imagen anterior y/o posterior de un conjunto de datos de imagen se genera de manera que la imagen combinada y la imagen inversa dan como resultado una imagen percibida que tiene una intensidad homogénea y/o un valor de gris homogéneo.
3. El método de la reivindicación 1, en el que la imagen inversa de imágenes anteriores y/o posteriores de más de un conjunto de datos de imagen se genera de manera que las imágenes combinadas de dicho conjunto de más de un conjunto de datos de imagen y la imagen inversa correspondiente dan como resultado una imagen percibida que tiene una intensidad homogénea y/o un valor de gris homogéneo.
4. El método de una de las reivindicaciones 1 a 3, en el que dichos al menos dos conjuntos de datos de imagen diferentes comprenden un conjunto de datos de imagen para ser vistos por un subconjunto de usuarios directamente en dicha pantalla física, en donde dicha imagen inversa se genera, preferentemente, incluyendo datos de imagen de dicho conjunto de datos de imagen para ser vistos por dicho subconjunto de usuarios directamente en dicha pantalla física.
5. El método de una de las reivindicaciones 1 a 4, en el que al menos uno de dichos al menos dos conjuntos de datos de imagen diferentes comprende un conjunto de datos de imagen monocromática, en donde al menos un subconjunto de dichas imágenes inversas se genera, preferentemente, sobre la base de dicho conjunto de datos de imágenes monocromáticas.
6. El método de la reivindicación 4, en el que el conjunto de datos de imagen para los espectadores directos se muestra a una frecuencia más alta en dicha pantalla física que el conjunto (o que cada uno de los conjuntos) de datos de imagen para los espectadores de la emisión, en donde cada trama de datos de imagen para los espectadores directos se muestra, preferentemente, en múltiples intervalos de tiempo antes y/o después de cada trama de datos de imagen para los espectadores de la emisión.
7. El método de una de las reivindicaciones 1 a 6, en el que se genera una secuencia de vídeo para cada conjunto de datos de imagen visualizados en dicha pantalla física.
8. El método de una de las reivindicaciones 1 a 7, que comprende generar señales de sincronización que activan la visualización simultánea de imágenes de dicho al menos un conjunto de datos de imagen en dicha pantalla física, y capturar tramas de vídeo de la secuencia de vídeo asociada a dicho conjunto de datos de imagen, en donde dichas señales de sincronización se basan, preferentemente, en un reloj principal, correspondiente a la velocidad de tramas de dicha secuencia de vídeo, comprendiendo dichas señales de sincronización, preferentemente, relojes secundarios obtenidos desplazando dicho reloj principal en un retardo específico para cada secuencia de vídeo.
9. El método de una de las reivindicaciones 1 a 8, en el que la pantalla física es una pantalla de LED, en el que la pantalla de LED es, preferentemente, un cartel o una valla publicitaria.
10. El método de una de las reivindicaciones 1 a 9, en el que dicha escena forma parte de un evento deportivo o de un evento de entretenimiento.
11. Una interfaz de control (17), configurada para llevar a cabo el método de una de las reivindicaciones 1 a 10, que comprende medios para recibir o generar una señal de reloj principal, medios para generar dos o más señales de reloj secundario desfasadas en el tiempo y medios para generar señales de activación en correspondencia con dichas dos o más señales de reloj secundario desfasadas en el tiempo.
12. La interfaz de control de la reivindicación 11, que comprende, además, al menos una entrada (M1, M2, M3, M4), que recibe una señal de reloj principal externo, al menos dos salidas secundarias (S1, S2, S3, S4), para transmitir dichas señales de reloj secundario a dos o más cámaras (C1, C2, C3, C4), y al menos en las salidas de activación (T1, T2, T3, T4, T5) para transmitir señales de activación a una pantalla física (12, 13), para mostrar diferentes conjuntos de datos de imagen en dicha pantalla física (12, 13) de una manera multiplexada dividida en el tiempo.
13. La interfaz de control de una de las reivindicaciones 11 o 12, en la que dichos medios para recibir o generar una señal de reloj principal, medios para generar dos o más señales de reloj secundario desfasadas en el tiempo y medios para generar señales de activación en correspondencia con dichas dos o más tiempos señales de reloj secundario desfasadas en el tiempo están implementados, al menos en parte, mediante hardware, en microcontroladores dedicados.
14. La interfaz de control de una de las reivindicaciones 11 o 12, en la que dichos medios para recibir o generar una señal de reloj principal, medios para generar dos o más señales de reloj secundario desfasadas en el tiempo y medios para generar señales de activación en correspondencia con dichas dos o más señales de reloj secundario desfasadas en el tiempo están implementados como un programa ejecutable en un ordenador de propósito general.
15. Un sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores, que comprende:
al menos una pantalla física (12,13),
una interfaz de control (17), según una de las reivindicaciones 11 a 14, para mostrar al menos un primer y un segundo conjunto de datos de imagen en dicha pantalla física (12, 13) de una manera multiplexada dividida en el tiempo,
al menos una cámara (C1, C2, C3, C4), para grabar una escena que incluye dicha pantalla física (12, 13) en correspondencia con dicho primer conjunto de datos de imagen,
medios para generar al menos una secuencia de vídeo a partir de datos de vídeo proporcionados por dicha al menos una cámara (C1, C2, C3, C4); y
transmitir dicha secuencia de vídeo a un subconjunto de dichos espectadores.
ES18701058T 2017-01-27 2018-01-29 Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores Active ES2899651T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP17153512.3A EP3355586A1 (en) 2017-01-27 2017-01-27 Method and system for transmitting alternative image content of a physical display to different viewers
EP17206147 2017-12-08
EP17210553 2017-12-22
PCT/EP2018/052177 WO2018138366A1 (en) 2017-01-27 2018-01-29 Method and system for transmitting alternative image content of a physical display to different viewers

Publications (1)

Publication Number Publication Date
ES2899651T3 true ES2899651T3 (es) 2022-03-14

Family

ID=61017943

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18701058T Active ES2899651T3 (es) 2017-01-27 2018-01-29 Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores

Country Status (8)

Country Link
US (3) US10834443B2 (es)
EP (2) EP3574652B1 (es)
JP (1) JP6921966B2 (es)
CN (1) CN110226329B (es)
AU (1) AU2018211533B2 (es)
CA (1) CA3049732C (es)
ES (1) ES2899651T3 (es)
WO (2) WO2018138367A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUE061085T2 (hu) 2010-09-20 2023-05-28 Fraunhofer Ges Forschung Eljárás háttér és elõtér megkülönböztetésére egy jelenetben, valamint eljárás egy jelenetben képek hátterének helyettesítésére
JP6178099B2 (ja) 2013-04-05 2017-08-09 ソニー株式会社 中間ユニットおよびカメラシステム
JP7212611B2 (ja) * 2017-02-27 2023-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
US11582493B2 (en) 2018-07-27 2023-02-14 Appario Global Solutions (AGS) AG Method and system for dynamic image content replacement in a video stream
AU2019309167A1 (en) * 2018-07-27 2021-01-14 Appario Global Solutions (AGS) AG Method and system for transmitting alternative image content of a physical display to different viewers
WO2020053416A1 (en) 2018-09-13 2020-03-19 Appario Global Solutions (AGS) AG Method and device for synchronizing a digital photography camera with alternative image content shown on a physical display
JP6800930B2 (ja) * 2018-09-28 2020-12-16 キヤノン株式会社 通信装置、その制御方法、およびそのプログラム
KR102622082B1 (ko) 2018-11-19 2024-01-09 삼성전자주식회사 디스플레이 장치, 서버, 전자 장치 및 그 제어 방법들
BE1027296B1 (nl) * 2019-06-07 2021-02-05 Stereyo Akoestisch studio scherm
CN110225265A (zh) * 2019-06-21 2019-09-10 深圳市奥拓电子股份有限公司 视频转播过程中的广告替换方法、系统及存储介质
CN110677559B (zh) * 2019-09-10 2021-07-09 深圳市奥拓电子股份有限公司 一种区别显示转播视频的方法、装置及存储介质
DE102019220278A1 (de) * 2019-12-19 2021-06-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Anzeige von Videos
EP4104164A1 (en) 2020-02-10 2022-12-21 Appario Global Solutions (AGS) AG Method and device for reducing motion blur on displays
WO2022112579A2 (en) * 2020-11-29 2022-06-02 Appario Global Solutions (AGS) AG Method and system for capturing images
US11423828B2 (en) * 2020-12-28 2022-08-23 Texas Instruments Incorporated Light-emitting diode (LED) brightness non-uniformity correction for LED display driver circuit
CN113115073B (zh) * 2021-04-12 2022-09-02 宜宾市天珑通讯有限公司 可降干扰的图像编码方法、系统、设备及介质
EP4131234A1 (en) 2021-08-05 2023-02-08 Appario Global Solutions (AGS) AG Method and system for operating an active display
WO2022233799A2 (en) 2021-05-02 2022-11-10 Appario Global Solutions (AGS) AG Method and system for operating an active display
US11651518B2 (en) * 2021-06-03 2023-05-16 Meta Platforms Technologies, Llc System for determining an expected field of view
US11924560B2 (en) * 2021-07-14 2024-03-05 Stereyo Bv Methods for improved camera view in studio applications
EP4287630A1 (en) 2022-06-02 2023-12-06 Pucki GmbH Method for producing a video stream
WO2023175114A1 (en) 2022-03-16 2023-09-21 Pucki Gmbh Method for producing a video stream
TWI820832B (zh) * 2022-07-28 2023-11-01 大陸商北京集創北方科技股份有限公司 可與拍攝同步之led顯示方法、led顯示驅動晶片及led顯示裝置
US20240203321A1 (en) * 2022-12-19 2024-06-20 Stereyo Bv Configurations, methods, and devices for improved visual performance of a light-emitting element display and/or a camera recording an image from the display

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2305051B (en) * 1995-09-08 2000-06-21 Orad Hi Tec Systems Ltd Method and apparatus for automatic electronic replacement of billboards in a video image
GB2305049B (en) * 1995-09-08 2000-06-07 Orad Hi Tec Systems Ltd Electronic billboard replacement switching system
GB9601101D0 (en) * 1995-09-08 1996-03-20 Orad Hi Tech Systems Limited Method and apparatus for automatic electronic replacement of billboards in a video image
US20020144263A1 (en) 2000-08-31 2002-10-03 Eldering Charles A. Grouping of advertisements on an advertising channel in a targeted advertisement system
US20060244839A1 (en) 1999-11-10 2006-11-02 Logitech Europe S.A. Method and system for providing multi-media data from various sources to various client applications
JP2002041955A (ja) * 2000-07-27 2002-02-08 Mitsubishi Electric Corp スポーツ中継における広告配信システム及び広告配信方法
WO2002078328A1 (fr) * 2001-03-26 2002-10-03 Fujitsu Limited Processeur d'informations multicanal
US6980177B2 (en) * 2001-08-03 2005-12-27 Waterstrike Incorporated Sequential inverse encoding apparatus and method for providing confidential viewing of a fundamental display image
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
WO2004066620A1 (en) * 2003-01-20 2004-08-05 Nexvi Corporation Device and method for outputting a private image using a public display
CN2671257Y (zh) * 2003-12-10 2005-01-12 深圳创维-Rgb电子有限公司 彩电agc自动调节装置
WO2005112476A1 (en) 2004-03-08 2005-11-24 Robert Gibson Multi-play theatre
GB2437575A (en) * 2006-04-27 2007-10-31 Andrew Peter Phelan Audience-specific image display
WO2008015905A1 (fr) * 2006-08-02 2008-02-07 Nec Corporation Dispositif de traitement d'image, dispositif d'affichage et système d'affichage d'image
JP5047607B2 (ja) 2006-12-26 2012-10-10 パナソニック株式会社 ストリーム記録装置、ストリーム記録方法、記録システム、および記録再生システム
CN101236717B (zh) 2007-02-01 2010-09-15 明基电通股份有限公司 动态图像数据序列产生方法及动态图像显示装置
US20100079676A1 (en) * 2008-09-29 2010-04-01 International Business Machines Corporation Providing Multi-User Views
WO2010118179A1 (en) * 2009-04-07 2010-10-14 Clearslide, Inc. Mixed content type presentation system
CN101572819B (zh) * 2009-06-03 2011-09-14 北京航空航天大学 一种基于量化dct系数零值索引的可逆图像水印方法
CN102065060B (zh) * 2009-11-16 2013-09-11 华为技术有限公司 媒体流切换同步方法和流媒体服务器
US20110134231A1 (en) * 2009-11-20 2011-06-09 Hulvey Robert W Method And System For Synchronizing Shutter Glasses To A Display Device Refresh Rate
US8704903B2 (en) * 2009-12-29 2014-04-22 Cognex Corporation Distributed vision system with multi-phase synchronization
WO2011097252A2 (en) * 2010-02-02 2011-08-11 Pixtronix, Inc. Methods for manufacturing cold seal fluid-filled display apparatus
WO2012033963A2 (en) * 2010-09-10 2012-03-15 Thomsen Liscensing Methods and apparatus for decoding video signals using motion compensated example-based super-resolution for video compression
HUE061085T2 (hu) 2010-09-20 2023-05-28 Fraunhofer Ges Forschung Eljárás háttér és elõtér megkülönböztetésére egy jelenetben, valamint eljárás egy jelenetben képek hátterének helyettesítésére
US9413923B2 (en) 2011-01-24 2016-08-09 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
US9521398B1 (en) * 2011-04-03 2016-12-13 Gopro, Inc. Modular configurable camera system
CN102710361B (zh) * 2012-06-01 2015-09-30 华为技术有限公司 一种分布式基站信号传输系统及通信系统
US8674736B2 (en) * 2012-07-31 2014-03-18 Fujitsu Limited Clock synchronization circuit
CN102984592B (zh) * 2012-12-05 2018-10-19 中兴通讯股份有限公司 一种数字媒体内容播放转移的方法、装置和系统
CN203072168U (zh) * 2013-03-04 2013-07-17 深圳市睿海智电子科技有限公司 一种传感节点
EP2787741A1 (en) * 2013-04-05 2014-10-08 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Video processing system and method
US9373306B2 (en) * 2014-03-25 2016-06-21 Intel Coporation Direct viewer projection
JP6378606B2 (ja) * 2014-10-20 2018-08-22 キヤノン株式会社 通信装置、その制御方法、およびプログラム
EP3043558B1 (en) * 2014-12-21 2022-11-02 Production Resource Group, L.L.C. Large-format display systems having color pixels and white pixels
US9270941B1 (en) * 2015-03-16 2016-02-23 Logitech Europe S.A. Smart video conferencing system
WO2016154123A2 (en) * 2015-03-21 2016-09-29 Mine One Gmbh Virtual 3d methods, systems and software
US10291681B2 (en) * 2015-06-18 2019-05-14 Ericsson Ab Directory limit based system and method for storing media segments
CN105472399B (zh) * 2015-11-20 2019-04-05 深圳市奥拓电子股份有限公司 一种转播视频与现场显示视频分离方法及装置
CN106921456B (zh) * 2015-12-24 2018-06-19 中国科学院沈阳自动化研究所 基于ptp协议的多跳无线回程网络时间同步误差补偿方法
CN105704655A (zh) * 2016-03-29 2016-06-22 北京小米移动软件有限公司 终端之间的媒体数据共享方法及装置
FR3066671B1 (fr) * 2017-05-18 2020-07-24 Darmon Yves Procede d'incrustation d'images ou de video au sein d'une autre sequence video
EP3706422A4 (en) * 2017-11-02 2020-09-09 Sony Corporation SENDING DEVICE, SENDING METHOD, RECEIVING DEVICE, AND RECEIVING METHOD
WO2019229926A1 (ja) * 2018-05-31 2019-12-05 Necディスプレイソリューションズ株式会社 表示システム、表示方法およびプログラム
US11234044B2 (en) * 2018-12-28 2022-01-25 Sony Group Corporation Transmission apparatus, transmission method, encoding apparatus, encoding method, reception apparatus, and reception method

Also Published As

Publication number Publication date
JP2020505869A (ja) 2020-02-20
JP6921966B2 (ja) 2021-08-18
CN110226329A (zh) 2019-09-10
CA3049732A1 (en) 2018-08-02
AU2018211533B2 (en) 2020-08-27
US20230020750A1 (en) 2023-01-19
US10834443B2 (en) 2020-11-10
AU2018211533A1 (en) 2019-07-25
US11825137B2 (en) 2023-11-21
CA3049732C (en) 2021-11-23
EP3574651B2 (en) 2024-07-03
WO2018138366A1 (en) 2018-08-02
EP3574651A1 (en) 2019-12-04
WO2018138367A1 (en) 2018-08-02
EP3574651B8 (en) 2021-12-15
US11457252B2 (en) 2022-09-27
CN110226329B (zh) 2021-09-21
EP3574651B1 (en) 2021-09-01
US20190394504A1 (en) 2019-12-26
US20190364309A1 (en) 2019-11-28
EP3574652A1 (en) 2019-12-04
EP3574652B1 (en) 2024-06-19

Similar Documents

Publication Publication Date Title
ES2899651T3 (es) Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores
US11490137B2 (en) Method and system for transmitting alternative image content of a physical display to different viewers
US8456516B2 (en) Methods and systems for stereoscopic imaging
ES2973534T3 (es) Método y dispositivo para sincronizar una cámara de fotografía digital con contenido de imagen alternativo mostrado en una pantalla física
ES2932728T3 (es) Método y sistema para el reemplazo dinámico de contenido de imagen en un flujo de vídeo
AU2007245421A1 (en) A method and means for varying the content of a display
EP1993294B1 (en) System for stereoscopic imaging
EP3355586A1 (en) Method and system for transmitting alternative image content of a physical display to different viewers
KR101112085B1 (ko) 3d tv용 역 다중화 장치 및 방법
WO2021160703A1 (en) Method and device for reducing motion blur on displays