ES2805800T3 - Método y sistema para producir una producción de video - Google Patents

Método y sistema para producir una producción de video Download PDF

Info

Publication number
ES2805800T3
ES2805800T3 ES14742207T ES14742207T ES2805800T3 ES 2805800 T3 ES2805800 T3 ES 2805800T3 ES 14742207 T ES14742207 T ES 14742207T ES 14742207 T ES14742207 T ES 14742207T ES 2805800 T3 ES2805800 T3 ES 2805800T3
Authority
ES
Spain
Prior art keywords
component
panoramic
image
frames
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14742207T
Other languages
English (en)
Inventor
Sergi Sagas
Joan Bennassar
Antoine Valverde
Gerard Torrent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaProduccion SL
Original Assignee
MediaProduccion SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaProduccion SL filed Critical MediaProduccion SL
Application granted granted Critical
Publication of ES2805800T3 publication Critical patent/ES2805800T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Studio Circuits (AREA)
  • Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un método para generar una producción de video de un evento, el método que comprende: recibir una pluralidad de señales de video componente (122-1 ..., 122-n) de un evento, cada señal de video componente comprende una pluralidad de cuadros de imagen componente (122-11 ..., 122-1 n; 122-21 ..., 122- 2n), en donde cada cuadro de imagen componente corresponde a una sección de una vista panorámica del evento; unir los cuadros de imagen componente correspondientes temporalmente de cada señal de video componente para generar una pluralidad de cuadros de imagen panorámica (220-1 ..., 220-n); seleccionar una sección (222-1 ..., 222-n) de cada cuadro de imagen panorámica con base en reglas y condiciones predefinidas asociadas con el evento para generar una pluralidad de cuadros de imagen de salida (320-1 ..., 320-n); y generar una producción de video (420) a partir de la pluralidad de cuadros de imagen de salida; en donde la etapa de selección incluye, además, identificar una pluralidad de objetos de la imagen en al menos un cuadro de imagen panorámica, y en donde una de las reglas y condiciones predefinidas es seleccionar una sección del al menos un cuadro de imagen panorámica que contiene los objetos de la imagen; extraer datos de fondo de al menos uno de los cuadros de imagen panorámica, en donde la etapa de identificación se basa al menos en los datos de fondo extraídos; y determinar un mapa de densidad de los objetos de la imagen de al menos uno de los cuadros de imagen panorámica para indicar un área del cuadro de imagen panorámica donde un gran número de los objetos de la imagen están muy cerca entre sí, en donde la etapa de selección se basa al menos en el mapa de densidad.

Description

DESCRIPCIÓN
Método y sistema para producir una producción de video
La presente invención se refiere a un método y un sistema para generar una producción de video.
En modalidades, la presente invención se refiere en particular a un método y un sistema para generar un video panorámico para su uso para generar una producción de video de un evento de interés público con mínima o nula intervención del operador y/o en tiempo real cuando ocurre un evento
La cobertura televisiva de muchos eventos de interés público, que incluyen los eventos deportivos tales como los partidos de fútbol (soccer), generalmente requiere muchas cámaras de video y muchos operadores de cámara. En el ejemplo de un partido de fútbol (soccer), cada camarógrafo que opera una cámara seguiría la acción dentro y fuera del campo de juego, ya sea al panoramizar o acercar la cámara de video para rastrear el balón de fútbol, los jugadores o los espectadores mientras se mueven alrededor y fuera del campo de juego. Las señales de video de las imágenes capturadas se transmitirían luego a un centro de control, donde un director puede ver las imágenes de cada señal de video. El director también puede comunicarse con los camarógrafos para proporcionar instrucciones sobre cómo se debe operar una cámara en particular y puede seleccionar o combinar las señales de video para producir una presentación para su transmisión. Tal operación de transmisión necesariamente requiere una gran cantidad de mano de obra, equipo y soporte técnico; todo lo cual se suma a los costos financieros de producir la transmisión. En particular, los equipos tales como la óptica de gran angular utilizada para capturar un amplio campo de visión de un evento pueden ser prohibitivamente costosos.
Para eventos a gran escala con suficiente respaldo financiero, la gran cantidad de recursos necesarios para producir una transmisión de video no es una preocupación importante. Sin embargo, para eventos a pequeña escala o eventos con respaldo financiero limitado, los costos prohibitivamente altos de la producción de transmisión generalmente significa que el evento no está cubierto y, por lo tanto, no se televisa.
Para los organizadores de eventos a pequeña escala o eventos que no disfrutan de una gran popularidad, poder televisar un evento en muchos casos aumentaría la exposición del evento o de los organizadores. A su vez, el aumento de la exposición atrae el interés público, lo que puede servir para elevar el perfil del evento y, posteriormente, puede utilizarse para atraer patrocinadores y financiamiento.
Por lo tanto, existe la necesidad de un método y un sistema mejorados para reducir los costos y los recursos necesarios para producir una producción de video de un evento que sea apto para la transmisión.
Los documentos US-A-2008143842 y US-A-2013070047 cada uno describe un método para generar una producción de video de un evento, el método comprende: recibir una pluralidad de señales de video componente de un evento, cada señal de video componente que comprende una pluralidad de cuadros de imagen componente, en donde cada cuadro de imagen componente corresponde a una sección de una vista panorámica del evento; unir los cuadros de imagen componente temporalmente correspondientes de cada señal de video para generar una pluralidad de cuadros de imagen panorámica; seleccionar una sección de cada cuadro de imagen panorámica con base en al menos una condición predefinida asociada con el evento para generar una pluralidad de cuadros de imagen de salida; generar una producción de video a partir de la pluralidad de cuadros de imagen de salida. Los documentos US-A-2008143842 y US-A-2013070047 también describen un sistema para generar una producción de video de un evento, el sistema comprende: un módulo de captura operable para recibir una pluralidad de señales de video componente de un evento, cada señal de video componente comprende una pluralidad de cuadros de imagen componente, en donde cada cuadro de imagen componente corresponde a una sección de una vista panorámica de un evento; un módulo de unión operable para unir los cuadros de imagen temporalmente correspondientes de cada señal de video para generar una pluralidad de cuadros de imagen panorámica; un módulo de selección operable para seleccionar una sección de cada cuadro de imagen panorámica con base en al menos una condición predefinida asociada con el evento para generar una pluralidad de cuadros de imagen de salida; un módulo de producción operable para generar una producción de video a partir de la pluralidad de cuadros de imagen de salida
De acuerdo con un aspecto de la presente invención, se proporciona un método de acuerdo con la reivindicación 1. Las variaciones preferidas del método se definen en las reivindicaciones 2-5.
De acuerdo con otro aspecto de la presente invención, se proporciona un sistema de acuerdo con la reivindicación 6. Las variaciones preferidas del sistema se definen en las reivindicaciones 7-11.
Las modalidades de la presente invención se describirán de ahora en adelante, a manera de ejemplo, con referencia a los dibujos adjuntos en los que:
La Figura 1 es una ilustración de dos configuraciones de cámara de video alternativas;
La Figura 2 es un diagrama esquemático de un sistema para generar una producción de video;
La Figura 3 es una ilustración esquemática de los cuadros de imagen de una señal de video que se está uniendo a los cuadros de imagen de otra señal de video;
La Figura 4 es una ilustración esquemática de seleccionar una sección de los cuadros de imágenes panorámicas; La Figura 5 es una ilustración esquemática de una señal de video de salida; y
La Figura 6a a la Figura 6c son ilustraciones esquemáticas de producciones de video.
En la Figura 2 se muestra un sistema para generar una producción de video de un evento de acuerdo con una modalidad de la presente invención. En general, las modalidades del sistema de la presente invención comprenden una serie de módulos que están en comunicación entre sí y pueden implementarse en soporte físico o programa informático. Los módulos también se pueden implementar como módulos individuales o como submódulos de un módulo más grande. El sistema se dispone para recibir transmisiones de señales de video capturadas por varias cámaras de video ubicadas en la ubicación geográfica donde ocurre un evento, tal como un partido de fútbol (soccer).
Las cámaras de video se pueden operar de manera remota o local con una intervención humana mínima para permitir que el sistema produzca la producción de video deseada de manera automática en tiempo real. De hecho, una vez que el sistema se ha configurado, puede funcionar como se describirá a continuación sin más intervención del operador. En algunas modalidades, los flujos de señal de video pueden ser pregrabados y recibidos por el sistema después de la ocurrencia del evento. En particular, como se ilustra en la Figura 1, se pueden colocar dos cámaras de video muy próximas entre sí, ya sea una al lado de la otra como las cámaras C1 y C2 o en tándem como las cámaras C3 y C4, de modo que el campo de visión de una cámara C1 (C3) se superpone en parte con el campo de visión de la otra cámara C2 (C4). Los flujos de video individuales se pueden combinar para generar un solo flujo de video con un amplio campo de visión. De manera más general, se pueden desplegar varias cámaras de manera similar, de manera que el flujo de video generado en un amplio campo de visión cubra todo el campo de interés, tal como el campo de juego de un partido de fútbol (soccer).
Posteriormente, se puede manipular el flujo de video de amplio campo de visión. Por ejemplo, para una determinada porción del flujo de video, el flujo de video puede manipularse seleccionando una sección del campo de visión y manipularse aún más para cambiar la sección seleccionada de un cuadro de imagen a otro para simular el efecto de panorámica con una cámara de video con el mismo campo de visión de esa porción. Alternativamente, o para otra porción, el flujo de video puede manipularse seleccionando una sección, cuyo tamaño varía de cuadro de imagen a cuadro de imagen, para simular el efecto del acercamiento. Las secciones seleccionadas pueden cortarse y unirse para generar una producción de video para almacenamiento y/o transmisión.
Por lo tanto, se apreciará que el flujo de video de amplio campo de visión puede proporcionar una gran flexibilidad y permite que se produzca una variedad de producciones de video a partir de ese flujo de video. La producción de la producción de video ocurre automáticamente una vez que el sistema se ha configurado de manera que puedan evitarse los costos significativos y la complejidad de los sistemas convencionales, descritos anteriormente.
Con referencia ahora a la Figura 2, el sistema 10 de una modalidad de la presente invención comprende un módulo de captura 100, un módulo de unión 200, un módulo de selección 300 y un módulo de producción 400. Como se muestra en esta figura, cada módulo se representa como entidades individuales. Sin embargo, se apreciará que algunos módulos pueden ser submódulos de un módulo más grande. Por ejemplo, en algunas modalidades, el módulo de unión 200 y el módulo de selección 300 pueden ser submódulos de un módulo de cámara virtual 202. También se apreciará que los módulos y submódulos pueden implementarse en soporte físico o en aplicación informática.
Cuando se lleva a cabo un evento tal como un partido de fútbol (soccer), pueden implementarse varias cámaras de video de la manera descrita anteriormente para capturar el evento. En la modalidad mostrada en la Figura 2, el módulo de captura 100 se configura para recibir una o más señales de video 120 capturadas por las cámaras de video, ya sea en tiempo real directamente desde cámaras de video acopladas comunicativamente al módulo de captura 100 o por medio de pregrabar y almacenar las señales de video capturadas. El módulo de captura 100, en algunas modalidades, también se configura para convertir las señales de video recibidas 120 en un formato apropiado adecuado para su uso por el sistema 10.
Como apreciará un experto, una señal de video puede ser analógica o digital, y comprende una serie de cuadros de imagen. Un experto también apreciará que los cuadros de imagen de una señal de video tienen un ángulo/campo de visión que depende de las características de los componentes ópticos de la cámara de video, tal como la distancia focal de la lente o el tamaño del sensor de imagen.
En general, las señales de video 120 recibidas por el módulo de captura 100 comprenden cada una serie de cuadros de imagen, donde cada imagen corresponde a una vista del evento que se está capturando. Algunas de las señales de video 120 recibidas por el módulo de captura 100, tal como las señales de video componente 122-1 ... 122-n que se muestran en la Figura 2, pueden asociarse con un campo de visión panorámico. Es decir, los cuadros de imagen de una señal de video recibida por el módulo de captura 100 pueden juntarse o unirse a los cuadros de imagen temporalmente correspondientes de otra señal de video para generar una señal de video panorámica, donde los cuadros de imagen de la señal de video panorámica tienen un campo de visión que es más amplio que el campo de visión de los cuadros de imagen de cada una de las señales de video individuales. Las señales de video componente 122-1 ... 122-n pueden obtenerse de varias cámaras de video, ubicadas una al lado de la otra adyacentes entre sí o en tándem una encima de la otra, y alineadas de manera que un borde del campo de visión de una cámara corresponda a un borde del campo de visión de la cámara adyacente o de manera que el campo de visión de una cámara se superponga parcialmente con el campo de visión de la cámara adyacente.
Como se muestra en la Figura 2, el módulo de captura 100 se dispone para ser operativo para recibir una o más señales de video componente 122-1 ... 122-n, cada una de las cuales se asocia con un campo de visión panorámico. Una vez recibidas, las señales de video componente 122-1 ... 122-n pueden, en algunas modalidades, someterse a una o más etapas de preprocesamiento tales como corrección de color y calibración para igualar el tono de color y los niveles de brillo de cada señal de video. A partir de entonces, las señales de video componente 122-1 ... 122-n se pasan al módulo de unión 200, que se dispone para ser operable para combinar los cuadros de imagen correspondientes de las señales de video componente 122-1 ... 122-n para generar una señal de video panorámica. Por ejemplo, en algunas modalidades, el módulo de unión 200 recibe las señales de video componente 122-1 ... 122-n y es operable para unir los cuadros de imagen de una señal de video componente con los cuadros de imagen temporalmente correspondientes de las otras señales de video componente por cualquier método adecuado, tal como mediante el uso de homografía o la técnica de paralaje cero, para generar cuadros de imagen panorámica para la señal de video panorámica 220. La Figura 3 ilustra esquemáticamente la unión de dos cuadros de imagen temporalmente correspondientes.
En la Figura 3 se muestra esquemáticamente, un ejemplo de dos señales de video componente, la señal de video componente 122-1 compuesta de cuadros de imagen componente 122-11 ... 122-1 n y señal de video componente 122-2 compuesta por cuadros de imagen componente 122-21 ... 122-2n. En estos ejemplos, los cuadros de imagen componente 122-1 a ... 122-1 n cubren un campo de visión particular y los cuadros de imagen componente 122-21 ...
122-n cubren un campo de visión que se superpone con el campo de visión de los cuadros de imagen 122-11 ... 122-1n por una pequeña porción. En el proceso de unión, los cuadros de imagen componente de la señal de video componente 122-1 se unen con los cuadros de imagen componente temporalmente correspondientes de la señal de video componente 122-2 en la porción que se superpone para generar cuadros de imagen panorámica 220-1 ... 220-n para una señal de video panorámica 220. Como una ilustración, la Figura 3 muestra el cuadro de imagen componente 122-11 que representa una escena en un momento particular y el cuadro de imagen componente 122-21 que representa otra escena en el mismo momento en el tiempo que el cuadro de imagen componente 122-21, se superpone en la porción 122'. En el proceso de unión, el cuadro de imagen componente 122-11 y el cuadro de imagen componente 122-21 se unen en la porción que se superpone 122' para generar un cuadro de imagen panorámica 220-1 de la señal de video panorámica 220. Los otros cuadros de imagen panorámica 220-2 ... 220-n de la señal de video panorámica 220 se generan entonces de manera similar.
En algunas modalidades, la señal de video componente 122-1 y la señal de video componente 122-2 pueden experimentar una o más etapas de preprocesamiento. Por ejemplo, la configuración de exposición de la cámara usada para capturar la señal de video componente 122-1 puede diferir en una pequeña cantidad de la de la cámara de video usada para capturar la señal de video componente 122-2. En tal caso, será conveniente ajustar las imágenes representadas en las respectivas señales de video una con relación a la otra para permitir que los cuadros de imagen se unan sin problemas. En consecuencia, en estas modalidades, el módulo de unión 200 se dispone para que sea operativo para corregir la información de color de los cuadros de imagen componente de las señales de video componente a unir. Además, o alternativamente, el módulo de unión 200 también se dispone para ser operable para calibrar los niveles de brillo de los cuadros de imagen componente de las señales de video a unir. La corrección de la información de color y la calibración de los niveles de brillo antes de unir los cuadros de imagen aseguran que los colores y los niveles de brillo en un lado del cuadro de imagen panorámica coincidan con los del otro lado del cuadro de imagen panorámica para que la costura en la que cuadros de imagen se unen sea tan imperceptible como sea posible.
Se apreciará que, aunque solo se muestran dos señales de video componente 122-1, 122-2 en la Figura 3, cualquier cantidad de señales de video componente adecuadamente alineadas 122-1 ... 122-n puede unirse para generar la señal de video panorámica 220. También se apreciará que puede generarse más de una señal de video panorámica de la misma manera.
Con referencia nuevamente a la Figura 2, una vez que se ha generado la señal de video panorámica 220, se pasa al módulo de selección 300. El módulo de selección 300 se dispone para manipular las señales de video que recibe de acuerdo con las reglas y condiciones predefinidas que están asociadas con un evento. Por ejemplo, los cuadros de imagen panorámica 220-1 ... 220-n pueden representar las acciones de un partido de fútbol (soccer), y las reglas y condiciones predefinidas pueden ser un requisito para simular el efecto de seguir el movimiento de un balón de fútbol representado en los cuadros de imagen panorámica 220-1 ... 220-n por un cierto período de tiempo.
Como una ilustración, la Figura 4 muestra cuadros de imagen panorámica 220-1 ... 220n, que representa una escena que tiene un balón de fútbol que cambia de posición de cuadro a cuadro. El módulo de selección 300 es operable para analizar los cuadros de imagen panorámica 220-1 ...220-n mediante el uso de cualquier análisis de imagen adecuado y métodos de seguimiento para identificar el balón como un objeto en movimiento y determina su posición dentro de cada cuadro de imagen. Con base en la posición, el módulo de selección 300 puede entonces determinar la trayectoria del balón. Luego, configurando una de las condiciones predefinidas para seleccionar una sección del cuadro de imagen para incluir el balón, el módulo de selección 300 puede simular el efecto de seguir el balón seleccionando una sección que incluye el balón ubicado en una posición relativa particular en cada sección. Generalmente, con base en al menos una condición predefinida asociada con el evento que se está capturando, el módulo de selección 300 es operable para seleccionar la totalidad o una sección de cualquier número de cuadros de imagen de cualquier número de señales de video que recibe para generar un número correspondiente de cuadros de imagen de salida. Como una ilustración mostrada en la Figura 4, el módulo de selección 300 en algunas modalidades es operable para identificar el balón en el cuadro de imagen panorámica 220-1, para seleccionar la sección 222-1 para incluir el balón y para extraer la sección 222-1 para generar un cuadro de imagen de salida separado 320-1. De manera similar, puede aplicarse el mismo procedimiento a los otros cuadros de imagen panorámica para generar cuadros de imagen de salida 320-2 ... 320-n para formar una señal de video de salida 320.
Aunque solo se muestra un objeto de la imagen en la Figura 4, se apreciará que las reglas y condiciones predefinidas no se limitan a seguir un objeto de la imagen en movimiento y el módulo de selección 300 puede ser operable para rastrear más de un objeto de la imagen. También se apreciará que el módulo de selección 300 puede ser operable para seguir cualquier número de objetos de la imagen o área de interés. Además, el módulo de selección 300 de algunas modalidades también puede funcionar para determinar las posiciones de los objetos de la imagen en los cuadros de imagen panorámica e identificar cómo se distribuyen estos objetos de la imagen sobre el cuadro de imagen panorámica. Luego, para eventos donde los objetos de la imagen tienen una distribución esperada, el módulo de selección es operable para determinar la desviación de la distribución de las posiciones de los objetos de la imagen de la distribución esperada. Una de las condiciones predefinidas puede configurarse para seleccionar una sección donde la desviación sea mínima. Por ejemplo, el módulo de selección 300 puede identificar el movimiento de los espectadores en un estadio de fútbol como objetos en movimiento e identificar que la distribución del movimiento de los espectadores coincida con la de una ola mexicana que viaja por el estadio. En tal ejemplo, el módulo de selección 300 es operable para seleccionar secciones de los cuadros de imagen panorámica para seguir el movimiento de la ola mexicana.
Se apreciará que al seleccionar una sección 221-1 ...222-n de los cuadros de imagen panorámica 220-1 ...220-n para incluir un objeto en movimiento, el efecto que se observaría en los cuadros de imagen de salida 320-1 ... 320-n sería equivalente a imágenes de video capturadas al panoramizar una cámara de video que tiene el mismo campo de visión que los cuadros de imagen de salida 320-1 ... 320-n. En algunas modalidades, el módulo de selección 300 puede disponerse además para variar el tamaño de la sección seleccionada a fin de simular el efecto del acercamiento. Por ejemplo, el módulo de selección 300 puede disponerse para seleccionar una sección progresivamente más pequeña para crear el efecto de acercamiento o secciones progresivamente más grandes para crear el efecto de alejamiento.
Con referencia nuevamente a la Figura 2, para facilitar la tarea de identificar objetos o áreas de interés en los cuadros de imagen panorámica 220-1 ...220-n recibidos por el módulo de selección 300, el sistema 10 de algunas modalidades incluye además un módulo de extracción 500 y un módulo de mapeo 600.
El módulo de extracción 500 se dispone para ser operable para identificar características en los cuadros de imagen de la señal de imagen panorámica 220 o en las señales de video componente 122-1 ... 122-n que se asocian con el fondo y para extraer datos de imagen 520 que representan estas características. Los datos de imagen de fondo 520 se comunican luego al módulo de selección 300 para su evaluación a fin de facilitar que el módulo de selección 300 distinga entre objetos de la imagen en primer plano y los elementos de fondo.
El módulo de mapeo 600 se dispone para ser operable para analizar los cuadros de imagen de la señal de imagen panorámica 220 o en las señales de video componente 122-1 ... 122-n para identificar uno o más objetos de la imagen que son de interés. Una vez que se identifican los objetos de la imagen, el módulo de mapeo 600 determina las posiciones de los objetos de la imagen, genera un mapa de densidad 620 y asigna un indicador en el mapa de densidad 620 tal como un color para indicar un área del cuadro de imagen donde hay un gran número de objetos de la imagen que están muy cerca entre sí. De manera similar, el módulo de mapeo 600 también puede asignar un indicador en el mapa de densidad 620 para indicar un área del cuadro de imagen donde hay pocos o ningún objeto de la imagen. El mapa de densidad 620 completado se comunica luego al módulo de selección 300 para su evaluación a fin de facilitar que el módulo de selección 300 distinga entre los objetos de la imagen en primer plano y los elementos de fondo y para facilitar que el módulo de selección 300 determine cómo se distribuyen los objetos de la imagen sobre los cuadros de imagen.
Se apreciará que el módulo de extracción 500 puede implementarse junto con el módulo de mapeo 600. También se apreciará que el módulo de extracción 500 puede implementarse como una alternativa al módulo de mapeo y viceversa.
Con referencia aún a la Figura 2, una vez que se genera la señal de video de salida 320, se pasa al módulo de producción 400 para su edición. Por ejemplo, puede ser indeseable incluir la longitud total de la señal de video de salida 320 para su transmisión. En tal ejemplo, puede ser conveniente incluir solo una porción, o algunas porciones de la señal de video de salida 320. En consecuencia, el módulo de producción 400 se dispone para ser operativo para seleccionar algunos o todos los cuadros de imagen de salida 320-1 ... 320-n para generar una producción de video 420. En modalidades, como se ilustra en la Figura 5, el módulo de producción 400 es operable para seleccionar los cuadros de imagen de salida de diferentes segmentos de la señal de video de salida 320 y para combinar los segmentos para producir la producción de video 420. Como se muestra en la Figura 5, la señal de video de salida 320 incluye segmentos convenientes 322, 324, 326, 328 separados por segmentos indeseables. El módulo de producción 400 es operable para extraer los cuadros de imagen de salida de estos segmentos y combinarlos para producir la producción de video 420 como se muestra en la Figura 6a.
En algunas modalidades, puede ser conveniente que se repitan uno o más segmentos, ya sea inmediatamente o en un momento posterior. También puede ser conveniente repetir un segmento en cámara lenta. En consecuencia, en algunas modalidades, ilustradas en la Figura 6b y la Figura 6c, el módulo de producción es operable para generar una producción de video con uno o más segmentos 322 repetidos como un segmento de cámara lenta 322-SloMo, o un segmento 322 repetido después de uno o más segmentos diferentes.
De manera más general, el módulo de producción 400 es operable para generar una producción de video a partir de cuadros de imagen de salida que recibe.
Con referencia nuevamente a la Figura 2, una vez que se genera la producción de video 420, se puede enviar directamente a la transmisión o se puede enviar al almacenamiento o procesamiento adicional antes de la transmisión.
En algunos casos, el evento que se cubrirá puede tener datos secundarios asociados con las señales de video capturadas, y puede ser conveniente incorporarlos en la producción de video 420 para mejorar la experiencia de visualización. Por ejemplo, puede ser conveniente incorporar el tiempo de ejecución y la línea de puntaje de un partido de fútbol (soccer) en la producción de video para que un espectador pueda seguir la acción con el conocimiento de los puntajes. En consecuencia, como se muestra en la Figura 2, el módulo de captura 100 de algunas modalidades se dispone además para que sea operativo para recibir información secundaria 140 asociada al evento. La información secundaria 140 puede, por ejemplo, recopilarse a partir de sensores externos, dispositivos de temporización, dispositivos de mantenimiento de puntaje o cualquier otro medio adecuado. El módulo de captura 140 genera entonces metadatos 142 asociados con la información secundaria 140 y comunica los metadatos 142 al módulo de producción 400. El módulo de producción 400 es operable para producir un elemento visual, tal como un elemento que muestra los puntajes y el tiempo de ejecución de un partido de fútbol (soccer) en la esquina de un cuadro de imagen, e incorporar el elemento visual en la producción de video.
En otros casos, también puede ser conveniente incorporar información de audio en la producción de video 420. En consecuencia, en algunas modalidades del sistema 10 descrito anteriormente, el módulo de producción 400 se dispone para ser operativo para recibir una o más señales de audio 160 y es operativo para incorporar las señales de audio 160 en la producción de video 420.
En algunas modalidades alternativas, el módulo de captura 100 también es operable para recibir señales de video de cámaras de video individuales que no están asociadas con un campo de visión panorámico, tal como las señales de video 124, 126 mostradas en la Figura 2. En estas modalidades, estas señales de video 124, 126 se pasan al módulo de selección 200, sin pasar por el módulo de unión 300. Una vez recibidas por el módulo de selección 300, se apreciarán estas señales de video 124, 126 que se manejarán de manera similar a la descrita anteriormente para la señal de video panorámica 220.
Al utilizar cuadros de imagen de video panorámica generados como se describió anteriormente, y simular el efecto de panorámica y acercamiento, las modalidades de la presente invención pueden generar un presente de video a partir de cámaras fijas que requieren poca o ninguna intervención del operador. La utilización de cuadros de imagen de video panorámica como se describen en la presente descripción también proporciona videos con un amplio campo de visión sin la necesidad de usar costosas ópticas de gran angular. El método y el sistema pueden preconfigurarse para operar automáticamente y en tiempo real a fin de minimizar el requerimiento de recursos.
En otras modalidades diferentes del sistema 10, el módulo de selección 300 puede funcionar además para recibir y almacenar las reglas y condiciones predefinidas que se usan para generar la producción de video. En particular, el módulo de selección 300 recibe y almacena condiciones predefinidas que están asociadas con el evento a capturar. Las condiciones predefinidas pueden implementarse en soporte físico o aplicación informática, y pueden cargarse en el sistema 10 durante o después del montaje. Una vez que se reciben señales de video desde el módulo de unión 200 o desde el módulo de captura 100, el módulo de selección 300 selecciona todo o una sección de un cuadro de imagen de cualquier número adecuado de cuadros de imagen de las señales de video recibidas con base en las condiciones predefinidas. Al realizar la selección, el módulo de selección 300 es opcionalmente operable para seguir el movimiento, el color, el brillo y el contraste de cualquier número de objetos representados en el cuadro de imagen. Los cuadros de imagen seleccionados y/o la sección de cuadros de imagen se comunican al módulo de producción 400 como cuadros de imagen de salida de una señal de video de salida 320. El módulo de producción 400 luego usa la señal de video de salida 320 para generar una producción de video 420.
Opcionalmente, las señales de video desde el módulo de unión 200 o el módulo de captura 100 se comunican al módulo de extracción 500 y al módulo de mapeo 600, así como también al módulo de selección 300.
El módulo de extracción 500 es operable para analizar los cuadros de imagen de las señales de video recibidas e identificar características en los cuadros de imagen que se asocian con el fondo del evento que se está capturando. Los datos de imagen 520 que representan estos elementos de fondo se extraen de las señales de video recibidas y se comunican al módulo de selección 300. El módulo de selección 300 evalúa los datos de imagen 520 junto con las señales de video que recibe al realizar la selección. Los datos de imagen 520 permiten que el módulo de selección 300 identifique más fácilmente cualquier objeto que se mueva con relación al fondo, lo que facilita la generación de la producción de video 420 en tiempo real.
El módulo de mapeo 600 es operable para analizar los cuadros de imagen de las señales recibidas e identificar uno o más objetos de la imagen que son de interés. Una vez que se identifican los objetos de la imagen, el módulo de mapeo 600 determina las posiciones de los objetos de la imagen, genera un mapa de densidad 620 y asigna un indicador en el mapa de densidad 620 tal como un color para indicar un área del cuadro de imagen donde hay un gran número de objetos de la imagen que están muy cerca entre sí. De manera similar, el módulo de mapeo 600 también puede asignar un indicador en el mapa de densidad 620 para indicar un área del cuadro de imagen donde hay pocos o ningún objeto de la imagen. El mapa de densidad 620 completado se comunica luego al módulo de selección 300 para su evaluación a fin de facilitar que el módulo de selección 300 distinga entre los objetos de la imagen en primer plano y los elementos de fondo y para facilitar que el módulo de selección 300 determine cómo se distribuyen los objetos de la imagen sobre los cuadros de imagen.
En estas modalidades diferentes, las reglas y condiciones predefinidas generalmente se relacionan con atributos físicos y aspectos del evento a capturar. Por ejemplo, donde el evento a capturar es un partido de fútbol (soccer), es inherente que el evento comprenda dos equipos de once jugadores cada uno, un árbitro y un balón de fútbol. En este ejemplo, el módulo de selección 300 es operable para identificar a los jugadores, al árbitro y al balón de fútbol en función de sus formas y colores. Adicionalmente, la acción de un partido de fútbol generalmente ocurre dentro de una cierta distancia del balón de fútbol. En consecuencia, un ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que incluye el balón de fútbol y el área dentro de una distancia predeterminada que rodea el balón de fútbol. La acción también puede ocurrir cuando hay un cierto número de jugadores de uno de los equipos (es decir, objetos que son todos de cierto color) dentro de una cierta distancia del balón, tal como durante un contraataque. En consecuencia, otro ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que contenga un cierto número de jugadores de un equipo dentro de una distancia predeterminada del balón en comparación con el número de jugadores del otro equipo. Otros ejemplos de una condición predefinida incluyen, entre otros, seleccionar una sección del cuadro de imagen que contiene uno o más jugadores específicos, seleccionar una sección del cuadro de imagen dentro de la cual el balón de fútbol está en la misma posición y seleccionar una sección del cuadro de imagen que incluye al árbitro. De manera más general, y como apreciará un experto, estos ejemplos de condiciones predefinidas pueden adaptarse para otros eventos deportivos tales como, entre otros, rugby, golf, tenis, baloncesto, hockey, cricket, voleibol, fútbol americano y béisbol.
También es inherente a algunos eventos que la acción ocurra en un campo o área con dimensiones y marcas conocidas. Por ejemplo, donde el evento a capturar es una carrera, es inherente que los objetos de la imagen, es decir, competidores tales como atletas, caballos de carreras, autos de carrera, motocicletas de carreras, bicicletas de carreras o cualquier otro vehículo de carreras, se muevan y sigan una ruta predeterminada, tal como la pista de un circuito o circuito de carreras. En consecuencia, otro ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que incluye al menos un objeto de la imagen mientras se sigue una ruta predeterminada. También puede ser que la acción más interesante de la carrera se caracterice por una gran proporción de los competidores que se encuentran en una pequeña sección de la pista del circuito de carreras. En consecuencia, otro ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que tenga la mayor densidad de objetos de la imagen. Opcionalmente, el módulo de selección 300 es operable para distinguir diferentes objetos de la imagen, tales como vehículos en movimiento, con base en sus colores y contraste, y otro ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que incluya cualquiera o un grupo de objetos de la imagen de una pluralidad de objetos de la imagen.
En otros ejemplos de estas modalidades diferentes, el evento a capturar se caracteriza por variaciones en el brillo sobre el área del cuadro de imagen. Por ejemplo, para eventos tales como obras de teatro, óperas o cualquier otra actuación en el escenario, la acción generalmente se caracteriza por regiones de brillo relativamente alto, tales como focos dirigidos hacia un área de un escenario de teatro. En consecuencia, otro ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que incluye regiones brillantes que corresponden a la iluminación puntual. En estos ejemplos, los objetos de la imagen en los cuadros de imagen pueden ser elementos anatómicos de los actores/cantantes en el escenario del teatro y la acción se caracteriza por movimientos faciales de los actores/cantantes, tal como los movimientos de los labios. En consecuencia, el módulo de selección 300 es operable para identificar estos movimientos faciales analizando el color y/o el contraste de los cuadros de imagen recibidos, y otro ejemplo de una condición predefinida es seleccionar una sección del cuadro de imagen que incluye al menos uno de los movimientos faciales identificados.
En estas modalidades diferentes, puede ser que se cumpla más de una condición predefinida en un cuadro de imagen dado. En consecuencia, las condiciones predefinidas de estas modalidades se clasifican opcionalmente. Si los cuadros de imagen recibidos por el módulo de selección 300 satisfacen más de una condición predefinida, el módulo de selección 300 genera la producción de video 420 con base en la condición predefinida de mayor clasificación. También se apreciará que las condiciones predefinidas descritas anteriormente pueden implementarse individualmente o colectivamente en cualquier combinación adecuada. Además, se apreciará que algunas de las condiciones predefinidas descritas anteriormente son más adecuadas que otras, en dependencia del usuario final previsto de la producción de video 420. En consecuencia, estas condiciones predefinidas más adecuadas se implementan para el usuario final particular previsto. Por ejemplo, cuando el usuario final previsto de la producción de video 420 es un entrenador de un equipo de fútbol, es más conveniente que la producción de video 420 incluya cuadros de imagen que incluyan toda el área de un campo de fútbol para permitir al entrenador analizar todos los aspectos de un partido de fútbol. En tal ejemplo, una condición predefinida preferida es seleccionar una sección de los cuadros de imagen que contenga toda el área de un campo de fútbol. En otro ejemplo, donde el usuario final previsto es un explorador de fútbol interesado en un jugador en particular, es más conveniente que la producción de video 420 incluya cuadros de imagen que contengan a ese jugador en particular. En tal ejemplo, una condición predefinida preferida es seleccionar una sección de los cuadros de imagen que contienen un objeto de la imagen particular.
En estas diferentes modalidades, el sistema 10 de la presente invención es capaz de producir producciones de video de eventos que incluyen los efectos de panorámica y acercamiento de manera automática con mínima intervención humana. Al generar la producción de video 420 con base en las condiciones predefinidas descritas anteriormente, el sistema 10 puede determinar la sección de un cuadro de imagen de una señal de video recibida que se incluirá en la producción de video 420 sin la entrada humana adicional.
En las modalidades anteriores de la presente invención, el método y el sistema para generar una producción de video se han descrito como adecuados para eventos de interés público, tales como partidos de fútbol. El experto en la técnica apreciará que la presente invención no se limita a eventos de interés público y también es adecuada para otros eventos. También se apreciará que el propósito de la producción de video no se limita a la transmisión y puede ser para otros fines, que incluyen la transmisión y la visualización privada.
Se han descrito las modalidades de la presente invención con referencia particular a los ejemplos ilustrados. Sin embargo, se apreciará que pueden realizarse variaciones y modificaciones a los ejemplos descritos dentro del alcance de las reivindicaciones anexas.

Claims (11)

  1. REIVINDICACIONES
    i. Un método para generar una producción de video de un evento, el método que comprende:
    recibir una pluralidad de señales de video componente (122-1 ..., 122-n) de un evento, cada señal de video componente comprende una pluralidad de cuadros de imagen componente (122-11 ..., 122-1 n; 122-21 ..., 122-2n), en donde cada cuadro de imagen componente corresponde a una sección de una vista panorámica del evento;
    unir los cuadros de imagen componente correspondientes temporalmente de cada señal de video componente para generar una pluralidad de cuadros de imagen panorámica (220-1 ..., 220-n);
    seleccionar una sección (222-1 ..., 222-n) de cada cuadro de imagen panorámica con base en reglas y condiciones predefinidas asociadas con el evento para generar una pluralidad de cuadros de imagen de salida (320-1 ..., 320-n); y
    generar una producción de video (420) a partir de la pluralidad de cuadros de imagen de salida;
    en donde la etapa de selección incluye, además, identificar una pluralidad de objetos de la imagen en al menos un cuadro de imagen panorámica, y en donde una de las reglas y condiciones predefinidas es seleccionar una sección del al menos un cuadro de imagen panorámica que contiene los objetos de la imagen;
    extraer datos de fondo de al menos uno de los cuadros de imagen panorámica, en donde la etapa de identificación se basa al menos en los datos de fondo extraídos; y
    determinar un mapa de densidad de los objetos de la imagen de al menos uno de los cuadros de imagen panorámica para indicar un área del cuadro de imagen panorámica donde un gran número de los objetos de la imagen están muy cerca entre sí, en donde la etapa de selección se basa al menos en el mapa de densidad.
  2. 2. Un método como se reivindicó en la reivindicación 1, en donde la etapa de selección incluye, además:
    determinar las posiciones de los objetos de la imagen en el al menos un cuadro de imagen panorámica; identificar la distribución de las posiciones sobre el al menos un cuadro de imagen panorámica; y determinar una desviación de la distribución identificada con respecto a una distribución esperada asociada con el evento;
    en donde otra de las reglas y condiciones predefinidas es seleccionar una sección del al menos un cuadro de imagen panorámica que tenga una desviación mínima.
  3. 3. Un método como se reivindicó en cualquiera de las reivindicaciones anteriores, en donde el tamaño de la sección seleccionada varía de un cuadro de imagen panorámica a otro.
  4. 4. Un método como se reivindicó en cualquiera de las reivindicaciones anteriores, en donde la posición de la sección seleccionada con relación al cuadro de imagen panorámica correspondiente varía de un cuadro de imagen panorámica a otro.
  5. 5. Un método como se reivindicó en cualquiera de las reivindicaciones anteriores, en donde la etapa de unión comprende, además:
    corregir la información de color de los cuadros de imagen componente de al menos una señal de video componente con relación a los cuadros de imagen componente de al menos otra señal de video componente; y
    calibrar los niveles de brillo de los cuadros de imagen componente de al menos una señal de video componente con relación a los cuadros de imagen componente de al menos otra señal de video componente.
  6. 6. Un sistema para generar una producción de video de un evento, el sistema que comprende:
    un módulo de captura (100) operable para recibir una pluralidad de señales de video componente (122-1 ..., 122-n) de un evento, cada señal de video componente que comprende una pluralidad de cuadros de imagen componente (122-11 ..., 122-1n; 122-21 ..., 122-2n), en donde cada cuadro de imagen componente corresponde a una sección de una vista panorámica del evento;
    un módulo de unión (200) operable para unir los cuadros de imagen componente correspondientes temporalmente de cada señal de video componente para generar una pluralidad de cuadros de imagen panorámica (220-1 ..., 220-n);
    un módulo de selección (300) operable para seleccionar una sección (222-1 ..., 222-n) de cada cuadro de imagen panorámica con base en reglas y condiciones predefinidas asociadas con el evento para generar una pluralidad de cuadros de imagen de salida (320-1 ..., 320-n);
    un módulo de producción (400) operable para generar una producción de video (420) a partir de la pluralidad de cuadros de imagen de salida;
    en donde el módulo de selección es operable para identificar una pluralidad de objetos de la imagen en al menos un cuadro de imagen panorámica, y en donde una de las reglas y condiciones predefinidas es seleccionar una sección del al menos un cuadro de imagen panorámica que contiene los objetos de la imagen; un módulo de extracción (500) operable para extraer datos de fondo de al menos uno de los cuadros de imagen panorámica, en donde el módulo de selección es operable para evaluar los datos de fondo para identificar los objetos de la imagen; y
    un módulo de mapeo (600) operable para determinar un mapa de densidad de los objetos de la imagen de al menos uno de los cuadros de imagen panorámica para indicar un área del cuadro de imagen panorámica donde un gran número de los objetos de la imagen están muy cerca entre sí, en donde el módulo de selección es operable para evaluar el mapa de densidad para seleccionar la sección.
  7. 7. Un sistema como se reivindicó en la reivindicación 6, en donde el módulo de selección es operable:
    para determinar las posiciones de los objetos de la imagen en el al menos un cuadro de imagen panorámica; para identificar la distribución de las posiciones dentro del al menos un cuadro de imagen panorámica; y para determinar una desviación de la distribución identificada con respecto a una distribución esperada; en donde otra de las reglas y condiciones predefinidas es seleccionar una sección del al menos un cuadro de imagen panorámica que tenga una desviación mínima.
  8. 8. Un sistema como se reivindicó en la reivindicación 6 o 7, en donde el tamaño de la sección seleccionada varía de un cuadro de imagen panorámica a otro.
  9. 9. Un sistema como se reivindicó en cualquiera de las reivindicaciones de la 6 a la 8, en donde la posición de la sección seleccionada con relación al cuadro de imagen panorámica correspondiente varía de un cuadro de imagen panorámica a otro.
  10. 10. Un sistema como se reivindicó en cualquiera de las reivindicaciones de la 6 a la 9, en donde el módulo de unión es operable para corregir información de color de los cuadros de imagen componente de al menos una señal de video componente con relación a los cuadros de imagen componente de al menos otra señal de video componente.
  11. 11. Un sistema como se reivindicó en cualquiera de las reivindicaciones de la 6 a la 10, en donde el módulo de unión es operable para calibrar los niveles de brillo de los cuadros de imagen componente de al menos una señal de video componente con relación a los cuadros de imagen componente de al menos otra señal de video componente.
ES14742207T 2013-08-29 2014-07-22 Método y sistema para producir una producción de video Active ES2805800T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1315416.6A GB2517730A (en) 2013-08-29 2013-08-29 A method and system for producing a video production
PCT/EP2014/065715 WO2015028203A1 (en) 2013-08-29 2014-07-22 A method and system for producing a video production

Publications (1)

Publication Number Publication Date
ES2805800T3 true ES2805800T3 (es) 2021-02-15

Family

ID=49397019

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14742207T Active ES2805800T3 (es) 2013-08-29 2014-07-22 Método y sistema para producir una producción de video

Country Status (19)

Country Link
US (1) US10666861B2 (es)
EP (1) EP3039854B1 (es)
JP (1) JP6580045B2 (es)
KR (1) KR102189139B1 (es)
CN (1) CN105765959B (es)
AU (1) AU2014314567B2 (es)
BR (1) BR112016003927B1 (es)
CA (1) CA2921264C (es)
DK (1) DK3039854T3 (es)
ES (1) ES2805800T3 (es)
GB (1) GB2517730A (es)
HR (1) HRP20201098T1 (es)
HU (1) HUE050838T2 (es)
MX (1) MX366918B (es)
PL (1) PL3039854T3 (es)
PT (1) PT3039854T (es)
RU (1) RU2666137C2 (es)
SI (1) SI3039854T1 (es)
WO (1) WO2015028203A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904954B2 (ja) * 2015-12-04 2021-07-21 スリング メディア, エルエルシー.Sling Media, Llc. ネットワークベースのイベント記録
KR102609477B1 (ko) 2017-02-06 2023-12-04 삼성전자주식회사 파노라마 이미지 또는 동영상을 생성하는 전자 장치 및 그 방법
JP6766707B2 (ja) * 2017-03-10 2020-10-14 株式会社Jvcケンウッド 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
JP6965975B2 (ja) * 2017-03-10 2021-11-10 株式会社Jvcケンウッド 映像処理装置、マルチカメラシステム、映像処理方法、及び映像処理プログラム
CN107835434B (zh) * 2017-06-09 2021-09-14 越野一族(北京)传媒科技有限公司 赛事宽视角直播设备和相关联的直播系统和方法
CN107333031B (zh) * 2017-07-27 2020-09-01 李静雯 一种适用于校园足球比赛的多路视频自动编辑方法
US20190191110A1 (en) * 2017-12-18 2019-06-20 Facebook, Inc. Apparatuses, systems, and methods for an enhanced field-of-view imaging system
US10523976B2 (en) * 2018-01-09 2019-12-31 Facebook, Inc. Wearable cameras
CN110033502B (zh) 2018-01-10 2020-11-13 Oppo广东移动通信有限公司 视频制作方法、装置、存储介质及电子设备
EP3741101A1 (en) 2018-01-19 2020-11-25 Veo Technologies Aps A computer-implemented method for automated detection of a moving area of interest in a video stream of field sports with a common object of interest
CN110300288A (zh) * 2019-07-29 2019-10-01 富咖科技(大连)有限公司 一种用于摸摸动物园游玩的视频自动采集与合成方法
CN114641983A (zh) * 2019-12-09 2022-06-17 核心光电有限公司 用于获得智能全景图像的系统及方法
CA3237494A1 (en) * 2021-11-08 2023-05-11 ORB Reality LLC Systems and methods for providing rapid content switching in media assets featuring multiple content streams that are delivered over computer networks
CN114339067A (zh) * 2021-11-15 2022-04-12 华能国际电力股份有限公司上海石洞口第二电厂 基于5g环境下的多通道图像及视频流同步与分布式处理方法及系统
KR20230131601A (ko) * 2022-03-07 2023-09-14 한화비전 주식회사 파노라마 감시 영상의 생성

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657073A (en) * 1995-06-01 1997-08-12 Panoramic Viewing Systems, Inc. Seamless multi-camera panoramic imaging with distortion correction and selectable field of view
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
MXPA02004015A (es) * 1999-10-22 2003-09-25 Activesky Inc Un sistema de video orientado a los objetos.
AU2001277259A1 (en) * 2000-06-30 2002-01-14 The Muller Sports Group, Inc. Sporting events broadcasting system
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
DE60123786T2 (de) * 2001-08-29 2007-03-15 Dartfish Sa Verfahren und System zur automatischen Produktion von Videosequenzen
AU2003280516A1 (en) * 2002-07-01 2004-01-19 The Regents Of The University Of California Digital processing of video images
GB2402011B (en) * 2003-05-20 2006-11-29 British Broadcasting Corp Automated video production
CA2563478A1 (en) * 2004-04-16 2005-10-27 James A. Aman Automatic event videoing, tracking and content generation system
JP2005333552A (ja) * 2004-05-21 2005-12-02 Viewplus Inc パノラマ映像配信システム
JP4649640B2 (ja) * 2004-11-18 2011-03-16 学校法人慶應義塾 画像処理方法、画像処理装置、及びコンテンツ作成システム
US8004558B2 (en) * 2005-04-07 2011-08-23 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
JP4464902B2 (ja) * 2005-11-09 2010-05-19 日本放送協会 カメラ制御装置およびカメラ制御プログラム
WO2008004150A2 (en) * 2006-06-30 2008-01-10 Nxp B.V. A method and device for video stitching
EP2479993A3 (en) * 2006-12-04 2013-12-11 Lynx System Developers, Inc. Autonomous systems and methods for still and moving picture production
WO2008068456A2 (en) * 2006-12-06 2008-06-12 Sony United Kingdom Limited A method and an apparatus for generating image content
GB2444533B (en) * 2006-12-06 2011-05-04 Sony Uk Ltd A method and an apparatus for generating image content
JP2008244922A (ja) * 2007-03-28 2008-10-09 Mitsubishi Electric Corp 映像生成方法及び映像生成装置
US8238719B2 (en) * 2007-05-08 2012-08-07 Cyberlink Corp. Method for processing a sports video and apparatus thereof
GB2452512B (en) * 2007-09-05 2012-02-29 Sony Corp Apparatus and method of object tracking
GB2452510A (en) * 2007-09-05 2009-03-11 Sony Corp System For Communicating A Three Dimensional Representation Of A Sporting Event
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
JP2009071478A (ja) * 2007-09-12 2009-04-02 Sharp Corp 情報通信端末および情報通信システム
US8791984B2 (en) * 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
JP5007681B2 (ja) * 2008-02-14 2012-08-22 ソニー株式会社 放送システム
US9031279B2 (en) * 2008-07-09 2015-05-12 Disney Enterprises, Inc. Multiple-object tracking and team identification for game strategy analysis
JP4715909B2 (ja) * 2008-12-04 2011-07-06 ソニー株式会社 画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム
EP2224357A1 (en) * 2009-02-27 2010-09-01 BRITISH TELECOMMUNICATIONS public limited company Video segmentation
JP2010232814A (ja) * 2009-03-26 2010-10-14 Nikon Corp 映像編集プログラムおよび映像編集装置
GB0907870D0 (en) * 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
EP2449760A1 (en) * 2009-06-29 2012-05-09 Bosch Security Systems, Inc. Omni-directional intelligent autotour and situational aware dome surveillance camera system and method
WO2011069021A2 (en) * 2009-12-02 2011-06-09 Qualcomm Incorporated Improving performance of image recognition algorithms by pruning features, image scaling, and spatially constrained feature matching
WO2011091604A1 (zh) * 2010-01-29 2011-08-04 华为终端有限公司 视频通信的方法、装置和系统
US8503539B2 (en) * 2010-02-26 2013-08-06 Bao Tran High definition personal computer (PC) cam
US8548269B2 (en) * 2010-12-17 2013-10-01 Microsoft Corporation Seamless left/right views for 360-degree stereoscopic video
US8970666B2 (en) * 2011-09-16 2015-03-03 Disney Enterprises, Inc. Low scale production system and method

Also Published As

Publication number Publication date
JP6580045B2 (ja) 2019-09-25
AU2014314567B2 (en) 2017-07-27
CA2921264A1 (en) 2015-03-05
JP2016536897A (ja) 2016-11-24
US10666861B2 (en) 2020-05-26
BR112016003927A2 (es) 2017-08-22
GB201315416D0 (en) 2013-10-16
GB2517730A (en) 2015-03-04
CN105765959B (zh) 2020-06-30
BR112016003927B1 (pt) 2023-04-11
DK3039854T3 (da) 2020-07-27
AU2014314567A1 (en) 2016-03-17
CN105765959A (zh) 2016-07-13
MX2016002606A (es) 2016-09-08
WO2015028203A1 (en) 2015-03-05
RU2666137C2 (ru) 2018-09-06
RU2016110470A (ru) 2017-10-02
HUE050838T2 (hu) 2021-01-28
CA2921264C (en) 2023-10-03
PL3039854T3 (pl) 2020-11-30
KR102189139B1 (ko) 2020-12-10
EP3039854B1 (en) 2020-04-15
SI3039854T1 (sl) 2020-11-30
MX366918B (es) 2019-07-30
US20160212337A1 (en) 2016-07-21
HRP20201098T1 (hr) 2021-02-05
EP3039854A1 (en) 2016-07-06
PT3039854T (pt) 2020-07-20
KR20160048178A (ko) 2016-05-03

Similar Documents

Publication Publication Date Title
ES2805800T3 (es) Método y sistema para producir una producción de video
US9298986B2 (en) Systems and methods for video processing
ES2845933T3 (es) Método y sistema de producción automática de televisión
US11283983B2 (en) System and method for providing virtual pan-tilt-zoom, PTZ, video functionality to a plurality of users over a data network
US9744457B2 (en) System and method for optical player tracking in sports venues
US8970666B2 (en) Low scale production system and method
JP6719465B2 (ja) 放送において風の特性及び影響を表示するためのシステム及び方法
ES2676248T3 (es) Mejora de imagen en grabaciones deportivas
US20070279494A1 (en) Automatic Event Videoing, Tracking And Content Generation
US20210344972A1 (en) Multi-camera live-streaming method and devices
JP2020086983A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20190046428A (ko) 사회인 야구 기록 및 경기영상 제작 통합 시스템 및 그 제어 방법
Benítez et al. Video Technology for Refereeing in Other Sports: Tennis and Rugby
WO2015169165A1 (en) Method and system for creating replate videos