ES2654598T3 - Sistema para generar una imagen de video compuesta y procedimiento para obtener una imagen de video compuesta - Google Patents

Sistema para generar una imagen de video compuesta y procedimiento para obtener una imagen de video compuesta Download PDF

Info

Publication number
ES2654598T3
ES2654598T3 ES13382542.2T ES13382542T ES2654598T3 ES 2654598 T3 ES2654598 T3 ES 2654598T3 ES 13382542 T ES13382542 T ES 13382542T ES 2654598 T3 ES2654598 T3 ES 2654598T3
Authority
ES
Spain
Prior art keywords
video
video images
composite
image
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13382542.2T
Other languages
English (en)
Inventor
José María ARAGONÉS GAYA
Manuel Mari Gómez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Coherent Synchro SL
Original Assignee
Coherent Synchro SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Coherent Synchro SL filed Critical Coherent Synchro SL
Application granted granted Critical
Publication of ES2654598T3 publication Critical patent/ES2654598T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

Sistema (1) para generar una imagen de vídeo compuesta que comprende: varios conjuntos (2) de al menos dos cámaras (3) de video configuradas para enfocar y obtener imágenes de video (4) adyacentes sobre correspondientes zonas sólidas (5) que definen superficies continuas tridimensionales (6) tangentes que determinan puntos de transición (13), estando las imágenes de video adyacentes de cada conjunto solapadas en una zona de guarda (7) y estando dichas cámaras de video adaptadas para generar flujos de información de vídeo y enviar los respectivos flujos de información de vídeo a una red (8); y unos medios de control (9) configurados para recibir los flujos de información de vídeo de la red y generar una imagen de video compuesta (10) para cada conjunto a partir de los flujos de información de vídeo de cada conjunto transformando las imágenes de video recibidas de cada conjunto para su colocación sobre un respectivo lienzo (11) virtual que reproduce la respectiva superficie continua tridimensional enfocada por las cámaras, estando las imágenes de video adyacentes solapadas por su zona de guarda en la imagen compuesta; estando los medios de control programados para monitorizar las zonas de guarda de cada par de imágenes de video transformadas adyacentes solapadas que conforman la imagen compuesta; los medios de control estando también programados determinar si existe un desajuste en la zona de guarda entre un par de imágenes de video transformadas adyacentes solapadas y los medios de control estando también programados desplazar la posición entre el par de imágenes de vídeo desajustadas ajustando la zona de guarda de al menos una de las imágenes de vídeo desajustadas, y/o corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la estabilidad de la imagen de video compuesta; estando los lienzos virtuales de cada conjunto provistos de puntos de transición para saltar manualmente entre lienzos; comprendiendo el sistema además unos medios de presentación de la imagen compuesta generada por los medios de control y unos medios de navegación sobre dicha imagen de video compuesta; y estando adaptados los medios de navegación sobre dicha imagen de video compuesta para realizar saltos entre lienzos virtuales cuando se alcanza un punto de transición.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Sistema para generar una imagen de video compuesta y procedimiento para obtener una imagen de video compuesta
Sector técnico de la invención
El sistema y procedimiento para obtener una imagen de video compuesta de la presente invención es de los que permite, a partir de uno o varios conjuntos de cámaras de vídeos ubicadas en zonas de difícil acceso y susceptibles a recibir vibraciones y pequeños golpes, obtener una imagen de video compuesta estable para realizar funciones de videovigilancia, medicina, etc.
Antecedentes de la invención
Son conocidos sistemas y procedimientos que a partir de una pluralidad de cámaras previamente ajustadas y que enfocan espacios contiguos permiten obtener una imagen de video compuesta a modo de mosaico, no obstante dichos sistemas son muy estrictos en cuanto a la calibración de las cámaras, con lo que cualquier desajuste en la posición de las cámaras afectará al mosaico obtenido.
Este inconveniente conlleva que sea necesario un mantenimiento constante de las cámaras de los sistemas para evitar desajustes en el mosaico, impidiendo además el uso de estos sistemas en zonas que necesiten disponer las cámaras en puntos que no sean totalmente estables o de difícil acceso, tales como mástiles que reciben golpes de viento o boyas sobre el mar que transmiten un vaivén a la cámara.
US 2008/253685 presenta un sistema para generar una imagen de video compuesto en un lienzo bidimensional.
WO 2006/110584 presenta un sistema para proporcionar un efecto estereoscópico basado en proporcionar dos imágenes de video compuesto que permiten obtener el efecto estereoscópico cuando se observan de manera simultánea en cada ojo de un usuario humano.
Google Street View presenta un sistema para generar una vista panorámica tomada desde un vehículo en movimiento en diferentes localizaciones y en diferentes tiempos,
Es por tanto un objeto de la presente invención dar a conocer un sistema y un procedimiento para obtener una imagen de vídeo compuesta que permita, a partir de una pluralidad de cámaras, obtener una imagen de vídeo compuesta estable aunque una o varias cámaras del sistema estén desajustadas.
Explicación de la invención
El sistema para generar una imagen de vídeo compuesta es de los que comprende un conjunto de al menos dos cámaras de video configuradas para enfocar y obtener imágenes de video adyacentes sobre una zona sólida que define una superficie continua tridimensional, estando dichas imágenes de video adyacentes solapadas en una zona de guarda y estando dichas cámaras de video adaptadas para generar flujos de información de vídeo y enviar los respectivos flujos de información de vídeo a una red; y unos medios de control configurados para recibir los flujos de información de vídeo de la red y generar una imagen de video compuesta a partir de los flujos de información de vídeo transformando las imágenes de video recibidas para su colocación sobre un lienzo virtual que reproduce la superficie continua tridimensional enfocada por las cámaras, estando las imágenes de video adyacentes solapadas por su zona de guarda en la imagen compuesta formada sobre el lienzo virtual . En esencia, el sistema se caracteriza porque los medios de control están programados para monitorizar las zonas de guarda de cada par de imágenes de video transformadas adyacentes solapadas que conforman la imagen compuesta; determinar si existe un desajuste en la zona de guarda entre un par de imágenes de video transformadas adyacentes solapadas y desplazar la posición entre el par de imágenes de vídeo desajustadas ajustando la zona de guarda de al menos una de las imágenes de vídeo desajustadas, y/o corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la estabilidad de la imagen de video compuesta. Es decir, el sistema para generar una imagen de vídeo compuesta comprende un conjunto de al menos dos cámaras de video configuradas para enfocar zonas adyacentes que se solapan de una superficie sólida y obtener respectivas imágenes de vídeo que se solapan en zonas de guarda, estando dichas cámaras adaptadas para transmitir las imágenes de vídeo a una red; y unos medios de control configurados para recibir las imágenes de vídeo y generar una imagen de vídeo compuesta en un lienzo virtual de forma que las imágenes de vídeo adyacentes se solapan en las citadas zonas de guarda, estando los medios de control programados para monitorizar las zonas de guarda de la imagen de vídeo compuesta del lienzo; determinar si existe un desajuste en estas zonas de guarda; y corregir la posición relativa de la imagen de vídeo desajustada para restaurar la zona de guarda, pudiendo adicional o complementariamente corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la estabilidad de video compuesta. De esta manera se consigue ventajosamente que cuando una o más cámaras se desajustan ligeramente, la imagen de vídeo compuesta se mantenga estable. Esto es especialmente útil para cámaras que está dispuestas sobre sustratos poco estables, tales como el mar o un mástil, que podrían introducir vibraciones en
5
10
15
20
25
30
35
40
45
50
55
60
65
partes de la imagen de vídeo compuesta, que además son puntos de difícil acceso para un técnico para su reajuste.
El sistema según la invención comprende varios conjuntos de al menos dos cámaras de video configuradas para enfocar y obtener imágenes de video adyacentes sobre correspondientes zonas sólidas que definen superficies continuas tridimensionales tangentes, estando las imágenes de video adyacentes de cada conjunto solapadas en una zona de guarda y estando dichas cámaras de video adaptadas para generar flujos de información de vídeo y enviar los respectivos flujos de información de vídeo a una red; y unos medios de control configurados para recibir los flujos de información de vídeo de la red y generar una imagen de video compuesta para cada conjunto a partir de los flujos de información de vídeo de cada conjunto transformando las imágenes de video recibidas de cada conjunto para su colocación sobre un respectivo lienzo virtual que reproduce la respectiva superficie continua tridimensional enfocada por las cámaras, estando las imágenes de video adyacentes solapadas por su zona de guarda en la imagen compuesta y estando los lienzos virtuales de cada conjunto provistos de puntos de transición.
El sistema también comprende además unos medios de presentación de la imagen compuesta generada por los medios de control y unos medios de navegación sobre dicha imagen de video compuesta. Dichos medios de presentación puede ser tanto una pantalla local como remota y los medios de navegación permiten navegar a través de la imagen de vídeo compuesta generada, mostrando en los medios de presentación una sección de la imagen de vídeo compuesta generada. Ventajosamente, los medios de navegación y presentación remotos pueden actuar sobre los medios de control, por ejemplo enviando las coordenadas que desean recibir, para que los medios de control solamente transmitan a los medios de presentación dicha sección de la imagen de vídeo compuesta, permitiendo así poder navegar y mostrar dicha sección de la imagen de vídeo compuesta en dispositivos de poca capacidad computacional, como por ejemplo dispositivos móviles.
Los medios de navegación sobre dicha imagen de video compuesta están adaptados para realizar saltos de entre lienzos virtuales cuando se alcanza un punto de transición. Esto permite que se pueda navegar entre la imagen de vídeo compuesta de un conjunto de cámaras de video a otra imagen de vídeo de un conjunto de cámaras de video. Por ejemplo, una imagen de vídeo compuesta de un conjunto de cámaras de video podría ser el exterior de una casa y las otras imágenes de vídeo compuesta serían los interiores de dicha casa, estableciéndose los punto de transición entre lienzos en las zonas de paso entre las estancias, como por ejemplo puertas y ventanas.
El procedimiento para obtener una imagen de video compuesta formada a partir de imágenes de video de un conjunto de al menos dos cámaras de video comprende los pasos de determinar una zona sólida en el espacio que define una superficie continua tridimensional; obtener imágenes de video adyacentes enfocadas sobre dicha zona sólida; transmitir flujos de información de vídeo con las imágenes de video de cada una de las cámaras de video a través de una red; recibir los flujos de información de vídeo con las imágenes de video en unos medios de control; transformar las imágenes de video recibidas en dichos medios de control para su ubicación sobre un lienzo virtual que reproduce la respectiva superficie continua tridimensional enfocada por las cámaras; disponer las imágenes de video transformadas solapadas por su zona de guarda formando la imagen compuesta sobre el lienzo virtual; monitorizar la zona de guarda de cada par de imágenes de video transformadas adyacentes solapadas que conforman la imagen compuesta; determinar si existe un desajuste en la zona de guarda entre un par de imágenes de video transformadas adyacentes solapadas; desplazar la posición entre el par de imágenes de vídeo desajustadas ajustando la zona de guarda de al menos una de las imágenes de vídeo desajustadas, y/o corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la estabilidad de la imagen de video compuesta. De esta manera se consigue que pequeños desajustes en la posición de las cámaras no afecten a la imagen de video compuesta resultante.
El procedimiento comprende además los pasos de presentar la imagen de video compuesta generada por los medios de control en unos medios de presentación, tales como una pantalla, y navegar a través de dicha imagen mediante unos medios de navegación, como por ejemplo un teclado o un joystick.
En otra variante de interés, estando el lienzo virtual provisto de puntos de transición con otros lienzos virtuales, los medios de navegación permiten saltar entre lienzos virtuales cuando se alcanza dicho punto de transición, permitiendo la navegación entre lienzos virtuales asociados.
Se da a conocer también que si en el paso de desplazar la posición entre el par de imágenes de vídeo desajustadas ajustando la zona de guarda de al menos una de las imágenes de vídeo desajustadas, y/o corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la integridad de la imagen de video compuesta, la zona de guarda entre un par de imágenes de video transformadas adyacentes solapadas es menor que un umbral predeterminado, se activa una señal de alarma sobre la cámara o cámaras que causan el desajuste, permitiendo que se pueda restablecer la posición de la cámara manualmente.
Por ejemplo, dicho umbral predeterminado de la zona de guarda puede ser de al menos 1 píxeles, siendo en una realización de 10 píxeles, que permite resistir pequeñas vibraciones de cámaras dispuestas en lo alto de un mástil por efecto del viento.
También se da a conocer que si en el paso de desplazar la posición entre el par de imágenes de vídeo desajustadas
5
10
15
20
25
30
35
40
45
50
55
60
65
ajustando la zona de guarda de al menos una de las imágenes de vídeo desajustadas , y/o corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la integridad de la imagen de video compuesta, la resolución de al menos una de las imágenes de video transformadas adyacentes solapadas es menor que un umbral predeterminado para dicha imagen de video, por ejemplo porque se ha transformado la imagen perdiendo resolución, se activa una señal de alarma sobre la cámara o cámaras que causan el desajuste. Por ejemplo dicho umbral predeterminado puede establecerse como típicamente menor que 12 píxeles por centímetro en aplicaciones de videovigilancia.
La señal de alarma desencadena la acción de enviar a la cámara o cámaras que causan el desajuste de una señal de reposicionamiento con instrucciones para corregir el desajuste. Dichas instrucciones pueden ir directamente a la cámara si esta soporta su accionamiento remoto para restablecer la imagen compuesta o a un técnico para que realice las operaciones de mantenimiento pertinentes para restablecer la posición inicial de la cámara.
Breve descripción de los dibujos
Para complementar la descripción que se está realizando y con objeto de facilitar la comprensión de las características de la invención, se acompaña a la presente memoria descriptiva un juego de dibujos en los que, con carácter ilustrativo y no limitativo, se ha representado lo siguiente:
La Fig. 1 muestra una sección de la configuración del sistema de la presente invención cuya zona sólida es un plano recto;
la Fig. 2 muestra el detalle del solapamiento en la zona de guardia de dos de las cámaras de la configuración de la Fig. 1;
la Fig. 3 muestra la configuración del dispositivo de la Fig. 1 en perspectiva; la Fig. 4 muestra un esquema de conexiones de un dispositivo según la presente invención; la Fig. 5a muestra un lienzo con todas las imágenes de vídeo ajustadas; la Fig. 5b muestra un lienzo con una imagen de vídeo desajustada;
la Fig. 6 muestra una sección de la configuración del dispositivo de la presente invención cuya zona sólida es un plano curvado; y
la Fig. 7 muestra otra variante de realización con dos conjuntos de cámaras de vídeo.
Descripción detallada de los dibujos
La Fig. 1 muestra parte de un conjunto 2 de cámaras 3 de vídeo para generar una imagen de vídeo compuesta según el sistema 1 de la presente invención. Como se puede observar, en la fig. 1 se muestran tres cámaras 3 de vídeo que corresponden a una parte del conjunto. Particularmente, las cámaras 3 de vídeo forman parte de un conjunto de nueve cámaras 3 de vídeo dispuestas en tres filas y tres columnas, para ilustrar una variante sencilla de realización del del sistema 1 de la presente invención. Naturalmente, en otras variantes de realización y según convenga en cada instalación, el grupo de cámaras 3 podría estar formado por multitud de cámaras 3, dispuestas en distintos niveles.
Las cámaras 3 de video están configuradas para enfocar y obtener imágenes de video 4 adyacentes sobre una zona sólida 5 que define una superficie continua tridimensional 6, en este caso un plano recto, aunque en otras variantes de realización dicha superficie continua tridimensional podría tener cualquier otra forma, pudiendo ser por ejemplo curvado, cilíndrico o asemejarse al interior de una esfera, incluso siendo una esfera completa. Naturalmente también se prevé que la superficie continua tridimensional 6 sea irregular.
Como se puede observar en el detalle mostrado de la Fig. 1 mostrado en la Fig. 2, las imágenes de video 4 adyacentes que captan las cámaras 3 se encuentran solapadas en una zona de guarda 7. Dicha zona de guarda 7 permitirá ventajosamente realizar correcciones a la imagen de video compuesta que se genere a partir de las imágenes de vídeo 4 de las diferentes cámaras 3, como se detallará más adelante.
La Fig. 4 muestra una vista completa del conjunto de cámaras 3 de vídeo, donde se puede observar que las nueve cámaras 3 están configuradas para enfocar y obtener nueve imágenes de video 4 adyacentes sobre una zona sólida 5. Para mayor facilidad de comprensión, solamente se ha resaltado la apertura de las cámaras 3 en dos de ellas. Aunque en la variante representada todas las cámaras 3 tienen la misma apertura, se prevé poder utilizar diferentes tipos de cámaras 3, aunque preferentemente deben estar previamente configuradas y se debe conocer su posición, apertura y dirección de enfoque para confeccionar la imagen de video compuesta, tal y como se verá más adelante. Se prevé que exista un programa de configuración que permita introducir la información relativa a las cámaras 3 del
5
10
15
20
25
30
35
40
45
50
55
60
65
sistema 1, tal como su posición, apertura y dirección de enfoque. Además, se podría usar también cámaras de diferente resolución e incluso que algunas de ellas no fueran adyacentes. Se prevé que se usen cámaras 3 de mayor resolución para poder visualizar la imagen de video compuesta que se generará y poderla ampliar en las zonas del espacio consideradas claves para la aplicación sin perder demasiada resolución al realizar un zoom digital.
Las cámaras 3 del sistema 1, tal como se muestra en la Fig. 4, están adaptadas para generar flujos de información de vídeo y enviar los respectivos flujos de información de vídeo a una red 8. Dicha red 8 puede ser una red IP, a la que las cámaras 3 pueden conectarse si disponen de una salida de red o las cámaras pueden conectarse a la red 8 a través de un adaptador 3' que convierta la señal analógica de la cámara a un conjunto de paquetes que se inyectarán en la red 8. Como se puede observar, el sistema 1 comprende además unos medios de control 9, que pueden ser un ordenador, conectados a dicha red 8 y configurados para recibir los flujos de información de vídeo de la red y generar una imagen de video compuesta 10, a modo de mosaico, también conocida como video stitching, a partir de los flujos de información de vídeo, transformando las imágenes de video 4 recibidas para su colocación sobre un lienzo 11 virtual que reproduce la superficie continua tridimensional enfocada por las cámaras 3. La transformación comprendería tanto rotación como expansión o compresión de los lados de la imagen para corregir la perspectiva adaptándola a la que un observador vería perpendicularmente a la superficie continua tridimensional que conforma la zona sólida 5. Dicha colocación de las imágenes de video 4 transformadas podría realizarse manualmente por un operador, o automáticamente a partir de las coordenadas tridimensionales obtenidas a partir de la posición, apertura y dirección de enfoque prestablecidas para cada una de las cámaras 3 de video del conjunto, en caso de tener disponible esta información. Naturalmente se podrían incorporar elementos de alineación en los conjuntos, tales como emisores de puntos visibles tales como láser, que emitieran puntos luminosos, dentro o fuera del espectro visible, captables por las cámaras 3, de modo que quedaran en las zonas de guarda y ayudaran a la alineación de las imágenes de vídeo para formar formando la imagen de vídeo compuesta 10. Naturalmente, se prevé que los medios de control 9 tengan una capacidad de procesado suficiente para evitar retrasos en la generación de la imagen de vídeo compuesta 10. Aunque se prevé que la alineación de la diferentes imágenes de vídeo 4 pueda realizarse de manera automática determinando las zonas de guarda 7 en las que se solapan imágenes adyacentes o a partir de la información previamente introducida de la posición de la cámara, apertura y dirección de enfoque, naturalmente, se prevé que se pueda realizar un ajuste manual de la alineación. También sería posible partir de una posición de ajuste manual de la disposición de las imágenes de vídeo 4 sobre el lienzo 11 virtual por un operador, hasta que los medios de control detectaran su solapamiento en las zonas de guarda 7, tanto por procesado de toda la zona de guarda 7 o mediante la localización de alguno de los elementos de alineación anteriormente descritos. Del mismo modo, es posible que se corrija la colorimetría y luminosidad de las imágenes de vídeo 4 proporcionadas por cámaras 3 adyacentes, para evitar que quede evidente el punto de separación entre ellas.
Dicha imagen de video compuesta 10 generada por los medios de control 9 puede servirse tanto a dispositivos 12 conectados a la misma red 8 u a otra red provistos de medios de presentación de la imagen compuesta 10 generada por los medios de control 9.
Dichos dispositivos 12 pueden a su vez procesar la imagen de video compuesta 10 generada por los medios de control 9 para por ejemplo seleccionar secciones de interés y poder navegar a través de la imagen de video compuesta 10 desplazando la sección 12 de interés sobre dicha imagen de video compuesta 10 para realizar una navegación virtual sobre el lienzo 11 en el que está dispuesta la imagen de video compuesta 10, mostrando parte de ella. Ventajosamente, se puede conseguir de esta manera una navegación con vista perpendicular sobre la superficie continua tridimensional 6 que enfocan las cámaras 3, aunque las cámaras 3 no estén dispuestas perpendiculares a la superficie continua tridimensional 6. Se prevé que como no todos los dispositivos 12 conectados a la red 8 permitan el procesado rápido de toda la imagen de video compuesta 10, dichos dispositivos 12 permitan indicar a los medios de control 9 la sección de la imagen de video compuesta 10 que desean visualizar. Naturalmente, tanto los dispositivos 12 que procesen la imagen de video compuesta 10 como los que soliciten a los medios de control secciones 12 de dicha imagen de video compuesta 10 pueden estar provistos de unos medios de navegación que permitan la navegación sobre dicha imagen de video compuesta 10. Dichos medios de navegación pueden ser manuales, tales como teclas o joysticks o automáticos, tales como programas que por ejemplo estén programados para desplazar las secciones 12 de dicha imagen de video compuesta 10 a mostrar. Se destaca que la proyección que se visualizará de la sección 12 de imagen de video compuesta 10 será siempre perpendicular, con lo que no se deformará la imagen finalmente visualizada.
Un ejemplo de la imagen de vídeo compuesta 10 generada por el grupo de cámaras de la Fig. 3 se muestra en la Fig. 5a, en dicha imagen de vídeo compuesta 10 se pueden observar que las imágenes de video 4 captadas por las diferentes cámaras 3 se encuentran dispuestas adyacentes y solapadas por su zona de guarda 7 en la imagen compuesta formada sobre el lienzo 11 virtual. Como se puede observar, existen grupos de hasta cuatro imágenes de video 4 que se solapan en su zona de guarda 7. Se prevé que en otras variantes de realización pueda haber incluso más imágenes de vídeo 4 solapadas en una zona de guarda 7. Para evitar que pequeños movimientos de las cámaras 3, debido por ejemplo al viento o a pequeñas vibraciones o porque una o más cámaras 3 estén dispuestas en un sustrato poco estable, tal como la superficie de mar que conlleva un vaivén constante, lleguen a desestabilizar la imagen de vídeo compuesta 10 generada, los medios de control 9 están programados para monitorizar las zonas
5
10
15
20
25
30
35
40
45
50
55
60
65
de guarda 7 de cada par de imágenes de video 4 transformadas adyacentes y solapadas que conforman la imagen de vídeo compuesta 10 y determinar si existe un desajuste en la zona de guarda 7 entre un par de imágenes de video 4 transformadas adyacentes solapadas. En caso de detectar un desajuste, debido por ejemplo a que una cámara 3 ha sido movida o ha caído ligeramente o simplemente está realizando un movimiento de vaivén debido al viento o al mar, los medios de control 9 desplazaran la posición entre el par de imágenes de vídeo 4 desajustadas, por ejemplo del modo mostrado en la Fig. 5b, ajustando, es decir, reduciendo si es preciso, la zona de guarda 7 de al menos una de las imágenes de vídeo 4 desajustadas para mantener la imagen de video compuesta 10 estable. Complementaria u opcionalmente se podría corregir la transformación de al menos una de las imágenes de vídeo 4 desajustadas para mantener la estabilidad de la imagen de video compuesta 10. Se prevé que dicha autocorrección podrá realizarse periódicamente configurando el tiempo entre periodos según sea necesario. Naturalmente la monitorización puede ser en toda la zona de guarda 7 o en secciones concretas para evitar consumir demasiados recursos de los medios de control 9. De esta manera se consigue que el sistema 1 permita visualizar la imagen de vídeo compuesta 10 en forma de mosaico incluso cuando una o más cámaras 3 están desajustadas.
Aunque pequeños movimientos de las cámaras 3 podrán ser satisfactoriamente superados sin que la imagen de vídeo compuesta 10 quede alterada, debe tenerse en cuenta que si durante el paso de desplazar la posición entre las imágenes de vídeo 4 desajustadas ajustando la zona de guarda 7 de las imágenes de vídeo 4 desajustadas, y/o corregir la transformación de las imágenes de vídeo 4 desajustadas para mantener la integridad de la imagen de video compuesta 10, la zona de guarda 7 entre un par de imágenes de video transformadas adyacentes solapadas es menor que un umbral predeterminado, se activará una señal de alarma sobre la cámara 3 o cámaras 3 que causen el desajuste. Dicho umbral predeterminado mínimo de la zona de guarda 7 deberá ser preconfigurado, siendo recomendable que sea de al menos 1 píxeles y normalmente 10 píxeles. Naturalmente dicho umbral predeterminado mínimo de la zona de guarda 7 deberá ajustarse según sean las necesidades del sistema 1 y su tolerancia a fallos.
También debe controlarse que en el paso de desplazar la posición entre imágenes de vídeo desajustadas 4 ajustando la zona de guarda 7 de las imágenes de vídeo 4 desajustadas, y/o corregir la transformación de las imágenes de vídeo 4 desajustadas para mantener la integridad de la imagen de video compuesta 10, la resolución de al menos una de las imágenes de video transformadas adyacentes solapadas sea mayor que un umbral predeterminado para dicha imagen de video 4, en caso contrario se puede activar también una señal de alarma sobre la cámara 3 o cámaras 3 que causan el desajuste. Dicho umbral predeterminado podría establecerse típicamente en 12 píxeles por centímetro, que se considerarían suficientes para identificar una cara en una aplicación de videovigilancia, aunque su configuración dependerá de la función que realice el sistema 1.
Se prevé que la señal de alarma desencadene enviar a la cámara 3 o cámaras 3 que causan el desajuste de una señal de reposicionamiento con instrucciones para corregir el desajuste o simplemente un aviso de alerta a un técnico para que reposicione la cámara 3 que causa el desajuste.
La Fig. 6 muestra otra variante de realización en la que el conjunto de cámaras 3 de vídeo del sistema 1 están configuradas para enfocar y obtener las imágenes de video 4 adyacentes sobre una zona sólida 5 que en este caso define una superficie continua tridimensional curva. En este caso se prevé que la imagen de vídeo compuesta 10 se genere sobre un respectivo lienzo 11 virtual que reproduzca la respectiva superficie continua tridimensional curva enfocada por las cámaras 3.
La Fig. 7 muestra otra variante de realización que en lugar de tener un único conjunto 2 de cámaras 3 comprende dos conjuntos 2 de cámaras 3 de video. Las cámaras de vídeo 3 de cada grupo 5, 5a estarán configuradas para enfocar y obtener imágenes de video 4 adyacentes sobre sus respectivas zonas sólidas 5, 5a que definen superficies continuas tridimensionales 6, 6a tangentes. Igual que en las variantes descritas anteriormente, las imágenes de video adyacentes de cada conjunto se encontrarán solapadas en respectivas zona de guarda 7 y las cámaras de video 3 de cada uno de los conjuntos 2 estarán adaptadas para generar flujos de información de vídeo y enviar los respectivos flujos de información de vídeo a una red 8 análogamente a la manera descrita con anterioridad.
En este caso, los medios de control 9 estarán configurados para recibir los flujos de información de vídeo de la red 8 y generar dos imágenes de video compuesta 10, una para cada conjunto, a partir de los flujos de información de vídeo de cada conjunto transformando las imágenes de video recibidas de cada conjunto para su colocación sobre un respectivo lienzo 11 virtual que reproduce la respectiva superficie continua tridimensional enfocada por las cámaras 3 a partir de las coordenadas tridimensionales obtenidas a partir de la posición, apertura y dirección de enfoque prestablecidas para cada una de las cámaras de video, estando también las imágenes de video 3 adyacentes solapadas por su zona de guarda en la imagen compuesta y estando los lienzos 11 virtuales de cada conjunto provistos de puntos de transición 13. De esta manera se conseguirá que al navegar mediante los medios de navegación provistos del sistema, al llegar a uno de los puntos de transición del lienzo 11 pueda desencadenarse un salto entre lienzos virtuales. Naturalmente el salto puede no ser automático, sino que por ejemplo los medios de presentación pueden alertar al usuario mediante una alerta visual, acústica o de cualquier tipo, que se encuentra sobre un punto de transición 13 y puede acceder a visualizar y navegar sobre la imagen de video compuesta adyacente. Esto puede ser de especial interés cuando se desea realizar, por ejemplo la vigilancia de diferentes
estancias, separadas por puertas, en las que se puede establecer diferentes conjuntos 2 de cámaras 3 para cada estancia, estableciendo en la posición de las comunicaciones entre estancias, puertas, ventanas, pasillos, etc. los puntos de transición que permitirán a un vigilante que navegue sobre la imagen de video compuesta 10 de uno de los conjuntos 2, la transición a las imágenes de video compuesta de los conjuntos adyacentes.
5

Claims (1)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. Sistema (1) para generar una imagen de vídeo compuesta que comprende:
    varios conjuntos (2) de al menos dos cámaras (3) de video configuradas para enfocar y obtener imágenes de video (4) adyacentes sobre correspondientes zonas sólidas (5) que definen superficies continuas tridimensionales (6) tangentes que determinan puntos de transición (13), estando las imágenes de video adyacentes de cada conjunto solapadas en una zona de guarda (7) y estando dichas cámaras de video adaptadas para generar flujos de información de vídeo y enviar los respectivos flujos de información de vídeo a una red (8); y unos medios de control
    (9) configurados para recibir los flujos de información de vídeo de la red y generar una imagen de video compuesta
    (10) para cada conjunto a partir de los flujos de información de vídeo de cada conjunto transformando las imágenes de video recibidas de cada conjunto para su colocación sobre un respectivo lienzo (11) virtual que reproduce la respectiva superficie continua tridimensional enfocada por las cámaras, estando las imágenes de video adyacentes solapadas por su zona de guarda en la imagen compuesta;
    estando los medios de control programados para monitorizar las zonas de guarda de cada par de imágenes de video transformadas adyacentes solapadas que conforman la imagen compuesta; los medios de control estando también programados determinar si existe un desajuste en la zona de guarda entre un par de imágenes de video transformadas adyacentes solapadas y los medios de control estando también programados desplazar la posición entre el par de imágenes de vídeo desajustadas ajustando la zona de guarda de al menos una de las imágenes de vídeo desajustadas, y/o corregir la transformación de al menos una de las imágenes de vídeo desajustadas para mantener la estabilidad de la imagen de video compuesta;
    estando los lienzos virtuales de cada conjunto provistos de puntos de transición para saltar manualmente entre lienzos;
    comprendiendo el sistema además unos medios de presentación de la imagen compuesta generada por los medios de control y unos medios de navegación sobre dicha imagen de video compuesta; y
    estando adaptados los medios de navegación sobre dicha imagen de video compuesta para realizar saltos entre lienzos virtuales cuando se alcanza un punto de transición.
ES13382542.2T 2013-12-23 2013-12-23 Sistema para generar una imagen de video compuesta y procedimiento para obtener una imagen de video compuesta Active ES2654598T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP13382542.2A EP2887647B1 (en) 2013-12-23 2013-12-23 System for generating a composite video image and method for obtaining a composite video image

Publications (1)

Publication Number Publication Date
ES2654598T3 true ES2654598T3 (es) 2018-02-14

Family

ID=49999691

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13382542.2T Active ES2654598T3 (es) 2013-12-23 2013-12-23 Sistema para generar una imagen de video compuesta y procedimiento para obtener una imagen de video compuesta

Country Status (2)

Country Link
EP (1) EP2887647B1 (es)
ES (1) ES2654598T3 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10003786B2 (en) * 2015-09-25 2018-06-19 Intel Corporation Method and system of 3D image capture with dynamic cameras

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3867883B2 (ja) * 1999-06-01 2007-01-17 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
US7260258B2 (en) * 2003-06-12 2007-08-21 Fuji Xerox Co., Ltd. Methods for multisource color normalization
US20050185047A1 (en) * 2004-02-19 2005-08-25 Hii Desmond Toh O. Method and apparatus for providing a combined image
WO2006110584A2 (en) * 2005-04-07 2006-10-19 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
US20080253685A1 (en) * 2007-02-23 2008-10-16 Intellivision Technologies Corporation Image and video stitching and viewing method and system
US20100097444A1 (en) * 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
US8559757B1 (en) * 2010-03-23 2013-10-15 Exelis, Inc. Photogrammetric method and system for stitching and stabilizing camera images
KR20130068193A (ko) * 2011-12-14 2013-06-26 한국전자통신연구원 멀티 영상 제공 시스템 및 그것의 멀티 영상 입력 장치
JP6065195B2 (ja) * 2012-05-08 2017-01-25 パナソニックIpマネジメント株式会社 表示映像形成装置及び表示映像形成方法

Also Published As

Publication number Publication date
EP2887647A1 (en) 2015-06-24
EP2887647B1 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
US10643300B2 (en) Image display method, custom method of shaped cambered curtain, and head-mounted display device
ES2843477T3 (es) Método y sistema para fusionar flujos de vídeo
US20180012397A1 (en) Immersive content framing
JP6590792B2 (ja) 3d映像を補正する方法、装置及び表示システム
CN103826103A (zh) 云台摄像机巡航控制方法
US20100020201A1 (en) Sensor array module with wide angle, and image calibration method, operation method and application for the same
CN105678693A (zh) 全景视频浏览播放方法
KR101521008B1 (ko) 어안 렌즈를 사용하여 얻은 왜곡영상에 대한 보정방법 및 이를 구현하기 위한 영상 디스플레이 시스템
CN105308503A (zh) 利用短程相机校准显示系统的系统和方法
TW201616856A (zh) 藉助於全景地圖來管理一監視系統之方法與裝置
CN103065412B (zh) 一种应用于林火监测系统的干扰源智能屏蔽方法及装置
JP2016180866A (ja) 空撮装置
CN105137705B (zh) 一种虚拟球幕的创建方法和装置
CN104052976A (zh) 投影方法及装置
KR20080048007A (ko) 다차원 촬영 방법, 장치 및 시스템
US20080118178A1 (en) Display systems and methods for eliminating mullions
CN103533235A (zh) 面向重大案事件现场的快速的基于线阵ccd的数字全景装置
US10691009B2 (en) Projection method, projection system, and projector of fully covering multi-directional circular-screen through cross-arrangement
JP2017528714A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの制御
WO2013182572A1 (en) Volumetric display device
WO2020198823A1 (pt) Sistema e método de captação e projeção de imagem, e, uso do sistema
ES2654598T3 (es) Sistema para generar una imagen de video compuesta y procedimiento para obtener una imagen de video compuesta
US10495965B2 (en) Method, equipment and system for achieving short focal length circular-screen output based on multiple optical machines
US9160904B1 (en) Gantry observation feedback controller
US10691008B2 (en) Projection method, projector and projection system of fully covering multi-directional circular-screen