ES2874526T3 - Procedimiento de visualización de imágenes o de vídeos - Google Patents

Procedimiento de visualización de imágenes o de vídeos Download PDF

Info

Publication number
ES2874526T3
ES2874526T3 ES15202682T ES15202682T ES2874526T3 ES 2874526 T3 ES2874526 T3 ES 2874526T3 ES 15202682 T ES15202682 T ES 15202682T ES 15202682 T ES15202682 T ES 15202682T ES 2874526 T3 ES2874526 T3 ES 2874526T3
Authority
ES
Spain
Prior art keywords
display
mark
projection surface
videos
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15202682T
Other languages
English (en)
Inventor
Thierry Boudin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Application granted granted Critical
Publication of ES2874526T3 publication Critical patent/ES2874526T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19684Portable terminal, e.g. mobile phone, used for viewing video remotely
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Procedimiento de visualización de imágenes o de vídeos en un visualizador (23), de manera que el visualizador (23) puede moverse y presenta una posición marcada en una primera marca (R1), estando el visualizador (23) incluido en un casco de realidad virtual (14), comprendiendo el procedimiento: - una etapa de recepción de al menos dos imágenes o vídeos, de manera que las imágenes o vídeos se obtienen de cámaras de videovigilancia, - una etapa de adquisición (120) en tiempo real de la posición del visualizador (23) en la primera marca (R1), - una etapa de cálculo (130) de una disposición de las al menos dos imágenes o vídeos recibidos en al menos una superficie de proyección (S) que pertenece a un mundo virtual definido en una segunda marca (R2), siendo la segunda marca (R2) la imagen de la primera marca (R1) por una combinación de transformaciones geométricas, siendo la al menos una superficie de proyección (S) una modelización de un muro de pantallas, estando un muro de pantallas formado por un conjunto de pantallas dispuestas lado con lado, presentando la al menos una superficie de proyección (S) al menos una cara que comprende pantallas (E) capaces de visualizar imágenes o vídeos, siendo cada pantalla (E) un emplazamiento de visualización en la superficie de proyección (S), comprendiendo cada pantalla (E) una configuración de reposo según la cual no se visualiza ninguna imagen o vídeo en dicha pantalla (E) y una configuración de visualización según la cual se visualiza una imagen o vídeo en dicha pantalla (E), comprendiendo la etapa de cálculo (130) el cálculo de la posición de cada imagen o vídeo considerado en la al menos una superficie de proyección (S) de manera que cada posición de una imagen o de un vídeo esté localizada en el emplazamiento de una pantalla (E) diferente para cada imagen o vídeo, estando las imágenes o vídeos dispuestos en la superficie de proyección (S) independientes unos de otros, - una primera etapa de visualización de las imágenes o vídeos recibidos en las pantallas correspondientes de la superficie de proyección (S), y - una segunda etapa de visualización (140) en el visualizador (23) de al menos una parte de la al menos una superficie de proyección (S) vista desde un punto de observación (P2') según una dirección (Y2') de observación en la segunda marca (R2), estando el punto de observación (P2') y la dirección (Y2') de observación determinados en tiempo real en función de la posición del visualizador (23) en la primera marca (R1).

Description

DESCRIPCIÓN
Procedimiento de visualización de imágenes o de vídeos
[0001] La presente invención se refiere a un procedimiento de visualización de imágenes o de vídeos.
[0002] La invención se refiere también a un sistema asociado de visualización de imágenes o de vídeos.
[0003] En el campo de la videovigilancia, los operadores, por ejemplo, la policía, el ejército o incluso una empresa de seguridad, tienen por función detectar situaciones de riesgo en vídeos procedentes de las cámaras de videovigilancia.
[0004] En este contexto, los operadores se enfrentan a problemáticas relacionadas, sobre todo, con el gran número de vídeos que deben visualizarse en tiempo real.
[0005] Para permitir que los operadores visualicen varios vídeos simultáneamente, los vídeos se visualizan en general en tiempo real en muros de pantallas. Un muro de pantallas está formado por un conjunto de pantallas dispuestas lado con lado para formar una matriz de pantallas. Un muro de pantallas permite visualizar simultáneamente varios vídeos que filman, en particular, zonas geográficas diferentes o una misma zona geográfica según puntos de vista diferentes.
[0006] En la actualidad, el tamaño limitado de los muros de pantallas limita el número de vídeos visibles e interpretables por un operador. Ahora bien, cuanto mayor es el número de vídeos visualizados por un operador, mayor es la probabilidad de que el operador detecte un incidente o una situación de riesgo durante sus misiones de vigilancia.
[0007] Además, en el caso de un muro de pantallas de gran anchura, el operador debe desplazarse para visualizar vídeos localizados en extremos opuestos del muro de pantallas. Además, la realización de acciones en los vídeos de un muro de pantallas, por ejemplo, una parada en la imagen o un zoom, necesita el uso de periféricos exteriores, situados más o menos lejos de las pantallas que visualizan los vídeos de interés y por tanto no es óptimo en términos de ergonomía.
[0008] Además, la visualización de vídeos en un muro de pantallas consume mucha energía y genera molestias sonoras y térmicas. Además, si se desea aumentar el número de vídeos visualizables en un muro de pantallas, se requiere una mayor superficie para disponer el muro de pantallas, lo que aumenta la huella en el suelo. Además, una utilización óptima de un muro de pantallas impone un cierto número de restricciones, en particular, un campo de visión despejado entre el operador y el muro de pantallas, así como condiciones de iluminación que reducen al mínimo los reflejos en las pantallas para no deslumbrar al operador. Por consiguiente, los muros de pantallas son sistemas cuyo coste de implantación es elevado.
[0009] El documento US 2002/036649 A describe un ejemplo de procedimiento de visualización. El documento US 2012/068914 A se aplica en un ejemplo a un casco que presenta un visualizador. El documento EP 2624581 A se refiere a un procedimiento y un sistema para dividir una pantalla en varias regiones. El documento WO 2012/153805 se refiere a un sistema de vigilancia que usa un HMD para visualizar una imagen sintética de un modelo 3D del entorno para vigilar, definiéndose esta imagen en función de la posición y de la orientación de1HMD. El documento JP 2008 160203 describe un sistema de vigilancia en el que se visualizan una o varias imágenes/vídeos que provienen de cámaras de vigilancia en una pequeña pantalla de tipo HMD en el campo de visión del usuario.
[0010] Un objeto de la invención es permitir la visualización de varias imágenes o vídeos simultáneamente en una misma pantalla de visualización a la vez que se facilita la realización de acciones sobre las imágenes o vídeos visualizados.
[0011] Para este fin, la presente invención se refiere a un procedimiento de visualización según la reivindicación 1.
[0012] Según modos particulares de implementación, el procedimiento de visualización comprende una o varias de las características de las reivindicaciones 2 a 7, tomadas de forma aislada o según cualquier combinación técnicamente posible.
[0013] La presente invención se aplica también a un sistema de visualización según la reivindicación 8.
[0014] Según un modo particular de implementación, el sistema de visualización puede comprender la característica de la reivindicación 9.
[0015] Otras características y ventajas de la invención se desprenderán de la lectura de la descripción que se ofrece a continuación de realizaciones de la invención, proporcionadas únicamente a modo de ejemplos no limitativos y en referencia a los dibujos anexos en los que:
- la figura 1 es una representación esquemática de un sistema de visualización que permite la implementación de un procedimiento de visualización según la invención,
- la figura 2 es una representación esquemática de un casco de realidad virtual en una primera marca,
- la figura 3 es un organigrama de un ejemplo de implementación de un procedimiento de visualización según la invención,
- la figura 4 es una representación esquemática de un ejemplo de una superficie de proyección de forma esférica en una segunda marca,
- la figura 5 es una representación esquemática de otro ejemplo de superficie de proyección de forma cilíndrica en la segunda marca de la figura 4,
- la figura 6 es una representación esquemática de otros ejemplos más de superficies de proyección de formas cilíndrica, esférica y plana en la segunda marca de la figura 4,
- las figuras 7, 8 y 9 son representaciones esquemáticas de partes de una superficie de proyección visualizada en el visualizador de la figura 2, y
- las figuras 10, 11 y 12 son representaciones esquemáticas de partes de otra superficie de proyección visualizadas en el visualizador de la figura 2.
[0016] Un sistema de visualización 10, ilustrado en la figura 1, es capaz de implementar un procedimiento de visualización de imágenes o de vídeos según la invención. Las imágenes o los vídeos son suministrados, por ejemplo, por cámaras de videovigilancia y/o grabadores de vídeo.
[0017] El sistema de visualización 10 comprende un casco de realidad virtual 14 y un ordenador 16 en interacción con el casco de realidad virtual 14.
[0018] En la realización ilustrada en la figura 1, el sistema de visualización 10 comprende, además, periféricos 20 de adquisición de órdenes del usuario y dispositivos 22 de restitución del sonido, siendo opcionales cada uno de estos periféricos y dispositivos.
[0019] El casco de realidad virtual 14 está configurado para sumergir al usuario en una realidad virtual. Una realidad virtual o mundo virtual es una simulación informática interactiva inmersiva, visual, sonora y/o háptica, de entornos reales o imaginarios.
[0020] El casco de realidad virtual 14 puede colocarse en la cabeza de un usuario. Así, el casco de realidad virtual 14 puede moverse conjuntamente con la cabeza del usuario.
[0021] El casco de realidad virtual 14 está conectado al ordenador 16 y es capaz de intercambiar datos con el ordenador 16.
[0022] El casco de realidad virtual 14 comprende, especialmente, un visualizador 23 y sensores de detección de movimientos.
[0023] Como variante, el casco 14 comprende al menos dos visualizadores 23 distintos.
[0024] El visualizador 23 puede colocarse en posición fija frente a los ojos del usuario. El visualizador 23 es una pantalla configurada para visualizar, especialmente, imágenes o vídeos.
[0025] Las coordenadas del visualizador 23 se referencian en una primera marca R1 ilustrada en la figura 2.
[0026] Como se ilustra en la figura 2, la primera marca R1 tiene un centro P1 y tres ejes ortogonales X1, Y1, Z1 orientados según tres direcciones X1, Y1, Z1. La primera marca R1 está fija en el sistema de referencia terrestre.
[0027] Como puede verse en la figura 2, el visualizador 23 está asociado a una marca de visualización R1' de centro P1' y que tiene tres ejes ortogonales X1', Y1', Z1' orientados según tres direcciones X1', Y1', Z1'. El eje X1' y el eje Z1' son paralelos al plano del visualizador 23 del casco 14. El eje Y1' es perpendicular al plano del visualizador 23 del casco 14. El centro P1' de la marca de visualización R1' es el centro del visualizador 23 del casco 14. La marca de visualización R1' es fija con respecto al visualizador 23 pero puede moverse con respecto a la primera marca R1.
[0028] Las coordenadas del centro P1 de la marca R1 son las coordenadas iniciales del centro P1' de la marca R1'. Asimismo, las direcciones de orientación X1, Y1, Z1 de la marca R1 son respectivamente idénticas a las direcciones iniciales de orientación X1', Y1', Z1' de la marca R1'.
[0029] Los ángulos 0X1', ©Y1', ©Z1' permiten medir los movimientos de rotación del casco 14 en el sistema de referencia terrestre. Estos movimientos se deben, por ejemplo, a los movimientos de la cabeza del usuario cuando el casco 14 se coloca en la cabeza del usuario. En particular, el ángulo 0X1' permite medir el cabeceo del casco 14, es decir, la rotación de la marca de visualización R1' alrededor del eje X1'. El ángulo ©Y1' permite medir el balanceo del casco 14, es decir, la rotación de la marca de visualización R1' alrededor del eje Y1'. El ángulo ©Z1' permite medir el movimiento lateral del casco 14, es decir, la rotación de la marca de visualización R1' alrededor del eje Z1'.
[0030] La longitud del visualizador 23 en la dirección del eje X1' está comprendida, por ejemplo, entre 100 milímetros (mm) y 300 mm. La anchura del visualizador 23 en la dirección del eje Z1' está comprendida, por ejemplo, entre 30 mm y 150 mm.
[0031] Los sensores son sensores de detección de movimientos. Los sensores están configurados para medir los movimientos efectuados por el visualizador 23 llevado en la cabeza del usuario.
[0032] Los sensores están configurados para transmitir los movimientos medidos al ordenador 16. Los sensores están así conectados al ordenador 16.
[0033] Los sensores son, por ejemplo, acelerómetros, girómetros, brújulas, plomadas digitales, magnetómetros, giroscopios o sensores de presión.
[0034] El ordenador 16 es, por ejemplo, un ordenador que incluye un procesador 24, y opcionalmente un teclado 25 y una unidad de visualización 28. El ordenador 16 incluye, además, conexiones a una red tal como la red local que permite que varios usuarios se conecten en red.
[0035] El procesador 24 comprende una unidad de tratamiento de datos 30 y una memoria 32. En la memoria 32 se almacena un programa informático que comprende instrucciones de programa. El programa informático puede cargarse en la unidad de tratamiento de datos 30 y está adaptado para conllevar la implementación de un procedimiento de visualización según la invención cuando el programa informático se implementa en la unidad de tratamiento de datos 30.
[0036] El programa informático comprende, especialmente, un módulo de adquisición de flujo de datos capaz de activar, en interacción con la unidad de tratamiento de datos 30, la adquisición de datos que provienen de cámaras de vídeos de vigilancia y/o de grabadores de vídeo. El programa informático comprende, además, un módulo de adquisición de movimientos capaz de recibir y de tratar, en interacción con la unidad de tratamiento de datos 30, los datos enviados por los sensores del casco 14 o los periféricos 20 de adquisición de órdenes del usuario. El programa informático comprende, también, un módulo de cálculo, así como un módulo de tratamiento de imágenes y un módulo de visualización.
[0037] En la memoria 32 se almacena, ventajosamente, una base de datos. La base de datos comprende referencias de acceso a al menos un elemento elegido en un grupo que incluye: vídeos, imágenes y datos de audio.
[0038] Los vídeos o imágenes se obtienen de cámaras de videovigilancia capaces de enviar en tiempo real o en tiempo diferido las imágenes o vídeos adquiridos al sistema de visualización 10. Dichas imágenes o vídeos son enviados, por ejemplo, al sistema de visualización 10 según un protocolo Ethernet conocido de por sí, de acuerdo con las normas del grupo IEEE 802.3, o según un protocolo de transmisión inalámbrico según las normas del grupo IEEE 802.11 (Wi-Fi) o del grupo IEEE 802.15 (Bluetooth).
[0039] Las cámaras de videovigilancia están dispuestas, por ejemplo, en un entorno urbano en zonas predeterminadas y potencialmente alejadas geográficamente del sistema de visualización 10.
[0040] Los datos de audio son, especialmente, los datos de audio asociados a los vídeos.
[0041] Los periféricos 20 de adquisición de órdenes están configurados para permitir al usuario del casco 14 enviar órdenes al ordenador 16.
[0042] Los periféricos 20 se eligen, por ejemplo, en un grupo que comprende: un mando para juegos, una pedalera, una manilla, un ratón de ordenador, una pantalla táctil y un analizador de la voz de un usuario. Un mando para juegos es un periférico informático que incluye, especialmente, un mando apoyado sobre una base, así como botones, gatillos y sticks. Un stick es un mando para juegos analógico de pequeño tamaño que se maneja con el pulgar.
[0043] El teclado 25 del ordenador 16 puede usarse también como periférico 20 de adquisición de órdenes.
[0044] Los periféricos 20 están configurados para adquirir órdenes, cuando el usuario efectúa, por ejemplo, al menos una de las operaciones elegidas en un grupo que comprende: el apoyo corto o largo sobre un botón o un gatillo de un mando para juegos, el apoyo corto o largo sobre una combinación de botones y/o de gatillos de un mando para juegos, la orientación de sticks de un mando para juegos con ángulos variables en el tiempo, el apoyo sobre una o varios pedales de una pedalera con ángulos variables en el tiempo o en modo todo o nada, la pronunciación en voz alta de órdenes vocales, la rotación de una rueda de un ratón, las acciones de golpeteo o de deslizamiento de uno o varios dedos en una pantalla táctil y el apoyo corto o largo sobre uno o varios botones de un ratón.
[0045] El dispositivo 22 de restitución del sonido es, por ejemplo, un casco de audio. Un casco de audio es un dispositivo que se coloca sobre las orejas de un usuario y que tiene como función restituir contenidos sonoros en los oídos del usuario.
[0046] A continuación, se describirá el funcionamiento del sistema de visualización 10 en referencia a la figura 3 que es un organigrama de un ejemplo de implementación de un procedimiento de visualización según la invención.
[0047] El procedimiento de visualización comprende una etapa 100 de recepción de flujo de datos proveniente de cámaras de videovigilancia. Los flujos de datos se adquieren, por ejemplo, en tiempo real o en tiempo diferido y se registran en la base de datos del ordenador 16. Los datos adquiridos son, especialmente, vídeos y/o imágenes.
[0048] La etapa de recepción 100 es implementada por el módulo de adquisición de flujo de datos del programa informático del ordenador 16 en interacción con la unidad de tratamiento 30.
[0049] El procedimiento comprende, a continuación, una etapa 110 de disposición del casco 14 en la cabeza del usuario de manera que el centro del visualizador 23 se coloque en el centro de la visión binocular del usuario. La visión binocular es un modo de visión en el que se usan simultáneamente los dos ojos de un usuario.
[0050] El procedimiento comprende, a continuación, una etapa 120 de adquisición en tiempo real de la posición del casco 14 en la primera marca R1 por medio de los sensores del casco 14. En particular, las coordenadas del centro P1' y los valores de los ángulos 0X1', ©Y1', ©Z1' en la primera marca R1 se miden con un intervalo de tiempo. El intervalo de tiempo está comprendido, por ejemplo, entre 0,5 milisegundos (ms) y 15 ms.
[0051] La posición del casco 14 es transmitida en tiempo real al ordenador 16 por medio del módulo de adquisición de movimientos del programa informático en interacción con la unidad de tratamiento 30.
[0052] El procedimiento de visualización comprende, a continuación, una etapa 130 de cálculo de una disposición de al menos dos imágenes o vídeos en al menos una superficie de proyección S. Las imágenes o vídeos son las imágenes o vídeos adquiridos durante la etapa de recepción 100 o las imágenes o vídeos cuyo camino de acceso se almacena en la base de datos de la memoria 30.
[0053] Como se ilustra en la figura 4, una superficie de proyección S es un objeto matemático que pertenece a un mundo virtual definido en una segunda marca R2 de centro P2 y que tiene tres ejes ortogonales X2, Y2, Z2 orientados según tres direcciones X2, Y2, Z2. La segunda marca r2 es fija con respecto a la primera marca R1 ilustrada en la figura 3. La segunda marca R2 es la imagen de la primera marca R1 por una combinación de transformaciones geométricas, por ejemplo, traslaciones y rotaciones. En el ejemplo de la figura 4, la superficie de proyección S tiene forma esférica y el centro P2 de la segunda marca R2 es el centro de la superficie de proyección S.
[0054] Cada superficie de proyección S tiene una forma elegida, por ejemplo, en un grupo que comprende: una esfera, un cilindro, un elipsoide, un hiperboloide, un paraboloide y un plano.
[0055] La superficie de proyección S presenta una cara interna y una cara externa. Al menos una de entre la cara interna y la cara externa comprende pantallas E configuradas para visualizar imágenes o vídeos almacenados en memoria. Las pantallas E son emplazamientos de visualización en la superficie de proyección S. Las pantallas E son de dimensiones idénticas o diferentes según las pantallas E. Cada pantalla E comprende una configuración de reposo según la cual no se visualiza ningún vídeo o imagen en la pantalla E y una configuración de visualización según la cual se visualiza un vídeo o una imagen en la pantalla E.
[0056] Según la invención, la etapa 130 de cálculo de una disposición comprende el cálculo de la posición de cada imagen o vídeo considerado en la superficie de proyección S de manera que cada posición de una imagen o de un vídeo esté localizada en el emplazamiento de una pantalla E diferente para cada imagen o vídeo. Por el término «distribución de imágenes o de vídeos» se entiende la disposición en la superficie de proyección S de las imágenes o vídeos según una disposición predefinida o no. La distribución de las imágenes o vídeos en la cara interna y/o la cara externa de la superficie de proyección S se registra en la memoria 30 del ordenador 16.
[0057] Como variante, la distribución de las imágenes o vídeos se realiza de manera aleatoria o es elegida por el usuario por medio del teclado 25 y/o de uno de los periféricos 20 y del ordenador 16.
[0058] El cálculo de una disposición es implementado por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0059] A continuación, las imágenes o vídeos se tratan y se conforman de manera que cada imagen o vídeo sea la proyección de una imagen inicialmente rectangular en la superficie de proyección S. Dicho tratamiento es implementado por el módulo de tratamiento del programa informático en interacción con la unidad de tratamiento 30.
[0060] Según la invención, las imágenes o vídeos son visualizados, a continuación, en las pantallas E correspondientes de la superficie de proyección S. Dicha visualización es implementada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0061] Según la invención, las imágenes o vídeos dispuestos en la superficie de proyección S son independientes unos de otros. Así, dichas imágenes o vídeos provienen, por ejemplo, de cámaras de videovigilancia diferentes.
[0062] En el ejemplo ilustrado en la figura 4, la superficie de proyección S tiene una forma esférica y se disponen imágenes o vídeos en la cara interna de la superficie de proyección S.
[0063] En el ejemplo ilustrado en la figura 5, la superficie de proyección S tiene una forma cilíndrica y se disponen imágenes o vídeos en la cara externa de la superficie de proyección S.
[0064] El ejemplo de la figura 6 ilustra tres superficies de proyección: la primera S1 tiene una forma cilíndrica, la segunda S2 tiene una forma plana y la tercera S3 tiene una forma esférica. Las imágenes o vídeos se disponen en las caras externas de cada una de estas superficies de proyección S1, S2, S3.
[0065] El procedimiento de visualización comprende, a continuación, una etapa 140 de visualización en el visualizador 23 de una o de todas las partes de las diferentes superficies de proyección S o de cualquier otro elemento del mundo virtual que se encuentre en un cono C que tenga un vértice (definido más adelante) y una altura (cuya orientación se define más adelante), así como generatrices que forman cada una un ángulo predefinido con la altura del cono. El ángulo predefinido es, por ejemplo, igual a 60°.
[0066] La etapa de visualización 140 comprende, especialmente, una primera fase de determinación de los elementos del mundo virtual situados en el cono C, y después de proyección de los elementos determinados en una superficie plana P perpendicular a la altura del cono C. La superficie plana P está delimitada por las generatrices del cono C y pasa por el elemento determinado más alejado del vértice del cono C. Los elementos proyectados en la superficie plana P son vistos por tanto desde un punto de observación y según una dirección de observación definidos en la segunda marca R2. El punto de observación es el vértice del cono C y la dirección de observación es según la altura del cono C. Dicho cono C se ilustra, por ejemplo, en la figura 4.
[0067] La etapa de visualización 140 comprende a continuación una segunda fase de visualización de la superficie plana P en el visualizador 23.
[0068] La primera fase de la etapa de visualización 140 comprende el cálculo de la posición del punto de observación, es decir, del vértice del cono C, y de la dirección de observación, es decir, de la dirección de la altura del cono C, definidos en la segunda marca R2. El punto de observación y la dirección de observación son determinados en tiempo real en función de la posición medida del casco 14 en la primera marca R1.
[0069] Así, como se ilustra en la figura 4, se define una marca de referencia R2' de centro P2' y que tiene tres ejes ortogonales X2', Y2', Z2' orientados según tres direcciones X2', Y2', Z2'. El centro P2' de la marca de referencia R2' es el punto de observación, es decir, el vértice del cono C. La dirección Y2' es la dirección de observación, es decir, la dirección de la altura del cono C. La marca de referencia R2' puede moverse en la segunda marca R2.
[0070] La posición del centro P2' de la marca de referencia R2' se calcula a partir de la posición del centro P1' de la marca de visualización R1' en la primera marca R1. Más en concreto, las coordenadas del centro P2' de la marca de referencia R2' en la segunda marca R2 vienen dadas por la ecuación siguiente:
P2' = /(PIO P2[nit ,
(ec1)
en la que los términos en negrita son vectores,
f es una función que permite transformar las coordenadas de elementos en la primera marca R1 en coordenadas en la segunda marca R2, siendo f por ejemplo la identidad,
P2' es un vector de coordenadas del centro P2' de la marca de referencia R2' en la segunda marca R2,
P1' es un vector de coordenadas del centro P1' de la marca de visualización R1' en la primera marca R1 y P2'init es un vector de coordenadas del centro P2' de la marca de referencia R2' en la segunda marca R2 en el estado inicial, es decir, antes de la primera medida de la posición del casco 14 de realidad virtual, o en la reinicialización del sistema de visualización 10.
[0071] Las coordenadas del vector P2'¡n¡t en la segunda marca R2 son registradas en la memoria 30 del ordenador 16 y pueden ser modificadas por el usuario por medio del ordenador 16 o los periféricos 20 o por el teclado 25 del ordenador 16. Por ejemplo, las coordenadas del vector P2'¡n¡t son nulas, y, el punto de observación P2' está situado en el centro de la segunda marca R2 en el estado inicial.
[0072] Los ángulos 0X2', ©Y2', ©Z2' de la marca de referencia R2' permiten modelizar cambios de la dirección Y2' de observación debidos a desplazamientos del visualizador 23 después, por ejemplo, de movimientos de la cabeza del usuario. En particular, el ángulo 0X2' permite modelizar el cambio de dirección de observación debido al cabeceo del visualizador 23, es decir, a la rotación de la marca de referencia R2' alrededor del eje X2'. El ángulo ©Y2' permite modelizar el cambio de dirección de observación debido al balanceo del visualizador 23, es decir, la rotación de la marca de referencia R2' alrededor del eje Y2'. El ángulo ©Z2' permite modelizar el cambio de dirección de observación debido al movimiento lateral del visualizador 23, es decir, la rotación de la marca de referencia R2' alrededor del eje Z2'. Los ángulos 0X2', ©Y2', ©Z2' permiten así determinar los cambios de direcciones de los ejes X2', Y2' y Z2' en la segunda marca R2 y por tanto determinar la dirección Y2' de observación de la superficie de proyección S en la segunda marca R2.
[0073] Los valores de los ángulos ©X2', ©Y2', ©Z2' en la segunda marca R2 se calculan a partir de los valores de los ángulos ©X1', ©Y1', ©Z1' en la primera marca R1. Más en concreto, los valores de los ángulos ©X2', ©Y2', ©Z2' en la segunda marca R2 vienen dados por las ecuaciones siguientes:
9X 2'= n e x i ' ) GX2'init, (ec2)
eY2' = f(9Y\') eY2'init, (ec3)
6Z2' = f(9 Z í' ) + 9Z2'init
(ec4)
en las que f es una función que permite transformar las coordenadas de elementos en la primera marca R1 en coordenadas en la segunda marca R2, siendo f, por ejemplo, la identidad, y
QX2’ in it , QY2' in it , OZ2' init son respectivamente los valores iniciales de los ángulos ©X2', ©Y2', ©Z2' en la segunda marca R2, es decir, los valores de los ángulos ©X2', ©Y2', ©Z2' antes de la primera medida de la posición del casco 14. Por ejemplo, los valores de los ángulos QX2 init , QY2' init , OZ2' ¡n¡t son nulos en el estado inicial.
[0074] La primera fase de la etapa de visualización 140 comprende, a continuación, la determinación del conjunto de los elementos del mundo virtual situados en el cono C. Los elementos comprendidos en el cono C son, por ejemplo, partes de una o varias superficies de proyección S.
[0075] La primera fase de la etapa de visualización 140 comprende, a continuación, la determinación del elemento del mundo virtual comprendido en el cono C y el más alejado del vértice del cono C, es decir, del punto de observación P2', lo que permite determinar la superficie plana P. Dicha superficie plana P se ilustra, por ejemplo, en línea discontinua en la figura 4. La superficie plana P es tangente en un punto M a la superficie de proyección S y por tanto está en el exterior de la esfera de la superficie de proyección de la figura 4. El centro de la superficie plana P se concreta en el punto M.
[0076] La primera fase de la etapa de visualización 140 comprende, a continuación, la proyección de los elementos situados en el cono C en la superficie plana P determinada. Los elementos son proyectados por orden creciente de la distancia de cada elemento al vértice del cono C de forma que no calcula las partes no visibles desde el punto de observación. Así, un elemento cercano al vértice del cono C puede en potencia enmascarar un elemento más alejado del vértice del cono C que así no será proyectado.
[0077] La etapa de visualización 140 comprende, a continuación, una segunda fase de visualización en el visualizador 23 de la superficie plana P, y en particular de los elementos proyectados en esta superficie plana P. Se aplica un coeficiente de reducción o de multiplicación a las dimensiones de la superficie plana P y, por tanto, a la proyección de los elementos en la superficie plana P de manera que las dimensiones de la superficie plana P sean iguales a las dimensiones del visualizador 23. Así, la integridad de los elementos proyectados en la superficie plana P se visualiza en el visualizador 23. El coeficiente de reducción o de multiplicación es la relación entre una dimensión del visualizador 23, por ejemplo, la anchura del visualizador 23, y una dimensión correspondiente de la superficie plana P, en este ejemplo la anchura de la superficie plana P.
[0078] El centro de la superficie plana P, es decir, el punto M, se modeliza, por ejemplo, en el centro de la visión binocular producida por el visualizador 23, por un puntero en forma de cruz o por un punto que representa el punto M. El centro de la superficie plana P en la segunda marca R2, es decir, el punto M, está en el centro de la visión binocular producida por el visualizador 23 durante la visualización de la superficie plana P en el visualizador 23.
[0079] Así, cuanto más cerca está el punto de observación P2' del punto M en la segunda marca R2, más pequeñas son las dimensiones de la superficie plana P en la segunda marca R2 y más se agranda la parte de la superficie de proyección S o vista de cerca en el visualizador 23. Acercar el punto de observación P2' del punto M en la segunda marca R2 equivale así a hacer un zoom de aumento en el visualizador 23. Asimismo, cuanto más lejos está el punto de observación P2' del punto M en la segunda marca R2, más grandes son las dimensiones de la superficie plana P en la segunda marca R2 y más se acorta la parte de la superficie de proyección S o vista de lejos en el visualizador 23. Alejar el punto de observación P2' del punto M equivale a un zoom de reducción en el visualizador 23.
[0080] La figura 6 ilustra diferentes posiciones del punto M y del punto de observación P2'. Como se ilustra en la figura 6 desde el punto de observación P2', al menos una parte de la superficie de proyección cilíndrica S1 puede visualizarse en el visualizador 23, especialmente en la dirección de observación del punto M1, así como al menos una parte de la superficie de proyección plana S2, especialmente en la dirección de observación del punto M2 y al menos una parte de la superficie de proyección esférica S3 según una dirección Y2' de observación suministrada por la posición del visualizador 23 en la primera marca R1. Desde el punto de observación P3', al menos una parte de la superficie de proyección plana S2 puede visualizarse en el visualizador 23, especialmente en la dirección de observación del punto M3, así como al menos una parte de la superficie de proyección esférica S3. Por el contrario, desde el punto de observación P3', ninguna dirección de observación permite la visualización de la superficie de proyección cilíndrica S1 en el visualizador 23, estando esta superficie S1 enmascarada por la superficie de proyección S2 con independencia de cuál sea la dirección de observación desde el punto de observación P3'.
[0081] La figura 7 es un ejemplo de elementos del mundo virtual visualizados en el visualizador 23. En este ejemplo, los elementos visualizados son en totalidad una parte de una superficie de proyección S que comprende, especialmente, pantallas E1 a E8. Aun cuando no sea el caso de la figura 7, estas pantallas E1 a E8 podrían estar enmascaradas opcionalmente por objetos del mundo virtual que se encuentren entre el punto de observación P2' y estas pantallas E1 a E8. Cada pantalla E1 a E8 está en una configuración de reposo o en una configuración de visualización. Las pantallas E3, E4 y E5 son visualizadas totalmente en el visualizador 23. Las pantallas E1, E2 y E6 solo se visualizan parcialmente en el visualizador 23, y algunas partes de estas pantallas E1, E2, E6 no se visualizan. Las pantallas E6 a E8 no se visualizan en el visualizador 23. La visualización de la figura 7 se obtiene, por ejemplo, a partir de la configuración de la segunda marca R2 ilustrada en la figura 4.
[0082] La figura 8 ilustra otra parte de la superficie de proyección S de la figura 7 visualizada en el visualizador 23. El paso de la visualización de la figura 7 a la visualización de la figura 8 se obtiene, por ejemplo, cuando la posición del casco 14 es trasladada en la dirección X1' de la primera marca R1' y se aplica una rotación al casco 14 alrededor del eje Z1', por ejemplo, después de un movimiento de la cabeza del usuario. Así, en la segunda marca R2 el punto de observación P2' se mantiene sin cambios, aunque se modifica la dirección Y2' de observación y, por tanto, la orientación de la altura del cono C. Así, las pantallas E6, E7 y E8 son visualizadas en parte o en su totalidad en el visualizador 23 y las pantallas E1 y E2 no se visualizan ya en el visualizador 23.
[0083] La figura 9 ilustra también otra parte de la superficie de proyección S de la figura 7 visualizada en el visualizador 23. El paso de la visualización de la figura 7 a la visualización de la figura 9 se obtiene, por ejemplo, cuando la posición del casco 14 es trasladada en la dirección X1 de la primera marca R1 en un sentido opuesto al sentido que permite pasar de la visualización de la figura 7 a la visualización de la figura 8.
[0084] Otros movimientos del casco 14, por ejemplo, cambios de la posición P1' o de los ángulos 0X1', ©Y1', ©Z1' del casco 14 en la primera marca R1, permiten la visualización de pantallas no visibles en el visualizador 23 situados, por ejemplo, a la derecha, a la izquierda, arriba o abajo del punto M en la segunda marca R2.
[0085] Como complemento, la etapa de visualización 140 comprende la reproducción del sonido de los vídeos visualizada en el visualizador 23 y, ventajosamente, en contacto con el punto M en la segunda marca R2 y por tanto en el visualizador 23. El volumen del sonido de cada vídeo está adaptado en función de la proximidad del centro de cada vídeo al punto de observación P2' en el mundo virtual y/o de una orden enviada por el usuario por medio de uno de los periféricos 20. Por ejemplo, cuando el centro de un vídeo se confunde con el punto P2', el sonido es máximo y promedia un factor de volumen ajustable por el usuario. Cuando la distancia entre el centro de un vídeo y el punto p2' aumenta, entonces disminuye el sonido asociado al vídeo.
[0086] La etapa de visualización 140 es implementada por los módulos de cálculo, de tratamiento y de visualización del programa informático en interacción con la unidad de tratamiento 30 y el casco 14.
[0087] Las etapas de adquisición 120, de cálculo 130 y de visualización 140 se iteran en intervalos de tiempo regulares de manera que la posición del punto de observación P2' y la dirección Y2' de observación son recalculadas durante los desplazamientos del casco 14.
[0088] El procedimiento comprende, opcionalmente, una etapa 150 de reinicialización de la posición de la segunda marca R2 con respecto a la primera marca R1. La segunda marca R2 está desplazada así con respecto a la primera marca R1. La reinicialización se traduce por un cambio de las coordenadas del vector P2'init y/o un cambio de los valores de los ángulos 9X2¡mt, ©Y2'init, ©Z2'init.
[0089] La etapa de reinicialización se activa, por ejemplo, después de la recepción de una orden de reinicialización enviada por el usuario por medio de los periféricos 20. La orden de reinicialización es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0090] El procedimiento comprende, opcionalmente, una etapa 160 de selección de pantallas E visualizadas en el visualizador 23 y de realización de acciones en las pantallas seleccionadas.
[0091] La etapa de selección 160 comprende una primera fase de puesta en memoria intermedia de una pantalla E de la parte de la superficie de proyección S proyectada en la superficie plana cuando la pantalla E se visualiza en un lugar predefinido del visualizador 23. El lugar predefinido del visualizador 23 es, por ejemplo, el centro del visualizador 23. La puesta en memoria intermedia es efectuada en la memoria 32 del ordenador 16.
[0092] La primera fase comprende, también, el resalte en la superficie de proyección S de la pantalla E puesta en memoria intermedia. El resalte de una pantalla E consiste, por ejemplo, en cambiar la forma y/o el contorno de la pantalla E en la superficie de proyección S y por tanto en el visualizador 23. El resalte de una pantalla E permite al usuario del casco 14 conocer con precisión la pantalla E en la que puede aplicar su próxima acción. En el caso de un uso multiusuarios, los otros usuarios tienen acceso exactamente a la pantalla E situada en el centro del visualizador 23 del usuario.
[0093] Cuando la pantalla E ya no se visualiza en el centro del visualizador 23, la pantalla E es suprimida de la memoria intermedia y ya no se resalta en la superficie de proyección S.
[0094] La etapa de selección 160 comprende, a continuación, una segunda fase de recepción de una orden de selección de la pantalla E puesta en memoria intermedia. La orden de selección es enviada por el usuario por medio de los periféricos 20 y es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0095] La pantalla E seleccionada se conserva en memoria intermedia incluso cuando la pantalla E ya no se visualiza en el centro del visualizador 23.
[0096] La segunda fase comprende, también, el mantenimiento del resalte de la pantalla E seleccionada en la superficie de proyección S incluso cuando la pantalla E ya no se visualiza en el centro del visualizador 23.
[0097] La etapa de selección 160 comprende, a continuación, facultativamente la selección de otra pantalla E repitiendo cada una de las fases primera y segunda de la etapa de selección. La etapa de selección 160 permite la selección de un número de pantallas inferior o igual al número de pantallas E de la superficie de proyección S.
[0098] La etapa 160 de selección comprende a continuación, opcionalmente, una de las fases tercera, cuarta, quinta, sexta y séptima siguientes tomadas de forma aislada o en todas las combinaciones técnicamente posibles.
[0099] La tercera fase comprende la deselección de una pantalla E después de la recepción de una orden de deselección enviada por el usuario por medio de los periféricos 20. La orden de deselección es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0100] La pantalla E deseleccionada es suprimida de la memoria intermedia y ya no se resalta en la superficie de proyección S.
[0101] La cuarta fase comprende la inversión de la posición de dos pantallas E seleccionadas después de la recepción de una orden de inversión enviada por el usuario por medio de los periféricos 20. La orden de inversión es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30. Por la expresión «inversión de dos pantallas» se entiende que cada pantalla toma la posición de la otra pantalla.
[0102] La quinta fase consiste en desplazar una pantalla E seleccionada que comprende una imagen o un vídeo en el emplazamiento de otra pantalla E de la superficie de proyección S.
[0103] La quinta fase comprende, en primer lugar, la recepción de una orden de desplazamiento enviada por el usuario por medio de los periféricos 20. La orden de desplazamiento es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0104] Después, la quinta fase comprende la puesta en memoria intermedia de una copia de la imagen o del vídeo visualizado en la pantalla E seleccionada.
[0105] La quinta fase comprende, también, la visualización de la copia en el centro del visualizador 23 de manera que la copia se coloque en el centro del visualizador 23 incluso cuando el visualizador 23 se desplaza. Así, el centro del visualizador 23 es ocupado por la copia. Por el contrario, las otras partes del visualizador 23 visualizan diferentes elementos de la segunda marca R2 proyectados sobre la superficie plana P en función de los desplazamientos del visualizador 23.
[0106] La quinta fase comprende, a continuación, la supresión de la imagen o del vídeo en la pantalla E seleccionada en la segunda marca R2.
[0107] La quinta fase comprende, a continuación, el desplazamiento de la imagen o del vídeo copiado en la segunda marca r2 en función de los desplazamientos del visualizador 23.
[0108] La quinta fase comprende, a continuación, la recepción de una orden de desenganche de la imagen o del vídeo copiado enviado por el usuario por medio de los periféricos 20. La orden de desenganche es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0109] Cuando tras la recepción de la orden de desenganche, el punto M de la segunda marca R2 no se localiza en una pantalla E de una superficie de proyección S, la quinta fase comprende la traslación y/o el giro de la imagen o del vídeo copiado en la segunda marca R2 hasta que la imagen o el vídeo copiado retoma su posición inicial en la pantalla E previamente seleccionada.
[0110] Cuando tras la recepción de la orden de desenganche, el punto M de la segunda marca R2 se localiza en otra pantalla E ya en una configuración de visualización, la copia se visualiza en la pantalla E en lugar de la imagen o del vídeo inicial. La imagen o el vídeo inicialmente visualizado en la otra pantalla E es copiado y colocado en el visualizador 23 de manera que la copia se coloque en el centro del visualizador 23 incluso cuando el visualizador 23 se desplaza. La quinta fase se repite así para el último vídeo copiado.
[0111] Cuando tras la recepción de la orden de desenganche el punto M de la segunda marca R2 se localiza en una pantalla E de una superficie de proyección S en una configuración de reposo, la imagen o el vídeo copiado se visualiza en la pantalla E.
[0112] La sexta fase comprende, cuando la pantalla E seleccionada está en una configuración de visualización, la supresión de la imagen o del vídeo visualizado en la pantalla E seleccionado después de la recepción de una orden de supresión enviada por el usuario por medio de los periféricos 20. La orden de supresión es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0113] La séptima fase comprende, cuando la o las pantallas E seleccionadas están en una configuración de visualización de vídeos, al menos una de las acciones siguientes: la puesta en pausa del vídeo de al menos una pantalla E seleccionada, el avance rápido del vídeo de al menos una pantalla E seleccionada, la lectura inversa del vídeo de al menos una pantalla E seleccionada y el rebobinado del vídeo de al menos una pantalla E seleccionada. Cada acción se realiza después de la recepción de una orden enviada por el usuario por medio de los periféricos 20 y es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0114] El procedimiento de visualización comprende, opcionalmente, una etapa 170 de giro o de puesta en rotación de la superficie de proyección S en la segunda marca R2.
[0115] La etapa 170 de giro se implementa para formas específicas de superficies de proyección S y/o posiciones específicas del punto de observación P2' que no permiten recorrer, por medio del visualizador 23, la integridad de la superficie de proyección S con independencia de las direcciones Y2' de observación desde el punto de observación P2'.
[0116] La etapa 170 de giro comprende el giro en la segunda marca R2 de la superficie de proyección S sobre sí misma, cuando el centro M del visualizador 23 está situado en una zona predeterminada del entorno virtual durante un tiempo predeterminado. La superficie de proyección S gira continuamente sobre sí misma un paso predeterminado, por ejemplo, igual a 20° por segundo hasta que el punto M abandona la zona predeterminada que ha desencadenado la acción. La zona predeterminada es, por ejemplo, un borde de la superficie de proyección S visualizado en el visualizador 23 o un objeto presente en el mundo en realidad virtual. El tiempo predeterminado es, por ejemplo, igual a 2 segundos.
[0117] Por ejemplo, como se ilustra en la figura 5, la forma de la superficie de proyección S es cilíndrica y el punto de observación P2' está situado en el lado de la cara externa de la superficie de proyección S, comprendiendo la cara externa las pantallas E. En la configuración de la figura 5, en el visualizador 23 solo puede visualizarse una cierta parte de la cara externa de la superficie de proyección S con independencia de la dirección Y2' de observación desde el punto de observación P2' ilustrado en la figura 5 (la parte visualizable se concreta en un rectángulo en la figura 5) si la superficie de proyección S se mantiene fija. Cuando el punto M está situado en una zona predeterminada del mundo virtual denominada zona de deslizamiento, durante, por ejemplo, más de 2 segundos, el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30 modifica las coordenadas de la superficie de proyección S en la segunda marca R2 para hacer girar la superficie de proyección S a una velocidad angular predeterminada hasta que el punto M no esté ya situado en la zona de deslizamiento. La zona de deslizamiento es, en su caso, relativa a la posición actual del punto P2', por ejemplo, cuando el movimiento lateral está comprendido entre 20° y 22° y el cabeceo está comprendido entre 12° y 18°. La velocidad angular predeterminada es en su caso variable en función de la posición del punto M con respecto al centro de la zona de deslizamiento y es, por ejemplo, igual a 5° por segundo.
[0118] Así, la totalidad de la cara externa de la superficie de proyección S puede visualizarse en el visualizador 23 desde el punto de observación P2'.
[0119] Las figuras 10 y 11 ilustran el giro de una superficie de proyección S visualizada en el visualizador 23 En la figura 10, el punto M de la superficie plana P está situado en una zona predeterminada del mundo virtual en este caso cerca de un borde B de la superficie de proyección S visualizado. El paso de la visualización de la figura 10 a la visualización de la figura 11 se obtiene girando sobre sí misma la superficie de proyección S sin cambiar la dirección Y2' de observación y la posición del punto de observación P2'. El paso de la visualización de la figura 11 a la visualización de la figura 12 se obtiene cambiando la dirección y 2' de observación desde el mismo punto de observación P2'.
[0120] El procedimiento comprende, opcionalmente, una etapa 180 de visualización de menús después de la recepción de una orden de menús enviada por el usuario por medio de los periféricos 20. La orden de menús es tratada por el módulo de cálculo del programa informático en interacción con la unidad de tratamiento 30.
[0121] Un menú es un elemento de interfaz gráfica en el que se presenta una lista de órdenes en forma de textos o de imágenes. Los menús se visualizan en una superficie de proyección S, por ejemplo, en una pantalla E, en la segunda marca R2 del mundo virtual, o entre la superficie de proyección S y el punto de observación P2' en la segunda marca R2 del mundo virtual o directamente en el visualizador 23 en la primera marca R1. Los menús pueden ser visualizados de forma permanente en el visualizador 23 en órdenes del usuario. Los menús comprenden zonas de acciones que permiten activar diferentes acciones. Por ejemplo, una zona de acción permite ordenar la implementación de la etapa de reinicialización 150 o de la etapa de selección 160.
[0122] Las etapas de reinicialización 150, de selección 160, de giro 170 y de visualización de menús 180 son opcionales. El orden de estas etapas se proporciona de modo arbitrario, pudiendo estas etapas realizarse en órdenes diferentes. Cada una de estas etapas es implementada por el ordenador 16 en interacción con el casco 14 y los periféricos 20.
[0123] Así, el procedimiento permite la modelización en tres dimensiones de uno o varios muros de pantalla de videovigilancia que visualizan, en tiempo real o en tiempo diferido, múltiples vídeos obtenidos de cámaras de videovigilancia. Según la invención, las superficies de proyección son, de hecho, modelizaciones de muros de pantallas no limitados en dimensiones, al contrario que los muros de pantallas del estado de la técnica.
[0124] Los sensores de movimientos situados en el casco 14 de realidad virtual permiten al usuario tener acceso fácilmente al conjunto de los vídeos o las imágenes visualizados en las diferentes superficies de proyección S. Los diferentes periféricos 20 de adquisición de órdenes permiten, también, al usuario tener acceso de forma sencilla a la integridad de las superficies de proyección, por ejemplo, bajarlas, elevarlas, hacerlas girar y también acercarlas o alejarlas. Otras acciones en los periféricos 20 de adquisición de control permiten también invertir, sustituir, elegir, resaltar, redimensionar o controlar el contenido de las pantallas E de las superficies de proyección. Por tanto, la ergonomía del usuario mejora con respecto al estado de la técnica, lo que permite, especialmente, aumentar la tasa de detección de situaciones de riesgo en los vídeos de vigilancia. Así, la ejecución de la acción sobre las imágenes o vídeos visualizados se ve facilitada con respecto al estado de la técnica.
[0125] El procedimiento de visualización permite también que varios usuarios conectados en red vean al mismo tiempo las mismas superficies de proyección, incluso si estos usuarios están físicamente en lugares diferentes.
[0126] Así, el sistema y el procedimiento según la invención permiten la visualización de múltiples vídeos o imágenes en el mismo visualizador 23 de un casco 14 de realidad virtual con un espacio ocupado mínimo y reduciendo el consumo eléctrico y las molestias sonoras en comparación con los muros de pantalla del estado de la técnica.

Claims (9)

REIVINDICACIONES
1. Procedimiento de visualización de imágenes o de vídeos en un visualizador (23), de manera que el visualizador (23) puede moverse y presenta una posición marcada en una primera marca (R1), estando el visualizador (23) incluido en un casco de realidad virtual (14), comprendiendo el procedimiento:
- una etapa de recepción de al menos dos imágenes o vídeos, de manera que las imágenes o vídeos se obtienen de cámaras de videovigilancia,
- una etapa de adquisición (120) en tiempo real de la posición del visualizador (23) en la primera marca (R1), - una etapa de cálculo (130) de una disposición de las al menos dos imágenes o vídeos recibidos en al menos una superficie de proyección (S) que pertenece a un mundo virtual definido en una segunda marca (R2), siendo la segunda marca (R2) la imagen de la primera marca (R1) por una combinación de transformaciones geométricas, siendo la al menos una superficie de proyección (S) una modelización de un muro de pantallas, estando un muro de pantallas formado por un conjunto de pantallas dispuestas lado con lado,
presentando la al menos una superficie de proyección (S) al menos una cara que comprende pantallas (E) capaces de visualizar imágenes o vídeos, siendo cada pantalla (E) un emplazamiento de visualización en la superficie de proyección (S), comprendiendo cada pantalla (E) una configuración de reposo según la cual no se visualiza ninguna imagen o vídeo en dicha pantalla (E) y una configuración de visualización según la cual se visualiza una imagen o vídeo en dicha pantalla (E),
comprendiendo la etapa de cálculo (130) el cálculo de la posición de cada imagen o vídeo considerado en la al menos una superficie de proyección (S) de manera que cada posición de una imagen o de un vídeo esté localizada en el emplazamiento de una pantalla (E) diferente para cada imagen o vídeo,
estando las imágenes o vídeos dispuestos en la superficie de proyección (S) independientes unos de otros, - una primera etapa de visualización de las imágenes o vídeos recibidos en las pantallas correspondientes de la superficie de proyección (S), y
- una segunda etapa de visualización (140) en el visualizador (23) de al menos una parte de la al menos una superficie de proyección (S) vista desde un punto de observación (P2') según una dirección (Y2') de observación en la segunda marca (R2), estando el punto de observación (P2') y la dirección (Y2') de observación determinados en tiempo real en función de la posición del visualizador (23) en la primera marca (R1).
2. Procedimiento de visualización según la reivindicación 1, en el que la etapa de visualización comprende:
• una fase de determinación de los elementos del mundo virtual situados en un cono (C), de vértice el punto de observación (P2') y de altura la dirección de observación (Y2'),
• una fase de proyección de dichos elementos determinados en una superficie plana (P) perpendicular a la altura del cono (C), y
• la visualización de la superficie plana (P) en el visualizador (23).
3. Procedimiento de visualización según la reivindicación 1 o 2, en el que el procedimiento comprende, además, la selección (160) de al menos una imagen o vídeo cuando la imagen o el vídeo se visualiza en un lugar predefinido del visualizador (23) para efectuar acciones en cada imagen o vídeo seleccionado.
4. Procedimiento de visualización según la reivindicación 3, en el que las acciones se eligen en un grupo que comprende: el desplazamiento en la distribución de la superficie de proyección de una imagen o vídeo seleccionado, la inversión en la distribución de la superficie de proyección de la posición de dos imágenes o vídeos cuando se seleccionan al menos dos imágenes o vídeos, la supresión de una o varias imágenes o vídeos seleccionados y la puesta en pausa, la lectura acelerada, la lectura inversa y el rebobinado de uno o varios vídeos seleccionados.
5. Procedimiento de visualización según cualquiera de las reivindicaciones anteriores, en el que la superficie de proyección tiene una forma elegida en un grupo que comprende: una esfera, un cilindro, un elipsoide, un hiperboloide, un paraboloide y un plano.
6. Procedimiento de visualización según cualquiera de las reivindicaciones anteriores, en el que el procedimiento comprende, además, el giro (170) sobre sí misma de la superficie de proyección (S) en la segunda marca (R2) cuando una zona predeterminada de la superficie de proyección (S) se visualiza en el visualizador (23) durante un tiempo predeterminado.
7. Procedimiento de visualización según cualquiera de las reivindicaciones anteriores, en el que la etapa de visualización (140) comprende la reproducción del sonido de al menos un vídeo visualizado en el visualizador (23), estando el volumen del sonido del vídeo visualizado determinado en función de la distancia en la segunda marca (R2) entre el punto de observación (P2') y un punto de la parte de la superficie de proyección (S) visualizada en el visualizador (23).
8. Sistema de visualización (10) de imágenes o de vídeos, comprendiendo el sistema (10):
- un visualizador (23), de manera que el visualizador (23) puede moverse y presenta una posición marcada en una primera marca (R1), estando el visualizador (23) incluido en un casco de realidad virtual (14),
- sensores de medida (130) en tiempo real de la posición del visualizador (23) en la primera marca (R1), y - un producto de programa informático que comprende instrucciones de programa, de manera que el programa informático puede cargarse en una unidad de tratamiento de datos (30) y está configurado para conllevar la implementación de las etapas siguientes:
o una etapa de recepción de al menos dos imágenes o vídeos, de manera que las imágenes o vídeos se obtienen de cámaras de videovigilancia,
o una etapa de cálculo (130) de una disposición de las al menos dos imágenes o vídeos recibidos en al menos una superficie de proyección (S) que pertenece a un mundo virtual definido en una segunda marca (R2), siendo la segunda marca (R2) la imagen de la primera marca (R1) por una combinación de transformaciones geométricas,
siendo la al menos una superficie de proyección (S) una modelización de un muro de pantallas, estando un muro de pantallas formado por un conjunto de pantallas dispuestas lado con lado,
presentando la al menos una superficie de proyección (S) al menos una cara que comprende pantallas (E) capaces de visualizar imágenes o vídeos, siendo cada pantalla (E) un emplazamiento de visualización en la superficie de proyección (S), de manera que cada pantalla (E) comprende una configuración de reposo según la cual no se visualiza ninguna imagen o vídeo en dicha pantalla (E) y una configuración de visualización según la cual se visualiza una imagen o vídeo en dicha pantalla (E),
comprendiendo la etapa de cálculo (130) el cálculo de la posición de cada imagen o vídeo considerado en la al menos una superficie de proyección (S) de manera que cada posición de una imagen o de un vídeo esté localizada en el emplazamiento de una pantalla (E) diferente para cada imagen o vídeo,
estando las imágenes o vídeos dispuestos en la superficie de proyección (S) independientes unos de otros, o una primera etapa de visualización de las imágenes o vídeos recibidos en las pantallas correspondientes de la superficie de proyección (S), y
o una segunda etapa de visualización (140) en el visualizador (23) de al menos una parte de la al menos una superficie de proyección (S) vista desde un punto de observación (P2') según una dirección (Y2') de observación en la segunda marca (R2), estando el punto de observación (P2') y la dirección (Y2') de observación determinados en tiempo real en función de la posición del visualizador (23) en la primera marca (R1).
9. Sistema de visualización (10) según la reivindicación 8, que comprende además periféricos (20) de adquisición de control accionables por el usuario para efectuar acciones sobre las imágenes o vídeos visualizados en el visualizador (23).
ES15202682T 2014-12-24 2015-12-24 Procedimiento de visualización de imágenes o de vídeos Active ES2874526T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1403008A FR3031201B1 (fr) 2014-12-24 2014-12-24 Procede d'affichage d'images ou de videos

Publications (1)

Publication Number Publication Date
ES2874526T3 true ES2874526T3 (es) 2021-11-05

Family

ID=53269526

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15202682T Active ES2874526T3 (es) 2014-12-24 2015-12-24 Procedimiento de visualización de imágenes o de vídeos

Country Status (4)

Country Link
EP (1) EP3038354B1 (es)
ES (1) ES2874526T3 (es)
FR (1) FR3031201B1 (es)
MX (1) MX355882B (es)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020025301A (ko) * 2000-09-28 2002-04-04 오길록 다중 사용자를 지원하는 파노라믹 이미지를 이용한증강현실 영상의 제공 장치 및 그 방법
JP2008160203A (ja) * 2006-12-20 2008-07-10 Shimadzu Corp 防犯監視システム
WO2012040086A1 (en) * 2010-09-20 2012-03-29 Kopin Corporation Miniature communications gateway for head mounted display
JP2012239068A (ja) * 2011-05-12 2012-12-06 Hitachi Kokusai Electric Inc 監視システム及び監視方法
FR2983330B1 (fr) * 2011-11-24 2014-06-20 Thales Sa Procede et dispositif de representation d'environnements synthetiques
EP2624581A1 (en) * 2012-02-06 2013-08-07 Research in Motion Limited Division of a graphical display into regions

Also Published As

Publication number Publication date
FR3031201A1 (fr) 2016-07-01
FR3031201B1 (fr) 2018-02-02
EP3038354A1 (fr) 2016-06-29
MX355882B (es) 2018-05-03
MX2016000090A (es) 2016-08-31
EP3038354B1 (fr) 2021-04-28

Similar Documents

Publication Publication Date Title
TWI782332B (zh) 一種擴增實境資料呈現方法、設備及儲存媒體
EP3042275B1 (en) Tilting to scroll
US10453175B2 (en) Separate time-warping for a scene and an object for display of virtual reality content
US9223408B2 (en) System and method for transitioning between interface modes in virtual and augmented reality applications
US9086724B2 (en) Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus
KR101785598B1 (ko) 기울여서 스크롤하기
EP3042276B1 (en) Tilting to scroll
ES2811800T3 (es) Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa
KR20180075191A (ko) 무인 이동체를 제어하기 위한 방법 및 전자 장치
TW201911133A (zh) 用於多個自由度之控制器追蹤
US20180330535A1 (en) Manipulating virtual objects on hinged multi-screen device
US8708818B2 (en) Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus
ES2874526T3 (es) Procedimiento de visualización de imágenes o de vídeos
EP2829150B1 (en) Using camera input to determine axis of rotation and navigation
JP2017167717A (ja) 投影装置、投影方法及びプログラム
CN109219789A (zh) 虚拟现实的显示方法、装置及终端
CN113010005A (zh) 用于设置虚拟对象在空间中的位置的方法和电子设备