ES2903439T3 - Procedimiento de visualización de datos relativos a un evento y sistema asociado - Google Patents
Procedimiento de visualización de datos relativos a un evento y sistema asociado Download PDFInfo
- Publication number
- ES2903439T3 ES2903439T3 ES16769958T ES16769958T ES2903439T3 ES 2903439 T3 ES2903439 T3 ES 2903439T3 ES 16769958 T ES16769958 T ES 16769958T ES 16769958 T ES16769958 T ES 16769958T ES 2903439 T3 ES2903439 T3 ES 2903439T3
- Authority
- ES
- Spain
- Prior art keywords
- display device
- event
- content
- data
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000000007 visual effect Effects 0.000 claims abstract description 81
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000013500 data storage Methods 0.000 claims abstract description 20
- 238000004891 communication Methods 0.000 claims description 43
- 230000005540 biological transmission Effects 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000005034 decoration Methods 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 7
- 238000010200 validation analysis Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 230000009849 deactivation Effects 0.000 claims description 5
- 239000003550 marker Substances 0.000 claims description 5
- 230000003213 activating effect Effects 0.000 claims description 2
- 238000012217 deletion Methods 0.000 claims description 2
- 230000037430 deletion Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000014616 translation Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 208000000112 Myalgia Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 208000013465 muscle pain Diseases 0.000 description 1
- 230000036314 physical performance Effects 0.000 description 1
- 230000009257 reactivity Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41415—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Procedimiento de visualización de datos relativos a un evento por lo menos por un espectador que lleva un dispositivo de visualización (10) equipado con una pantalla (15) por lo menos parcialmente transparente, comprendiendo el evento varios momentos sucesivos predeterminados, estando un conjunto de contenidos visuales asociado cada uno a uno de dichos momentos sucesivos almacenado en unos medios de almacenamiento de datos (12, 22, 42), comprendiendo el procedimiento la realización mediante unos medios de procesamiento de datos (13, 23, 43) de las etapas siguientes: (a) determinación de un momento en curso, (b) identificación en dicho conjunto del por lo menos un contenido visual asociado al momento en curso, (c) representación visual mediante dicha pantalla (15) del dispositivo de visualización de dicho por lo menos un contenido visual identificado, estando el procedimiento caracterizado por que comprende además la etapa siguiente: (f) determinación de la posición relativa por un lado, de un espacio escénico (201, 301) en el que se desarrolla el evento o de un elemento del espacio escénico y por otro lado, del dispositivo de visualización (10), siendo la etapa (f) repetida con una frecuencia determinada, siendo la etapa (c) realizada de tal manera que el por lo menos un contenido identificado sea representado visualmente desplazándose en la pantalla (15) en función de la posición relativa determinada.
Description
DESCRIPCIÓN
Procedimiento de visualización de datos relativos a un evento y sistema asociado
Campo técnico
Se refiere al campo técnico de la visualización de datos relativos a un evento por un espectador.
Estado de la técnica
Se conocen diferentes técnicas para permitir que un espectador visualice durante un evento unos datos relativos a este evento.
Por ejemplo, cuando el evento es un espectáculo en el que unas personas se expresan en un idioma, por ejemplo cantando o hablando, como una ópera, los datos a visualizar pueden ser unas traducciones de lo que se está diciendo.
Estas traducciones pueden estar impresas en un documento, tal como un libreto. Sin embargo, esto plantea varios problemas. En primer lugar, el espectador no puede mirar al mismo tiempo el libreto y el espectáculo que tiene lugar. El espectador debe alternar entre la emoción del escenario y el aspecto intelectual de la lectura. Además, esto necesita mover regularmente la cabeza y adaptar su visión entre un elemento cercano y un elemento más lejano, de lo cual resulta un esfuerzo físico repetido que puede provocar al final fatiga y dolores musculares.
En algunos lugares, por ejemplo algunas óperas, se instala una pantalla por encima del escenario, de manera que se representen visualmente los subtítulos. Aunque el texto y el escenario están entonces más cerca, sigue siendo difícil para el espectador mirar al mismo tiempo los subtítulos y el escenario por debajo, y subsisten los inconvenientes descritos anteriormente. Además, el espectador debe tener una visibilidad suficiente para ver a la vez los subtítulos y el escenario, lo cual puede ser complicado, incluso imposible desde determinados asientos de algunas salas de espectáculos.
Otros lugares presentan varias pantallas dispuestas en el lugar.
Se instalan por ejemplo unas pantallas en distintas filas y/o se incrusta una pantalla en el respaldo del asiento delante del que está sentado el espectador. Esto garantiza que el espectador pueda visualizar la traducción. Sin embargo, el espectador no puede mirar al mismo tiempo los subtítulos y el escenario y perduran los inconvenientes mencionados anteriormente.
Los documentos US2011/0050727 A1 y EP2378347 A1 describen cada uno un dispositivo de visualización llevado por un espectador y que comprende una pantalla. El dispositivo puede ser utilizado para representar visualmente por ejemplo unas descripciones relativas a un objeto físico de un evento tal como un espectáculo en un momento propicio del evento, por ejemplo después de una manipulación por parte del usuario, o bajo el control de un ordenador o similar en base a una cronología predeterminada o al estado de avance del espectáculo. El dispositivo permite una representación visual a una distancia virtual basada en la distancia medida entre el espectador y el objeto en cuestión. El documento EP2378347 A1 describe por otro lado la posibilidad de que el usuario controle, por ejemplo a través de botones, la posición del contenido virtual representado visualmente y evite así bloquear la vista del objeto.
Presentación
Un objetivo de la invención es paliar por lo menos uno de los inconvenientes presentados anteriormente.
Con este fin, la invención prevé un procedimiento de visualización de datos relativos a un evento por lo menos por un espectador de acuerdo con la reivindicación independiente 1.
Es posible devolver así la visualización del evento y la representación visual de los datos al campo de visión del espectador. De ello resulta una mejor experiencia del espectáculo, ya que el espectador puede disfrutar del evento al que asiste al mismo tiempo que visualiza los datos asociados, y puesto que ya no necesita realizar unos esfuerzos físicos durante el evento en este campo.
Unos modos particularmente ventajosos de realización del procedimiento están definidos por las reivindicaciones dependientes.
La invención se refiere asimismo a un sistema de visualización de datos relativos a un evento por lo menos por un espectador, estando el sistema configurado para realizar el procedimiento así definido.
La invención se refiere asimismo a unos medios de almacenamiento legibles por un equipo informático en los que
un producto de programa de ordenador comprende unas instrucciones de código para la ejecución de un procedimiento así definido.
Dibujos
Otros objetivos, características y ventajas aparecerán con la lectura de la descripción siguiente dada a título ilustrativo y no limitativo con referencia a los dibujos, en los que:
- la figura 1 representa esquemáticamente un sistema según un ejemplo de modo de realización de la invención,
- la figura 2 representa esquemáticamente una parte del campo de visión del espectador según otro ejemplo de modo de realización de la invención,
- las figuras 3A a 3C representan esquemáticamente una parte del campo de visión del espectador según otro ejemplo de modo de realización de la invención,
- la figura 4 representa esquemáticamente un procedimiento según un ejemplo de modo de realización de la invención,
- las figuras 5 a 9 representan unos ejemplos de modo de realización del procedimiento de la figura 4.
Descripción
Estructura general del sistema
Con referencia a la figura 1, se describe un sistema. El sistema 1 es un sistema de visualización de datos por lo menos por un espectador, relativos a un evento.
El sistema 1 está configurado para realizar el procedimiento tal como el descrito a continuación.
Por evento se entiende una actuación física a la que asisten uno o varios espectadores, teniendo lugar el evento en un lugar determinado tal como una sala, un estadio, etc. El evento es audiovisual (el usuario lo mira desde un punto de vista dado tal como un asiento), en particular sonoro y visual, es decir que implica la producción de un contenido sonoro y/o visual al que el espectador tiene acceso mientras asiste al evento en el lugar, mirando y escuchando directamente lo que ocurre en el lugar.
Por evento, se entenderá en particular un concierto, una ópera, una obra de teatro, un espectáculo, etc.
El contenido sonoro y/o el contenido visual es producido por ejemplo por una o varias persona(s). El contenido visual es producido por ejemplo por lo menos en parte por una o varias persona(s) que actúa(n) en un espacio visible para el espectador, tales como unos artistas en el escenario. El contenido sonoro es producido por ejemplo por lo menos en parte por la o las persona(s) que produce(n) el contenido visual (u otros, por ejemplo una orquesta). El contenido sonoro es producido por ejemplo por lo menos en parte por una o varias persona(s) emitiendo sonidos con la ayuda de su cuerpo, por ejemplo por medio de la voz o por medio de un aparato tal como un instrumento musical.
El evento comprende varios momentos sucesivos predeterminados, es decir que tiene una estructura predeterminada que se sigue cuando se realiza el evento y que, por lo tanto, se puede seguir. El evento es por ejemplo un fragmento musical cuyo contenido está predeterminado hasta cierto punto por su partitura. El evento es por ejemplo una ópera, que puede ser considerada por lo tanto como una serie de actos, durante los cuales se emite contenido sonoro correspondiente a una partitura, estando las canciones y los discursos de los personajes predeterminados, así como sus acciones.
El evento es por ejemplo un espectáculo. El evento se realiza por ejemplo por lo menos en parte a nivel de un espacio escénico, es decir un espacio predeterminado como aquel en el que una o varias persona(s) produce(n) un contenido visual apropiado para el evento. El espacio escénico es por ejemplo un escenario, por ejemplo el escenario de un teatro o de una ópera o de una sala de conciertos.
El sistema comprende unos medios de almacenamiento en los que se almacena un conjunto de contenidos visuales. Cada contenido visual está asociado a uno de dichos momentos sucesivos del evento. Los contenidos visuales comprenden por ejemplo unos elementos textuales, por ejemplo con unos textos que se representarán visualmente. Los textos son por ejemplo aquellos que son declamados por una o varias persona(s) durante uno de los momentos del evento. Los contenidos visuales comprenden por ejemplo unas partituras de música o cualquier otra representación de sonidos producidos durante uno de los momentos del evento.
El sistema 1 comprende por lo menos un dispositivo de visualización 10 tal como el descrito a continuación, por ejemplo una pluralidad de dispositivos de visualización 10, por ejemplo por lo menos dos, por ejemplo por lo menos tres, por ejemplo por lo menos diez, por ejemplo por lo menos veinte dispositivos de visualización 10.
El sistema comprende unos medios de procesamiento de datos (que como se verá, pueden estar o no integrados en el(los) dispositivo(s) de visualización (10), tal como un procesador, adaptados para realizar un procedimiento tal como el descrito a continuación, configurado(s) por ejemplo para realizar dicho procedimiento.
Dispositivo de visualización
El dispositivo de visualización 10 está adaptado para ser llevado por un espectador. El dispositivo de visualización 10 comprende por ejemplo unos medios para ser mantenido colocado a nivel de la cabeza del espectador. El dispositivo de visualización 10 comprende por ejemplo una estructura de gafas adaptada para ser mantenida a nivel de las orejas y/o de la nariz del espectador. El dispositivo de visualización 10 comprende por ejemplo una estructura de casco adaptada para ser colocada sobre la cabeza del espectador.
El dispositivo de visualización 10 está equipado con una pantalla 15 por lo menos parcialmente transparente (es decir, suficientemente transparente para ver el evento a través). La pantalla 15 comprende por ejemplo una o varias lente(s) de gafas y/o comprende una visera. La pantalla 15 tiene por ejemplo una transparencia variable. La pantalla 15 es por ejemplo una pantalla facial, estando el dispositivo de visualización 10 adaptado de manera que, cuando el espectador lleva puesto el dispositivo de visualización 10, la pantalla 15 esté dispuesta por lo menos parcialmente delante de los ojos del espectador, de manera que forme una pantalla entre los ojos del espectador y el espacio escénico cuando el espectador mira el espacio escénico.
El dispositivo de visualización 10 está adaptado para representar visualmente unos datos en la pantalla 15. Los datos pueden ser representados visualmente por ejemplo de manera luminosa. El dispositivo de visualización 10 puede comprender unos medios de regulación de los parámetros de representación visual de la pantalla 15 y/o los parámetros de representación visual pueden ser bloqueados en una configuración determinada. El dispositivo de visualización 10 puede estar así configurado para crear una realidad aumentada, por ejemplo representando visualmente uno o varios contenido(s) visual(es) asociado(s) a un momento en curso del evento. Además, dicho dispositivo de visualización 10 permite una mejor inmersión del espectador.
La representación visual en la pantalla 15 está realizada por ejemplo por un proyector del dispositivo de visualización 10, y/o por holograma, y/o por una pantalla de tipo LCD transparente, y/o de cristales líquidos que puede volverse localmente opaca bajo el efecto de una corriente eléctrica.
El dispositivo de visualización 10 está adaptado para representar visualmente unos datos en la pantalla 15 según una representación visual policromática o monocromática.
Los datos pueden estar representados visualmente en una parte específica de la pantalla 15, por ejemplo en la parte superior de la pantalla y/o en la parte inferior de la pantalla. La zona de representación visual en la pantalla puede ser modificable por ejemplo, de manera que permita que el espectador elija la zona a nivel de la cual desea que se realice la representación visual.
El dispositivo de visualización 10 puede comprender una interfaz de entrada/salida, por ejemplo una interfaz hombre/máquina, por ejemplo uno o varios accionador(es), por ejemplo un teclado, por ejemplo una interfaz táctil. La interfaz de entrada/salida comprende por ejemplo un sensor 11, por ejemplo un sensor táctil, por ejemplo por lo menos un accionador tal como un botón, por ejemplo una pluralidad de accionadores, por ejemplo un teclado. Alternativamente o como complemento, la interfaz de entrada/salida puede comprender una pantalla táctil.
El dispositivo de visualización 10 puede comprender unos medios de almacenamiento de datos 12. Los medios de almacenamiento de datos 12 comprenden por ejemplo una memoria, en particular de tipo flash.
El dispositivo de visualización 10 puede comprender unos medios de procesamiento de datos 13. Los medios de procesamiento de datos 13 comprenden por ejemplo un procesador.
El dispositivo de visualización 10 puede comprender unos medios de comunicación 14, por ejemplo unos medios de comunicación 14 inalámbricos o no, por ejemplo unos medios de comunicación 14 con un dispositivo de control 20 y/o un terminal de mando 40 tales como los descritos a continuación. Los medios de comunicación 14 con el dispositivo de control 20 están adaptados por ejemplo para realizar una comunicación de tipo Bluetooth o Wifi.
El dispositivo de visualización 10 puede comprender por lo menos un sensor óptico 16, por ejemplo de tipo cámara. El dispositivo de visualización 10 puede comprender así un sensor óptico delantero 161 adaptado para ser girado hacia la parte delantera. Por delantera se entiende sustancialmente en la dirección hacia la que se gira la cabeza o la mirada del espectador. El dispositivo de visualización 10 puede comprender así un sensor óptico posterior 162 adaptado para ser girado hacia la parte posterior. Por posterior se entiende sustancialmente en la dirección opuesta
a aquella hacia la cual se gira la cabeza o la mirada del espectador, es decir en dirección al espectador. En particular, el sensor óptico posterior 162 puede estar adaptado para formar un oculómetro, es decir que está configurado para medir los movimientos de los ojos. El sensor óptico delantero 161 y/o el sensor óptico posterior 162 pueden presentar una dirección modificable con respecto a la estructura del dispositivo de visualización 10.
El dispositivo de visualización 10 puede comprender por lo menos un sensor sonoro 17.
El dispositivo de visualización 10 puede estar configurado para transmitir su nivel de batería, por ejemplo a una red local 30 tal como el descrito a continuación. La transmisión puede ser periódica, o activada cuando el nivel de batería es detectado por el dispositivo de visualización 10 como inferior a un umbral predeterminado, por ejemplo el 20% de batería. Es posible proponer así al espectador un remplazo en el momento de una pausa.
El dispositivo de visualización 10 es por ejemplo un par de gafas inteligentes, por ejemplo unas SmartEyeGlass de Sony, por ejemplo unas Moverio BT-200 de Epson, por ejemplo ORA-1 de Optinvent, por ejemplo Google Glass de Google, o cualquier otro tipo de par de gafas inteligentes equivalente, configurado para presentar las características descritas.
Dispositivo de control
El sistema puede comprender por lo menos un dispositivo de control 20. El sistema puede comprender un dispositivo de control 20 para cada dispositivo de visualización 10.
Cada dispositivo de control 20 está adaptado para ser asociado a un dispositivo de visualización 10 tal como el descrito anteriormente. En particular, cada dispositivo de control 20 puede estar asociado a un dispositivo de visualización, pudiendo ser unívoca la asociación, es decir que cada dispositivo de control 20 está asociado a un único dispositivo de visualización 10, estando cada dispositivo de visualización 10 asociado a como máximo un dispositivo de control 20.
El dispositivo de control 20 puede comprender una interfaz de entrada/salida, por ejemplo una interfaz hombre/máquina, por ejemplo uno o varios accionador(es), por ejemplo un teclado, por ejemplo una interfaz táctil. La interfaz de entrada/salida comprende por ejemplo un sensor 21, por ejemplo un sensor táctil, por ejemplo por lo menos un accionador tal como un botón, por ejemplo una pluralidad de accionadores, por ejemplo un teclado. Alternativamente o como complemento, la interfaz de entrada/salida puede comprender una pantalla táctil 25.
El dispositivo de control 20 puede comprender unos medios de almacenamiento de datos 22. Los medios de almacenamiento de datos 22 comprenden por ejemplo una memoria.
El dispositivo de control 20 puede comprender unos medios de procesamiento de datos 23. Los medios de procesamiento de datos 23 comprenden por ejemplo un procesador.
El dispositivo de control 20 puede estar adaptado para detectar una señal de entrada procedente de la interfaz de entrada/salida.
El dispositivo de control 20 puede comprender unos medios de comunicación 24, por ejemplo unos medios de comunicación 24 inalámbricos o no, por ejemplo unos medios de comunicación 24 con un dispositivo de visualización 10 tal como el descrito anteriormente y/o un terminal de mando 40 tal como el descrito a continuación. Los medios de comunicación 24 con el dispositivo de visualización 10 están adaptados por ejemplo para realizar una comunicación de tipo Bluetooth.
El dispositivo de control 20 puede comprender unos medios de representación visual 25, por ejemplo una pantalla, por ejemplo una pantalla táctil. Los medios de representación visual 25 pueden formar parte de la interfaz de entrada/salida del dispositivo de control 20 o estar separados de la misma. Los medios de representación visual 25 pueden ser luminosos. El dispositivo de control 20 puede comprender unos medios de regulación de los parámetros de representación visual de los medios de representación visual 25 y/o los parámetros de representación visual pueden ser bloqueados en una configuración determinada.
El dispositivo de control 20 puede comprender por lo menos un sensor sonoro 27.
El dispositivo de control 20 puede estar configurado para transmitir su nivel de batería, por ejemplo a una red local 30 tal como la descrita a continuación. La transmisión puede ser periódica, o activada cuando el nivel de batería es detectado por el dispositivo de control 20 como inferior a un umbral predeterminado, por ejemplo el 20% de batería. Es posible proponer así al espectador un remplazo en el momento de una pausa.
El dispositivo de control 20 es por ejemplo un terminal móvil de tipo smartphone o tableta táctil configurado para presentar las características descritas en la presente memoria. El dispositivo de control 20 comprende por ejemplo una aplicación dedicada.
El dispositivo de control 20 puede comprender unos medios de carga para formar una fuente de alimentación con energía para el dispositivo de visualización 10. Los medios de carga son por ejemplo alámbricos, por ejemplo de manera que permitan recargar el dispositivo de visualización 10 durante el evento o en una pausa, por ejemplo un entreacto. Los medios de carga son por ejemplo inalámbricos, lo cual permite una recarga más fácil para el espectador durante el evento.
Terminal de mando
El sistema puede comprender un terminal de mando 40.
El terminal de mando 40 es por ejemplo un ordenador.
El terminal de mando 40 puede comprender una interfaz de entrada/salida, por ejemplo una interfaz hombre/máquina, por ejemplo uno o varios accionador(es), por ejemplo un teclado, por ejemplo una interfaz táctil. La interfaz de entrada/salida comprende por ejemplo un sensor 41, por ejemplo un sensor táctil, por ejemplo por lo menos un accionador tal como un botón, por ejemplo una pluralidad de accionadores, por ejemplo un teclado. Alternativamente o como complemento, la interfaz de entrada/salida puede comprender una pantalla táctil.
El terminal de mando 40 puede comprender unos medios de almacenamiento de datos 42. Los medios de almacenamiento de datos 42 comprenden por ejemplo una memoria.
El terminal de mando 40 puede comprender unos medios de procesamiento de datos 43. Los medios de procesamiento de datos 43 comprenden por ejemplo un procesador.
El terminal de mando 40 puede estar adaptado para detectar una señal de entrada procedente de la interfaz de entrada/salida 41.
El terminal de mando 40 puede comprender unos medios de comunicación 44, por ejemplo unos medios de comunicación 44 inalámbricos o no, por ejemplo unos medios de comunicación 44 con un dispositivo de visualización 10 y/o un dispositivo de control 20 tales como los descritos anteriormente.
El terminal de mando 40 puede comprender unos medios de representación visual 45, por ejemplo una pantalla, por ejemplo una pantalla táctil. Los medios de representación visual 45 pueden formar parte de la interfaz de entrada/salida del terminal de mando 40 o estar separados de la misma. Los medios de representación visual 45 pueden ser luminosos. El terminal de mando 40 puede comprender unos medios de regulación de los parámetros de representación visual de los medios de representación visual 45 y/o los parámetros de representación visual pueden ser bloqueados en una configuración determinada.
El terminal de mando 40 puede comprender por lo menos un sensor óptico 46, por ejemplo de tipo cámara. El terminal de mando 40 puede comprender así un sensor óptico 46 adaptado para ser girado hacia un espacio escénico del evento.
El terminal de mando 40 puede comprender por lo menos un sensor sonoro 47. El sensor sonoro está dispuesto por ejemplo cerca o a nivel de un espacio escénico del evento.
Red local
El dispositivo de visualización 10 y/o el dispositivo de control 20 y/o el terminal de mando 40 pueden ser conectados a través de una red local 30 de tipo LAN, ventajosamente inalámbrica.
La red local 30 puede ser utilizada por el terminal de mando 40 (puede ser conectado por ejemplo directamente a cada equipo diferente 10, 20 a través de una conexión inalámbrica directa tal como Bluetooth) o por un equipo dedicado tal como un rúter 31 al cual están conectados por ejemplo el dispositivo de visualización 10, y/o el dispositivo de control 20, y/o el terminal de mando 40 o bien a través de la red local 30 inalámbrica (el rúter 31 puede ser por ejemplo un terminal WiFi), o bien a través de una conexión alámbrica tal como un cable Ethernet. Conjunto de contenidos visuales
Los contenidos visuales comprenden por ejemplo un texto y/o una imagen a representar visualmente.
Los contenidos visuales comprenden por ejemplo unas palabras (en uno o varios idiomas) a representar visualmente. Los contenidos visuales comprenden por ejemplo una partitura musical a representar visualmente. Los contenidos visuales comprenden por ejemplo un elemento de decorado a representar visualmente. Los contenidos visuales comprenden por ejemplo una secuencia de video, por ejemplo una secuencia de video de un actor. Los contenidos visuales comprenden por ejemplo unos elementos a representar visualmente sobre el o los
actores presentes en el momento asociado. Los contenidos visuales comprenden por ejemplo unos elementos a representar visualmente en el momento asociado, por ejemplo unos elementos de escenario o técnicos.
El conjunto de contenidos visuales puede comprender un conjunto de archivos, por ejemplo un conjunto de archivos de imagen, por ejemplo de tipo png, por ejemplo en el formato adaptado para ser representado visualmente en la pantalla 15 del dispositivo de visualización 10, por ejemplo de manera que se extiendan por toda la anchura de la pantalla 15, por ejemplo de una altura de varios píxeles, por ejemplo superior a 20 píxeles, por ejemplo superior a 50 píxeles.
Producto de programa de ordenador
Un producto de programa de ordenador comprende unas instrucciones de código para la ejecución del procedimiento descrito a continuación, así como unos medios de almacenamiento legibles por un equipo informático (en particular unos medios de almacenamiento, en particular una memoria, por ejemplo los medios de almacenamiento 12, 22 o 42) en los que se encuentra este producto de programa de ordenador.
Procedimiento
Con referencia a la figura 4, se describe un procedimiento. El procedimiento 5 es un procedimiento de visualización de datos por lo menos por un espectador, relativos a un evento. El evento comprende varios momentos sucesivos predeterminados.
Un conjunto de contenidos visuales asociados cada uno a uno de dichos momentos sucesivos está almacenado en unos medios de almacenamiento de datos del sistema 1 (en la práctica los 12 de los dispositivos de visualización 10 y/o los 22 del dispositivo de control 20 y/o los 42 del terminal de mando 40).
El procedimiento 5 comprende la realización por unos medios de procesamiento de datos del sistema 1 (en la práctica los 13 de los dispositivos de visualización 10 y/o los 23 del dispositivo de control 20 y/o los 43 del terminal de mando 40) de una pluralidad de etapas, incluidas por lo menos las definidas en la reivindicación 1.
El procedimiento se realiza por ejemplo mediante el sistema tal como el descrito anteriormente.
Determinación del momento en curso
El procedimiento comprende una etapa (a) de determinación de un momento en curso. Es posible conocer así el momento del evento que tiene lugar en un instante dado, por ejemplo con unos intervalos de tiempo determinados, por ejemplo en tiempo real.
La etapa (a) se realiza por ejemplo mediante los medios de procesamiento de datos 13 del dispositivo de visualización, y/o mediante los medios de procesamiento de datos 23 de los medios de comunicación, y/o mediante los medios de procesamiento de datos 43 del terminal de mando.
La determinación puede resultar de una medición realizada por unos medios de medición. En este caso, el procedimiento puede comprender una etapa de recepción de una señal de entrada procedente de los medios de medición. Los medios de medición comprenden por ejemplo por lo menos uno de los sensores sonoros 17, 27 y/o 47 del dispositivo de visualización, del dispositivo de control y/o del terminal de comunicación. Los medios de medición comprenden por ejemplo por lo menos uno de los sensores ópticos 16, 161, 162 y/o 46 del dispositivo de visualización y/o del terminal de mando. La determinación se puede realizar entonces en función de la señal de entrada así medida. En particular, la etapa (a) puede comprender una etapa de reconocimiento de la señal de entrada, por ejemplo por comparación con una señal de referencia. Es posible comparar así una señal sonora recibida con varias señales de referencia, asociada cada una a un momento del evento, de manera que se determine la señal de referencia más cercana a la señal sonora y se determine por lo tanto el momento asociado.
La determinación puede resultar de una entrada realizada por un operario. Una persona puede seguir en efecto el evento e indicar al sistema el momento en curso, por ejemplo proporcionando al sistema una señal de entrada característica del momento en curso, por ejemplo a través de una de las interfaces de entrada/salida 11,21 y/o 41. El operario puede proporcionar por ejemplo una señal de entrada al terminal de mando 40, por ejemplo a través de la interfaz de entrada/salida 41. La señal de entrada es por ejemplo un valor o un identificador propio del momento a identificar. Alternativamente, la señal de entrada puede ser una señal de incremento, que indica el paso al momento siguiente, en cuyo caso la determinación se realiza de manera iterativa.
Identificación de contenido
El procedimiento comprende una etapa (b) de identificación en dicho conjunto del por lo menos un contenido visual asociado al momento en curso, por ejemplo unos contenidos visuales asociados al momento en curso. Así, es posible conocer qué contenidos representar visualmente en función del momento del evento.
La etapa (b) se realiza por ejemplo mediante los medios de procesamiento de datos 13 del dispositivo de visualización, y/o mediante los medios de procesamiento de datos 23 de los medios de comunicación, y/o mediante los medios de procesamiento de datos 43 del terminal de mando.
El resultado de la etapa (a) puede ser transmitido previamente a los medios de procesamiento de datos que realizan la etapa (b).
El conjunto de contenidos visuales tiene por ejemplo una estructura de base de datos, por ejemplo en la que cada momento del evento está asociado a uno o varios contenido(s) visual(es). La etapa (b) puede comprender entonces la extracción de la base de datos del o de los contenido(s) visual(es) asociado(s) al momento determinado.
Alternativamente, el conjunto de contenidos visuales tiene por ejemplo una estructura de lista(s) ordenada(s). La determinación del momento en curso puede permitir entonces proporcionar un número del momento que identifica de manera unívoca dicho momento de entre los momentos del evento para la realización de la etapa (b). La determinación del momento puede comprender una señal de incremento, de manera que la identificación de los contenidos asociados comprenda la identificación del o de los contenido(s) siguiente(s) de cada lista con respecto al (a los) último(s) contenido(s) identificado(s). Dicha determinación comprende por ejemplo una iniciación para el primer contenido a identificar, realizada por ejemplo de manera que cuando aún no se haya identificado ningún contenido, se identifique el (los) primer(os) contenido(s) de cada lista.
El por lo menos un contenido visual comprende por ejemplo por lo menos un contenido destinado a ser leído por el espectador, por ejemplo varios de dichos contenidos, es decir unos contenidos escritos representativos del momento del evento determinado. El por lo menos un contenido visual comprende por ejemplo unos textos a representar visualmente, por ejemplo el texto pronunciado y/o las notas de las piezas musicales tocadas en el momento determinado o en el momento siguiente.
Representación visual de contenido identificado
El procedimiento comprende una etapa (c) de representación visual mediante dicha pantalla del dispositivo de visualización de dicho por lo menos un contenido visual identificado, por ejemplo de dichos contenidos visuales identificados. Debido a la representación visual en la pantalla que es transparente y llevada por el espectador, es posible así que el espectador visualice durante el evento unos elementos visuales propios del momento del evento al que está asistiendo, continuando al mismo tiempo viendo el evento en sí. Esto tiene la ventaja de permitir que el espectador no pierda la atención ni el hilo del evento al que asiste, y viva una experiencia óptima accediendo a unas informaciones que le permiten apreciar mejor el evento sin distraerse de la actuación que se realiza delante de él. Además, el espectador no tiene que mover la cabeza para ver alternativamente el contenido visual y el evento que se está representando, lo cual evita los riesgos para la salud asociados a dichos movimientos repetidos (fatiga, dolores musculares, etc.). Esto es aún más cierto cuando el espectador es particularmente sensible a dichos riesgos, por ejemplo cuando el espectador es una persona mayor. Esto presenta también la ventaja de ser discreto y de no perjudicar a los demás espectadores o incluso al evento, ya que el espectador no tiene que moverse para consultar el contenido.
La etapa (c) se realiza por ejemplo mediante los medios de procesamiento de datos 13 del dispositivo de visualización, y/o mediante los medios de procesamiento de datos 23 de los medios de comunicación, y/o mediante los medios de procesamiento de datos 43 del terminal de mando.
El resultado de la etapa (b) puede ser transmitido previamente a los medios de procesamiento de datos que realizan la etapa (c).
La figura 2 ilustra un ejemplo de una parte del campo de visión de un espectador que lleva el dispositivo de visualización 10 mientras se realiza el procedimiento. El espacio escénico 201 se ve en transparencia, mientras que la pantalla representa visualmente unos contenidos 202 y 203, por ejemplo la partitura y el texto cantado durante el momento en curso.
Realización de las etapas (a), (b) y (c) por el dispositivo de visualización
Las etapas (a), (b) y (c) pueden ser realizadas por los medios de procesamiento de datos 23 del dispositivo de visualización. En este caso, los medios de almacenamiento de datos en los que se almacena el conjunto de contenidos visuales pueden ser los medios de almacenamiento de datos del dispositivo de visualización.
Transmisión de contenido identificado al dispositivo de visualización
La etapa (a) puede ser realizada por los medios de procesamiento de datos 43 del terminal de mando.
Como se ha descrito anteriormente, es posible dejar así la determinación del momento en curso al terminal de
mando 40, controlado por ejemplo por un operario. Esto permite simplificar el funcionamiento del dispositivo de visualización 10, ya que este último no tiene que realizar la etapa (a) mientras que puede resultar relativamente complejo, sobre todo desde la posición del espectador. Además, esto permite asimismo simplificar la realización de la etapa (a) que se puede realizar desde el terminal de mando 40.
En este caso, con referencia a la figura 5, la etapa (b) puede ser realizada asimismo por los medios de procesamiento de datos 43 del terminal de mando. Los medios de almacenamiento de datos en los que se almacena el conjunto de contenidos visuales pueden ser entonces los medios de almacenamiento de datos 42 del terminal de mando.
El procedimiento puede comprender además una etapa (d) de transmisión del por lo menos un contenido identificado al dispositivo de visualización 10, por ejemplo unos contenidos identificados al dispositivo de visualización 10.
La transmisión se realiza por ejemplo mediante una comunicación inalámbrica, lo cual permite incrementar la manejabilidad del dispositivo de visualización y simplifica la realización del sistema. Además, esto permite limitar los contenidos almacenados en el dispositivo de visualización 10 y no necesita por lo tanto ninguna etapa previa de carga de contenidos asociados al evento.
La transmisión se realiza por ejemplo a través de una red local, lo cual permite realizar una comunicación en unos lugares, tales como ciertas salas de conciertos, en los que es difícil o imposible captar las redes inalámbricas exteriores. La transmisión se realiza por ejemplo a través de la red local 30.
Transmisión del momento determinado al dispositivo de visualización
Asimismo, la etapa (a) puede ser realizada por los medios de procesamiento de datos 43 del terminal de mando, con las mismas ventajas y posibilidades que las descritas anteriormente.
Con referencia a la figura 6, el procedimiento puede comprender además una etapa (e) de transmisión del momento determinado al dispositivo de visualización 10. La etapa (e) se realiza por ejemplo posteriormente a la etapa (a) y/o previamente a la etapa (b).
En este caso, la etapa (b) puede ser realizada por los medios de procesamiento de datos 13 del dispositivo de visualización, y/o el conjunto de contenidos puede ser almacenado en los medios de almacenamiento 11 del dispositivo de visualización. Así, es posible limitar la cantidad de datos intercambiados entre el terminal de mando 40 y el dispositivo de visualización 10, ya que basta con transmitir algo con que identificar el momento en curso sin necesitar transmitir todos los contenidos asociados. Además, esto permite mejorar la reactividad del sistema ya que la transmisión de datos se puede realizar de manera rápida y eficaz, estando ya presentes los datos más costosos en el dispositivo de visualización 10.
Asimismo, la transmisión se realiza por ejemplo a través de una red local, lo cual permite realizar una comunicación en unos lugares, tales como ciertas salas de conciertos, en los que es difícil o imposible captar las redes inalámbricas exteriores. La transmisión se realiza por ejemplo a través de la red local 30.
Determinación de posición relativa
Con referencia a la figura 7, el procedimiento comprende además una etapa (f) de determinación de la posición relativa por un lado, de un espacio escénico en el que se desarrolla el evento o de un elemento del espacio escénico o presente en el espacio escénico y por otro lado, del dispositivo de visualización. Es posible conocer así la posición del espacio escénico, en particular del escenario y adaptar la representación visual de la pantalla 15 en consecuencia.
Dicha etapa se repite con una frecuencia dada, por ejemplo del orden de varios Hz, por ejemplo superior a 10 Hz, por ejemplo superior a 15 Hz, por ejemplo superior a 20 Hz. Es posible seguir así la posición del espacio escénico, en particular del escenario, por ejemplo en tiempo real.
La etapa (c) se realiza de tal manera que el por lo menos un contenido visual identificado, por ejemplo los contenidos visuales identificados, se visualice(n) en la pantalla 15 en función de la posición relativa determinada. Es posible realizar así una representación visual que se desplaza en función de los movimientos del espectador.
La etapa (c) puede ser realizada de tal manera que por lo menos uno, por ejemplo varios, del por lo menos un contenido visual identificado, por ejemplo unos contenidos visuales identificados, se represente visualmente en la pantalla 15 de manera fija con respecto al escenario en el marco de referencia asociado al espectador. Así, es posible representar visualmente unos contenidos que participan de manera eficaz en la realización del evento. El por lo menos un contenido así representado visualmente comprende por ejemplo un elemento de decorado, por ejemplo unos elementos de decorados. Esto permite por ejemplo disminuir los costes asociados a los decorados
realizando por lo menos una parte de los elementos de decorado de manera virtual. Esto permite asimismo prever varios decorados posibles, pudiendo variar los decorados de una representación del evento a otra o según una elección del espectador. El espectador puede así decidir visualizar, para un mismo evento, por ejemplo una misma ópera, un decorado antiguo o futurista en función de sus gustos. El por lo menos un contenido visual así representado visualmente comprende por ejemplo una secuencia de vídeo de por lo menos un actor, por ejemplo de un cantante. Es posible realizar así unos eventos que mezclan uno o unos actores físicamente presentes en el evento con la actuación de un actor ausente, pero cuya imagen se reproduce de manera eficaz, completada eventualmente por un contenido sonoro asociado difundido por otro lado en el evento. Esto permite enriquecer por lo tanto las posibilidades de representación del evento combinando unos elementos y/o unas actuaciones reales con unos elementos y/o unas actuaciones virtuales.
El por lo menos un contenido visual así representado visualmente comprende por ejemplo uno o unos elemento(s) textual(es). Puede tratarse por ejemplo de un texto que indica el momento del evento. Alternativamente, en el caso de una pluralidad de escenarios, por ejemplo en festivales, puede ser posible identificar cada escenario mediante un texto fijo que identifica el escenario y el lugar en el que el evento tiene lugar actualmente en este escenario.
Se puede realizar la etapa (c) de tal manera que por lo menos uno, por ejemplo varios, del contenido visual identificado, por ejemplo de los contenidos visuales identificados, se representa(n) visualmente en la pantalla 15 de manera fija con respecto a la parte de escenario y/o con respecto a un actor presente en el escenario en el marco de referencia asociado al espectador. Es posible presentar así unas informaciones propias de la parte de escenario o del actor, por ejemplo el nombre del actor o del personaje interpretado por el actor o el texto hablado por el actor, de manera eficaz y fácil de seguir para el espectador.
La etapa (f) puede comprender la detección del espacio escénico a partir del sensor óptico delantero 161. La detección del espacio escénico comprende por ejemplo la detección de una zona menos oscura en un espacio globalmente más oscuro o de una zona luminosa en un espacio globalmente menos luminoso.
La detección del espacio escénico comprende por ejemplo el paso del color del flujo de vídeo procedente del sensor óptico delantero 161 a tonos de grises. La detección del espacio escénico comprende por ejemplo la aplicación de un filtro gaussiano o equivalente en un flujo de video procedente del sensor óptico delantero 161. Esto permite disminuir los efectos de ruido del sensor, por ejemplo las zonas de rebasamiento de sus umbrales de tolerancia. Esto es aún más importante cuando la calidad de la medición del sensor óptico es baja. La detección del espacio escénico comprende por ejemplo la aplicación de otro filtro para calcular un valor medio de exposición en unas zonas elementales de tamaño predeterminado, por ejemplo del orden de algunos píxeles, y después la definición de zonas contrastadas del flujo de vídeo a partir de los valores medios así calculados, por ejemplo por comparación con respecto a los valores medios de manera que se obtenga un resultado binario. Es posible detectar así el escenario que, en general en un evento, es la zona más visible. La detección del espacio escénico comprende por ejemplo la detección de un contorno de las zonas contrastadas, por ejemplo para darles una forma poligonal simple, por ejemplo que presenta un número de caras inferior o igual a diez, por ejemplo un rectángulo. La detección del espacio escénico comprende por ejemplo la transformación de las coordenadas del polígono así obtenido en el flujo de vídeo hacia unas coordenadas propias de la pantalla 15. Las coordenadas de flujo de vídeo se corrigen por ejemplo con un factor de zoom predeterminado que corresponde por ejemplo a la proporción de compresión entre el tamaño real del espacio escénico y el tamaño visible del espacio escénico a través de la pantalla 15. Esta corrección puede estar seguida por una traslación que permite recentrar la imagen con respecto a la pantalla 15. Es posible localizar así el espacio escénico tal como es visualizado por el espectador. La adquisición y/o el procesamiento de flujo de vídeo se realiza por ejemplo utilizando la biblioteca informática OpenCV u otra biblioteca del mismo tipo.
La etapa (f) puede comprender la detección del espacio escénico mediante una red GPS, por ejemplo utilizando la señal GPS natural si está disponible y/o utilizando una red GPS interna. La etapa (f) puede comprender así la determinación de una posición absoluta del espacio escénico.
La etapa (f) puede comprender la detección del espacio escénico y/o de un elemento del espacio escénico y/o de un elemento presente en el espacio escénico detectando la posición de un chip de comunicación de campo cercano, por ejemplo un chip de tipo RFID. Es posible determinar así fácilmente la posición de diferentes objetos o personas implantando uno o varios de dichos chips. La etapa (f) puede comprender además el cálculo de la distancia entre el dispositivo de visualización 10 y dicho chip, realizándose la etapa (c) de representación visual de tal manera que por lo menos un parámetro de representación visual dependa de la distancia así calculada. Por ejemplo, es posible ajustar el tamaño de la representación visual a una proporción de legibilidad predeterminada.
La figura 3A ilustra esquemáticamente una parte del campo de visión de un espectador que lleva el dispositivo de visualización 10 sin representación visual, es decir que el espectador ve únicamente el espacio escénico 301 por transparencia de la pantalla 15. La figura 3B ilustra esquemáticamente una parte del campo de visión de un espectador que lleva el dispositivo de visualización 10, en el que un elemento de decorado 302 se representa visualmente de manera que esté fijo con respecto al espacio escénico 302. la figura 3C ilustra esquemáticamente una parte del campo de visión de un espectador que lleva el dispositivo de visualización 10 en el que el espectador
ve unas informaciones 303 relativas a uno de los cantantes fijas con respecto al chip de comunicación de campo cercano que lleva el cantante.
Realización de un dispositivo de control
Con referencia a la figura 8, el procedimiento puede utilizar un dispositivo de control 20 tal como el descrito anteriormente, que comprende por ejemplo una interfaz de entrada/salida 21. Dicho dispositivo de control 20 permite que el espectador mande y/o Interactúe de manera más eficaz durante el evento, por ejemplo mande más fácilmente el dispositivo de visualización 10.
El dispositivo de control 20 está asociado por ejemplo al dispositivo de visualización 10. En el caso de una pluralidad de dispositivos de visualización 10, un dispositivo de control 20 puede estar asociado de manera única a cada dispositivo de visualización 10. Así, es más fácil realizar unos binomios de dispositivo de visualización 10 y de dispositivo de control 20.
El dispositivo de control 20 está por ejemplo en comunicación con el dispositivo de visualización 10 asociado.
La comunicación es por ejemplo inalámbrica, lo cual permite incrementar la manejabilidad del dispositivo de visualización 10 y del dispositivo de control 20 y simplifica la realización del sistema. La transmisión se realiza por ejemplo a través de una red local, lo cual permite realizar una comunicación en unos lugares, tales como ciertas salas de conciertos, en las que es difícil o imposible captar las redes inalámbricas exteriores. La transmisión se realiza por ejemplo a través de la red local 30.
Asociación del dispositivo de visualización y del dispositivo de control
El procedimiento puede comprender una etapa de asociación del dispositivo de visualización 10 y del dispositivo de control 20.
La asociación comprende por ejemplo la lectura de un marcador de comunicación de campo cercano del dispositivo de visualización 10 por un lector. La asociación puede comprender, en respuesta a la lectura, la identificación del dispositivo de visualización 10 mediante un identificador, siendo esta identificación realizada por ejemplo por la red local 30.
La asociación comprende por ejemplo una etapa de detección de un dispositivo de control 20 todavía no asociado, y su asociación al dispositivo de visualización 10, por ejemplo mediante la red local 30. La asociación comprende por ejemplo la asociación del identificador del dispositivo de visualización 10 con un identificador del dispositivo de control 20, comprendiendo el identificador del dispositivo de control 20 por ejemplo una dirección del dispositivo de control 20, por ejemplo su dirección MAC.
Selección de por lo menos un tipo de contenido a representar visualmente
El procedimiento puede comprender una etapa (g) de detección de una señal de entrada procedente de una interfaz de comunicación del dispositivo de control y/o del dispositivo de visualización. La interfaz de comunicación comprende por ejemplo la interfaz de entrada/salida 11 y/o 21. Así, es posible tener en cuenta una instrucción del espectador.
El procedimiento puede comprender además por lo menos una etapa (h) de selección de por lo menos un tipo de contenido a representar visualmente de entre una lista de tipos de contenidos posibles en función de la señal de entrada detectada, por ejemplo varios tipos de contenidos a representar visualmente. El espectador puede así elegir los contenidos que le interesan. Los diferentes tipos de contenidos comprenden por ejemplo unos textos en diferentes idiomas y/o unos elementos legibles que corresponden a las actuaciones de diferentes actores.
La etapa (h) puede ser realizada de manera que el por lo menos un contenido visual, por ejemplo los contenidos visuales, identificado(s) en la etapa (b) y/o representado(s) visualmente en la etapa (c), es un contenido del por lo menos un tipo seleccionado, por ejemplo de los tipos seleccionados, de entre todos los contenidos visuales asociados al momento determinado. Por lo tanto, las posibilidades de representación visual pueden ser importantes sin perjudicar por ello la visibilidad del evento, seleccionando el espectador el contenido que es pertinente para él, por ejemplo el texto en el idioma original y el traducido a su lengua materna. En particular, es posible almacenar una gran cantidad de traducciones y de contenidos que permiten una mejor comprensión del evento, por ejemplo en los medios de almacenamiento de datos 21 del dispositivo de visualización, pudiendo el espectador elegir el o los que desea representar visualmente en su campo de visión.
La etapa (h) puede comprender la determinación del exceso del número de tipos a representar visualmente simultáneamente con respecto a un tamaño máximo, y la emisión de un mensaje de error en caso de exceso, siendo por ejemplo el mensaje de error representado visualmente por el dispositivo de control 20 y/o por el dispositivo de visualización 10. Es posible gestionar así el número de tipos de contenidos a representar
visualmente. La determinación del exceso puede comprender la determinación de un valor de un contador de tamaño, siendo el valor comparado con un valor de tamaño máximo. El tamaño máximo se puede definir como un número de tipo máximo a representar visualmente, en cuyo caso se determina el valor del contador como el número de tipos solicitados por el espectador. Alternativamente, el tamaño máximo y el contador pueden tener en cuenta el lugar relativo de los tipos a representar visualmente con respecto a la parte superior de la pantalla. Es posible así definir una norma de comodidad para el espectador.
La etapa (h) puede comprender una etapa de distribución de los tipos de representación visual en la pantalla 15. Así, es posible optimizar la comodidad del usuario.
Alternativamente o como complemento, la etapa (h) puede comprender la selección de por lo menos una zona de representación visual para un tipo de contenido a representar visualmente de entre una lista de zonas posibles en función de la señal de entrada detectada. El espectador puede elegir así la zona de la pantalla 15 a nivel de la cual desea que se represente visualmente el contenido.
Determinación de contenido a compartir
Con referencia a la figura 9, el procedimiento puede utilizar un dispositivo de control 20 tal como el descrito anteriormente, que comprende por ejemplo una interfaz de entrada/salida 21.
El procedimiento puede comprender una etapa (g) de detección de una señal de entrada procedente de una interfaz de comunicación del dispositivo de control y/o del dispositivo de visualización. La interfaz de comunicación comprende por ejemplo la interfaz de entrada/salida 11 y/o 21. Es posible tener en cuenta así una instrucción del espectador.
El procedimiento puede comprender una etapa (i) de determinación de por lo menos un contenido a compartir en función de la señal de entrada detectada, por ejemplo de varios contenidos a compartir en función de la señal de entrada detectada. Así, es posible que el espectador comparta un contenido durante el evento, mediante unos medios fijados por el organizador del evento de manera que no altere el evento, por ejemplo eligiendo un dispositivo de control y fijando los parámetros de representación visual asociados de manera que provoque poca contaminación luminosa y/o poca contaminación sonora.
Además, las modalidades de composición del contenido a compartir se pueden fijar de manera que se predetermine la composición del contenido.
La etapa (i) puede comprender asimismo la transmisión de los contenidos a compartir a una red remota tal como Internet, por ejemplo por medio de la red local. Por ejemplo, el rúter 31 puede ser un equipo de acceso a Internet del tipo "box".
Es posible así realizar una comunicación, en particular a través de los sitios de Internet que permiten compartir informaciones tales como redes sociales, en lugares que no permiten una conexión de este tipo, o bien porque el lugar donde se desarrolla el evento no permite captar ninguna red exterior, o bien porque la utilización de los dispositivos de comunicación personales, por ejemplo el teléfono móvil del espectador, está prohibida.
La etapa (i) comprende así compartir en una red social de los contenidos a compartir. El intercambio se realiza por ejemplo por una cuenta específica de la red social común a varios dispositivos de control y/o dispositivos de visualización, por ejemplo a todos los dispositivos de control y/o dispositivos de visualización activados como se describe a continuación. Alternativamente o como complemento, el intercambio se realiza por ejemplo por una cuenta específica de la red social propia del dispositivo de control y/o del dispositivo de visualización, correspondiente por ejemplo a los datos de identificación y/o de autentificación proporcionados en la etapa de activación descrita a continuación.
El contenido a compartir puede comprender unos datos relativos al evento, por ejemplo un nombre del evento. El contenido a compartir puede comprender unos datos relativos a el momento identificado y/o el tipo de contenido a compartir seleccionado por ejemplo el contenido a compartir correspondiente al momento identificado, por ejemplo una partitura y/o letra, por ejemplo el nombre del compositor, por ejemplo un nombre de escenario o de fragmento.
Selección de por lo menos un mando a realizar
El procedimiento puede comprender una etapa (j) de detección de una señal de entrada procedente de una interfaz de comunicación del dispositivo de control y/o del dispositivo de visualización. La interfaz de comunicación comprende por ejemplo la interfaz de entrada/salida 11 y/o 21. Así, es posible tener en cuenta una instrucción del espectador relativa a un objeto a solicitar. El objeto a solicitar es por ejemplo un objeto a la venta por este medio, por ejemplo comida, por ejemplo una bebida, por ejemplo un libro.
El procedimiento puede comprender además por lo menos una etapa (k) de selección de por lo menos un objeto
a solicitar de entre una lista de objetos posibles en función de la señal de entrada detectada, por ejemplo varios alimentos. El espectador puede así elegir los objetos que le interesan.
La etapa (k) puede comprender asimismo la transmisión del objeto a solicitar a una red remota tal como Internet, por ejemplo por medio de la red local. Por ejemplo, el rúter 31 puede ser un equipo de acceso a Internet de tipo "box".
Es posible realizar así una comunicación, en particular a través de unos sitios de Internet que permiten compartir informaciones, tales como las redes sociales, en unos lugares que no permiten una conexión de este tipo, o bien porque el lugar donde se desarrolla el evento no permite captar la red exterior, o bien porque la utilización de los dispositivos de comunicación personales, por ejemplo el teléfono móvil del espectador, está prohibida. De esta manera, es posible solicitar unos objetos durante el evento y buscarlos o recibirlos durante o después del evento, por ejemplo durante un entreacto o al final del espectáculo. En efecto, los pedidos se tienen en cuenta así en cuanto son emitidos y los artículos o servicios solicitados pueden estar disponibles en el entreacto. De ello resulta una logística más fácil de realizar. El intercambio se realiza por ejemplo en una cuenta de una red social por ejemplo Twitter, que dispone de un acceso limitado de manera que se limite la transmisión de información a unas personas que participan en la realización o en la organización del evento.
Activación del dispositivo de visualización y/o del dispositivo de control
El procedimiento puede comprender una etapa de activación del dispositivo de visualización 10 y del dispositivo de control 20.
La etapa de activación se realiza por ejemplo al mismo tiempo que la etapa de asociación del dispositivo de visualización 10 y del dispositivo de control 20.
La etapa de activación comprende por ejemplo la lectura de un marcador de comunicación de campo cercano del dispositivo de visualización 10 por un lector. El lector está asociado por ejemplo y/o se comunica y/o comprende y/o está y/o forma unos medios de representación visual de datos de activación y/o de entrada de datos de activación. Los medios de visualización de datos y/o de entrada de datos, pueden ser o comprender un terminal y/o un botón y/o un sensor táctil y/o una tableta, por ejemplo una tableta táctil.
La etapa de activación comprende, por ejemplo al mismo tiempo o tras la lectura, una validación por entrada a nivel de los medios de representación visual de datos de activación y/o de entrada de datos de activación. La validación se realiza por ejemplo al mismo tiempo y/o tras una representación visual de condiciones de validación, que comprende por ejemplo la representación visual de condiciones generales de venta. La validación puede comprender la entrada de datos de identificación y/o de autentificación, por ejemplo de identificación en una o varias redes sociales, siendo por ejemplo estos datos de identificación y/o de autentificación transmitidos a continuación y/o asociados al dispositivo de visualización 10 y/o al dispositivo de control 20. Los datos de identificación y/o de autentificación se almacenan por ejemplo en una memoria.
El procedimiento puede comprender una etapa de desactivación del dispositivo de visualización 10 y del dispositivo de control 20.
La etapa de desactivación comprende por ejemplo la lectura de un marcador de comunicación de campo cercano del dispositivo de visualización 10 por un lector. El lector está por ejemplo asociado y/o se comunica y/o comprende y/o está y/o forma unos medios de representación visual de datos de activación y/o de entrada de datos de activación. Los medios de visualización de datos y/o de entrada de datos pueden ser o comprender un terminal y/o un botón y/o un sensor táctil y/o una tableta, por ejemplo una tableta táctil.
La etapa de desactivación comprende, por ejemplo al mismo tiempo o tras la lectura, el borrado total o parcial de los datos de identificación y/o de autentificación, por ejemplo de identificación en una o varias redes sociales almacenadas.
Representación visual del dispositivo de control
El dispositivo de control y/u otro dispositivo portátil, por ejemplo un teléfono móvil, está configurado por ejemplo para permitir la representación visual de datos, por ejemplo en el mismo momento o en respuesta a las mismas acciones. El dispositivo de control y/u otro dispositivo portátil puede representar visualmente por ejemplo los contenidos visuales, por ejemplo los contenidos identificados.
Así, alternativamente o como complemento de la etapa (c) ya descrita, la etapa (c) puede comprender la representación visual mediante el dispositivo de control y/u otro dispositivo portátil de dicho por lo menos un contenido visual identificado.
Claims (16)
1. Procedimiento de visualización de datos relativos a un evento por lo menos por un espectador que lleva un dispositivo de visualización (10) equipado con una pantalla (15) por lo menos parcialmente transparente, comprendiendo el evento varios momentos sucesivos predeterminados, estando un conjunto de contenidos visuales asociado cada uno a uno de dichos momentos sucesivos almacenado en unos medios de almacenamiento de datos (12, 22, 42), comprendiendo el procedimiento la realización mediante unos medios de procesamiento de datos (13, 23, 43) de las etapas siguientes:
(a) determinación de un momento en curso,
(b) identificación en dicho conjunto del por lo menos un contenido visual asociado al momento en curso, (c) representación visual mediante dicha pantalla (15) del dispositivo de visualización de dicho por lo menos un contenido visual identificado,
estando el procedimiento caracterizado por que comprende además la etapa siguiente:
(f) determinación de la posición relativa por un lado, de un espacio escénico (201, 301) en el que se desarrolla el evento o de un elemento del espacio escénico y por otro lado, del dispositivo de visualización (10), siendo la etapa (f) repetida con una frecuencia determinada,
siendo la etapa (c) realizada de tal manera que el por lo menos un contenido identificado sea representado visualmente desplazándose en la pantalla (15) en función de la posición relativa determinada.
2. Procedimiento según la reivindicación 1, en el que los medios de procesamiento de datos son unos medios de procesamiento de datos (13) del dispositivo de visualización (10) y los medios de almacenamiento de datos son unos medios de almacenamiento de datos (12) del dispositivo de visualización (10).
3. Procedimiento según la reivindicación 1, en el que la etapa (a) se realiza mediante unos medios de procesamiento de datos (43) de un terminal de mando (40).
4. Procedimiento según la reivindicación 3, en el que la etapa (b) se realiza mediante los medios de procesamiento de datos (43) del terminal de mando, siendo los medios de almacenamiento de datos unos medios de almacenamiento de datos (42) del terminal de mando, comprendiendo además el procedimiento la etapa siguiente: (d) transmisión del por lo menos un contenido visual identificado al dispositivo de visualización (10), siendo la transmisión realizada mediante una comunicación inalámbrica, siendo la transmisión realizada a través de una red local.
5. Procedimiento según la reivindicación 3, en el que el procedimiento comprende además la etapa siguiente: (e) transmisión del momento determinado al dispositivo de visualización (10), siendo la etapa (b) realizada mediante unos medios de procesamiento de datos (13) del dispositivo de visualización, siendo los medios de almacenamiento de datos unos medios de almacenamiento de datos (12) del dispositivo de visualización.
6. Procedimiento según una de las reivindicaciones anteriores, en el que el por lo menos un contenido visual identificado comprende una partitura de música a representar visualmente y/o un elemento de decorado a representar visualmente.
7. Procedimiento según una de las reivindicaciones anteriores, en el que dicha frecuencia dada es del orden de varios Hz, por ejemplo superior a 10 Hz, por ejemplo superior a 15 Hz, por ejemplo superior a 20 Hz.
8. Procedimiento según una de las reivindicaciones anteriores, en el que un dispositivo de control (20) que comprende una interfaz de entrada/salida (21) está asociado a cada dispositivo de visualización (10), estando el dispositivo de control en comunicación con el dispositivo de visualización, y en el que:
- el procedimiento comprende la etapa siguiente:
(g) detección de una señal de entrada procedente de la interfaz de entrada/salida,
- comprendiendo además el procedimiento por lo menos la etapa siguiente:
(h) selección de por lo menos un tipo de contenido a representar visualmente de entre una lista de tipos de contenidos posibles en función de la señal de entrada detectada de manera que el por lo menos un
contenido visual identificado en la etapa (b) y/o representado visualmente en la etapa (c) sea un contenido del por lo menos un tipo seleccionado de entre el por lo menos un contenido visual asociado al momento determinado, y/o
(i) determinación de por lo menos un contenido a compartir en función de la señal de entrada detectada y transmisión del por lo menos un contenido a compartir a una red remota por medio de una red local.
9. Procedimiento según la reivindicación 8, que comprende una etapa (j) de detección de una señal de entrada procedente de una interfaz de comunicación del dispositivo de control y/o del dispositivo de visualización, comprendiendo además el procedimiento una etapa (k) de selección de por lo menos un objeto a solicitar, por ejemplo un objeto a la venta, de entre una lista de objetos posibles en función de la señal de entrada detectada, comprendiendo la etapa (k) la transmisión del pedido del objeto a una red remota, por ejemplo a través de la red local.
10. Procedimiento según la reivindicación 8, que comprende una etapa de activación del dispositivo de visualización (10) y del dispositivo de control (20), realizada al mismo tiempo que la etapa de asociación del dispositivo de visualización (10) y del dispositivo de control (20), comprendiendo la etapa de activación la lectura de un marcador de comunicación de campo cercano del dispositivo de visualización (10) por un lector, estando el lector asociado y/o comunicándose y/o comprendiendo y/o siendo y/o formando unos medios de representación visual de datos de activación y/o de entrada de datos de activación, comprendiendo la etapa de activación, al mismo tiempo o tras la lectura, una validación por entrada a nivel de los medios de representación visual de datos de activación y/o de entrada de datos de activación, realizada al mismo tiempo y/o tras una representación visual de condiciones de validación, comprendiendo la validación la entrada de datos de identificación y/o de autentificación, siendo los datos de identificación y/o de autentificación transmitidos a continuación y/o asociados al dispositivo de visualización (10) y/o al dispositivo de control (20).
11. Procedimiento según la reivindicación 10, que comprende una etapa de desactivación del dispositivo de visualización (10) y del dispositivo de control (20), comprendiendo la etapa de desactivación la lectura de un marcador de comunicación de campo cercano del dispositivo de visualización (10) por dicho lector, comprendiendo la etapa de desactivación, al mismo tiempo o tras la lectura, el borrado total o parcial de los datos de identificación y/o de autentificación.
12. Procedimiento según una de las reivindicaciones 8 a 11, en el que la etapa (c) comprende la representación visual mediante el dispositivo de control y/u otro dispositivo portátil de dicho por lo menos un contenido visual identificado.
13. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que el procedimiento comprende una etapa de recepción de una señal de entrada procedente de los medios de medición, comprendiendo los medios de medición por lo menos un sensor sonoro (17, 27, 47), y/o comprendiendo los medios de medición por lo menos un sensor óptico (16, 161, 162, 46), siendo la determinación realizada en función de la señal de entrada así medida, comprendiendo la etapa de determinación una etapa de reconocimiento de la señal de entrada, por ejemplo por comparación con una señal de referencia.
14. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que el por lo menos un contenido visual comprende unas notas de música tocadas en el momento determinado o en el momento siguiente.
15. Sistema de visualización de datos relativos a un evento por lo menos por un espectador, estando el sistema configurado para realizar el procedimiento según una de las reivindicaciones 1 a 12.
16. Medios de almacenamiento legibles por un equipo informático en los que un producto de programa de ordenador comprende unas instrucciones de código para la ejecución de un procedimiento según una de las reivindicaciones 1 a 12.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1558693A FR3041122B1 (fr) | 2015-09-16 | 2015-09-16 | Procede de visualisation de donnees relatives a un evenement et systeme associe |
PCT/EP2016/072008 WO2017046348A1 (fr) | 2015-09-16 | 2016-09-16 | Procédé de visualisation de données relatives à un événement et système associé |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2903439T3 true ES2903439T3 (es) | 2022-04-01 |
Family
ID=55299569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16769958T Active ES2903439T3 (es) | 2015-09-16 | 2016-09-16 | Procedimiento de visualización de datos relativos a un evento y sistema asociado |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3351007B1 (es) |
ES (1) | ES2903439T3 (es) |
FR (1) | FR3041122B1 (es) |
WO (1) | WO2017046348A1 (es) |
ZA (1) | ZA201802463B (es) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011053468A (ja) * | 2009-09-02 | 2011-03-17 | Sony Corp | 映像/文字同時表示装置及び頭部装着型ディスプレイ |
JP5499854B2 (ja) * | 2010-04-08 | 2014-05-21 | ソニー株式会社 | 頭部装着型ディスプレイにおける光学的位置調整方法 |
-
2015
- 2015-09-16 FR FR1558693A patent/FR3041122B1/fr active Active
-
2016
- 2016-09-16 WO PCT/EP2016/072008 patent/WO2017046348A1/fr active Application Filing
- 2016-09-16 ES ES16769958T patent/ES2903439T3/es active Active
- 2016-09-16 EP EP16769958.6A patent/EP3351007B1/fr active Active
-
2018
- 2018-04-13 ZA ZA2018/02463A patent/ZA201802463B/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3351007A1 (fr) | 2018-07-25 |
ZA201802463B (en) | 2018-12-19 |
FR3041122B1 (fr) | 2022-01-21 |
EP3351007B1 (fr) | 2021-10-27 |
WO2017046348A1 (fr) | 2017-03-23 |
FR3041122A1 (fr) | 2017-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11043031B2 (en) | Content display property management | |
US11262590B2 (en) | Video generation method and apparatus | |
JP7036879B2 (ja) | 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 | |
CN105190485B (zh) | 混合现实交互 | |
CN104956252B (zh) | 用于近眼显示设备的外围显示器 | |
US10019962B2 (en) | Context adaptive user interface for augmented reality display | |
US10313481B2 (en) | Information processing method and system for executing the information method | |
CN109416842A (zh) | 在虚拟现实和增强现实中的几何匹配 | |
US10713834B2 (en) | information processing apparatus and method | |
CN103076875A (zh) | 具有全息对象的个人音频/视频系统 | |
US20180373414A1 (en) | Method for communicating via virtual space, program for executing the method on computer, and information processing apparatus for executing the program | |
US11386529B2 (en) | Virtual, augmented, and mixed reality systems and methods | |
US20210337176A1 (en) | Blended mode three dimensional display systems and methods | |
US20210082196A1 (en) | Method and device for presenting an audio and synthesized reality experience | |
ES2903439T3 (es) | Procedimiento de visualización de datos relativos a un evento y sistema asociado | |
JP6875029B1 (ja) | 方法、プログラム、情報処理装置 | |
EP4070153A1 (en) | Virtual, augmented, and mixed reality systems and methods | |
NZ738277B2 (en) | Technique for more efficiently displaying text in virtual image generation system |